Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Modélisation de panache gaussien.

Thèses sur le sujet « Modélisation de panache gaussien »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 43 meilleures thèses pour votre recherche sur le sujet « Modélisation de panache gaussien ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Briant, Régis. « Modélisation multi échelles de l'impact du trafic routier sur la qualité de l'air ». Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1115/document.

Texte intégral
Résumé :
Le trafic routier contribue à la pollution atmosphérique aussi bien à proximité des voies avec des polluants tels que le dioxyde d'azote (NO2), les particules (PM) et certains composés organiques volatils (COV) qu'à des échelles spatiales plus grandes (pollution de fond urbaine et régionale) avec des polluants formés dans l'atmosphère tels que l'ozone (O3) et la fraction secondaire des particules. Étant donné les interactions entre pollution de proximité et pollution de fond, il est souhaitable de combiner en un seul outil de calcul des modèles à échelles locale et régionale. Cette méthode de modélisation multi-échelles a été largement utilisée pour simuler l'impact des émissions de cheminées (sources ponctuelles) avec des modèles de panache traités en sous-maille d'un modèle eulérien tri-dimensionnel. Cependant, une telle méthode n'est pas applicable à un réseau routier en raison des temps de calcul prohibitifs associés à la discrétisation d'une source linéique en un ensemble de sources ponctuelles. Par conséquent, une nouvelle méthode de modélisation multi-échelles a été développée, qui traite les panaches émis par des sources linéiques en sous-maille d'un modèle eulérien. Tout d'abord, une formulation améliorée d'un modèle gaussien de panache linéique a été développée. Ce nouveau modèle à ensuite fait l'objet d'une évaluation détaillée avec des mesures en proximité de routes ainsi qu'avec d'autres modèles gaussiens. La combinaison de ce modèle gaussien et d'un modèle eulérien (Polair3D) a été implémentée dans la plate-forme de modélisation Polyphemus. Les performances (temps de calcul et précision) du nouveau modèle de panache en sous-maille ont été évaluées et comparées aux performances des modèles gaussien et eulérien seuls. Ce modèle multi-échelles traite la chimie des oxydes d'azote (NOx) et des principaux COV. Le traitement multi-échelles a un effet important sur les concentrations de certains polluants en termes de pollutions de proximité et de fond urbain
Roadway traffic contributes to atmospheric pollution near roads, with pollutants such as nitrogen dioxide (NO2), particles (PM) along with some volatile organic compounds (VOC), as well as at larger spatial scales (urban and regional background pollution) with pollutants formed in the atmosphere such as ozone (O3) and the secondary fraction of PM. Because of interactions between local and background pollutants, it is desirable to combine into a single computational tool, regional and local scale models. This multi-scale modeling method has been widely used to simulate the impact of chimney emissions (point sources) with a sub-grid treatment of plume or puff models instead within a 3-dimensional Eulerian model. However, such a method is not applicable to a road network because of the prohibitive computations associated with the line source discretization into a set of point sources. Thus, a new multi-scale modeling method was developed, which treats the plumes emitted from line sources as sub-grid components of an Eulerian model. First, an improved formulation of a Gaussian plume model for line sources was developed. This new model was then subject to a detailed evaluation with near roadway measurements along with other Gaussian models. The incorporation of the Gaussian plume model into an Eulerian model (Polair3D) was implemented as part of the modeling platform Polyphemus. The performance (computational effectiveness and precision) of the new multi-scale model (Plume-in-Grid) was evaluated and compared to those of a stand-alone Gaussian and Eulerian models. The multi-scale model treats nitrogen oxide (NOx) chemistry along with major VOC. The multi-scale treatment has an important effect on the concentration of some pollutants in terms of local and urban background pollution
Styles APA, Harvard, Vancouver, ISO, etc.
2

Zidane, Shems. « Caractérisation, modélisation et validation du transfert radiatif d'atmosphères non standard : impact sur les corrections atmosphériques d'images de télédétection ». Thèse, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6486.

Texte intégral
Résumé :
Cette étude est basée sur des données multi-altitudes aéroportées acquises en juillet 2004 lors d'un événement atmosphérique inhabituel dans la région de Saint-Jean-sur-Richelieu. Nous entendons en cela une atmosphère dont la distribution des aérosols ne respecte pas les variations habituellement implémentée dans les codes de transfert radiatifs. Les surfaces au sol imagées pendant cette campagne de terrain couvraient une variété spectrale assez diversifiée, à savoir des surfaces agricoles, des plans d'eau et des zones urbaines et forestières. L'aspect multi-altitude de cette acquisition de données a permis de caractériser les mêmes cibles au sol avec des contributions de l'atmosphère variant en fonction de l'altitude considérée afin de caractériser au mieux la perturbation observée durant cette campagne et de permettre une meilleure caractérisation de la perturbation apportée par une variation non-standard (panache de fumée). La transformation de la luminance apparente aux trois altitudes en réflectance apparente et l'implémentation de la perturbation apportée par le panache de fumée dans un modèle classique a permis une correction atmosphérique appliquée aux deux altitudes les plus hautes. Les résultats ont démontré une cohérence avec les réflectances apparentes de validation qui confirmait la véracité de notre modélisation du cas non-standard. Ces résultats ont d'autant plus étés pertinent [i.e. pertinents] pour la plus haute altitude de 3,17km : la réflectance apparente à cette altitude est au dessus de la majeur [i.e. majeure] partie du panache de fumée et intègre une bonne proportion de la perturbation apportée par ce panache, ce qui représente un test probant de notre capacité à corriger adéquatement l'influence de cette perturbation. Les perturbations atmosphériques standard sont évidemment prises en compte dans la majorité des modèles atmosphériques, mais ceux-ci sont souvent basés sur des variations monotones des caractéristiques physiques de l'atmosphère avec l'altitude. Lorsque la radiation atmosphérique est perturbée, par un panache de fumée ou un événement de pollution atmosphérique local et non standard, cela nécessite une modélisation et une modification adéquate des modèles existants en fonction des paramètres que l'on pourra obtenir sur ladite perturbation. Les intrants principaux de cette étude étaient ceux normalement utilisés lors d'une correction atmosphérique classique à savoir les luminances apparentes mesurées par un imageur aéroporté mais à trois altitudes différentes et l'épaisseur optique des aérosols (AOD) qui était acquise depuis le sol. La méthodologie que nous avons employé [i.e. employée] utilise aussi un code de transfert radiatif (CAM5S, pour Canadian Modified 5S, qui vient directement du code de transfert radiatif 5S dans le visible et proche infrarouge). Cependant il nous faudra aussi avoir recours à d'autres paramètres et données afin de modéliser correctement la situation atmosphérique particulière présente sur les images multi-altitude acquises pendant la campagne de terrain à Saint-Jean-sur-Richelieu. Nous avons alors élaboré un protocole de modélisation de perturbation atmosphérique non standard où une gamme de données auxiliaires disponibles est venue compléter nos données principales. Cela a permis l'élaboration d'une méthodologie robuste et relativement simple adaptée à notre problématique. Ces données auxiliaires, à savoir des données météorologiques, des profils LEDAR, différentes images satellites et des données de photomètres solaires qui ont permis la détermination de la fonction de phase des aérosols, ont été suffisantes pour établir une modélisation adéquate du panache de fumée observé en terme de distribution verticale non monotone des paramètres physiques relevés lors de cette campagne. Cette distribution non-standard à été par la suite interprétée en terme de profil spécifique de l'AOD qui a remplacé les profils des AOD employés dans le modèle de correction atmosphérique CAM5S. En fonction de cette modélisation, nous montrons que l'erreur entre les réflectances apparentes au sol obtenu [i.e. obtenue] par le processus de correction atmosphérique et les réflectances apparentes au sol provenant du processus de validation dR*(0), moyenné quadratiquement à travers les bandes visibles, reste majoritairement dans une gamme inférieure à 0,01 d'erreur quadratique moyenne des R*(0) après avoir modélisé la perturbation non-standard, ce qui permet une estimation plus acceptable des réflectances multi-altitude et du biais existant entre la prise en compte et la non prise en compte de cette perturbation dans le modèle atmosphérique. D'importants écarts ont néanmoins été observés, majoritairement attribuables à la difficulté apportée par les conditions d'acquisition, les grandes disparités observées entre l'échantillonnage des mêmes surfaces aux trois altitudes, et probablement des erreurs de modélisation et/ou de calibration. La nécessité d'améliorer le processus d'acquisition, de modélisation et de prévision de telle perturbation est largement décrit dans ce document afin de permettre à l'avenir d'établir un protocole d'acquisition plus adapté grâce notamment à une surveillance et un suivi des perturbations atmosphériques maintenant possible grâce aux outils décrits. L'originalité de cette étude réside dans une nouvelle approche de la caractérisation de ces perturbations atmosphériques par l'incorporation d'une structure non standard dans un modèle de correction atmosphérique opérationnel et de démontrer que cette approche présente des améliorations significatives des résultats par rapport à une approche qui ignore la perturbation du profil vertical standard tout en utilisant des valeurs d'AOD totaux correctement mesurés. Le modèle de profil que nous avons employé était simple et robuste, mais a capturé suffisamment de caractéristiques du panache pour réaliser des améliorations significatives en termes de précision de correction atmosphérique. Le processus global d'aborder tous les problèmes rencontrés dans l'analyse de notre perturbation des aérosols nous a aidé à construire une méthodologie appropriée pour caractériser ces événements sur la base de la disponibilité des données, distribué gratuitement et accessibles à la communauté scientifique. Cela rend cette étude adaptable et exportable à d'autres problématiques du même genre.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Korsakissok, Irène. « Changements d'échelle en modélisation de la qualité de l'air et estimation des incertitudes associées ». Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00596384.

Texte intégral
Résumé :
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. En particulier, les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles, deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. Couplage de modèles L'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée est très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous-maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs passifs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. Réduction d'échelle statistique Une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée "composantes principales ajustées". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain).
Styles APA, Harvard, Vancouver, ISO, etc.
4

Briant, Régis, et Régis Briant. « Modélisation multi échelles de l'impact du trafic routier sur la qualité de l'air ». Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00765205.

Texte intégral
Résumé :
Le trafic routier contribue à la pollution atmosphérique aussi bien à proximité des voies avec des polluants tels que le dioxyde d'azote (NO2), les particules (PM) et certains composés organiques volatils (COV) qu'à des échelles spatiales plus grandes (pollution de fond urbaine et régionale) avec des polluants formés dans l'atmosphère tels que l'ozone (O3) et la fraction secondaire des particules. Étant donné les interactions entre pollution de proximité et pollution de fond, il est souhaitable de combiner en un seul outil de calcul des modèles à échelles locale et régionale. Cette méthode de modélisation multi-échelles a été largement utilisée pour simuler l'impact des émissions de cheminées (sources ponctuelles) avec des modèles de panache traités en sous-maille d'un modèle eulérien tri-dimensionnel. Cependant, une telle méthode n'est pas applicable à un réseau routier en raison des temps de calcul prohibitifs associés à la discrétisation d'une source linéique en un ensemble de sources ponctuelles. Par conséquent, une nouvelle méthode de modélisation multi-échelles a été développée, qui traite les panaches émis par des sources linéiques en sous-maille d'un modèle eulérien. Tout d'abord, une formulation améliorée d'un modèle gaussien de panache linéique a été développée. Ce nouveau modèle à ensuite fait l'objet d'une évaluation détaillée avec des mesures en proximité de routes ainsi qu'avec d'autres modèles gaussiens. La combinaison de ce modèle gaussien et d'un modèle eulérien (Polair3D) a été implémentée dans la plate-forme de modélisation Polyphemus. Les performances (temps de calcul et précision) du nouveau modèle de panache en sous-maille ont été évaluées et comparées aux performances des modèles gaussien et eulérien seuls. Ce modèle multi-échelles traite la chimie des oxydes d'azote (NOx) et des principaux COV. Le traitement multi-échelles a un effet important sur les concentrations de certains polluants en termes de pollutions de proximité et de fond urbain
Styles APA, Harvard, Vancouver, ISO, etc.
5

Bourdin-Korsakissok, Irène. « Changements d'échelles en modélisation de la qualité de l'air et estimation des incertitudes associées ». Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00584389.

Texte intégral
Résumé :
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. Les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles , deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. (1) Couplage de modèles : l'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. (2) Réduction d'échelle statistique : une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée " composantes principales ajustées ". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain)
Styles APA, Harvard, Vancouver, ISO, etc.
6

Durand, Nathalie. « Modélisation numérique tridimensionnelle du panache de l'Ebre ». Toulon, 2000. http://www.theses.fr/2000TOUL0017.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Reffray, Guillaume. « Modélisation du panache du Rhône et de sa région d'influence ». Toulon, 2004. http://www.theses.fr/2004TOUL0006.

Texte intégral
Résumé :
Ce travail de thèse en océanograpie côtière concerne l'étude hydrodynamique de la région influencée par le rejet du Rhône dans le Golfe du Lion sous l'effet de vents forts (Mistral, Tramontane, Sud Est) et s'inscrit dans le cadre des programmes Apports du Rhône dans le Golfe du Lion (ARGOL) du Programme ATmosphère Océan Multi-échelles (PATOM) et le chantier Golfe du Lion du Programme National Environnement Côtier (PNEC). Les eaux douces du Rhône se déversent sur le plateau continental bordé par un talus guidant le courant traversier Liguro- provençal Catalan (LPC), composante dominante de la circulation de bassin dans cette région microtidale. L'objectif en est une expérience d'analyse de la circulation sub mésoéchelle complexe, tridimensionnelle et fortement instationnaire en milieu côtier. La zone d'étude est caractérisée par l'interaction dominante entre une circulation barocline de panache induite par un rejet fluvial et un upwelling côtier. Une version emboîtée du modèle mésoéchelle aux équations primitives SYMPHONIE du Laboratoire d'Aérologie de Toulouse et forcé par le modèle atmosphérique ALADIN a été développée en introduisant un schéma de capture des fronts du panache et un modèle de turbulence sous maille prenant en compte la forte stratification verticale. Les résultats numériques obtenus suivant cette stratégie de modélisation montrent des résultats cohérents avec les observations de terrain et satellitales. La cinématique du panache et les échelles spatiales sont onvenablement reproduites. De plus, les structures secondaires observées de l'ordre du rayon de déformation interne de Rossby sont analysées en utilisant une méthode de séparation des facteurs, montrant qu'elles sont générées par l'interaction non linéaire entre la circulation barocline de panache et la circulation de plateau
This rearch work in Coastal Oceanography deals with the Region of Freshwater Influence of the Rhône river in the Gulf of Lions under the effect of strong winds (Mistral, Tramontane, Southeastern) and is performed in the framework of french national programmes "Apports du Rhône dans le Golfe du Lion" (ARGOL - PATOM) and "Programme National d'Environnement Côtier" (PNEC). The Rhône freshwater runs off in the continental shelf bounded by a sharp shelf break along which is flowing the Liguro-Provençal Catalan (LPC) slope current, dominant component of the basin circulation in this microtidal area. This work aims to investigate the complex sub mesoscale coastal circulation which is fully 3D and unsteady. The studied area is dominated by the interaction between the river plume baroclinic circulation and the coastal upwelling. A nested version of SYMPHONIE primitive equation mesoscale model of Laboratoire d'Aérologie in Toulouse as forced by ALADIN atmospheric model has been developed by introducing a front capture type advective scheme and a subgrid turbulence model designed for highly stratified flows. Runs outputs exhibit coherent results with in situ measurements as well as available satellite images. Kinematics and space scales are satisfactory reproduced. Moreover, observed secondary flows the order of magnitude of internal Rossby radius are analysed using a factor separation approach, indicating they are induced by the strongly non linear interaction betwen the baroclinic plume circulation and the background shelf circulation
Styles APA, Harvard, Vancouver, ISO, etc.
8

Puig, Bénédicte. « Modélisation et simulation de processus stochastiques non gaussiens ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00003526.

Texte intégral
Résumé :
L'objet de ce travail de recherche est de construire un modèle approché en vue de simuler les trajectoires d'un processus stochastique non gaussien strictement stationnaire sous la seule donnée (incomplète) de sa loi marginale d'ordre un, ou des N premiers moments de cette loi, et de sa fonction d'autocorrélation. La méthode de simulation développée au cours de cette thèse s'appuie sur deux méthodes bien connues de simulation de processus gaussiens : la méthode spectrale et la markovianisation. D'autre part, si seuls les N premiers moments de la loi marginale sont donnés, le principe de maximum d'entropie est utilisé pour choisir cette loi. A partir de la loi marginale est construite une transformation non linéaire qui est ensuite projetée sur la base des polynomes d'Hermite. Le modèle construit consiste donc en une transformation polynomiale d'un processus gaussien stationnaire standard dont la fonction d'autocorrélation est déterminée à l'aide d'un problème de minimisation. Cette méthode de simulation est mise en oeuvre dans des exemples numériques inspirés de l'ingénierie mécanique. Enfin, les convergences en moyenne quadratique et presque-sure du modèle ont été étudiées.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Pugliese, Stéphane. « Modélisation numérique des écoulements atmosphériques stratifiés : application au panache de fumée ». Aix-Marseille 1, 1997. http://www.theses.fr/1997AIX11027.

Texte intégral
Résumé :
Afin de modeliser l'influence de la stratification thermique sur l'etendue d'un panache de fumee, un modele de turbulence de type k-epsilon est adapte a la simulation de tels ecoulements. Apres avoir introduit les principes physiques lies aux ecoulements atmospheriques stratifies, une nouvelle fonction de ponderation du terme de production d'origine thermique dans l'equation du taux de dissipation est proposee. Ce terme prend en compte l'etat local de stratification de l'atmosphere. L'analyse numerique du modele k-epsilon sur un exemple monodimensionnel conduit a la resolution de ce schema numerique par une methode pseudo-instationnaire. La fonction de ponderation est validee dans le cadre des resultats obtenus dans la couche atmospherique de surface. Enfin plusieurs exemples de l'influence de l'etat de stratification thermique sur la diffusion du panache sont simules.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Audard, François. « Modélisation eulérienne de la vidange d'un silo et de l'expansion du panache ». Thesis, Toulouse, INPT, 2016. http://www.theses.fr/2016INPT0134/document.

Texte intégral
Résumé :
De nombreux procédés industriels nécessitent la manipulation de matériaux sous forme pulvérulente. L’émission de poussières générée par leur manipulation peut s’avérer dangereuse pour la santé des travailleurs ou bien causer un risque d’explosion. Afin de mieux comprendre les mécanismes de dispersion des poussières, le cas de la décharge d’un silo est étudié par simulation numérique avec une approche Euler-Euler. Deux configurations ont été étudiées au cours de cette thèse. La première, sans silo, a permis d’étudier l’influence de perturbations de vitesses imposées à l’entrée de la chambre de dispersion en lieu et place du silo. Cette étude a révélé que ces perturbations peuvent influencer l’élargissement du panache de poudre. Seules les perturbations avec une corrélation temporelle ont généré une ouverture importante du jet tombant semblable à celle relevée expérimentalement. Dans la deuxième configuration, le silo et la chambre de dispersion sont représentés afin d’étudier le couplage entre la dispersion du jet et l’écoulement dans le silo. L’une des difficultés de ces simulations est de prédire les différents régimes d’écoulements granulaires, allant de l’état quasi-statique dans le silo au régime très dilué lors de la dispersion du jet tombant, en passant par le régime collisionnel à la sortie du silo. La théorie cinétique permet de modéliser le régime dilué et collisionnel. En revanche pour la partie quasi-statique un modèle semi-empirique a été utilisé, implémenté et validé sur différentes configurations. La seconde étude a montré l’importance du rapport entre le diamètre de l’orifice et le diamètre des particules sur la structure du jet. En effet, lorsque ce paramètre est faible, le coeur du jet se contracte immédiatement après la sortie du silo puis s’ouvre en aval. Pour des valeurs grandes, l’ouverture du jet est négligeable. Cependant, il semblerait que l’angle du silo modifie le comportement de l’écoulement, ce qui nécessitera des études supplémentaires
A wide range of industrial processes requires the handling of granular material in a pulverulent form. The subsequent dust emissions due to these processes can be harmful to the health of workers or hazardous explosion risks. In order to understand dust dispersion mechanisms, a case of a free falling granular jet discharged from a silo is studied by numerical simulations using an Euler-Euler approach. Two types of numerical simulation are conducted. First, the influence of velocity fluctuations at the inlet chamber is studied on the plume behavior, instead of the silo. This study reveals that fluctuations are enable to reproduce the jet expansion. It is established that only fluctuations with temporal correlation generate a large jet opening similar to the experiment. The second type of setup shows the coupling between the silo and the chamber. One of the major challenges is the ability to predict the different flow regimes going from quasi-static regime inside the silo, to the very dilute regime in the dust spread and include the collisional regime occurs through the silo. Kinetic theory allows modeling of the dilute and collisional regime. By contrast, frictional models have been used, implemented and validated in different cases. The second study highlights the key role of the ratio defined by the orifice diameter on the particle diameter. Indeed, when this parameter is small, the jet powder core contracts immediately after the exit of the silo dump plane and expands downstream. For high values, the granular jet does not exhibit dispersion anymore. This study suggests that the silo half-angle has an impact on the flow field which justifies the need for further investigations
Styles APA, Harvard, Vancouver, ISO, etc.
11

Arnoux, Chiavassa Sandrine. « Modélisation d'écoulements cotiers stratifiés présentant des fronts : application au panache du Rhône ». Toulon, 1998. http://www.theses.fr/1998TOUL0008.

Texte intégral
Résumé :
Du fait de leur flottabilite, les rejets d'eau douce en mer forment des panaches dont la dynamique controle en partie le devenir des matieres particulaires et dissoutes charriees par le fleuve. Le travail presente dans ce memoire consiste en la modelisation du panache rhodanien s'epanchant en mediterranee sur le plateau du golfe du lion, pour des situations meteorologiques et de debit typiques, pour lesquelles des donnees in-situ sont disponibles. Les particularites principales des ecoulements de panache en mer microtidale se resument en leurs fronts lateraux et en une forte stratification verticale. Il est montre que l'utilisation d'un schema d'advection d'ordre eleve, type smart, est indispensable pour restituer les fronts halin et dynamique inherents au panache rhodanien. L'apport de ce schema, compare a un schema upwind du premier ordre, est quantifie sur le probleme du panache 2d vertical, demontrant ainsi son efficacite. Dans le cas sans vent, la structure dynamique du panache rhodanien issue du modele 3d est semblable a celle identifiee dans la litterature : un tourbillon anticyclonique se prolongeant en un courant cotier. Elle presente de plus une situation fortement stratifiee, pour laquelle les parametres du modele de turbulence sont calibres a l'aide de mesures in-situ. L'influence du nombre de froude densimetrique et celle du debit du fleuve sur l'ecoulement panacheux sans vent sont etudiees et les resultats obtenus sont en accord avec la litterature et les donnees in-situ. La confrontation entre les resultats numeriques et les observations montre que l'effet d'un vent de terre sur le panache rhodanien est correctement represente par le modele. La dynamique du panache est alors radicalement changee : celui-ci est maintenant balaye vers le large et le courant cotier ne se forme plus. La couche melangee superficielle s'epaissit avec le large et son evolution indique un melange accru entre les deux masses d'eau par rapport au cas sans vent. Enfin, le transport de matieres en suspension est calcule par le modele. La comparaison entre les panaches turbides modelise et observe sur une image satellite est de bonne qualite.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Sini, Jean-François. « Modélisation d'écoulements turbulents libres bidimensionnels avec effets de flottabilité : cas du panache en milieu stratifié ». Aix-Marseille 2, 1986. http://www.theses.fr/1986AIX22001.

Texte intégral
Résumé :
Etude numerique a l'aide d'un modele de turbulence avec fermeture du systeme d'equations au second ordre, d'une couche de melange avec distribution asymetrique de temperature, d'une couche de melange de deux ecoulements de grille, d'un jet plan symetrique. Comparaison avec des donnees experimentales et mise au point d'un code de calcul s'appuyant sur un modele du type k-epsilon. Application a la prevision numerique d'un rejet vertical avec et sans flottabilite dans un milieu au repos, uniforme ou stratifie en densite. Etude du cas d'un panache vertical, emis dans un milieu a deux couches
Styles APA, Harvard, Vancouver, ISO, etc.
13

Rosset, Lionel. « Etude expérimentale et modélisation de l'évolution de la structure d'un panache dans un écoulement turbulent inhomogène ». Rouen, 2000. http://www.theses.fr/2000ROUES053.

Texte intégral
Résumé :
Une étude expérimentale du transport de la chaleur en aval d'une source linéaire placée successivement dans une couche limite turbulente et dans un jet plan turbulent a été réalisée. Les résultats expérimentaux, obtenus par anémométrie à fils chauds et thermométrie a fils froids, permettent de caractériser les écoulements et de décrire l'évolution des températures moyennes, des écarts types de température et des flux turbulents de chaleur et de variance. Ces flux sont analysés à partir de modélisations de type diffusion par gradient, qui utilisent uniquement des échelles temporelles de vitesse de l'écoulement porteur. Tous les termes de l'équation de bilan de la variance des fluctuations de température ont été mesurés. Ces mesures mettent en évidence un régime d'équilibre entre les termes de convection et de dissipation sur la ligne centrale du champ thermique. Les trois contributions du taux de dissipation de la variance des fluctuations de température ont été déterminées en utilisant l'hypothèse de Taylor et une sonde double à fils froids parallèles. Ces résultats donnent la rare opportunité d'étudier l'anisotropie des échelles dissipatives du champ thermique. Ils mettent en évidence la forte anisotropie de ces échelles dans le proche sillage du fil source, liée a la géométrie de l'injection, puis le retour à l'isotropie plus en aval. Cette évolution longitudinale a été analysée en s'appuyant sur une modélisation des composantes du tenseur des corrélations des dérivées spatiales du champ thermique instantané. Cette analyse permet de proposer une formulation de ce phénomène de retour à l'isotropie et d'en estimer les échelles caractéristiques.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Pham, Minh-Vuong. « Analyse expérimentale : simulation directe et des grandes échelles d'un panache thermique tridimensionnel en rotation ». Poitiers, 2005. http://www.theses.fr/2005POIT2287.

Texte intégral
Résumé :
L'analyse et la compréhension des écoulements de panache, avec ou sans rotation de la source, constituent l'objectif principal de ce présent mémoire. Les travaux reposent à la fois sur des investigations expérimentales ainsi que des simulations directes et des grandes échelles. En considérant la source statique, des phases d'expulsion et de contraction ont été démontrés, engendré par la convection de structures cohérentes se développant en périphérie immédiate du panache thermique, l'origine de ces structures étant thermique. Les résultats DNS ont permis de valider des modèles de sous maille et un modèle lagrangien " thermique " a été proposé. Avec rotation, un cisaillement altérant alors les structures favorise la turbulence et au-delà d'une vitesse critique, les lois classiques d'un panache sont affectées. Les mécanismes d'entraînement, par l'intermédiaire des phases de contraction et d'expulsion, sont également amplifiés sous l'effet de la rotation de la source
Analysis of the thermal plume flows, with or without rotation of its source, constitutes the principal objective of this present report based either on experimental investigations or on direct (DNS) and large-eddy simulations (LES). Under static condition, it was shown that the movement is driven by expulsion and contraction phases in the lateral direction. These mechanisms are directly generated by convection of coherent original thermal structures which develops vicinity of the thermal plume. Several subgrid models were proposed in the LES and a lagrangian "thermal" model was proposed and the whole of the principal characteristics of a turbulent thermal plume was perfectly described. The rotation of the heated source generates a shear layer which accelerates the breaking down of coherent structures. The classical laws are still valid under rotating conditions however their characteristics are modified when the rotating velocities are above a critical value. Entrainment mechanisms, through contraction and expulsion phases, are also amplified under the influence of rotation
Styles APA, Harvard, Vancouver, ISO, etc.
15

Mazzuca, Muriel. « Quantification par mesures directes d'émissions polluantes gazeuses de divers grands process industriels, et modélisation d'un panache réactif ». Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-49.pdf.

Texte intégral
Résumé :
La pollution atmospherique est une des preoccupations des pouvoirs publics, de l'industrie et des scientifiques. Elle resulte des rejets gazeux des sources fixes et mobiles et de leur transformation en presence d'uv solaires. Aussi, pour interpreter les resultats experimentaux et pour definir une strategie de controle, des modeles simulant la physico-chimie atmospherique sont utilises. Ils exigent des donnees d'entrees d'emissions ayant une fine resolution spatio-temporelle. L'objectif de ce travail a ete de quantifier sur des sites industriels les emissions de precurseurs de l'ozone : les oxydes d'azote, les hydrocarbures totaux, le dioxyde de soufre et le monoxyde de carbone ainsi que le dioxyde de carbone, et l'oxygene. Les methodes d'analyses utilisees sont l'infrarouge non dispersif pour le so#2, les nox, le co et le co#2, la detection par ionisation de flamme pour les cov et la detection magneto dynamique pour l'o#2. Pour cela, nous avons ameliore les performances du laboratoire mobile, compose d'une chaine de prelevements et d'analyses en continu, en nous interessant aux interferences de mesures du so#2 et du no. Ensuite nous avons valide cette chaine par comparaison sur le terrain avec une societe certifiee iso 9002 en etalonnage - mesure. Nous avons alors effectue des campagnes de mesures dans une fabrique de boites metalliques, une usine siderurgique, une cimenterie et une usine d'incineration d'ordures menageres. De plus, nous avons tente de correler les emissions mesurees avec les etapes des procedes industriels. Nous avons ensuite modelise le devenir des polluants dans un cas precis en utilisant le reactive plume model (rpm iv) de l'us-epa afin d'illustrer l'utilisation de notre banque de donnees d'emissions. Ce modele de panache gaussien pluricellulaire permet de simuler l'evolution dans la troposphere des concentrations issues d'une source fixe. Il inclut la dispersion des polluants et leur reactivite chimique. Le mecanisme chimique est le carbon bond iv.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Baylard, Christophe. « Modélisation de la réflexion et de la transmission par une surface rugueuse aléatoire 2D : étude des effets non spéculaires ». Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAP0519.

Texte intégral
Résumé :
Le domaine de l'étude est celui de l'interaction d'une onde électromagnétique avec une interface 2D (caractérisée par z = S(x,y)) séparant deux milieux linéaires, homogènes, et isotropes. L'essentiel du travail consiste en l'introduction de trois méthodes originales de calcul du champ diffusé par des surfaces rugueuses aléatoires. La première méthode est une simulation numérique basée sur une méthode itérative de calcul des développements en ondes planes des champs réfléchi et transmis. Cette technique est mise en œuvre numériquement (code diff3d) pour des surfaces 1D et 2D. Elle est validée dans le cas 1D par comparaison avec une méthode intégrale de référence. La deuxième méthode effectue un développement limite d'un opérateur de diffusion à l'ordre 2 en la hauteur de la surface, et fournit un résultat perturbatif renormalisé. La troisième méthode utilise des techniques de régularisation pour proposer un résultat sans effectuer de développement perturbatif. Les deux méthodes approchées précédentes, ainsi que l'approximation classique de l'optique physique, font l'objet d'une validation par comparaison avec diff3d, utilise comme référence dans le cas des surfaces bidimensionnelles. L'influence des paramètres du problème (caractéristiques de la rugosité et du rayonnement incident) sur les champs cohérents réfléchi et transmis est explorée pour une surface en verre, éclairée dans le visible. Les hypothèses, qui doivent être satisfaites, et des précautions, qu'il convient de prendre, pour pouvoir simuler numériquement le phénomène de diffusion d'un rayonnement par une surface rugueuse aléatoire, sont recensées. Les déformations subies par un faisceau gaussien lors de sa réflexion sur une interface sont étudiées. Ces effets, connus sous le nom d'effets non spéculaires, ont été précédemment présentés en 1D. L'extension au cas 2D nous permet de mettre en évidence un nouvel effet : l'astigmatisme de la réflexion par un dioptre plan.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Foucart, Brice. « Observation et modélisation de la Formation de Nouvelles Particules (FNP) au sein du panache volcanique du Piton de la Fournaise ». Thesis, La Réunion, 2019. http://www.theses.fr/2019LARE0014/document.

Texte intégral
Résumé :
L'activité volcanique peut représenter une source naturelle de pollution atmosphérique. Cette pollution peut engendrer une dégradation de la qualité de l'air, affecter la santé humaine et perturber la sécurité aérienne. Le Piton de la Fournaise à La Réunion est l'un des volcans basaltique les plus actifs au monde. Ses éruptions sporadiques génèrent des panaches volcaniques essentiellement constitués de gaz et de nanoparticules qui se propagent dans l'atmosphère. En journée, la formation d'oxydants (photolyse) permet d'oxyder une partie du dioxyde de soufre en acide sulfurique. Les molécules d'H2SO4 peuvent réagir avec les molécules d'eau atmosphérique pour former des embryons via la nucléation binaire homogène. Puis, ces embryons grossissent grâce aux processus de condensation et/ou coagulation conduisant alors à la formation d'un aérosol volcanique submicronique. Cette thèse vise à observer, comprendre et modéliser les processus de Formation de Nouvelles Particules (FNP) au sein des panaches volcaniques. De ce fait, elle s'organise en deux parties. La première se base sur les données recueillies lors de la campagne multidisciplinaire STRAP menée à l’observatoire du Maïdo et au Piton de la Fournaise en 2015. Elle expose les résultats issus d’une double analyse de la fréquence et de l’intensité des événements de FNP à l’observatoire. Tandis que la première analyse s’intéresse aux processus en l’absence du panache volcanique, la seconde met en exergue les spécificités de la FNP liées à sa présence au Maïdo. La seconde partie s'axe autour de la modélisation d'abord 0D puis 3D des processus de FNP au sein des panaches volcaniques via le modèle atmosphérique Méso-NH
Volcanic activity can be a natural source of air pollution. This pollution can lead to a deterioration in air quality, affect human health and disrupt aviation safety. The Piton de la Fournaise in Reunion Island is one of the most active basaltic volcanoes in the world. Its sporadic eruptions generate volcanic plumes consisting mainly of gases and nanoparticles that spread in the atmosphere. During the day, a part of the sulphur dioxide can be oxidized to sulphuric acid thanks to oxidants production (photolysis). H2SO4molecules tend to react with atmospheric water molecules and form clusters via homogeneous binary nucleation. Then, these clusters grow by condensation and/or coagulation processes leading to the formation of a submicronic volcanic aerosol. This thesis aims to observe, understand and model the New Particle Formation (NPF) processes within volcanic plumes. Consequently, it is organized in two parts. The first is based on the data gathered during the multidisciplinary STRAP campaign conducted at both the Maïdo Observatory and Piton de la Fournaise volcano in 2015. It presents the results from a dual analysis of the NPF events frequency and intensity at the observatory. While the first analysis focuses on processes in the absence of the volcanic plume, the second highlights the specificities of the NPF related to the presence of the plume at Maïdo. The second part focuses on 0D then 3D NPF processes modelling within volcanic plumes via the Meso-NH atmospheric model
Styles APA, Harvard, Vancouver, ISO, etc.
18

Lorthiois, Thomas. « Dynamique des matières en suspension dans le panache du Rhône (Méditerranée occidentale) par télédétection spatiale " couleur de l'océan " ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00772427.

Texte intégral
Résumé :
Les eaux côtières impactées par les apports fluviaux jouent un rôle majeur dans l'export et l'enfouissement des particules terrigènes. La télédétection "couleur de l'océan" renseigne sur les concentrations en matières en suspension (MES) de surface. Pour améliorer les résolutions spatiale et temporelle, elle peut être combinée à des mesures in situ bio-optiques et la modélisation numérique. Le Rhône est la principale source d'apports d'eau douce et particulaires dans le Golfe du Lion (Méditerranée Occidentale). L'objectif de la thèse est l'étude de la variabilité saisonnière des apports en MES du Rhône et leur devenir sur le plateau continental. Des mesures in situ bio-optiques ont été réalisées à partir de navires océanographiques et de plateformes autonomes ProvBio. Les concentrations en MES sont estimées à l'aide des capteurs satellitaires MERIS et MODIS. Le modèle hydro-sédimentaire (Mars-3D) simule la circulation des masses d'eau et les apports liquides et particulaires du Rhône. Des proxys régionaux sont identifiés et éprouvés afin d'assurer un suivi de la dynamique des MES sur la colonne d'eau à partir de mesures bio-optiques in situ. Un algorithme régional est développé afin de cartographier les concentrations en MES à partir des mesures satellitaires. La combinaison de ces deux outils montre la dépendance de l'export des MES au débit liquide du Rhône et aux vents. En régime de crue, les MES sont essentiellement exportées en surface. Pour un débit fluvial faible à modéré et un vent fort, elles sont transportées près du fond. Le modèle hydro-sédimentaire a permis de mieux comprendre certains processus même si des améliorations sont encore requises.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Bouveyron, Charles. « Modélisation et classification des données de grande dimension : application à l'analyse d'images ». Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00109047.

Texte intégral
Résumé :
Le thème principal d'étude de cette thèse est la modélisation et la classification des données de grande
dimension. Partant du postulat que les données de grande dimension vivent dans des sous-espaces de
dimensions intrinsèques inférieures à la dimension de l'espace original et que les données de classes
différentes vivent dans des sous-espaces différents dont les dimensions intrinsèques peuvent être aussi
différentes, nous proposons une re-paramétrisation du modèle de mélange gaussien. En forçant certains
paramètres à être communs dans une même classe ou entre les classes, nous exhibons une famille de 28 modèles gaussiens adaptés aux données de grande dimension, allant du modèle le plus général au modèle le plus parcimonieux. Ces modèles gaussiens sont ensuite utilisés pour la discrimination et la classification
automatique de données de grande dimension. Les classifieurs associés à ces modèles sont baptisés respectivement High Dimensional Discriminant Analysis (HDDA) et High Dimensional Data Clustering (HDDC) et
leur construction se base sur l'estimation par la méthode du maximum de vraisemblance des paramètres du
modèle. La nature de notre re-paramétrisation permet aux méthodes HDDA et HDDC de ne pas être perturbées par le mauvais conditionnement ou la singularité des matrices de covariance empiriques des classes et d'être
efficaces en terme de temps de calcul. Les méthodes HDDA et HDDC sont ensuite mises en dans le cadre d'une
approche probabiliste de la reconnaissance d'objets dans des images. Cette approche, qui peut être
supervisée ou faiblement supervisée, permet de localiser de manière probabiliste un objet dans une
nouvelle image. Notre approche est validée sur des bases d'images récentes et comparée aux meilleures
méthodes actuelles de reconnaissance d'objets.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Boujemaa, Hatem. « Récepteur UMTS optimisé ». Paris, ENST, 2001. http://www.theses.fr/2001ENST0023.

Texte intégral
Résumé :
L'apparition de nouveaux services nécessitant de comminiquer à des débits de plus en plus élevés et avec une qualité meilleure est à I'origine de l'émergence de la troisième génération de radio-mobiles. En Europe. Ies caractéristiques de cette nouvelle génération sont entrain d'être spécifiées dans la norme UMTS ("Universal Mobile Télécommunication Standard"). Dans ce mémoire de thèse, nous avons traité divers thèmes clés de la norme UMTS. Nous avons commencé par développer les structures de deux implémentations du récepteur en râteau permettant de récupérer une grande partie de la diversité offerte par le canal multitrajets. Le premier récepteur est celui qu'on utilise d'habitude et consiste à combiner les sorties de corrélateurs synchronisés sur les trajets les plus significatifs. Afin de contourner le problème d'estimation des délais des trajets nous avons étudié également une implémentation à temps discret du récepteur en râteau. Cette approche est basée sur une estimation globale du produit de convolution des réponses impulsionnelles du canal de propagation et du filtre de mise en forme. Ensuite, nous avons traité les problèmes engendrés par l'interférence entre symboles qui apparaîssent pour des services à haut débit. Ce thème est d'une importance primordiale pour l'UMTS dont le pari est justement de pOUVOir assurer de tels services. Après cela, nous avons étudié puis optimisé la procédule de contrôle de puissance qui permet de lutter contre l'effet des épanouissements. Enfin. Nous avons recherché la meilleure stratégie d'allocation de l'énergie du canal RACH ("Random Access Channel") afin de réduire l'intertérence qu'il génère.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Gressent, Alicia. « Caractérisation et modélisation sous-maille des panaches d'éclairs : implication sur le bilan de l'ozone et les espèces azotées de la haute troposphère ». Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30150/document.

Texte intégral
Résumé :
Les éclairs représentent une des sources majeures d'oxydes d'azote (N Ox = N O + N O2 ) dans la haute troposphère. Ces émissions locales sont à l'origine de fortes concentrations de NOx, dont le temps de vie est augmenté dans cette partie de l'atmosphère, et sont associées à des panaches transportés à l'échelle intercontinentale. Aussi, l'importance des émissions par les éclairs pour la chimie de la haute troposphère et notamment pour la production d'ozone et la capacité oxydante de l'atmosphère n'est plus a prouver. Mon travail de thèse est dédié à la caractérisation des panaches de NOx issus des éclairs et la modélisation sous-maille associée afin de déterminer leur impact sur le bilan de l'ozone et les espèces azotées de la haute troposphère. L'analyse des mesures in-situ du programme aéroporté MOZAIC, dans les moyennes latitudes nord, couplées aux calculs du modèle lagrangien FLEXPART, et aux observations au sol et depuis l'espace des flashs d'éclairs et des nuages est réalisée. Cette étude met en évidence l'existence des panaches très étendus de N Oy issus des émissions d'éclairs et rend compte de leur fréquence, leur composition et leur évolution chimique au cours du transport. Un gradient négatif (positif) de NOy (O3) est mesuré dans les panaches de -0,4 (+18) ppbv de différence, pendant le printemps et -0,6 (+14) ppbv de différence, en été, entre l'Amérique du Nord et l'Europe. De plus, pour la première fois, une paramétrisation de panache associée aux émissions d'éclairs est implémentée dans un CTM. Cette approche permet le transport des effets de la chimie non-linéaire ayant lieu dans les panaches et conduit à une diminution significative des NOx et de l'O3 dans les régions caractérisées par une activité électrique électrique intense (-25 % et -8%, respectivement, en Afrique Centrale, en juillet) et une augmentation dans le vent des émissions (+10 % et +1 %, respectivement, sur l'Océan Atlantique, en juillet). Ces travaux permettent ainsi de réduire les incertitudes sur la représentation de ces processus non-linéaires et à une échelle plus petite que celle de la maille des modèles en vue d'une meilleure estimation (i) des distributions d'oxydes d'azote liées aux éclairs et (ii) de la production d'ozone associée à l'échelle globale
Lightning emissions are one of the most important sources of nitrogen oxides (NOx = NO+NO2 ) in the upper troposphere. They imply high N Ox concentrations where their lifetime is longer in this part of the atmosphere and can be associated to large plumes transported over long distance. Furthermore, the decisive role of lightning emissions in the upper tropospheric chemistry and especially on the ozone production and the oxidizing capacity of the atmosphere is well known. My PhD is dedicated to the characterization of the lightning-NOx related plumes and the associated sub-grid modeling in order to determine their impact on the ozone and nitrogen oxyde burden in the upper troposphere. The analysis of the MOZAIC measurements in the northern-mid-latitudes coupled with FLEXPART Lagrangian model calculations, ground and space-based observations of lightning flashes and clouds is made. This study highlights the existence of large scale plumes of NOy from lightning emissions and describes their frequency, their chemical composition and evolution during the long-range transport. A negative (positive) gradient of NOy (O3) is found within the large scale plumes of about -0.4(+18) ppbv difference, during spring, and -0.6(+14) ppbv difference, in summer, between North America and Europe. Therefore, for the first time, a plume parameterization for lightning NOx emissions is implemented into CTM. This approach allows the transport of the non-linear chemistry effects occurring within plumes. The implementation of the plume-in-grid parameterization leads to a significant NOx and O3 decrease over the region characterized by a strong lightning activity (up to -25 % and -8 %, respectively, over Central Africa, in July) and a relative increase downwind of lightning NOx emissions (up to +10 % and +1 %, respectively, over Atlantic ocean, in July). This work allows to reduce the uncertainties on the representation of the non-linear processes at a smaller scale than the model grid in order to provide better estimates of (i) the nitrogen oxide distribution related to lightning and (ii) the associated ozone production at the large scale
Styles APA, Harvard, Vancouver, ISO, etc.
22

Michel, Bertrand. « Modélisation de la production d'hydrocarbures dans un bassin pétrolier ». Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00345753.

Texte intégral
Résumé :
Cette thèse a pour objet la modélisation de la production pétrolière dans un bassin d'hydrocarbures. Le modèle proposé s'appuie sur une description probabiliste des réserves, de l'exploration des hydrocarbures et de la mise en production des gisements découverts. L'utilisation de la loi de Lévy-Pareto pour décrire les tailles des gisements s'appuie d'une part sur une description probabiliste de la formation des réserves au cours de l'évolution du temps géologique et d'autre part sur les propriétés d'invariance de la distribution de Poisson Dirichlet pour des processus de coalescence et de fragmentation, dans le cadre du modèle de Bolthausen Sznitman. Deux principaux problèmes statistiques, relevant tous les deux d'une problématique de choix de modèle en estimation de densité, sont identifiés. Le premier concerne l'estimation d'un modèle d'exploration pétrolière et le second est une étude de courbes de production qui repose sur une classification non supervisée et une sélection de variables pertinentes effectués via la sélection d'un modèle de mélange Gaussien. Dans les deux cas, un critère de maximum de vraisemblance pénalisé est défini pour obtenir une inégalité de type oracle. Le modèle global de production pétrolière d'un bassin ainsi obtenu permet d'une part de préciser la forme des profils de production de bassin et d'autre part de proposer des scénarios de prolongement de la production de bassin en cours d'exploitation.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Martin, Victorin. « Modélisation probabiliste et inférence par l'algorithme Belief Propagation ». Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://tel.archives-ouvertes.fr/tel-00867693.

Texte intégral
Résumé :
On s'intéresse à la construction et l'estimation - à partir d'observations incomplètes - de modèles de variables aléatoires à valeurs réelles sur un graphe. Ces modèles doivent être adaptés à un problème de régression non standard où l'identité des variables observées (et donc celle des variables à prédire) varie d'une instance à l'autre. La nature du problème et des données disponibles nous conduit à modéliser le réseau sous la forme d'un champ markovien aléatoire, choix justifié par le principe de maximisation d'entropie de Jaynes. L'outil de prédiction choisi dans ces travaux est l'algorithme Belief Propagation - dans sa version classique ou gaussienne - dont la simplicité et l'efficacité permettent son utilisation sur des réseaux de grande taille. Après avoir fourni un nouveau résultat sur la stabilité locale des points fixes de l'algorithme, on étudie une approche fondée sur un modèle d'Ising latent où les dépendances entre variables réelles sont encodées à travers un réseau de variables binaires. Pour cela, on propose une définition de ces variables basée sur les fonctions de répartition des variables réelles associées. Pour l'étape de prédiction, il est nécessaire de modifier l'algorithme Belief Propagation pour imposer des contraintes de type bayésiennes sur les distributions marginales des variables binaires. L'estimation des paramètres du modèle peut aisément se faire à partir d'observations de paires. Cette approche est en fait une manière de résoudre le problème de régression en travaillant sur les quantiles. D'autre part, on propose un algorithme glouton d'estimation de la structure et des paramètres d'un champ markovien gaussien, basé sur l'algorithme Iterative Proportional Scaling. Cet algorithme produit à chaque itération un nouveau modèle dont la vraisemblance, ou une approximation de celle-ci dans le cas d'observations incomplètes, est supérieure à celle du modèle précédent. Cet algorithme fonctionnant par perturbation locale, il est possible d'imposer des contraintes spectrales assurant une meilleure compatibilité des modèles obtenus avec la version gaussienne de Belief Propagation. Les performances des différentes approches sont illustrées par des expérimentations numériques sur des données synthétiques.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Zaytsev, Victor. « Méthodes stochastiques pour la modélisation d'incertitudes sur les maillages non structurés ». Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM094/document.

Texte intégral
Résumé :
La simulation des phénomènes physiques exige souvent l’utilisation d’une discrétisation du milieu sous forme de maillage. Un exemple de ce type de situation est la simulation d’écoulement de fluides et la simulation du stress géomécanique pour les gisements pétroliers. Dans ces cas, le milieu étudié n’est pas homogène et l'hypothèse sur l’homogénéité de ce milieu peut mener à des résultats incorrects. C’est pourquoi la simulation des hétérogénéités est très importante pour ce genre de problèmes.Cette thèse est consacrée à la simulation géostatistique des hétérogénéités sur les maillages non-structurés par les méthodes géostatistiques non-linéaires. Le but de cette thèse est la création d’algorithmes de simulation des hétérogénéités directement sur les maillages non-structurés, sans utiliser les maillages fins réguliers intermédiaires et de l’upscaling. On présente deux modèles théoriques pour les simulations des variables continues sur les maillages non-structurés qui sont les deux versions différentes du modèle Gaussien discret (DGM) - DGM 1 et DGM 2. Le modèle théorique utilisé dans cette thèse permet de convertir le problème de simulation sur un maillage non-structuré en un problème de simulation d’un vecteur Gaussien multivarié et l’application de fonctions de transformation adaptées pour chaque élément du vecteur. La simulation de faciès est aussi envisagée en utilisant une généralisation des modèles pluri-Gaussiens et Gaussien tronqués pour les maillages non-structurés.L’application des méthodes développées est illustrée sur un gisement pétrolier - le cas d’étude X (gisement du gaz offshore)
Simulations of physical phenomenon often require discretizing the medium with a mesh. An example of this type of simulation is the simulation of fluid flow through a porous medium and the evaluation of the geomechanical stress in the petroleum reservoir. The studied medium is often not homogeneous and applying a homogeneity hypothesis can lead to incorrect simulation results. That makes simulation of heterogeneities important for this kind of problems.This thesis is devoted to geostatistical simulations of heterogeneities on unstructured grids using methods of non-linear geostatistics. The objective of this work is the development of algorithms for simulating heterogeneities directly on unstructured grids without using intermediate fine scale regular grids and upscaling. We present two theoretical models for geostatistical simulations of continuous parameters on unstructured grids which are different generalizations of the Discrete Gaussian model (DGM) – DGM 1 and DGM 2. The proposed theoretical models enable converting the problem of geostatistical simulation on an unstructured grid into the well-studied problem of simulating multivariate Gaussian random vectors followed by application of block-dependent transformation functions. The problem of simulating facies is also addressed in this work, for which generalizations of pluri-Gaussian and truncated Gaussian simulation models for unstructured grids are proposed.An application of the proposed methods is demonstrated on a case study X, which is an offshore gas reservoir with a tartan-meshed grid
Styles APA, Harvard, Vancouver, ISO, etc.
25

Khou, Jean-Charles. « Modélisation des traînées de condensation par interaction entre l'aérodynamique, la cinétique chimique et la microphysique ». Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066164/document.

Texte intégral
Résumé :
Dans le cadre des études portant sur l’impact de l’aviation sur le changement climatique, les traînées de condensation font partie des phénomènes présentant le plus d’incertitudes quant à leur rôle. Dans ce contexte, l’étude vise à mieux décrire les caractéristiques physico-chimiques du panache dans le champ proche d’un avion, celles-ci pouvant conditionner les propriétés des traînées de condensation formées.Pour cela, des simulations spatiales tridimensionnelles de type RANS ont été réalisées à l’aide du code CEDRE de l’ONERA, prenant en compte les processus microphysiques, les réactions chimiques, et l’écoulement aérodynamique autour et dans le sillage d'une configuration réaliste d'un avion de transport civil. Les modèles microphysiques intégrés permettent de décrire les processus d’activation des particules de suie et les processus de condensation et d’évaporation d’eau à leur surface.Une phase de validation du code a été menée pour chacun des processus pris en compte, montrant un bon accord avec les données de la littérature. Des études de sensibilité ont également été conduites afin d’évaluer l’impact des paramètres atmosphériques et des caractéristiques des effluents sur les propriétés des cristaux de glace formés. L’augmentation de la teneur en soufre du carburant entraîne un accroissement de l’activité des suies et aboutit à une distance d’apparition plus courte et une opacité plus élevée des traînées de condensation. Lorsque la quantité d’eau émise est suffisante, l’augmentation du nombre de suies éjectées entraîne un accroissement de la concentration de glace, résultant en un fort accroissement de l’opacité et de la superficie de la traînée de condensation
In the framework of the impact of aviation on climate change studies, the involvement of contrails is identified as one of the most uncertain components. In this context, this study aims to better describe the physico-chemical properties of the plume in the near-field of an aircraft, for they could be critical to contrails properties.To this end, RANS spatial simulations have been performed using the code CEDRE of ONERA, taking into account the microphysical processes, chemical reactions, and the air flow around and in the wake of a realistic civil transport aircraft. Microphysical models have been implemented in order to describe the soot activation processes and the condensation and evaporation of water upon their surface.A validation phase of the code has been carried out for each of the processes taken into account, showing good agreements with data from the literature. Sensitivity studies have also been performed in order to assess the impact of atmospheric parameters and exhaust characteristics on formed contrails properties. The increase of the fuel sulphur content leads to increased soot activation that results in a shorter contrail onset and increased contrail opacity. If the amount of emitted water is sufficient, the increase of the number of ejected soot particles causes an increase of ice concentration that results in an important increase of contrail opacity and surface area
Styles APA, Harvard, Vancouver, ISO, etc.
26

Kammoun, Imen. « Modélisation et détection de ruptures des signaux physiologiques issus de compétitions d'endurance ». Phd thesis, Université Panthéon-Sorbonne - Paris I, 2007. http://tel.archives-ouvertes.fr/tel-00200441.

Texte intégral
Résumé :
Ce travail de thèse porte sur la modélisation et l'estimation de paramètres pertinents pour les signaux de fréquences cardiaques (FC) instantanées. Nous nous intéressons à un paramètre (appelé grossièrement "fractal"), qui témoigne de la régularité locale de la trajectoire et de la dépendance entre les données. Les propriétés asymptotiques de la fonction DFA (Detrended Fluctuation Analysis) et de l'estimateur de H sont étudiées pour le bruit gaussien fractionnaire (FGN) et plus généralement pour une classe semi-paramétrique de processus stationnaires à longue mémoire avec ou sans tendance. On montre que cette méthode n'est pas robuste. On propose la modélisation des séries de FC par une généralisation du FGN, appelée bruit gaussien localement fractionnaire. Un tel processus stationnaire est construit à partir du paramètre dit de fractalité locale (une sorte de paramètre de Hurst avec des valeurs dans IR) sur une bande de fréquences. L'estimation du paramètre est faite par une analyse par ondelettes, tout comme le test d'adéquation. On montre la pertinence du modèle et une évolution du paramètre pendant la course. Une détection des changements de ce paramètre pourrait être extrêmement appropriée. On propose alors une méthode de détection de multiples ruptures du paramètre de longue mémoire (respectivement d'autosimilarité, de fractalité locale). Un estimateur des points de changements est construit, il vérifie un théorème limite. Un théorème de la limite centrale est établi pour l'estimateur des paramètres et un test d'ajustement est mis en place dans chaque zone où le paramètre est inchangé. Enfin, on montre la même évolution du paramètre de fractalité locale sur les FC.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Caudwell, Tobit. « Convection et stratification induites par une paroi chauffante : mesures expérimentales et modélisations ». Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAU022/document.

Texte intégral
Résumé :
Cette thèse s'intéresse à l'écoulement convectif induit par une paroi chauffante isotherme. La couche limite turbulente qui s'établit le long de celle-ci s'apparente à un panache, bien que les conditions de paroi en modifient significativement certaines caractéristiques typiques. Dans l'étude présentée, l'environnement est un milieu clos. Puisque le fluide de moindre densité s'accumule dans la partie haute de l'enceinte, une stratification en température s'établit. Afin de mieux comprendre les mécanismes qui entrent en jeu dans ce type de panache et son interaction avec le fluide ambiant, nous déployons une approche à la fois expérimentale et théorique. Sur le plan expérimental, une technique combinant Velocimétrie par Images de Particules (PIV) et Fluorescence Induite par Laser (LIF) est mise au point, et permet d'acquérir simultanément la vitesse et la température du fluide dans un plan de mesure qui couvre l'ensemble de l'écoulement. Sur le plan théorique, un modèle numérique mono-dimensionnel est développé. Il est basé sur la théorie d'entraînement de Morton et al (1956) pour la partie turbulente du panache, et tient compte de son caractère laminaire initial grâce à des solutions de similarité. Les comparaisons détaillées entre ce modèle et les résultats expérimentaux montrent les limites des modèles classiques et la pertinence des améliorations introduites. Nous évaluons notamment la contribution de la portion laminaire, et mettons en évidence le fait que le coefficient d'entraînement varie en fonction de la stratification ambiante
This thesis focuses on the convective flow induced by a heated isotherm wall. A turbulent boundary layer develops along this wall, and resembles to a plume unlike its typical characterics are significantly modified by the boundary condition at the wall. In this study the environment is a closed box in which the lighter fluid continuously accumulates in the upper part, thus producing a temperature stratification in the interior. In order to better understand the dynamics of such a plume as well as its interaction with the ambient fluid, we deploy an approach that is both experimental and theoretical. Concerning the experiments, we developed a technique which combines Particle Image Velocimetry (PIV) with Laser Induced Fluorescence (LIF). This technique allows to simultaneously acquire the velocity and the temperature of the fluid in a plane which covers the entire flow. As concerning the theory, a one-dimensional numerical model is developed. It is based on the entrainment theory by Morton et al (1956) as for the turbulent part of the plume, and it takes into account the initial laminar character of the plume thanks to similarity solutions. The detailed comparisons between this model and the experimental results show the limits of the classical models and the relevance of the introduced improvements. In particular we evaluate the contribution of the laminar part and we highlight that the entrainment coefficient varies as a function of the ambient stratification
Styles APA, Harvard, Vancouver, ISO, etc.
28

Gangloff, Aurélien. « Devenir des apports solides du Rhône dans le Golfe du Lion : étude de la dynamique du panache turbide du Rhône en réponse aux forçages hydrométéorologiques ». Thesis, Brest, 2017. http://www.theses.fr/2017BRES0117/document.

Texte intégral
Résumé :
Les contaminants, dissouts ou adsorbés sur les particules, sont principalement délivrés au milieu marin par les fleuves. La dynamique sédimentaire constitue alors un proxy de la dynamique de ces contaminants. Cette thèse s'inscrit dans le projet ANR AMORAD, et se focalise sur la dynamique du matériel particulaire délivré par le Rhône au Golfe du Lion (Méditerranée nord-occidentale), principal contributeur d'apports solides au Golfe (80 % des sédiments). Alors que des études antérieures ont permis de bien représenter les processus au niveau du fond, les processus régissant les comportements des matières en supension (MES), majoritairement rencontrées dans le panache turbide du Rhône, sont encore mal apréhendés. En vue de mieux décrire la dynamique de ces MES et d'améliorer les modèles hydrosédimentaires existants, l'objectif est de mieux caractériser ces particules. À cette fin, un vaste jeu de données issu de capteurs déployés in situ (données collectées pour 12 campagnes en mer, réalisées de 2011 à 2016) a été exploité, permettant d’obtenir une vision 2D verticale mais seulement ponctuelle (spatialement et temporellement). De façon complémentaire, une base de données d'images satellitaires (donnée couleur de l'eau du capteur MERIS-300m acquise entre 2002 et 2012), offrant une vue plus synoptique et long terme mais uniquement en surface, a été exploitée. Le jeu de données d'images satellitaire (plus de 800 images) a été traité de façon innovante par l'application d'un traitement semi-automatique permettant l'extraction de différentes métriques du panache turbide du Rhône (e.g. aire, limites d'extension, forme, centres géométriques, concentrations). La distribution spatiale et les caractéristiques physiques des MES telles que leur concentration dans l'eau, leur diamètre médian ou encore leur vitesse de chute ont été étudiées et estimées en fonction des différents forçages hydrométéorologiques actifs sur la zone d'étude (e.g. débit du Rhône, vents dominants). Un nouveau modèle hydrosédimentaire reposant sur le couplage du modèle hydrodynamique MARS-3D et du module sédimentaire multiclasse MIXSED a été configuré et les données in situ et satellitaires ont pu être mobilisées afin de contraindre la vitesse de chute des sédiments, paramètre clef de la modélisation de la dynamique hydrosédimentaire
Contaminants, which can be dissolved in water or adsorbed on particles, are mainly delivered to the coastal environment by rivers. Thus, sediment dynamics reperesent a relevant proxy of contaminants dynamics. ThisPhD thesis is part of the ANR AMORAD project, of which one workpackage focuses on the fate of sediments in the coastal environment. This work focuses on the dynamics of Rhône River sediments in the Gulf of Lions (north-western mediterranean), this river delivering 80 % of the sediments of the Gulf. While previous studies over the area allowed a better understanding of physical processes at the water-sediment interface, processes driving suspended particulate matter (SPM) dynamics are still poorly understood. To better describe this SPM dynamics and improve hydrosedimentary models, the aim is to better characterize these particles. To this end, a large dataset collected from in situ deployed sensors (data collected for 12 field campaigns, conducted from 2011 to 2016) was analyzed to get a 2D vertical but ponctual view (both spatially and temporally). Complementary, a satellite images dataset (MERIS-300m ocean colour archive from 2002 to 2012) was built in order to get a long term and more synoptic view (but limited to surface).This dataset (more than 800 images) was originaly studied, applying a semi-empirical process to extract various Rhône River turbid plume metrics (e.g. area of extension, south-east-westernmost points, shape, centroids, SPM concentrations). Plume metrics and physical properties of SPM such as their concentration in water, their median diameter or their settling velocity were investigated regarding the different hydrometeorological forcings (e.g. Rhône River discharge, prevailing winds). A new hydrosedimentary model, based on the coupling of the 3D hydrodynamical model MARS-3D and the sedimentary module MIXSED, was set and ocean color and in situ data were used to constrain the settling velocity of particles, key parameter of hydrosedimentary modelling
Styles APA, Harvard, Vancouver, ISO, etc.
29

Ben, salem Malek. « Model selection and adaptive sampling in surrogate modeling : Kriging and beyond ». Thesis, Lyon, 2018. https://tel.archives-ouvertes.fr/tel-03097719.

Texte intégral
Résumé :
Les surfaces de réponses, dites aussi méta-modèles sont généralement utilisées pour remplacer une fonction coûteuse. Ces méta-modèles sont également utilisés pour accélérer l’estimation d’une caractéristique de cette fonction (un optimum, une ligne de niveau, …). Dans ce travail, nous nous sommes intéressés à trois aspects de la méta-modélisation.1/ Il est difficile de choisir le méta-modèle ainsi que ses paramètres les plus appropriés pour un plan d’expérience donné. En effet, il est difficile d'évaluer la qualité d'un méta-modèle sans des données de validation. Nous proposons un critère de qualité de méta-modèle et nous présentons deux algorithmes de sélection en se basant sur ce critère.2/ L’avantage principal de la régression par processus gaussiens (GP) est qu'elle fournit partout une mesure d'incertitude associée à la prédiction. C’est un outil efficace pour construire des stratégies d’échantillonnage séquentiel. Nous proposons un algorithme permettant d'estimer une distribution de prédiction pour n'importe quel méta-modèle, qui permet d’étendre les méthodes d’échantillonnage séquentielles basées sur les GP à tous les méta-modèles. On l'appelle la distribution universelle de prédiction.3/ De nombreux problèmes de conception font appel à un grand nombre de variables ce qui rend l'exploration de l’espace paramétrique difficile. Dans certains cas seules quelques variables sont influentes. Nous proposons un algorithme réalisant simultanément l'apprentissage d'une caractéristique et la réduction de dimension. La méthode est basée sur des résultats théoriques issus du cadre de la régression par processus gaussien. Notre méthode s'appelle l’algorithme Split-and-Doubt
Surrogate models are used to replace an expensive-to-evaluate function to speed-up the estimation of a feature of a given function (optimum, contour line, …). Three aspects of surrogate modeling are studied in the work:1/ We proposed two surrogate model selection algorithms. They are based on a novel criterion called the penalized predictive score. 2/ The main advantage of probabilistic approach is that it provides a measure of uncertainty associated with the prediction. This uncertainty is an efficient tool to construct strategies for various problems such as prediction enhancement, optimization or inversion. We defined a universal approach for uncertainty quantification that could be applied for any surrogate model. It is based on a weighted empirical probability measure supported by cross-validation sub-models’ predictions.3/ We present the so-called Split-and-Doubt algorithm that performs sequentially both feature estimation and dimension reduction
Styles APA, Harvard, Vancouver, ISO, etc.
30

Malamoud, Karim. « Des trapps du Deccan à la Réunion : couplage de données géochimiques pétrologiques et paléomagnétiques. Conséquences géodynamiques à la limite crétacé-paléocène ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU055/document.

Texte intégral
Résumé :
Cette thèse s'appuie sur les travaux d'Alexander V. Sobolev sur le recyclage de matériel crustal dans le manteau terrestre en lien avec les processus de mise en place des provinces magmatiques et des iles océaniques. Il s'agit d'utiliser des outils pétrologiques et géochimiques couplés à des données de paléomagnétisme haute résolution, et à de la modélisation thermomécanique dans le but de contraindre les processus profonds à l'origine des Trapps du Deccan et leurs conséquences au niveau planétaire (extinction de masse). Dans un premier temps, cette thèse propose une réinterprétation des diverses contraintes temporelles sur la durée de l'éruption des Trapps du Deccan (datations radiochronologiques, paleomagnétisme, profiles d'altérations, et données paléo-environnementales) et suggère un scénario temporel pour la mise en place de cette province magmatique, le tout principalement basé sur des données paléomagnétiques de hautes résolution de Chenet et al (2008, 2009). Ce scénario implique que la phase principale de l'éruption des Trapps du Deccan s'est produite peu de temps avant la limite Crétacé-Paléogène et qu'elle correspond à la mise en place d'environ 1.106km3 de laves en 50ka. Ces chiffres sont équivalents à 150-200 fois le taux d'éruption actuel de l'ile volcanique d'Hawaii. Ce scénario temporel a ensuite été couplé à des données géochimiques élémentaires qui ont permis de mettre en évidence 1) une origine profonde pour la grande majorité des liquides primaires et 2) d'importantes variations de l'assimilation crustale au cours du temps, notamment juste avant la limite Crétacé-Paléogène. Ces phénomènes sont compatibles avec un unique épisode d'érosion lithosphérique de la plaque indienne par les processus magmatiques dans le manteau sous-jacent. Les données relatives aux Trapps du Deccan peuvent être comparées à celles des Trapps de Sibérie et révèlent notamment que l'importante érosion lithosphérique identifiée dans celles-ci n'ait pas eu lieu dans le cas des Trapps du Deccan malgré des caractéristiques mantelliques similaires. Cette différence peut être attribuée à la plus grande épaisseur de la plaque indienne, ainsi qu'à l'existence de zones de faiblesses, liées à l'héritage tectonique du bouclier indien. Ces zones de faiblesses auraient facilité le passage des magmas à travers la plaque de manière à ce qu'une faible proportion d'entre eux seulement ait été impliquée dans les processus de délamination lithospherique. Un ensemble de données géochimiques sur olivine ainsi que de modélisation des liquides magmatiques primaires et de leur source pour les Trapps du Deccan nous ont permis de montrer 1) l'importante contribution d'une source pyroxenitique à la composition des liquide magmatiques primaires (65%), 2) que la gamme de températures potentielles de ces mêmes sources avait due être de l'ordre de 1600°C et 3) que ces dernières contenaient environ 15% de matériel crustal recyclé. Des mesures et calculs similaires appliquées aux laves de la Réunion ont, par ailleurs, montrés des résultats très différents : 50% de liquides pyroxenitiques dans les liquides magmatiques primaires, une température potentielle mantellique de l'ordre de 1500°C et une teneur des sources magmatiques en matériel crustal recyclé de l'ordre de 7%. Ces résultats sont compatibles avec le modèle de panache matellique pour la mise en place des provinces magmatiques et des iles océaniques ainsi qu'avec l'hypothèse du refroidissement séculaire de ces mêmes panaches. Nous en concluons que l'éruption des Trapps du Deccan fut un événement d'une rapidité exceptionnelle et que son implication dans la crise biologique de la fin du Crétacé fut sans doute particulièrement importante
This PhD aims to build on the previous work by Alexander V. Sobolev and colleagues on crustal recycling within the Earth mantle and LIPs/ocean island magmatism. The PhD focus will be to apply petrology and geochemistry coupled with high-resolution paleomagnetism, and thermo-mechanical modelling in order to constrain the deep processes behind the Deccan Traps (mantle melting and crustal recycling) as well as the consequences at the surface of the Earth (eruption rates and related degassing). Upon revisiting published time constraints on the Deccan eruptions (radiometric dating, paleomagnetism, inter-flow weathering profiles and paleoenvironmental data), we propose a new, paleomagnetism-based (Chenet et al., 2008, 2009), eruption scenario for the Main Deccan Province (Western Ghats). We suggest that the main phase of volcanic activity occurred just before and ended at the Cretaceous-Palaeogene boundary and was responsible for the emplacement of about 1.106km3 of lavas in ~50kyr. This is equivalent to 150 to 200 times present-day eruption rates in Hawaii. Coupling of the paleomagnetism-based timeframe with bulk-rock trace element concentrations revealed that Western Ghats lavas feature 1) a strong garnet signature (Heavy Rare Earth Element depletion), indicative of a deep origin and 2) significant temporal variations in the intensity of crustal assimilation undergone by the rising melts, especially just before the Cretaceous-Palaeogene boundary. We suggest that these excursions are part of a single and localized plume-induced lithospheric erosion event of the Indian lithosphere by the Deccan plume. A comparison of the Deccan Traps with the Siberian Traps exposes significant geodynamical differences. Most notably, the widespread and extensive lithospheric erosion observed in the Siberian Traps did not take place in the Deccan Traps, despite similar mantle characteristics. This difference is attributed to 1) a thicker Indian lithosphere and 2) to the existence of weaknesses in the form of pre-existing structural lineaments. These pre-existing structures facilitated the passage of deep mantle-derived magmas and thus precluded or limited their involvement in a freezing-delamination process. Olivine geochemistry and olivine-based primary melt and source modelling in Deccan Traps lavas showed 1) large contributions of pyroxenite-derived melts (65%) to the primary melts, 2) high potential temperatures of the mantle sources (~1590-1600°C) and 3) that the mantle sources of Deccan Traps magmas contained ~15% of recycled crustal material. These observations contrast with those obtained from Réunion Island lavas (50% of pyroxenite-derived melts, mantle potential temperatures of 1490-1500°C and 7% of recycled crustal material in the sources of Réunion Island magmas. Our results are compatible with the plume model for LIPs and ocean island magmatism as well as with a secular cooling of mantle plumes. We conclude, along with many authors, that the emplacement of the Deccan Traps was a remarkably swift and catastrophic event at the end of the Cretaceous and that it likely played a significant role in the end-Cretaceous mass extinction
Styles APA, Harvard, Vancouver, ISO, etc.
31

Chesseboeuf, Clément. « Méthodes mathématiques et numériques pour la modélisation des déformations et l'analyse de texture. Applications en imagerie médicale ». Thesis, Poitiers, 2017. http://www.theses.fr/2017POIT2285/document.

Texte intégral
Résumé :
Nous décrivons une procédure numérique pour le recalage d'IRM cérébrales 3D. Le problème d'appariement est abordé à travers la distinction usuelle entre le modèle de déformation et le critère d'appariement. Le modèle de déformation est celui de l'anatomie computationnelle, fondé sur un groupe de difféomorphismes engendrés en intégrant des champs de vecteurs. Le décalage entre les images est évalué en comparant les lignes de niveau de ces images, représentées par un courant différentiel dans le dual d'un espace de champs de vecteurs. Le critère d'appariement obtenu est non local et rapide à calculer. On se place dans l'ensemble des difféomorphismes pour rechercher une déformation reliant les deux images. Pour cela, on minimise le critère en suivant le principe de l'algorithme sous-optimal. L'efficacité de l'algorithme est renforcée par une description eulérienne et périodique du mouvement. L'algorithme est appliqué pour le recalage d'images IRM cérébrale 3d, la procédure numérique menant à ces résultats est intégralement décrite. Nos travaux concernent aussi l'analyse des propriétés de l'algorithme. Pour cela, nous avons simplifié l'équation représentant l'évolution de l'image et étudié l'équation simplifiée en utilisant la théorie des solutions de viscosité. Nous étudions aussi le problème de détection de rupture dans la variance d'un signal aléatoire gaussien. La spécificité de notre modèle vient du cadre infill, ce qui signifie que la distribution des données dépend de la taille de l'échantillon. L'estimateur de l'instant de rupture est défini comme le point maximisant une fonction de contraste. Nous étudions la convergence de cette fonction et ensuite la convergence de l'estimateur associé. L'application la plus directe concerne l'estimation de changement dans le paramètre de Hurst d'un mouvement brownien fractionnaire. L'estimateur dépend d'un paramètre p > 0 et nos résultats montrent qu'il peut être intéressant de choisir p < 2
We present a numerical procedure for the matching of 3D MRI. The problem of image matching is addressed through the usual distinction between the deformation model and the matching criterion. The deformation model is based on the theory of computational anatomy and the set of deformations is a group of diffeomorphisms generated by integrating vector fields. The discrepancy between the two images is evaluated through comparisons of level lines represented by a differential current in the dual of a space of vector fields. This representation leads to a quickly computable non-local criterion. Then, the optimisation method is based on the minimization of the criterion following the idea of the so-called sub-optimal algorithm. We take advantage of the eulerian and periodical description of the algorithm to get an efficient numerical procedure. This algorithm can be used to deal with 3d MR images and numerical experiences are presented. In an other part, we focus on theoretical properties of the algorithm. We begin by simplifying the equation representing the evolution of the deformed image and we use the theory of viscosity solutions to study the simplified equation. The second issue we are interested in is the change-point estimation for a gaussian sequence with change in the variance parameter. The main feature of our model is that we work with infill data and the nature of the data can evolve jointly with the size of the sample. The usual approach suggests to introduce a contrast function and using the point of its maximum as a change-point estimator. We first get an information about the asymptotic fluctuations of the contrast function around its mean function. Then, we focus on the change-point estimator and more precisely on the convergence of this estimator. The most direct application concerns the detection of change in the Hurst parameter of a fractional brownian motion. The estimator depends on a parameter p > 0, generalizing the usual choice p = 2. We present some results illustrating the advantage of a parameter p < 2
Styles APA, Harvard, Vancouver, ISO, etc.
32

Lekmine, Gregory. « Caractérisation de la dynamique de transports dans les milieux fractures par tomographie de resistivité électrique : développements méthodologiques et expérimentaux ». Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112097.

Texte intégral
Résumé :
La tomographie de résistivité électrique (ERT) est une méthode courante géophysique de terrain, souvent utilisée pour détecter et l’évolution suivre les panaches de polluants en zone saturée. L’ERT est cependant une méthode intégratrice dont la fiabilité des modèles est confronte aux problèmes de non unicité des solutions du problème inverse. Ces contraintes limitent l’interprétation des modèles a un aspect qualitatif de la distribution des contrastes de résistivité modélises en 2D ou 3D, résultant du choix des paramètres d’inversion et de l’association de paramètres du milieu non identifiables a l’échelle du volume poreux.Cette thèse propose de tester la faisabilité de la méthode pour quantifier les paramètres de transport de polluants et de solutés miscibles au contact des eaux souterraines, ainsi que la sensibilité des paramètres d’inversion les plus influents sur la modélisation.Les tests expérimentaux sont réalisés en laboratoire sur des empilements 2D de billes de verre sphériques (de l’ordre de la 100èn de μm) dans un réservoir en plexiglas transparent. Deux réseaux verticaux de 21 électrodes sont disposes sur les bords latéraux du réservoir pour effectuer le suivi ERT du traceur sale (NaCl dissout) a partir de 210 points de mesures en dipôle-dipôle transverse acquis toutes les 5 minutes afin d’optimiser la résolution temporelle. Le dispositif est également dispose face a un panneau lumineux permettant de réalise un suivi vidéo simultané du colorant.L’analyse vidéo révèle une propagation plus rapide du colorant sur les bords latéraux qui reste somme toute négligeable pour les débits a la pompe les plus faibles. En revanche les mesures ERT sont fortement perturbées par les effets résistant de la cellule plexiglas qui se répercutent sur les modèles. La normalisation des mesures de résistivité apparente à partir d’une série acquise à l’état initial permet de les atténuer fortement.La modélisation est particulièrement sensible au choix du maillage, aux normes appliques (L1 ou L2) sur les données et les paramètres, et au facteur d’amortissement _. Des valeurs trop élevées de _ et du facteur d’acceptance tendent à lisser les contrastes au niveau du front de dispersion et augmentent l’impact des effets des bords horizontaux sur D et _. A l’inverse, une modélisation contrainte par de faibles valeurs de α et du facteur d’acceptante donne des résultats plus proches l’analyse vidéo, mais produit des effets de bosses à l’avant et à l’arrière du front.La vitesse interstitiel u est indépendante du choix des paramètres d’inversion pour l’ERT. Pour les deux méthodes u est toujours inférieure au débit impose par la pompe, dont le décalage est exprimé par le facteur retard Rf . Les effets de retard résultent de l’adsorption du Na+ sur les surfaces des billes de verre chargées négativement qui retarde le front de dispersion du suivi ERT. Pour le suivi vidéo, la taille importante de la molécule du colorant favorise son piégeage dans les zones ou la perméabilité est plus faible, en plus d’une éventuelle affinité avec la surface solide. Les contrastes de conductivité et la stabilité de l’interface créent par la différence de densité entre les fluides testes ici n’ont pas d’influences significatives sur la dispersion qui est dominée par le débit impose a la pompe. Les estimations du coefficient de dispersion D en fonction du nombre de Péclet sont cohérentes avec la courbe théorique de Bachmat (1968). Cependant la dispersivité α augmente pour les vitesses d’écoulement les plus élevées. Les premières expérimentations de terrain réalises en 2D sur des sables de Fontainebleau présentent l’avantage de s’affranchir des effets de bords inhérents au laboratoire. En revanche la recalibration des données normalisées par la loi de Archie est plus complexe puisqu’il est nécessaire de tenir compte de l’état de saturation de la résistivité des fluides initialement présents. De plus l’erreur importante sur les modèles ne permet pas de déduire une estimation fiable des paramètres de transport u, α (ou D), et Rf
Electrical resistivity tomography is a common geophysical method often used to detect and follow plumepollutants in aquifers. However ERT is an integrative method whose reliability of the models is faced tothe non-unicity of the inverse problem solutions. These constraints limit the interpretation to a qualitativeview of the resistivity contrasts modelled in 2D or 3D, resulting of the chosen inverse parameters and thecombination of several hydrodynamic paramaters related to the poral network.The purpose of this thesis was to test the abilities of the ERT imaging to quantify solute transport parametersin miscible displacement occurred in groundwater and the sensitivity of inverse parameters most affectingthe modelled dispersion front.Laboratory experiments are conducted on glass beads poured into a transparent plexiglas container. Twovertical lines of 21 stainless steel electrodes are fixed on the lateral sides of the container to perform the ERTmonitoring, of the NaCl dissolved in the tracer, from a sequence of 210 quadripole measurements acquiredin transverse dipole-dipole each 5 minutes. A light panel is placed behind the experimental device and avideo follow up of the dyed part of the tracer is acquired from the other side.Video analysis reveal a faster propagation of the dye in contact of the vertical edge, which is negligible forthe lowest flow rates imposed by the pump. In contrast, ERT mesurements are strongly disturbed by theresistant edges of the plexiglas container which affect the resulting models. Normalisation of the apparentresisitivity measurements acquired at the experimental stage and by the Archie’s law strongly tones downthese resistive artefacts.ERT modelling is here particularly sensitive to the grid mesh, the norm (L1 or L2 ) applied on data andparameters, and the damping factor λ. High values of λ and the cutoff factor tend to smooth the resistivityconstrasts in the area of the mixing front and increase the weight of the horizontal edge effects on D andα. While results from inverse modelling constraint by low λ and cutoff factors are much closer to the videoanalysis but with enhanced side slope effects at the rear and the front of the mixing area.The interstitial velocity u is independant of the chosen inverse parameters. For both methods u is alwaysinferior to the flow rate provided by the pump, whose the gap is expressed as a retardation factor Rf . Thisretardation is due to adsorption of Na+ on the beads surfaces, which contributes to delay the dispersionfront followed by ERT. The retardation expressed by the video analysis can be due to the important sizeof the molecule of the dye which is easily slowed down in lower permeability areas, added to an eventualaffinity to the solid surface.The ranges of fluid conductivity contrasts and stability of the interfaces tested here have no influences onthe dispersion which is dominated by the flow velocity u. Estimations of the dispersion coefficient D asfunction of the Péclet is consistent with the theoretical curve of Bachmat (1968) and Bijeljic & al (2004).Field experiments are first conducted in 2D on homogeneous unsaturated sand which is considered as aninfinite half-space. However, data normalisation is much more complicated since the saturation state andthe initial fluid conductivities need to be estimated to calibrate the Archie’s law. Because of the 3D tracerinflitration, the RMS error of 2D-ERT models highlights that the inversion process is not enough constraintby data which does not allow to quantify the transport parameters. 3D experiments were then adaptedto detect and follow plumes of saline tracers injected in the centre of the electrode device. From 3D ERTmeasurements we are able to produce reliable models in order to estimate such transport parameters as themean flow velocity, and transverse and longitudinal dispersivities
Styles APA, Harvard, Vancouver, ISO, etc.
33

Nahimana, Donnay Fleury. « Impact des multitrajets sur les performances des systèmes de navigation par satellite : contribution à l'amélioration de la précision de localisation par modélisation bayésienne ». Phd thesis, Ecole Centrale de Lille, 2009. http://tel.archives-ouvertes.fr/tel-00446552.

Texte intégral
Résumé :
De nombreuses solutions sont développées pour diminuer l'influence des multitrajets sur la précision et la disponibilité des systèmes GNSS. L'intégration de capteurs supplémentaires dans le système de localisation est l'une des solutions permettant de compenser notamment l'absence de données satellitaires. Un tel système est certes d'une bonne précision mais sa complexité et son coût limitent un usage très répandu.Cette thèse propose une approche algorithmique destinée à améliorer la précision des systèmes GNSS en milieu urbain. L'étude se base sur l'utilisation des signaux GNSS uniquement et une connaissance de l'environnement proche du récepteur à partir d'un modèle 3D du lieu de navigation.La méthode présentée intervient à l'étape de filtrage du signal reçu par le récepteur GNSS. Elle exploite les techniques de filtrage statistique de type Monte Carlo Séquentiels appelées filtre particulaire. L'erreur de position en milieu urbain est liée à l'état de réception des signaux satellitaires (bloqué, direct ou réfléchi). C'est pourquoi une information sur l'environnement du récepteur doit être prise en compte. La thèse propose également un nouveau modèle d'erreurs de pseudodistance qui permet de considérer les conditions de réception du signal dans le calcul de la position.Dans un premier temps, l'état de réception de chaque satellite reçu est supposé connu dans le filtre particulaire. Une chaîne de Markov, valable pour une trajectoire connue du mobile, est préalablement définie pour déduire les états successifs de réception des satellites. Par la suite, on utilise une distribution de Dirichlet pour estimer les états de réception des satellites
Styles APA, Harvard, Vancouver, ISO, etc.
34

Gurwinder, Sivia Sandra. « Simulations and parameterisation of volcanic plumes observed in La Réunion Island, Piton de la Fournaise ». Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2731/.

Texte intégral
Résumé :
Le Piton de la Fournaise est un volcan situé sur l'Ile de la Réunion, dans l'Océan Indien, à 2600 m d'altitude. Avec une éruption tous les huit mois en moyenne, le Piton de la Fournaise est un des volcans les plus actifs du monde. Les débris volcaniques, un mélange de téphra et de gaz sont connus pour avoir un impact considérable sur l'atmosphère et la santé humaine. La pollution acide créée par les éruptions peut être transportée par les vents sur de grandes distances. Les incertitudes dans la modélisation de tels transports exigent des améliorations continues des techniques de modélisation. Cette étude est un premier pas vers le développement d'un nouveau système d'alerte à la pollution par les émissions volcaniques avec une première application sur le Piton de la Fournaise. Un facteur critique pour le succès de la surveillance et de la prévision de la dispersion des cendres et des gaz volcaniques repose sur une identification correcte de la hauteur atteinte par les nuages éruptifs. L'objectif de cette étude est de paramétriser la convection atmosphérique induite par le volcan dans un modèle méso-échelle (1 km de résolution) initialisé par des sources de chaleur prescrites en surface. Le choix a été fait de modifier un schéma de convection peu profonde utilisé dans le modèle méso-échelle Méso-NH. Cette paramétrisation est validée par une simulation LES considérée comme une référence. Cet objectif initial atteint, le schéma modifié est testé dans la version tri-dimensionnelle du modèle sur un cas réel
Piton de la Fournaise a volcano of altitude 2600 m a. S. L is located in Reunion Island in the Indian Ocean. With an average of on eruption every eight months, it's amongst one of the world's most active volcano. Volcanic ejecta, a mixture of tephra and gases are known to have considerable impact on the safety of air traffic and on human health. Acidic pollution created by the eruptions can be transported by wind over large distances. Uncertainties in modelling such transport demands continuous improvements in modelling techniques. This study aims to take a first step toward the development of a new volcano emissions alert notification system with a first application on the Piton de La Fournaise volcano. A critical factor in successfully monitoring and forecasting the dispersion of volcanic ash and gases relies on a correct identification of the height reached by eruption clouds. The objective of this study is to parameterise a volcanic convection in a mesoscale model (1 km resolution) initialised by heat sources prescribed at the ground. This is achieved by modifying a current shallow convection scheme used in a mesoscale model, Meso-NH. This modified parameterisation is validated by LES simulation considered as a reference. Having fulfilled the primary objective of this study, the modified scheme is tested as a first application in a 3D real-case environment
Styles APA, Harvard, Vancouver, ISO, etc.
35

Delaporte, Florent. « Nouvelles approches de conception en vue de la limitation des risques de compatibilité électromagnétique et de fuite d'information sur les équipements électroniques embarqués ». Thesis, Rennes, INSA, 2020. http://www.theses.fr/2020ISAR0004.

Texte intégral
Résumé :
Le marché actuel des systèmes électroniques est très compétitif. D’un point de vue de la CEM, ceci impose la conception de produits fonctionnels et respectant les normes, dans des délais les plus courts possibles. Pour répondre à ces besoins, il faut prendre en compte la CEM au plus tôt dans le design. Dans le contexte de conception de carte électroniques, deux problèmes demeurent pour parvenir à cet objectif. Premièrement, les contraintes normatives définies au niveau de l’équipement sont difficiles à décliner au niveau de la carte. Deuxièmement, beaucoup de paramètres sont indéterminés en amont de la conception, rendant difficile l’analyse et la prise de décision. Ce mémoire propose de répondre à ces problématiques dans le cadre d’une étude d’émissivité rayonnée. Pour cela, une démarche de création de modèle paramétrique de rayonnement de carte électronique est proposée. L’utilisation de la puissance totale rayonnée (PTR) comme sortie du modèle sert de passerelle entre une représentation de la carte et celle de mécanique, au niveau système, répondant à la première problématique. Le modèle de carte électronique ainsi obtenu doit être capable de réaliser une analyse de sensibilité pour répondre à la deuxième problématique. L’utilisation de méta-modèles sur la simulation numérique permet d’obtenir des modèles à la fois rapides et fiables. Cette méthode, proposée dans cette thèse, est éprouvée sur des scénarios d’une relative complexité, pour démontrer son utilité dans la prise de décision lors de la conception d’un circuit imprimé
Today electronic systems market is very competitive. From an EMC point of view, it implies designing functional products, which pass EMC standards, in a minimum amount of time. To meet these needs, designers have to consider EMC as soon as possible in their design. In the context of electronic board design, there are two challenges to reach this goal. Firstly, the constraints in standards are equipment-level defined. Convert them to a board level is hardly accessible. Secondly, many parameters are undetermined at the beginning of the design, which prevents analysis and decision-making. This dissertation put forward some answers in a radiated emissivity context. To do so, a procedure to create a parametric model for the emissivity of an electronic board is proposed. The total radiated power as output of the model consists of the input at a system level model. This solves the first problem. The model built must be able to provide a sensitivity analysis to solve the second problem. Surrogate modeling based on electromagnetic (but time and resource consuming) simulation offers reliable and fast models. This is the methodology proposed by this thesis. It is tested on scenarios of moderate complexity, to prove how useful it is in decision-making during the conception of a stackup of a board
Styles APA, Harvard, Vancouver, ISO, etc.
36

Zhang, Bo. « Contributions à la microscopie à fluorescence en imagerie biologique : modélisation de la PSF, restauration d'images et détection super-résolutive ». Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003273.

Texte intégral
Résumé :
Cette thèse propose trois contributions principales pour l'imagerie en microscopie à fluorescence. (1) Modélisation du système optique : nous avons étudié les approximations gaussiennes des moindres carrés pour les réponses impulsionnelles optiques (PSFs) limitées par la diffraction du microscope en champ large (WFFM), du microscope confocal (LSCM), et du microscope confocal à disque rotatif (DSCM). Les situations paraxiales/non-paraxiales et 2D/3D sont toutes considérées. Les PSFs sont décrites par les intégrales de diffraction de Debye. Nous avons dérivé les paramètres gaussiens optimaux pour la PSF 2D paraxiale du WFFM, sous les normalisations Linf et L1. Pour les autres PSFs, avec la normalisation Linf, des paramètres quasi-optimaux sont explicitement dérivés par l'appariement des séries de Maclaurin. Ces modèles approximatifs gaussiens peuvent être calculés rapidement, et facilitent considérablement la modélisation des objets biologiques. (2) Débruitage des images de fluorescence : les images issues des LSCM et DSCM ont des statistiques purement poissoniennes ou poissoniennes et gaussiennes mélangées (MPG) selon les différents modes d'acquisition du microscope. Deux approches sont proposées pour restaurer une image poissonienne. La première méthode, basée sur les tests d'hypothèses dans le domaine de Haar biorthogonale, est particulièrement appropriée à estimer rapidement les intensités poissoniennes régulières dans des données de grandes tailles. Notre deuxième méthode, basée sur une transformée stabilisatrice de variance (VST), permet de gaussianiser et stabiliser un processus poissonien filtré. Cette VST peut être combinée avec de nombreuses transformées multi-échelles, ce qui conduit aux VSTs multi-échelles (MS-VSTs). Nous montrons que les MS-VSTs permettent de restaurer efficacement des structures saillantes de diverses formes (isotropes, linéiques et curvilignes) avec un (très) faible flux photonique. La MS-VST est également généralisée pour débruiter les données MPG et pour extraire les taches fluorescentes dans les données MPG. (3) Détection super-résolutive : nous avons revu et étendu les résultats des limites de la résolution pour les sources ponctuelles issus des théories de la détection, de l'estimation, et de l'information. En particulier, nous avons proposé d'appliquer la VST pour étudier les limites de la résolution dans le cas d'observations poissoniennes ou MPG. Les résultats sont asymptotiquement consistants et les expressions sont de formes closes. Nous avons également généralisé une approche de super-résolution qui est basée sur l'ajustement de modèle paramètrique et la sélection de l'ordre de modèle pour localiser un nombre inconnu de spots ou de bâtonnets. Cette méthode permet non seulement de localiser les sources ayant des configurations spatiales complexes, mais aussi d'extraire les objets séparés par des distances inférieures à la résolution optique de Rayleigh (super-résolution).
Styles APA, Harvard, Vancouver, ISO, etc.
37

Banus, Cobo Jaume. « Coeur & ; Cerveau. Lien entre les pathologies cardiovasculaires et la neurodégénérescence par une approche combinée biophysique et statistique ». Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4030.

Texte intégral
Résumé :
Les études cliniques ont identifié plusieurs facteurs de risque cardiovasculaire associés à la démence et aux pathologies cardiaques, mais leur interaction pathologique reste mal comprise. Habituellement, l'étude de la relation cœur-cerveau est réalisée à travers d'analyses statistiques explorant l'association entre les indicateurs cardiaques et les biomarqueurs cognitifs. Ce type d'étude est généralement réalisé dans des bases de données épidémiologiques, pour lesquelles des mesures conjointes du cerveau et du cœur sont disponibles. Par conséquent, la généralisation de ces résultats aux études sur la démence est difficile, car les évaluations approfondies des fonctions cardiovasculaires dans les bases de données sur la démence actuellement disponibles font généralement défaut. Un autre facteur limitatif des études actuelles est l'interprétabilité limitée des relations physiopathologiques entre le cœur et le cerveau. L'amélioration de notre compréhension des implications de la fonction cardiovasculaire dans la démence nécessite le développement de modèles mécniaques de la physiologie cardiaque, ainsi que le développement de nouvelles approches permettant d'intégrer ces modèles avec des biomarqueurs cérébraux basés sur l'image. Pour relever ces défis, nous avons développé dans cette thèse de nouveaux outils informatiques basés sur l'intégration de modèles mécaniques dans un cadre d'apprentissage statistique. Premièrement, nous avons étudié l'association entre des indicateurs physiologiques non observables, tels que la contractilité cardiaque, et des caractéristiques d'imagerie dérivées du cerveau. À cette fin, l'espace des paramètres d'un modèle mécanique de la fonction cardiaque a été contraint pendant l'étape de personnalisation sur la base des relations entre les paramètres du modèle cardiaque et les informations cérébrales. Cela permet d’attenuer le caractère mal defini du problème inverse associé à la personnalisation du modèle, et d'obtenir des solutions spécifiques au patient qui sont comparables au sein de la population.Deuxièmement, nous avons développé un modèle d'imputation probabiliste qui permet d'imputer les informations cardiaques manquantes dans des bases de données limitées. L'imputation repose sur les dynamiques cœur-cerveau apprises à partir de l'analyse d'une grande population de sujets, et utilise cette connaissance pour obtenir des solutions plausibles dans des bases de données partielles. La nature générative de l'approche permet de simuler l'évolution des paramètres du modèle cardiaque lorsque les caractéristiques du cerveau changent. Troisièmement, nous avons analysé le rôle des paramètres du modèle cardiaque comme biomarqueurs précoces de la démence, ce qui pourrait aider à identifier les individus à risque. Dans ce but, nous avons imputé les informations cardiaques manquantes dans une cohorte longitudinale de la maladie d'Alzheimer. Ensuite, grâce à la modélisation de la progression de la maladie, nous avons estimé le stade de la maladie pour chaque individu sur la base de l'évolution des biomarqueurs. Ceci a permis d'obtenir un modèle de l'évolution de la maladie, d'analyser le rôle de la fonction cardiaque, et d'identifier les paramètres du modèle cardiaque comme biomarqueurs potentiels de la démence à un stade précoce. Les résultats démontrent l'importance des outils développés en obtenant des associations cliniquement plausibles entre les paramètres du modèle cardiaque et les caractéristiques de l'imagerie cérébrale. Ces résultats mettent également en évidence des informations sur la relation physiologique entre la fonction cardiaque et les biomarqueurs de la démence. Les résultats obtenus ouvrent de nouvelles voies de recherche, telles que l'utilisation de modèles mécaniques plus complexes permettant de mieux caractériser la relation cœur-cerveau, ou l'utilisation de modèles cardiaques biophysiques pour dériver des biomarqueurs in-silico afin d'identifier les individus à risque de démence
Clinical studies have identified several cardiovascular risk factors associated to dementia and cardiac pathologies, but their pathological interaction remains poorly understood. Classically, the investigation of the heart-brain relationship is mostly carried out through statistical analysis exploring the association between cardiac indicators and cognitive biomarkers. This kind of investigations are usually performed in large-scale epidemiological datasets, for which joint measurements of both brain and heart are available. For this reason, most of these analyses are performed on cohorts representing the general population. Therefore, the generalisation of these findings to dementia studies is generally difficult, since extensive assessments of cardiac and cardiovascular function in currently available dementia dataset is usually lacking. Another limiting factor of current studies is the limited interpretability of the complex pathophysiological relations between heart and brain allowed by standard correlation analyses. Improving our understanding of the implications of cardiovascular function in dementia ultimately requires the development of more refined mechanistic models of cardiac physiology, as well as the development of novel approaches allowing to integrate these models with image-based brain biomarkers. To address these challenges, in this thesis we developed new computational tools based on the integration of mechanistic models within a statistical learning framework. First, we studied the association between non-observable physiological indicators, such as cardiac contractility, and brain-derived imaging features. To this end, the parameter-space of a mechanistic model of the cardiac function was constrained during the personalisation stage based on the relationships between the parameters of the cardiac model and brain information. This allows to tackle the ill-posedness of the inverse problem associated to model personalisation, and obtain patient-specific solutions that are comparable population-wise.Second, we developed a probabilistic imputation model that allows to impute missing cardiac information in datasets with limited data. The imputation leverages on the cardiac-brain dynamics learned in a large-scale population analysis, and uses this knowledge to obtain plausible solutions in datasets with partial data. The generative nature of the approach allows to simulate the evolution of cardiac model parameters as brain features change. The framework is based on a conditional variational autoencoder (CVAE) combined with Gaussian process (GP) regression. Third, we analysed the potential role of cardiac model parameters as early biomarkers for dementia, which could help to identify individuals at risk. To this end, we imputed missing cardiac information in an Alzheimer's disease (AD) longitudinal cohort. Next, via disease progression modelling we estimated the disease stage for each individual based on the evolution of biomarkers. This allowed to obtain a model of the disease evolution, to analyse the role of cardiac function in AD, and to identify cardiac model parameters as potential early-stage biomarkers of dementia. These results demonstrate the importance of the developed tools by providing clinically plausible associations between cardiac model parameters and brain imaging features in an epidemiological dataset, as well as highlighting insights about the physiological relationship between cardiac function and dementia biomarkers. The obtained results open new research directions, such as the use of more complex mechanistic models that allow to better characterise the heart-brain relationship, or the use of biophysical cardiac models to derive in-silico biomarkers for identifying individuals at risk of dementia in clinical routine, and/or for their inclusion in neuroprotective trials
Styles APA, Harvard, Vancouver, ISO, etc.
38

Hammoud, Riad Ibrahim. « Construction et présentation des vidéos interactives ». Grenoble INPG, 2001. http://www.theses.fr/2001INPG0009.

Texte intégral
Résumé :
L'arrivée de la norme MPEG-7 pour les vidéos exige la création de structures de haut niveau représentant leurs contenus. Le travail de cette thèse aborde l'automatisation de la fabrication d'une partie de ces structures. Comme point de départ, nous utilisons des outils de segmentation des objets en mouvement. Nos objectifs sont alors : retrouver des objets similaires dans la vidéo, utiliser les similarités entre plans caméras pour construire des regroupements de plans en scènes. Une fois ces structures construites, il est facile de fournir aux utilisateurs finaux des outils de visualisation de la vidéo permettant des navigations interactives : par exemple sauter au prochain plan ou scène contenant un personnage. La difficulté principale réside dans la grande variabilité des objets observés : changements de points de vues, d'échelles, occultations, etc. La contribution principale de cette thèse est la modélisation de la variabilité des observations par un mélange de densités basée sur la théorie du mélange gaussien. Cette modélisation permet de capturer les différentes apparences intra-plan de l'objet suivi et de réduire considérablement le nombre des descripteurs de bas niveaux à indexer par objet suivi. Autour de cette contribution se greffent des propositions qui peuvent être vues comme des mises en oeuvre de cette première pour différentes applications : mise en correspondance des objets suivis représentés par des mélanges gaussiens, fabrication initiale des catégories de tous les objets présents dans une vidéo par une technique de classification non supervisée, extraction de vues caractéristiques et utilisation de la détection d'objets similaires pour regrouper des plans en scènes
The arrival of the MPEG-7 standard for videos requires the creation of high level structures representing their content. The work of this thesis approaches the automatic building of a part of these structures. As a starting point, we use the tools for segmentation of moving objects. Our objectives are then to find similar objects in the video and subsequently use the similarities between camera shots to group shots into video scenes. Once these structures have been built, it is easy to provide video visualization tools for the end users which permit interactive navigation like jumping to the next shot or scene containing a person. The main difficulty lies in the great variability of observed objects: changes in point of view, scales, collusions, etc. The principal contribution of this thesis is the modeling of the variability of observations by a mixture of densities based on the Gaussian mixture theory. This modeling captures various intra-shot appearances of a tracked object and considerably reduces the number of low-level descriptors to be indexed by each tracked object. The proposed formulation led to an implementation designed for different applications: matching of tracked object models represented by Gaussian mixtures, initial building of categories of all objects present in a video by a non-supervised classification technique, extraction of characteristic views and use of detected similar objects for grouping shots into scenes. Keywords: Hyperlinked video, MPEG-7, Object recognition and classification, Variability modeling, Gaussian mixture models, Interactive video navigation, Video structure
Styles APA, Harvard, Vancouver, ISO, etc.
39

Soltane, Marius. « Statistique asymptotique de certaines séries chronologiques à mémoire ». Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA1027.pdf.

Texte intégral
Résumé :
Cette thèse est dévolue à la statistique inférentielle asymptotique de différents modèles chronologiques dirigés par un bruit comportant de la mémoire. Dans ces modèles, l'estimateur des moindres carrés n'est pas consistant et nous considérons d'autres estimateurs. Nous commençons par étudier les propriétés asymptotiques presquesûres de l'estimateur du maximum de vraisemblance du coefficient d'autorégression dans un processus autorégressif dirigé par un bruit gaussien stationnaire. Nous présentons ensuite une procédure statistique afin de détecter un changement de régime au sein de ce modèle en s'inspirant du cas classique dirigé par un bruit blanc fort. Nous abordons ensuite un modèle autorégressif où les coefficients sont aléatoires et possèdent une courte mémoire. Là encore l'estimateur des moindres carrés n'est pas consistant et nouscorrigeons l'estimation afin d'estimer correctement les paramètres du modèle. Pour finir nous étudions un nouvel estimateur joint de l'exposant de Hurst et de la variance dans un bruit gaussien fractionnaire observé à haute fréquence dont les qualités sont comparables au maximum de vraisemblance
This thesis is devoted to asymptotic inferenre of differents chronological models driven by a noise with memory. In these models, the least squares estimator is not consistent and we consider other estimators. We begin by studying the almost-sureasymptotic properties of the maximum likelihood estimator of the autoregressive coefficient in an autoregressive process drivenby a stationary Gaussian noise. We then present a statistical procedure in order to detect a change of regime within this model,taking inspiration from the classic case driven by a strong white noise. Then we consider an autoregressive model where the coefficients are random and have a short memory. Here again, the least squares estimator is not consistent and we correct the previous statistic in order to correctly estimate the parameters of the model. Finally we study a new joint estimator of the Hurst exponent and the variance in a fractional Gaussian noise observed at high frequency whose qualities are comparable to the maximum likelihood estimator
Styles APA, Harvard, Vancouver, ISO, etc.
40

Rivoirard, Vincent. « Estimation bayésienne non paramétrique ». Phd thesis, Université Paris-Diderot - Paris VII, 2002. http://tel.archives-ouvertes.fr/tel-00002149.

Texte intégral
Résumé :
Dans le cadre d'une analyse par ondelettes, nous nous intéressons à l'étude statistique d'une classe particulière d'espaces de Lorentz : les espaces de Besov faibles qui apparaissent naturellement dans le contexte de la théorie maxiset. Avec des hypothèses de type "bruit blanc gaussien", nous montrons, grâce à des techniques bayésiennes, que les vitesses minimax des espaces de Besov forts ou faibles sont les mêmes. Les distributions les plus défavorables que nous exhibons pour chaque espace de Besov faible sont construites à partir des lois de Pareto et diffèrent en cela de celles des espaces de Besov forts. Grâce aux simulations de ces distributions, nous construisons des représentations visuelles des "ennemis typiques". Enfin, nous exploitons ces distributions pour bâtir une procédure d'estimation minimax, de type "seuillage" appelée ParetoThresh, que nous étudions d'un point de vue pratique. Dans un deuxième temps, nous nous plaçons sous le modèle hétéroscédastique de bruit blanc gaussien et sous l'approche maxiset, nous établissons la sous-optimalité des estimateurs linéaires par rapport aux procédures adaptatives de type "seuillage". Puis, nous nous interrogeons sur la meilleure façon de modéliser le caractère "sparse" d'une suite à travers une approche bayésienne. À cet effet, nous étudions les maxisets des estimateurs bayésiens classiques - médiane, moyenne - associés à une modélisation construite sur des densités à queues lourdes. Les espaces maximaux pour ces estimateurs sont des espaces de Lorentz, et coïncident avec ceux associés aux estimateurs de type "seuillage". Nous prolongeons de manière naturelle ce résultat en obtenant une condition nécessaire et suffisante sur les paramètres du modèle pour que la loi a priori se concentre presque sûrement sur un espace de Lorentz précis.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Audard, François. « Modélisation eulérienne de la vidange d'un silo et de l'expansion du panache ». Phd thesis, 2016. http://oatao.univ-toulouse.fr/17777/1/Audard_Francois_INPT.pdf.

Texte intégral
Résumé :
De nombreux procédés industriels nécessitent la manipulation de matériaux sous forme pulvérulente. L’émission de poussières générée par leur manipulation peut s’avérer dangereuse pour la santé des travailleurs ou bien causer un risque d’explosion. Afin de mieux comprendre les mécanismes de dispersion des poussières, le cas de la décharge d’un silo est étudié par simulation numérique avec une approche Euler-Euler. Deux configurations ont été étudiées au cours de cette thèse. La première, sans silo, a permis d’étudier l’influence de perturbations de vitesses imposées à l’entrée de la chambre de dispersion en lieu et place du silo. Cette étude a révélé que ces perturbations peuvent influencer l’élargissement du panache de poudre. Seules les perturbations avec une corrélation temporelle ont généré une ouverture importante du jet tombant semblable à celle relevée expérimentalement. Dans la deuxième configuration, le silo et la chambre de dispersion sont représentés afin d’étudier le couplage entre la dispersion du jet et l’écoulement dans le silo. L’une des difficultés de ces simulations est de prédire les différents régimes d’écoulements granulaires, allant de l’état quasi-statique dans le silo au régime très dilué lors de la dispersion du jet tombant, en passant par le régime collisionnel à la sortie du silo. La théorie cinétique permet de modéliser le régime dilué et collisionnel. En revanche pour la partie quasi-statique un modèle semi-empirique a été utilisé, implémenté et validé sur différentes configurations. La seconde étude a montré l’importance du rapport entre le diamètre de l’orifice et le diamètre des particules sur la structure du jet. En effet, lorsque ce paramètre est faible, le coeur du jet se contracte immédiatement après la sortie du silo puis s’ouvre en aval. Pour des valeurs grandes, l’ouverture du jet est négligeable. Cependant, il semblerait que l’angle du silo modifie le comportement de l’écoulement, ce qui nécessitera des études supplémentaires.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Guerinot, Geneviève. « Modélisation du vieillissement chimique de panachés de feux de biomasse boreaux ». Phd thesis, 2000. http://tel.archives-ouvertes.fr/tel-00764878.

Texte intégral
Résumé :
Les feux de biomasse ont un impact important sur l'atmosphère car ils émettent de grandes quantités de composés réactifs (CO, hydrocarbures, acides organiques, NH3, NOx), de gaz à effet de serre (C02, CH4, N20), et d'aérosols. Cette étude est principalement basée sur 2 types de mesures: (1) la composition chimique de panaches de feu du Canada et de l'Alaska (campagne ABLE-3B : The Arctic Boundary Layer Expedition) ; (2) l'analyse chimique des carottes de glaces du Groenland qui fournit un enregistrement unique des précipitations reflétant la composition atmosphérique au moment de la déposition. Ces mesures indiquent des augmentations simultanées d'acide formique et d'acide acétique, ainsi que la présence du formiate d'ammonium. Ces pics sporadiques ont été attribués à des événements de feu de biomasse. La comparaison de (1) et (2) suggère une évolution chimique caractéristique au cours des 5 jours de transport des panaches de feu entre l'Amérique du Nord et le Groenland. Le but de cette étude est d'expliquer la signature des feux de biomasse boréaux enregistrée dans la glace, et de discerner quels sont les processus chimiques qui gouvernent le vieillissement des panaches de feu. Nous avons utilisé un modèle météorologique, et développé un modèle de chimie atmosphérique traitant une chimie gazeuse et aqueuse : élaboration d'un calcul de pH des gouttelettes d'eau nuageuse, induction d'une nouvelle méthode mathématique, puis, mise à jour, modification, et élargissement du schéma réactionnel. Les résultats montrent que les panaches de feux observés au-dessus du Canada ont atteint un équilibre chimique après leur formation en quelques heures ou quelques jours. La chimie aqueuse a une influence négligeable sur les résultats et se sont les transferts de phase gaz-eau-glace qui permettent d'expliquer les mesures de la glace. Nous expliquons comment nous avons extrapolé nos résultats de modélisation à ceux dans la glace, et comment nous avons déterminé des paramètres physico-chimiques importants concernant l'incorporation des composés chimiques dans la glace.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Hammoud, Riad. « Construction et Présentation des Vidéos Interactives ». Phd thesis, 2001. http://tel.archives-ouvertes.fr/tel-00584071.

Texte intégral
Résumé :
L'arrivée de la norme MPEG-7 pour les vidéos exige la création de structures de haut niveau représentant leurs contenus. Le travail de cette thèse aborde l'automatisation de la fabrication d'une partie de ces structures. Comme point de départ, nous utilisons des outils de segmentation des objets en mouvement. Nos objectifs sont alors : retrouver des objets similaires dans la vidéo, utiliser les similarités entre plans caméras pour construire des regroupements de plans en scènes. Une fois ces structures construites, il est facile de fournir aux utilisateurs finaux des outils de visualisation de la vidéo permettant des navigations interactives : par exemple sauter au prochain plan ou scène contenant un personnage. La difficulté principale réside dans la grande variabilité des objets observés : changements de points de vues, d'échelles, occultations, etc. La contribution principale de cette thèse est la modélisation de la variabilité des observations par un mélange de densités basée sur la théorie du mélange gaussien. Cette modélisation permet de capturer les différentes apparences intra-plan de l'objet suivi et de réduire considérablement le nombre des descripteurs de bas niveaux à indexer par objet suivi. Autour de cette contribution se greffent des propositions qui peuvent être vues comme des mises en oeuvre de cette première pour différentes applications : mise en correspondance des objets suivis représentés par des mélanges gaussiens, fabrication initiale des catégories de tous les objets présents dans une vidéo par une technique de classification non supervisée, extraction de vues caractéristiques et utilisation de la détection d'objets similaires pour regrouper des plans en scènes.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie