Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Échelle numérique.

Thèses sur le sujet « Échelle numérique »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Échelle numérique ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Duclous, Roland. « Modélisation et Simulation Numérique multi-échelle du transport cinétique électronique ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2009. http://tel.archives-ouvertes.fr/tel-00472327.

Texte intégral
Résumé :
Ce manuscrit est dédié au transport relativiste cinétique sous influence de champs magnétiques, identifié comme obstacle pour la modélisation et la simulation intégrée, dans le cadre de la Fusion par Confinement Inertiel (FCI). Une réalisation importante concerne le développement d'un code déterministe de référence, 2Dx-3Dv, de type Maxwell-Fokker-Planck-Landau, permettant la prise en compte de fonctions de distribution à large degré d'anisotropie. Ce travail se situe à l'interface de l'analyse numérique, des mathématiques appliquées, et de la physique des plasmas. Un deuxième résultat marquant concerne la dérivation d'un modèle collisionel multi-échelle, pour le transport d'électrons relativistes dans la matière dense. Des processus importants sont mis en évidence pour la FCI, et une analogie est menée vis-à-vis des processus de transport collisionels connus en radiothérapie. Enfin, un modèle mésoscopique aux moments angulaires, avec fermeture entropique, a été dérivé et utilisé pour le dépôt de dose pour la radiothérapie. Des schémas numériques précis, d'ordre élevé, et robustes, ont été développé dans ce cadre.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Legoll, Frédéric. « Contributions à l'étude mathématique et numérique de quelques modèles en simulation multi-échelle des matériaux ». Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00783334.

Texte intégral
Résumé :
La première partie du mémoire résume des travaux en simulation moléculaire. On s'intéresse à des systèmes de particules ponctuelles (représentant typiquement les noyaux des atomes d'un système moléculaire), qui interagissent via une énergie potentielle. Les degrés de liberté du système sont la position et l'impulsion de chaque particule. La complexité du problème vient du nombre de degrés de liberté en jeu, qui peut atteindre (et dépasser!) plusieurs centaines de milliers d'atomes pour les systèmes d'intérêt pratique.
Les questions étudiées portent sur l'échantillonnage de la mesure de Boltzmann-Gibbs (avec des résultats concernant la non-ergodicité de certains systèmes dynamiques proposés dans la littérature), et sur la construction de dynamiques effectives: supposant que le système suit une dynamique X_t régie par l'équation de Langevin amortie, et se donnant une variable scalaire macroscopique xi(X), lente en un certain sens, nous proposons une dynamique mono-dimensionnelle fermée qui approche xi(X_t), et dont la précision est estimée à l'aide de méthodes d'entropie relative.
Une autre partie du travail consiste à développer de nouveaux schémas numériques pour des problèmes Hamiltoniens hautement oscillants (souvent rencontrés en simulation moléculaire), en suivant une démarche d'homogénéisation en temps. Nous avons aussi proposé une adaptation au contexte Hamiltonien de l'algorithme pararéel, permettant d'obtenir la solution d'un problème d'évolution par des méthodes de calcul parallèle.

La seconde partie du mémoire présente des travaux sur la dérivation de modèles à l'échelle du continuum à partir de modèles discrets (à l'échelle atomistique), pour les solides, et sur le couplage de ces deux modèles, discret et continu. Une première approche consiste à poser le problème sous forme variationnelle (modélisation à température nulle). Nous nous sommes aussi intéressés au cas de systèmes à température finie, modélisés dans le cadre de la mécanique statistique. Dans certains cas, nous avons obtenu des modèles réduits, macroscopiques, où la température est un paramètre, en suivant des approches de type limite thermodynamique.

La troisième partie du mémoire s'intéresse à des questions d'homogénéisation stochastique, pour des équations aux dérivées partielles elliptiques linéaires. Les matériaux sont donc modélisés à l'échelle du continuum. Le constat qui motive notre travail est le fait que, même dans les cas les plus simples sur le plan théorique, les méthodes numériques à ce jour disponibles en homogénéisation stochastique conduisent à des calculs très lourds. Nous avons travaillé dans deux directions. La première consiste à réduire la variance des quantités aléatoires effectivement calculées, seules accessibles en pratique pour approcher la matrice homogénéisée. La seconde est d'étudier le cas de problèmes faiblement stochastiques, en partant du constat que les matériaux hétérogènes, rarement périodiques, ne sont pas pour autant systématiquement fortement aléatoires. Le cas d'un matériau aléatoire pour lequel cet aléa n'est qu'une petite perturbation autour d'un modèle périodique est donc intéressant, et peut se traiter avec un coût calcul beaucoup plus abordable.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Touzeau, Josselyn. « Approches numérique multi-échelle/multi-modèle de la dégradation des matériaux composites ». Phd thesis, Ecole Centrale Paris, 2012. http://tel.archives-ouvertes.fr/tel-00837874.

Texte intégral
Résumé :
Nos travaux concernent la mise en oeuvre d'une méthode multiéchelle pour faciliter la simulation numérique de structures complexes, appliquée à la modélisation de composants aéronautiques (notamment pour les pièces tournantes de turboréacteur et des structures composites stratifiées). Ces développements sont basés autour de la méthode Arlequin qui permet d'enrichir des modélisations numériques, à l'aide de patchs, autour de zones d'intérêt où des phénomènes complexes se produisent. Cette méthode est mise en oeuvre dans un cadre général permettant la superposition de maillages incompatibles au sein du code de calcul Z-set{Zébulon, en utilisant une formulation optimale des opérateurs de couplage. La précision et la robustesse de cette approche ont été évaluées sur différents problèmes numériques. Afin d'accroître les performances de la méthode Arlequin, un solveur spécifique basé sur les techniques de décomposition de domaine a été développé pour bénéficier des capacités de calcul offertes par les machines à architectures parallèles. Ces performances ont été évaluées sur différents cas tests académiques et quasi-industriels. Enfin, ces développements ont été appliqué à la simulation de problèmes de structures composites stratifiées.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Dabonneville, Felix. « Développement d'une méthode numérique multi-échelle et multi-approche appliquée à l'atomisation ». Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR018/document.

Texte intégral
Résumé :
L’objet de cette thèse a été de développer une méthode numérique multi-approche et multiéchelle appliquée à la simulation d’écoulements diphasiques de fluides non miscibles, incompressibles et isothermiques et plus particulièrement à l’atomisation primaire. Cette méthode repose sur une approche couplée entre un maillage local raffiné et un maillage global plus large. Le couplage est explicite avec raffinement en temps, c’est-à-dire que chaque domaine évolue selon son propre pas de temps. Afin de prendre en compte les différentes échelles en temps et en espace dans le processus d’atomisation, cette méthode numérique couple deux méthodes numériques diphasiques différentes : une méthode de capture de l’interface dans le domaine local raffiné près de l’injecteur et une méthode de sous-maille dans le domaine global grossier et la région du spray dispersé. Le code développé et parallélisé dans le logiciel OpenFOAMR s’avère capable de réduire de manière significative le temps de calcul d’une simulation aux grandes échelles de l’atomisation dans un injecteur coaxial, tout en prédisant de manière fiable les données expérimentales
The purpose of this work has been to develop a multi-approach and multi-scale numerical method applied to the simulation of two-phase flows involving non miscible, incompressible and isothermal fluids, and more specifically primary atomization. This method is based on a coupled approach between a refined local mesh and a coarser global mesh. The coupling is explicit with refinement in time, i.e. each domain evolves following its own time-step. In order to account for the different scales in space and time of the atomization process, this numerical method couples two different two-phase numerical methods: an interface capturing method in the refined local domain near the injector and a sub-grid method in the coarser global domain in the dispersed spray region. The code has been developed and parallelized in the OpenFOAMR software. It is able to reduce significantly the computational cost of a large eddy simulation of a coaxial atomization, while predicting with accuracy the experimental data
Styles APA, Harvard, Vancouver, ISO, etc.
5

Fall, Mandiaye. « Modélisation multi-échelle de systèmes nanophotoniques et plasmoniques ». Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4777/document.

Texte intégral
Résumé :
Les structures nanophotoniques sont généralement simulées par des méthodes de volumes, comme la méthode des différences finies dans le domaine temporel (FDTD), ou la méthode des éléments finis (FEM). Toutefois, pour les grandes structures, ou des structures plasmoniques métalliques qui nécessitent, la mémoire et le temps de calcul requis peuvent augmenter de façon spectaculaire.Les méthodes de surface, comme la méthode des éléments de frontière (BEM) ont été développées afin de réduire le nombre d'éléments de maillage. Ces méthodes consistent à exprimer le champ formé dans tout l'espace en fonction des courants électrique et magnétique à la surface de l’objet. Combinées avec la méthode multipôle rapide (FMM) qui permet une accélération du calcul de l'interaction entre les éléments lointain du maillage, de grands systèmes peuvent ainsi être manipulés.Nous avons développé, pour la première fois à notre connaissance, une FMM sur un nouveau formalisme BEM, basé sur les potentiels scalaire et vectoriel au lieu de courants électriques et magnétiques. Cette méthode a été montrée pour permettre une simulation précise des systèmes plasmoniques métalliques, tout en offrant une réduction significative des besoins de calcul. Des systèmes nanophotoniques complexes ont été simulés, comme une lentille plasmonique composé d'un ensemble de nanotubes d'or
Nanophotonic structures are generally simulated by volume methods, as Finite-difference time-domain (FDTD) method, or Finite element method (FEM). However, for large structures, or metallic plasmonic structures, the memory and time computation required can increase dramatically, and make proper simulation infeasible.Surface methods, like the boundary element method (BEM) have been developed to reduce the number of mesh elements. These methods consist in expressing the electromagnetic filed in whole space as a function of electric and magnetic currents at the surface of scatterers. Combined with the fast multipole method (FMM) that enables a huge acceleration of the calculation of interaction between far mesh elements, very large systems can thus be handled.What we performed is the development of an FMM on a new BEM formalism, based on scalar and vector potentials instead of electric and magnetic currents, for the first time to our knowledge. This method was shown to enable accurate simulation of metallic plasmonic systems, while providing a significant reduction of computation requirements, compared to BEM-alone. Several thousands of unknowns could be handled on a standard computer. More complex nanophotonic systems have been simulated, such as a plasmonic lens consisting of a collection of gold nanorods
Styles APA, Harvard, Vancouver, ISO, etc.
6

Alhammoud, Bahjat. « Circulation générale océanique et variabilité à méso-échelle en Méditerranée Orientale : approche numérique ». Phd thesis, Aix-Marseille 2, 2005. http://pastel.archives-ouvertes.fr/pastel-00001798.

Texte intégral
Résumé :
L'étude de la circulation dans le bassin Est de la Mer Méditerranée a été abordée par une analyse conjointe de simulations numériques réalisées avec un modèle à très haute résolution horizontale, de climatologies et d'observations in-situ et satellitaires. Une validation approfondie du modèle montre un bon accord entre les différentes masses d'eau. La circulation de surface est, elle aussi, en bon accord avec les schémas de circulation récents. Ainsi, la majeure partie de l'eau atlantique suit la côte africaine et forme un jet côtier intense au niveau de la côte libyenne, plutôt que le Mid Mediterranean Jet décrit il y a quelques années par plusieurs auteurs. Les structures de mésoéchelle bien répertoriées (tourbillons d'Egypte, Ierapetra, ...)sont également correctement reproduites. En accord avec des observations par satellite, le modèle montre que des tourbillons de mésoéchelle très énergétiques dominent la circulation de surface dans le sud du bassin Levantin. Les tourbillons de mésoéchelle sont plus énergiques en été qu'en hiver dans l'ensemble du bassin. Les simulations permettent en outre une analyse détaillée du cycle de vie de ces tourbillons et comment ils sont susceptibles d'affecter la circulation moyenne. Selon la position et le développement des tourbillons, des différents régimes de la circulation peuvent être reproduits. Notamment, les tourbillons du bassin Levantin (Tourbillons egyptiens, Lattaquié, Ierapetra) peuvent entraîner des blocages et bifurcations vers le large de l'inflow côtier d'eau atlantique de surface.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Hautefeuille, Martin. « Modélisation numérique des matériaux hétérogènes : une approche EF multi-échelle et orientée composant ». Compiègne, 2009. http://www.theses.fr/2009COMP1802.

Texte intégral
Résumé :
Les matériaux comme le béton présentent une meso structure de type matrice/inclusions visible à l'oeil nu. On propose dans ce travail de thèse une méthode de calcul par Eléments Finis à deux niveaux de résolution, intégrant des calculs à l'échelle de la meso structure à un calcul de structure. On souhaite par cette méthode décrire la ruine des structures en prenant en compte les phénomènes de fissuration à leur échelle d'occurrence. La stratégie de calcul adoptée s'inspire des méthodes de décomposition de domaines non recouvrants. Chaque élément composant le maillage de la structure accueille une description fine de la meso structure sous-jacente. La compatibilité cinématique entre ces deux niveaux est assurée par un raccord dual, au moyen de multiplicateurs de Lagrange localisés. Une architecture logiciel dédié a été implémentée en utilisant la technologie des composants et le middleware CTL (Component Template Library) déeveloppé à la TU Braunschweig. Pour la description de l'échelle mesoscopique, un modèle treillis a été employé. Ce dernier est constitué d'élément bar possédant deux enrichissements cinématiques permettant la prise en compte conjointe de l'arrangement hétérogènes des phases et du comportement quasi-fragile de ce type de matériau
Concrete like materials display a matrix/inclusions heterogeneous meso structure visible to the naked eye. In this PhD thesis, an integrated multiscale Finite Element based strategy is proposed. The latter carries out simultaneously structural level computation and mesoscale ones which enriched the macro scale behavior. This method aims at describing global structural collapse accounting for complex failure mechanisms at their proper scales of occurrence. The proposed computational approach derives from non-overlapping domain decomposition techniques. Each element of a structure discretization receives a finner description of the underlying meso structure. Localized Lagrange multipliers ensure a dual compatibility between the macroscale and the mesoscale displacements. A dedicated parallel software architecture has been implemented using the middleware CTL (Component Template Library) developed at the TU Braunschweig. A lattice meso model has been employed in order to describe the fine scale. Each truss element is provided with two kinematics enrichments. Such model is able to account for the heterogeneous phase arrangement and the quasi-brittle behavior of such materials
Styles APA, Harvard, Vancouver, ISO, etc.
8

Nezamabadi, Saeid. « Méthode asymptotique numérique pour l'étude multi échelle des instabilités dans les matériaux hétérogènes ». Thesis, Metz, 2009. http://www.theses.fr/2009METZ046S/document.

Texte intégral
Résumé :
La modélisation multi-échelle des matériaux hétérogènes est un challenge en mécanique numérique. Dans le contexte non linéaire, les propriétés effectives des matériaux hétérogènes ne peuvent pas être obtenues par les techniques utilisées pour les milieux linéaires car le principe de superposition n'est plus valable. Ainsi, dans le contexte des éléments finis, une alternative au maillage de l'ensemble de la structure avec la prise en compte de toutes les hétérogénéités, est l'utilisation de la méthode d'éléments finis multi-échelles (EF2). Les techniques de ce type offrent de nombreux avantages, tels que la prise en compte : des grandes déformations au niveau micro et macro sont souvent résolus par les procédures classiques de Newton-Raphson, qui sont généralement adaptées à la résolution des problèmes non linéaires mais qui présentent des difficultés en présence d'instabilités. Dans cette thèse, la combinaison de la méthode des éléments finis multi-échelles (EF2) et la méthode asymptotique numérique (MAN), surnommée MAN multi-échelle, permet de mettre en œuvre une technique numérique efficace pour traiter les problèmes d'instabilités dans le cadre des matériaux hétérogènes. Ces instabilités peuvent survenir à la fois au niveau micro et au niveau macro. Différentes classes de comportement des matériaux ont été implantées dans notre procédure. Pour améliorer le conditionnement du problème multi-échelle à résoudre, une technique d'homogénéisation du second ordre a été également adaptée dans le cadre de la technique MAN multi-échelle. Par ailleurs, afin de réduire le temps de calcul, quelques techniques ont été proposées dans ce travail
The multiscale modelling of the heterogeneous materials is a challenge in computational mechanics. In the nonlinear case, the effective properties of heterogeneous materials cannot be obtained by the techniques used for linear media because the superposition principle is no longer valid. Hence, in the context of the finite element method, an alternative to mesh the whole structure, including all heterogeneities, is the use of the multiscale finite element method (FE2). These techniques have many advantages, such as taking into account : large deformations at the micro and macro scales, the nonlinear constitutive behaviors of the material, and microstructure evolution. The nonlinear problems in micro and macro scales are often solved by the classical Newton-Raphson procedures, which are generally suitable for solving nonlinear problems but have difficulties in the presence of instabilities. In this thesis, the combination of the multiscale finite element method (FE2) and the asymptotic numerical method (ANM), called Multiscale-ANM, allows one to obtain a numerical effective technique for dealing with the instability problems in the context of heterogeneous materials. These instabilities can occur at both micro and macro levels. Different classes of material constitutive relation have been implemented within our procedure. To improve the multiscale problem conditioning, a second order homogenization technique was also adapted in the framework of Multiscale-ANM technique. Furthermore, to reduce the computational time, some techniques been proposed in this work
Styles APA, Harvard, Vancouver, ISO, etc.
9

Aoubiza, Boujemâa. « Homogénéisation d'un composite multi-échelle : application à une modélisation numérique de l'os haversien compact ». Besançon, 1991. http://www.theses.fr/1991BESA2051.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Moulin, Antoine. « Etude de la plasticité du silicium à une échelle mésoscopique par simulation numérique 3D ». Châtenay-Malabry, Ecole centrale de Paris, 1997. http://www.theses.fr/1997ECAP0542.

Texte intégral
Résumé :
Une simulation des sources de fuel-Read dans le silicium a été mise au point en vue d'examiner la relation entre la dynamique des dislocations et leur multiplication d'une part et les stades initiaux de la déformation plastique dans ce matériau d'autre part, dans les cristaux cubiques diamant. Une description complète des configurations émises par une source de fuel-Read est présentée, et les mécanismes d'émission identifiés. Cette étude est appliquée au modèle de Pirenz pour le maclage mécanique. Le pic de limite d'élasticité est étudié en détail dans les conditions de glissement simple grâce à la simulation. Les données simulées sont comparées au modèle d'Alexander & Haasen. Une estimation de l'efficacité de certains mécanismes en volume pour expliquer l'épaississement des bandes de glissement est présentée.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Casella, Elisa. « Simulations numériques des processus de méso-échelle en Mer Ligure ». Phd thesis, Université du Sud Toulon Var, 2009. http://tel.archives-ouvertes.fr/tel-00533713.

Texte intégral
Résumé :
Le but de ce travail est l'étude de processus à mésoéchelle de la mer Ligure. L'étude concerne les tourbillons et leur effet sur les variables biogéochimiques liées au plancton. Le modèle implémenté pour les simulations est ROMS, Regional Ocean Modeling System (Shchepetkin and McWilliams, 2005). La simulation à haute résolution du courant Ligure-Provençal-Catalan dans la Mer Ligure a révélé la présence d'instabilités qui induit la formation de structures tourbillonnaires. Ces tourbillons sont particulièrement intenses lorsque le forçage du vent provient d'un modèle météorologique à haute résolution spatiale et temporelle. Au contraire, l'utilisation de vents climatologiques à basse résolution comme forçage, induit des structures à mésoéchelle moins intenses et moins nombreuses. Les simulations forcées avec des vents réels permettent la formation d'intenses tourbillons anticycloniques entre le courant Ligure-Provençal et la côte. Ces tourbillons se déplacent lentement avec le courant. L'augmentation de la résolution permet de faire apparaître de petites structures tourbillonnaires autour du vortex principal. Les tourbillons observés sont associés à des structures de vitesse verticale complexes. La simulation montre d'importantes vitesses verticales positives (upwelling) près de la côte qui peuvent induire la remontée de masses d'eaux riches en nutriments, et des vitesses verticales négatives au centre du tourbillon. Les vitesses verticales augmentent avec la résolution de la simulation et peuvent atteindre des valeurs de l'ordre de la dizaine de mètres par jour. L'augmentation de la résolution permet de résoudre plus en détail la distribution du champ de vitesse et on observe ainsi des structures complexes de vitesses positives et négatives que s'alternent en correspondance d'un tourbillon. Pour ce qui concerne les vitesses horizontales, la résolution n'a pas un effet significatif sur leur intensité et distribution. Cela signifie que le processus est suffisamment bien résolu dans la simulation à plus basse résolution. Les vitesses verticales associées V au tourbillon peuvent avoir un rôle significatif pour la dynamique de l'écosystème marin de la Mer Ligure. Ces structures peuvent apporter en surface des masses d'eaux riches en nutriments qui peuvent mettre en route la chaîne trophique liée à la production primaire. Tous les vivants sont liés directement ou indirectement à cette production. Pour étudier l'impact des structures à mésoéchelle sur les variables biologiques nous avons appliqué un module biogéochimique couplé au modèle hydrodynamique. Les résultats mettent en évidence la complexité du comportement des variables biogéochimiques en présence des structures dynamiques, ainsi que leur variabilité en fonction du type de tourbillons (cyclonique ou anticyclonique). Les tourbillonnes cycloniques représentent essentiellement des zones de croissance de biomasse. Les tourbillonnes anticycloniques représentent aussi des zones d'accumulation de biomasse mais aussi des zones de croissance de biomasse due à la remontée d'eaux riches en nutriment au bord du tourbillon. Les résultats du travail de thèse et décrits dans ce document, montrent l'importance des processus à la mesoéchelle, l'impact de tourbillons sur la production biologique et la nécessité d'adopter une résolution spatiotemporelle suffisamment haute pour le modèle océanique et pour les forçages atmosphériques.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Biaou, Angelbert. « De la méso-échelle à la micro-échelle : désagrégation spatio-temporelle multifractale des précipitations ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001573.

Texte intégral
Résumé :
Le passage de la méso-échelle, échelle des modèles de circulation générale GCM, de l'anglais "General Circulation Models", à la micro-échelle (échelle hydrologique), pour les précipitations, est un exercice assez complexe. Les champs de précipitations comme la plupart des champs géophysiques turbulents obéissent au concept d'invariance d'échelle, qui est une caractéristique principale des champs multifractals. Par ailleurs, il a été prouvé que le transfert d'énergie des grosses structures aux plus petites structures au sein d'un phénomène géophysique turbulent s'effectue de façon multiplicative (Kolmogorov, 1962; Mandelbrot, 1974 ...): un facteur aléatoire déterminant la fraction de flux transmis d'un gros tourbillon à un plus petit. Le travail que nous présentons ici s'inscrit dans le cadre du projet EDF "Prévisions saisonnières et Hydraulicité" dans la gestion de son parc hydroélectrique et a pour objectif la construction d'un modèle de désagrégation basé sur le principe d'invariance d'échelle des champs de précipitation, donc utilisant les propriétés des champs géophysiques mentionnées ci-dessus. Dans un premier temps, nous conduisons une analyse multifractale (Schertzer et Lovejoy , 1991) sur des séries pluviométriques de la France (243 séries pluviométriques au pas de temps de six minutes, constituées sur une dizaine d'années distribuées sur la France métropolitaine), ce qui nous permet de déduire les paramètres multifractals, dans le temps, dans l'espace ou dans le cas spatio-temporel. La seconde étape consiste à construire des cascades multifractales, à partir des valeurs saisonnières de pluies avec les paramètres déterminés dans la première étape. Le principe de cette deuxième partie consiste, à partir d'une prévision mensuelle sur des mailles de dimensions 243km×243km×32jours (correspondant à une anisotropie espace-temps de l'ordre de H=2/3 :x=y=t (3/2) ) voisines de celles des modèles de circulation générale (dimensions de l'ordre de 250km×250km×30jours) et à conduire la cascade multifractale, avec les paramètres multifractals préalablement déterminés, pour atteindre des valeurs de prévision sur des mailles de l'ordre de 1km×1km×1j. Les résultats obtenus devront faire l'objet d'un conditionnement orographique avant d'être comparés avec les valeurs réelles obtenues.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Labit, Benoit. « Transport de chaleur électronique dans un tokamak par simulation numérique directe d'une turbulence de petite échelle ». Phd thesis, Université de Provence - Aix-Marseille I, 2002. http://tel.archives-ouvertes.fr/tel-00261562.

Texte intégral
Résumé :
La compréhension de l'état turbulent d'un plasma de fusion, responsable du faible temps de confinement observé, constitue un enjeu fondamental vers la production d'énergie par cette voie. Pour les machines les plus performantes, les tokamaks, les conductivités thermiques ionique et électronique mesurées sont du même ordre de grandeur. Les sources potentielles de la turbulence sont les forts gradients de température, de densité,... présents au coeur d'un plasma de tokamak. Si les pertes de chaleur par le canal ionique sont relativement bien comprises, l'origine du fort transport de chaleur électronique est quant à elle largement inconnue. En plus des fluctuations de vitesses électrostatiques, il existe des fluctuations de vitesses magnétiques, auxquelles des particules rapides sont particulièrement sensibles. Expérimentalement, le temps de confinement peut s'exprimer en fonction de paramètres non adimensionnels. Ces lois d'échelle sont encore trop imprécises, néanmoins de fortes dépendances en fonction du rapport de la pression cinétique à la pression magnétique, β et du rayon de Larmor normalisé, ρ* sont prédites.

La thèse proposée ici cherche à déterminer la pertinence d'un modèle fluide non linéaire, électromagnétique, tridimensionnel, basé sur une instabilité particulière pour décrire les pertes de chaleur par le canal électronique et de déterminer les dépendances du transport turbulent associé en fonction de paramètres adimensionnels, dont β et ρ*. L'instabilité choisie est une instabilité d'échange générée par le gradient de température électronique (Electron Temperature Gradient (ETG) driven turbulence en anglais). Ce modèle non linéaire est construit à partir des équations de Braginskii. Le code de simulation développé est global au sens qu'un flux de chaleur entrant est imposé, laissant les gradients libres d'évoluer.

A partir des simulations non linéaires, nous avons pu mettre en évidence trois caractéristiques principales pour le modèle ETG fluide: le transport de chaleur turbulente est essentiellement électrostatique; les fluctuations de potentiel et de pression forment des structures radialement allongées; le niveau de transport observé est beaucoup plus faible que celui mesuré expérimentalement.

L'étude de la dépendance du transport de chaleur en fonction du rapport de la pression cinétique à la pression magnétique a montré un faible impact de ce paramètre mettant ainsi en défaut la loi empirique d'Ohkawa. En revanche, il a été montré sans ambiguïté le rôle important du rayon de Larmor électronique normalisé dans le tranport de chaleur: le temps de confinement est inversement proportionnel à ce paramètre. Enfin, la faible dépendance du transport de chaleur turbulent en fonction du cisaillement magnétique et de l'inverse du rapport d'aspect a été mise en évidence.

Bien que le niveau de transport observé dans les simulations soit plus faible que celui mesuré expérimentalement, nous avons tenté une confrontation directe avec un choc de Tore Supra. Ce tokamak est particulièrement bien désigné pour étudier les pertes de chaleur électronique. En conservant la plupart des paramètres d'un choc bien référencé de Tore Supra, la simulation non linéaire obtenue donne un seuil en gradient de température proche de la valeur expérimentale. Le niveau de transport observé est plus faible d'un facteur cinquante environ que le transport mesuré. Un paramètre important qui n'a pu être conservé est le rayon de Larmor normalisé.

La limitation en ρ* devra être franchie afin de confirmer ces résultats. Enfin une rigoureuse confrontation avec des simulations girocinétiques permettra de disqualifier ou non l'instabilité ETG pour rendre compte des pertes de chaleur observées.

Mots-clés: fusion thermonucléaire, tokamak, plasma, turbulence ETG, simulations numériques
Styles APA, Harvard, Vancouver, ISO, etc.
14

Minh-Hoang, Le. « Modélisation multi-échelle et simulation numérique de l'érosion des sols de la parcelle au bassin versant ». Phd thesis, Université d'Orléans, 2012. http://tel.archives-ouvertes.fr/tel-00780648.

Texte intégral
Résumé :
L'objectif global de ce travail est d'étudier une modélisation multi-échelle et de développer une méthode adaptée pour la simulation numérique du processus d'érosion à l'échelle du bassin versant. Après avoir passé en revue les différents modèles existants, nous dérivons une solution analytique non triviale pour le système couplé modélisant le transport de sédiments par charriage. Ensuite, nous étudions l'hyperbolicité de ce système avec diverses lois de sédimentation proposées dans la littérature. Concernant le schéma numérique, nous présentons le domaine de validité de la méthode de splitting, pour les équations modélisant l'écoulement et celle décrivant l'évolution du fond. Pour la modélisation du transport en suspension à l'échelle de la parcelle, nous présentons un système d'équations couplant les mécanismes d'infiltration, de ruissellement et le transport de plusieurs classes de sédiments. L'implémentation et des tests de validation d'un schéma d'ordre élevé et de volumes finis bien équilibré sont également présentés. Ensuite, nous discutons sur l'application et la calibration du modèle avec des données expérimentales sur dix parcelles 1m2 au Niger. Dans le but d'aboutir la simulation à l'échelle du bassin versant, nous développons une modélisation multi échelle dans laquelle nous intégrons le taux d'inondation dans les équations d'évolution afin de prendre en compte l'effet à petite échelle de la microtopographie. Au niveau numérique, nous étudions deux schémas bien équilibrés : le schéma de Roe basé sur un chemin conservatif, et le schéma avec reconstruction hydrostatique généralisée. Enfin, nous présentons une première application du modèle avec les données expérimentales du bassin versant de Ganspoel qui nécessite la parallélisation du code.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Le, Minh Hoang. « Modélisation multi-échelle et simulation numérique de l'érosion des sols de la parcelle au bassin versant ». Phd thesis, Université d'Orléans, 2012. http://tel.archives-ouvertes.fr/tel-00838947.

Texte intégral
Résumé :
L'objectif global de ce travail est d'étudier une modélisation multi échelle et de développer une méthode adaptée pour la simulation numérique du processus d'érosion à l'échelle du bassin versant. Après avoir passé en revue les différents modèles existants, nous dérivons une solution analytique non triviale pour le système couplé modélisant le transport de sédiments par charriage. Ensuite, nous étudions l'hyperbolicité de ce système avec diverses lois de sédimentation proposées dans la littérature. Concernant le schéma numérique, nous présentons le domaine de validité de la méthode de splitting, pour les équations modélisant l'écoulement et celle décrivant l'évolution du fond. Pour la modélisation du transport en suspension à l'échelle de la parcelle, nous présentons un système d'équations couplant les mécanismes d'infiltration, de ruissellement et le transport de plusieurs classes de sédiments. L'implémentation et des tests de validation d'un schéma d'ordre élevé et de volumes finis bien équilibré sont également présentés. Ensuite, nous discutons sur l'application et la calibration du modèle avec des données expérimentales sur dix parcelles au Niger. Dans le but d'aboutir la simulation à l'échelle du bassin versant, nous développons une modélisation multi échelle dans laquelle nous intégrons le taux d'inondation dans les équations d'évolution afin de prendre en compte l'effet à petite échelle de la microtopographie. Au niveau numérique, nous étudions deux schémas bien équilibrés : le schéma de Roe basé sur un chemin conservatif, et le schéma avec reconstruction hydrostatique généralisée. Enfin, nous présentons une première application du modèle avec les données expérimentales du bassin versant de Ganspoel qui nécessite la parallélisation du code.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Le, Minh Hoang. « Modélisation multi-échelle et simulation numérique de l’érosion des sols de la parcelle au bassin versant ». Thesis, Orléans, 2012. http://www.theses.fr/2012ORLE2059/document.

Texte intégral
Résumé :
L’objectif global de ce travail est d’étudier une modélisation multi échelle et de développer une méthode adaptée pour la simulation numérique du processus d’érosion à l’échelle du bassin versant. Après avoir passé en revue les différents modèles existants, nous dérivons une solution analytique non triviale pour le système couplé modélisant le transport de sédiments par charriage. Ensuite, nous étudions l’hyperbolicité de ce système avec diverses lois de sédimentation proposées dans la littérature. Concernant le schéma numérique, nous présentons le domaine de validité de la méthode de splitting, pour les équations modélisant l’écoulement et celle décrivant l’évolution du fond. Pour la modélisation du transport en suspension à l’échelle de la parcelle, nous présentons un système d’équations couplant les mécanismes d’infiltration, de ruissellement et le transport de plusieurs classes de sédiments. L’implémentation et des tests de validation d’un schéma d’ordre élevé et de volumes finis bien équilibré sont également présentés. Ensuite, nous discutons sur l’application et la calibration du modèle avec des données expérimentales sur dix parcelles au Niger. Dans le but d’aboutir la simulation à l’échelle du bassin versant, nous développons une modélisation multi échelle dans laquelle nous intégrons le taux d’inondation dans les équations d’évolution afin de prendre en compte l’effet à petite échelle de la microtopographie. Au niveau numérique, nous étudions deux schémas bien équilibrés : le schéma de Roe basé sur un chemin conservatif, et le schéma avec reconstruction hydrostatique généralisée. Enfin, nous présentons une première application du modèle avec les données expérimentales du bassin versant de Ganspoel qui nécessite la parallélisation du code
The overall objective of this thesis is to study a multiscale modelling and to develop a suitable method for the numerical simulation of soil erosion on catchment scale. After reviewing the various existing models, we derive an analytical solution for the non-trivial coupled system modelling the bedload transport. Next, we study the hyperbolicity of the system with different sedimentation laws found in the literature. Relating to the numerical method, we present the validity domain of the time splitting method, consisting in solving separately the Shallow-Water system (modelling the flow routing) during a first time step for a fixed bed and updating afterward the topography on a second step using the Exner equation. On the modelling of transport in suspension at the plot scale, we present a system coupling the mechanisms of infiltration, runoff and transport of several classes of sediment. Numerical implementation and validation tests of a high order wellbalanced finite volume scheme are also presented. Then, we discuss on the model application and calibration using experimental data on ten 1 m2 plots of crusted soil in Niger. In order to achieve the simulation at the catchment scale, we develop a multiscale modelling in which we integrate the inundation ratio in the evolution equations to take into account the small-scale effect of the microtopography. On the numerical method, we study two well-balanced schemes : the first one is the Roe scheme based on a path conservative, and the second one is the scheme using a generalized hydrostatic reconstruction. Finally, we present a first model application with experimental data of the Ganspoel catchment where the parallel computing is also motived
Styles APA, Harvard, Vancouver, ISO, etc.
17

Labit, Benoît. « Transport de chaleur électronique dans un tokamak par simulation numérique directe d'une turbulence de petite échelle ». Aix-Marseille 1, 2002. http://www.theses.fr/2002AIX11052.

Texte intégral
Résumé :
La compréhension de l'état turbulent d'un plasma de fusion, responsable du faible temps de confinement observé, constitue un enjeu fondamental vers la production d'énergie par cette voie. Pour les machines les plus performantes, les tokamaks, les conductivités thermiques ionique et électronique mesurées sont du même ordre de grandeur. Les sources potentielles de la turbulence sont les forts gradients de température, de densité présents au cœur d'un plasma de tokamak. Si les pertes de chaleur par le canal ionique sont relativement bien comprises, l'origine du fort transport de chaleur électronique est quant à elle largement inconnue. En plus des fluctuations de vitesses électrostatiques, il existe des fluctuations de vitesses magnétiques, auxquelles des particules rapides sont particulièrement sensibles. Expérimentalement, le temps de confinement peut s'exprimer en fonction de paramètres non adimensionnels. Ces lois d'échelle sont encore trop imprécises, néanmoins de fortes dépendances en fonction du rapport de la pression cinétique à la pression magnétique, ß et du rayon de Larmor normalisé, p* sont prédites. La thèse proposée ici cherche à déterminer la pertinence d'un modèle fluide non linéaire, électromagnétique, tri-dimensionnel, basé sur une instabilité particulière pour décrire les pertes de chaleur par le canal électronique et de déterminer les dépendances du transport turbulent associé en fonction de paramètres adimensionnels, dont ß et p*. L'instabilité choisie est une instabilité d'échange générée par le gradient de température électronique (Electron Temperature Gradient (ETG) driven turbulence en anglais). Ce modèle non linéaire est construit à partir des équations de Braginskii. Le code de simulation développé est global au sens qu'un flux de chaleur entrant est imposé, laissant les gradients libres d'évoluer. A partir des simulations non linéaires, nous avons pu mettre en évidence trois caractéristiques principales pour le modèle ETG fluide : le transport de chaleur turbulente est essentiellement électrostatique ; les fluctuations de potentiel et de pression forment des structures radialement allongées ; le niveau de transport observé est beaucoup plus faible que celui mesuré expérimentalement. L'étude de la dépendance du transport de chaleur en fonction du rapport de la pression cinétique à la pression magnétique a montré un faible impact de ce paramètre mettant ainsi en défaut la loi empirique d'Ohkawa. En revanche, il a été montré sans ambigui͏̈té le rôle important du rayon de Larmor électronique normalisé dans le transport de chaleur : le temps de confinement est inversement proportionnel à ce paramètre. Enfin, la faible dépendance du transport de chaleur turbulent en fonction du cisaillement magnétique et de l'inverse du rapport d'aspect a été mise en évidence. Bien que le niveau de transport observé dans les simulations soit plus faible que celui mesuré expérimentalement, nous avons tenté une confrontation directe avec un choc de Tore Supra. Ce tokamak est particulièrement bien désigné pour étudier les pertes de chaleur électronique. En conservant la plupart des paramètres d'un choc bien référencé de Tore Supra, la simulation non linéaire obtenue donne un seuil en gradient de température proche de la valeur expérimentale. Le niveau de transport observé est plus faible d'un facteur cinquante environ que le transport mesuré. Un paramètre important qui n'a pu être conservé est le rayon de Larmor normalisé. La limitation en p* devra être franchie afin de confirmer ces résultats. Enfin une rigoureuse confrontation avec des simulations girocinétiques permettra de disqualifier ou non l'instabilité ETG pour rendre compte des pertes de chaleur observées.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Montroty, Rémi. « Impact d'une assimilation de données à méso-échelle sur la prévision cyclonique ». Toulouse 3, 2008. http://thesesups.ups-tlse.fr/782/.

Texte intégral
Résumé :
Dans le cadre des responsabilités du CMRS de la Réunion et des axes de recherche du LACy et du CNRMGAME, cette thèse a été proposée pour explorer diverses pistes visant à améliorer la description des cyclones et leur prévision dans un modèle à méso-échelle sur l'océan Indien. Deux axes principaux ont été envisagés : l'utilisation de pseudo-observations de contenu intégré en vapeur d'eau (TCWV) dérivé des analyses du CEPMMT dans les zones nuageuses / pluvieuses conjointement à l'utilisation d'un bogus de vents 3D pour contraindre la position, la taille et l'intensité des cyclones tropicaux et l'utilisation des variances d'erreur "du jour" dans l'algorithme d'assimilation. Tant l'analyse et la prévision de la position que celles de l'intensité nous intéressent : les diagnostics sont donc ciblés sur les améliorations de celles-ci. Attendu que les cyclones tropicaux présentent une large zone nuageuse / pluvieuse dépourvue d'observations assimilées, nous nous intéressons aux impacts des pseudo-données de TCWV dans ces zones, données susceptibles d'apporter une information nouvelle, aidant à mieux contraindre l'analyse. Les pseudo-observations de TCWV en milieu nuageux / pluvieux sont obtenues à partir d'un algorithme construit en corrélant le TCWV des analyses 1D-VAR du CEPMMT avec les températures de brillance microondes des instruments SSM/I sur le sud-ouest de l'océan Indien. Ces données sont assimilées en mode 3D-VAR dans le modèle ALADIN Réunion ainsi qu'un bogus de vents 3D développé à la CRC. L'étude de 5 semaines couvre trois cyclones intenses sur ce bassin, en 2007. Les impacts sont très positifs en terme de réduction d'erreur de position : plus de 75% de réduction de cette erreur à l'analyse et un impact de ce meilleur positionnement dans les prévisions, avec un impact positif et statistiquement significatif jusqu'à 24h. L'apport des données de TCWV est notable en terme d'amélioration structurelle : dans une comparaison aux données de pluies instantanées du satellite TMI, l'expérience assimilant le bogus de vents 3D et les données de TCWV nuageuses / pluvieuses ressort comme étant la plus réaliste. Le rayon des vents maximaux, la position des bandes spiralées périphériques et les asymétries des cyclones tropicaux sont mieux décrits grâce au cyclage du TCWV et sont en meilleur accord avec les observations TMI. Pour explorer les impacts d'une cascade d'échelle d'ALADIN Réunion, une version du modèle AROME a été implémentée sur une partie du bassin du sud-ouest de l'océan Indien et intégrant la Réunion. L'orographie plus réaliste du modèle AROME Réunion à 4 km de résolution horizontale permet de bien capturer les précipitations cycloniques. Les réflectivités radar simulées semblent cohérentes avec les structures observées par le radar du Colorado à l'île de la Réunion et les structures de fine échelle sont moins étalées mais plus intenses dans AROME Réunion. .
Is part of the responsibilities of the RSMC of La Reunion and in line with the research topics of the LaCy and the CNRM-GAME, this PhD thesis has been suggested so as to investigate leads that would help better describe and predict tropical cyclones in a mesoscale model over the Indian ocean. Two main topics were investigated : the use of pseudo-observations of total column water vapour (TCWV) derived from the ECMWF analyses in cloudy/rainy areas jointly with a 3D wind bogus so as to constrain position, size and intensity of tropical cycles, and the use of error variances "of the day" in the data assimilation algorithm. We are interested equally in the position and intensity analyses and forecasts : scores and diagnostics thus target those two quantities. Since tropical cyclones exhibit large circular, cloudy/rainy areas which are devoid of observations that can be assimilated, we look at the impacts of those pseudo-observations of TCWV when assimilated in those areas. It is expected that this data can bring new information to the data assimilation system, thus helping constrain the analysis. The pseudo-observations of TCWV in cloudy/rainy areas are derived from an algorithm built by correlating the ECMWF's 1D-VAR TCWV analyses with the SSM/I brightness temperatures, over the southwest Indian ocean bassin. The TCWV data is then assimilated in a 5-week study during the year 2007, study which covered three intense cyclones over the basin. The TCWV data assimilation is done in 3D-VAR mode in the ALADIN Reunion model and is completed by the use of a 3D wind bogus, developed internally at the CRC. The impacts are very positive in terms of direct position error reduction : at analysis, the error was lowered by 75% and through this better positioning, a positive impact was further seen in the forecasts up to 24h, with statistical significance. The TCWV data impact is most notable in terms of structural improvement : when compared to TMI instantaneous rain rates, the experiment that assimilated both the 3D wind bogus and the TCWV data stands out as reproducing the most realistic cyclonic features. The radius of maximum winds, the pattern of spiral rainbands and the general asymetries of the tropical cyclones are better described thanks to the cycling of this data and are in better agreement with the TMI observations. In order to explore the impact of downscaling from ALADIN Reunion, a version of the high resolution model AROME has been implemented over a part of the southwest Indian ocean and covers Reunion island. The sharper, more realistic orography of the AROME Reunion model at 4 km horizontal resolution allows to better capture cyclonic precipitations. .
Styles APA, Harvard, Vancouver, ISO, etc.
19

Bernard, Manuel. « Approche multi-échelle pour les écoulements fluide-particules ». Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/12239/1/Bernard.pdf.

Texte intégral
Résumé :
Cette thèse porte sur l’étude numérique de la dynamique des écoulements fluide-particules au sein des lits fluidisés denses. Le but de ces travaux est d’améliorer la compréhension des phénomènes qui s’y déroulent afin d’optimiser les performances des procédés industriels confrontés à ces écoulements diphasiques. En effet, la diversité des échelles de longueur et les différents types d’interaction fluide-solide et solide-solide rencontrées dans ce type de configuration rendent cette catégorie d’écoulement particulièrement complexe et intéressante à étudier. Le modèle développé à cet effet permet de suivre individuellement la trajectoire des particules et de traiter les collisions avec leurs voisines tandis que la phase fluide est décrite de façon localement moyennée. Dans ce mémoire, nous présentons tout d’abord les origines physiques du phénomène de fluidisation d’une population de particules et les grandeurs physiques qui le caractérisent. Puis nous détaillons le modèle Euler-Lagrange implémenté et présentons une série de tests de validation basés sur des résultats théoriques et des comparaisons à des résultats expérimentaux. Cet outil numérique est ensuite employé pour simuler et étudier des lits fluidisés comportant jusqu’à plusieurs dizaines de millions de particules. Enfin, nous comparons des simulations réalisées conjointement à l’échelle micro et avec le modèle développé au cours de cette thèse à l’échelle méso.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Lapointe-Thériault, David. « Vers une résolution numérique du vent dans la couche limite atmosphérique à micro-échelle avec la méthode de simulation des grandes échelles (LES) sous OpenFOAM ». Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1123/1/LAPOINTE%2DTH%C3%89RIAULT_David.pdf.

Texte intégral
Résumé :
À l’aide de modélisation mathématique avancée de la turbulence et de ressources informatiques modernes, une amélioration des simulations numériques des écoulements atmosphériques est envisageable. Un avancement significatif dans ce domaine aurait un impact positif sur la recherche en énergie éolienne. Afin d’y contribuer, le présent ouvrage propose de s’attarder sur la conception d’un solveur numérique micro-échelle basé sur la méthode des Simulations aux Grandes Échelles (LES) avec loi de paroi à l’aide du progiciel à code source libre OpenFOAM. Des conditions atmosphériques neutres avec frontière rigide ou avec inversion de température potentielle comme frein à la progression verticale de la couche limite, un terrain plat, un fluide incompressible, une approximation de la flottabilité par Boussinesq et une turbulence horizontalement homogène sont les hypothèses de travail. Pour y parvenir, un réaménagement important du code est proposé. De nouvelles conditions frontières de vitesse et de température potentielle, un terme source dédié à satisfaire les lois de paroi et une modification à l’algorithme de résolution PISO permettant de stabiliser la couche d’inversion de température potentielle ont entre autres été créés. Grâce à ces ajouts, le nouveau solveur conçu est en mesure d’obtenir un comportement moyen proche de la similarité de Monin-Obukhov lorsque les simulations se retrouvent dans la Zone de Haute Précision. Il se démarque par sa capacité à résoudre des cas en présence de stratification thermique tout en conservant une forte compatibilité avec les différentes librairies de la distribution officielle d’OpenFOAM. Lorsque comparé avec d’autres solveurs d’organisations professionnelles (notamment MC2), les résultats obtenus sont prometteurs. Il est néanmoins recommandé de poursuivre le raffinement du code. Il est estimé qu’un renforcement plus stricte du couplage de résolution vitesse-pression-température et qu’une correction de la discrétisation linéaire des opérateurs différentielles du champ de vitesse en région proche-paroi amélioreraient davantage la qualité des simulations.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Chiapetto, Monica. « Modélisation numérique de l’évolution nanostructurale d’aciers ferritiques sous irradiation ». Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10070.

Texte intégral
Résumé :
Dans ce travail nous avons développé des modèles de Monte Carlo cinétique d’objets (OKMC) qui ont permis de prédire l'évolution nano-structurelle des amas de lacunes et des auto-interstitiels sous irradiation neutronique, à la température de fonctionnement des réacteurs de génération II dans les alliages Fe-C-MnNi (alliages modèles pour les aciers de cuve) et Fe-Cr-C (matériaux envisagés pour les réacteurs de génération IV). Un véritable acier de cuve venant du programme de surveillance de la centrale nucléaire suédoise de Ringhals a aussi été modélisé. Pour ce faire nous avons développé deux modèles OKMC fondés sur les données les plus actuelles concernant la mobilité et la stabilité des amas de défauts. Les effets des solutés d'intérêt ont été introduits dans nos modèles dans l’hypothèse simplifiée ‘‘d’alliage gris’’, c'est-à-dire que les solutés ne sont pas explicitement introduits dans le modèle, qui ne peut donc pas décrire leur redistribution, mais leur effet est introduit dans les paramètres liés à la mobilité des amas de défauts. A l’aide de cette approche nous avons modélisé diverses conditions de température et de débit de dose ainsi que des études de recuits isochrones d’alliages Fe-C-MnNi. L'origine du durcissement par irradiation neutronique à basse température a également été étudiée et les modèles ont fortement soutenu l'hypothèse selon laquelle les solutés ségrégent sur des boucles interstitielles immobiles, qui agissent donc comme des sites de nucléation hétérogène pour la formation d’amas enrichis en NiSiPCr et MnNi. A chaque fois nos modèles ont été validés par comparaison des résultats obtenus avec les observations expérimentales disponibles dans la littérature
We developed object kinetic Monte Carlo (OKMC) models that proved able to predict the nanostructure evolution under neutron irradiation in both RPV and F/M steels. These were modelled, respectively, in terms of Fe-C-MnNi and Fe-C-Cr alloys, but the model was also validated against data obtained on a real RPV steel coming from the surveillance programme of the Ringhals Swedish nuclear power plant. The effects of the substitutional solutes of interest were introduced in our OKMC model under the simplifying assumptions of ‘‘grey alloy’’ scheme, i.e. they were not explicitly introduced in the model, which therefore cannot describe their redistribution under irradiation, but their effect was translated into modified parameters for the mobility of defect clusters. The possible origin of low temperature radiation hardening (and subsequent embrittlement) was also investigated and the models strongly supported the hypothesis that solute clusters segregate on immobile interstitial loops, which act therefore as heterogeneous nucleation sites for the formation of the NiSiPCr- and MnNi-enriched cluster populations experimentally, as observed with atom probe tomography in, respectively, F/M and RPV steels. In other words, the so-called matrix damage would be intimately associated with solute atom clusters and precipitates which increase their stability and reduce their mobility: their ultimate effect is reflected in an alteration of the macroscopic mechanical properties of the investigated alloys. Throughout all our work the obtained results have been systematically validated on existing experimental data, in a process of continuous improvement of the physical hypotheses adopted
Styles APA, Harvard, Vancouver, ISO, etc.
22

Hochet, Bertrand. « Conception de VLSI : applications au calcul numérique ». Grenoble INPG, 1987. http://www.theses.fr/1987INPG0005.

Texte intégral
Résumé :
A partir d'une classe d'algorithmes de type CORDIC pour le calcul des fonctions élémentaires, une architecture générale de calculateur intégré est développée. Une formalisation détaillée des problèmes posés permet d'aboutir tt la génération algorithmique d'une partie opérative suivant un modèle architectural pré
Styles APA, Harvard, Vancouver, ISO, etc.
23

Hamdi-Larbi, Olfa. « Étude de la Distribution, sur Système à Grande Échelle, de Calcul Numérique Traitant des Matrices Creuses Compressées ». Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2010. http://tel.archives-ouvertes.fr/tel-00693322.

Texte intégral
Résumé :
Plusieurs applications scientifiques effectuent des calculs sur des matrices creuses de grandes tailles. Pour des raisons d'efficacité en temps et en espace lors du traitement de ces matrices, elles sont stockées selon des formats compressés adéquats. D'un autre coté, la plupart des calculs scientifiques creux se ramènent aux deux problèmes fondamentaux d'algèbre linéaire i.e. la résolution de systèmes linéaires et le calcul d'éléments (valeurs/vecteurs) propres de matrices. Nous étudions dans ce mémoire la distribution, au sein d'un Système Distribué à Grande Echelle (SDGE), des calculs dans des méthodes itératives de résolution de systèmes linéaires et de calcul d'éléments propres et ce, dans le cas creux. Le produit matricevecteur creux (PMVC) constitue le noyau de base pour la plupart de ces méthodes. Notre problématique se ramène en fait à l'étude de la distribution du PMVC sur un SDGE. Généralement, trois étapes sont nécessaires pour accomplir cette tâche, à savoir, (i) le prétraitement, (ii) le traitement et (iii) le post-traitement. Dans la première étape, nous procédons d'abord à l'optimisation de quatre versions de l'algorithme du PMVC correspondant à quatre formats de compression spécifiques de la matrice, puis étudions leurs performances sur des machines cibles séquentielles. Nous nous focalisons de plus sur l'étude de l'équilibrage des charges pour la distribution des données traitées (se ramenant en fait aux lignes de la matrice creuse) sur un SDGE. Concernant l'étape de traitement, elle a consisté à valider l'étude précédente par une série d'expérimentations réalisées sur une plate-forme gérée par l'intergiciel XtremWeb-CH. L'étape de post-traitement, quant à elle, a consisté à analyser et interpréter les résultats expérimentaux obtenus au niveau de l'étape précédente et ce, afin d'en tirer des conclusions adéquates.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Suarez, Atias Léandro. « La couche limite et l'hydrodynamique 2D à grande échelle de la zone de surf : une étude numérique ». Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI033/document.

Texte intégral
Résumé :
Ce travail porte sur les processus hydrodynamiques en zone littorale.Deux principaux thèmes sont abordés. Le premier concerne la couchelimite oscillante provoquée par l’interaction entre les vagues et le fondà l’approche des côtes. Le second traite de l’évolution de la circulationet la vorticité induite par la bathymétrie et/ou le forçage des vagues.Un modèle de couche limite turbulente a été élaboré et utilisé pourobserver l’évolution de la couche limite oscillante sous l’effet de vaguesnon-linéaires, en s’appuyant sur une modélisation physique menéedans le canal à houle du LEGI. Les profils expérimentaux de vitesseet positions du fond fixe instantanés permettent de définir l’évolutiondes non-linéarités induites par les vagues au sein de la couche limite.Le modèle numérique couplé à une modélisation du mouvement dulit mobile est capable de reproduire l’évolution de ces non-linéarités,et explique que la diffusion verticale observée expérimentalementest principalement due au mouvement vertical du lit causé induitpar les vagues. Pour l’étude de la circulation et de la vorticité enzone côtière, un modèle numérique 2D moyenné sur la verticale detype Shallow Water est validé avec les données d’une expériencemenée dans le basin à vagues du Laboratoire Hydraulique de France(ARTELIA). La formation de courants sagittaux a été forcée parun front de vagues avec un déficit d’énergie au centre du bassin. Lemodèle numérique est validé par des mesures de surface libre, devitesse, ainsi que de circulation et vorticité. En utilisant ensuitel’équation de vorticité potentielle comme outil de diagnostic, avec unforçage monochromatique on prédit un équilibre entre la générationde vorticité et son advection par l’écoulement moyen
This work is about the hydrodynamic processes in the nearshorezone. They are of great importance to estimate the overall dynamicsof the coastal zone. This thesis is divided into two main parts; thefirst one investigates the coastal bottom boundary layer induced bythe interaction of the waves and the bottom when approaching thecoast; the second one is about the evolution of the mean circulationand vorticity induced by an inhomogeneity in the bathymetry orthe wave forcing. A turbulent boundary layer numerical model hasbeen developed and used to simulate the evolution of the oscillatingboundary layers under non-linear waves, of a flume experiment at theLaboratoire des Ecoulements Géophysiques et Industriels (LEGI) inGrenoble, France. The experimental instantaneous velocity profilesand still bed positions, allow defining the non-linear velocity distributionsinduced by the waves within the boundary layer. The numericalmodel coupled with a ad-hoc modeling of the mobile bed motionis able to reproduce the vertical distribution of the non-linearities,and also indicates that the vertical diffusion observed experimentallyis mainly caused by the mobile bed motion induced by the passingwaves. A 2D depth-averaged nonlinear shallow water numericalmodel is used to study the circulation and vorticity in the nearshorezone. This model is validated on a mobile bed experiment in thewave basin of the Laboratoire Hydraulique de France (ARTELIA).The formation of rip currents is forced by a damped wave forcing inthe middle of the wave basin. The numerical model is validated withfree surface and velocity measurements, and by the circulation andvorticity. Using the potential vorticity balance as a diagnosis tooland with a monochromatic wave forcing, an equilibrium between thevorticity generation and advection is observed in the nearshore zone
Este trabajo trata de los procesos hidrodinámicos en la zona litoral,de grande importancia para la dinámica global del flujo costero. Dostemas principales son estudiados. El primero trata de la capa límiteoscilante provocada por la interacción entre el oleaje y el fondo alacercarse a la costa. El segundo tema trata de la evolución de lacirculación y la vorticidad inducida por la batimetría y/o el oleaje.Un modelo de capa límite turbulenta ha sido elaborado y validadopara analizar la evolución de la capa límite oscilante bajo la influenciade oleaje no-lineal, apoyándose en una modelación física, realizada enel canal de olas del LEGI. Los perfiles experimentales instantáneos develocidad y posición del fondo fijo, permiten definir la evolución delas no-linealidades inducidas por las olas dentro de la capa límite. Elmodelo numérico acoplado a una modelación del movimiento del fondomóvil es capaz de reproducir la evolución de estas no-linealidades, yexplica también que la difusión vertical observada experimentalmentees principalmente debida al movimiento vertical del fondo inducidopor el oleaje. El estudio de la circulación y de la vorticidad en zonascosteras se hace mediante un modelo numérico 2D promediado enla vertical de tipo Shallow Water que es validado con los datos deuna experiencia llevada a cabo en la piscina de olas del LaboratoireHydraulique de France (ARTELIA). La formación de corrientes ripse realiza a través de frentes de olas con un déficit de energía en elmedio de la piscina. El modelo numérico es validado con medicionesde superficie libre, de velocidades, y de circulación y vorticidad.Utilizando la ecuación de vortcidad potencial como herramienta dediagnóstico, con un oleaje monocromático se predice un equilibrioentre la generación de vorticidad y su advección por las corrientes
Styles APA, Harvard, Vancouver, ISO, etc.
25

Hamdi-Larbi, Olfa. « Etude de la distribution, sur système à grande échelle, de calcul numérique traitant des matrices creuses compressées ». Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0018.

Texte intégral
Résumé :
Plusieurs applications scientifiques effectuent des calculs sur des matrices creuses de grandes tailles. Pour des raisons d'efficacité en temps et en espace lors du traitement de ces matrices, elles sont stockées selon des formats compressés adéquats. D'un autre côté, la plupart des calculs scientifiques creux se ramènent aux deux problèmes fondamentaux d'algèbre linéaire i. E. La résolution des systèmes linéaires (RSL) et le calcul d'éléments propres (CEP) de matrices. Nous étudions dans ce mémoire la distribution, au sein d'un Système Distribué à Grande Echelle (SDGE), des calculs dans des méthodes itératives de RSL et de CEP et ce, dans le cas creux. Le produit matrice-vecteur creux (PMVC) constitue le noyau de base pour la plupart de ces méthodes. Notre problématique se ramène en fait à l'étude de la distribution du PMVC sur un SDGE. Généralement, trois étapes sont nécessaires pour accomplir cette tâche, à savoir, le prétraitement, le traitement et le post-traitement. Dans la première étape, nous procédons d'abord à l'optimisation de quatre versions de l'algorithme du PMVC correspondant à quatre formats de compression spécifiques de la matrice, puis étudions leurs performances sur des machines cibles séquentielles. Nous nous focalisons de plus sur l'étude de l'équilibrage des charges pour la distribution des données traitées sur un SDGE. Concernant l'étape de traitement, elle a consisté à valider l'étude précédente par une série d'expérimentations réalisées sur une plate-forme gérée par l'intergiciel XtremWeb-CH. L'étape de post-traitement, quant à elle, a consisté à analyser et interpréter les résultats expérimentaux obtenus au niveau de l'étape précédente
Several scientific applications often use kernels performing computations on large sparse matrices. For reasons of efficiency in time and space, specific compression formats are used for storing such matrices. Most of sparse scientific computations address sparse linear algebra problems. Here two fundamental problems are often considered i. E. Linear systems resolution (LSR) and matrix eigen-values/vector computation (EVC). In this thesis, we address the problem of distributing, onto a Large Scale Distributed System (LSDS), computations performed in iterative methods for both LSR and EVC. The sparse matrix-vector product (SMVP) constitutes a basic kernel in such iterative mathods. Thus, our problem reduces to the SMVP distribution study on an LSDS. In principle, three phases are required for achieving this kind of applications, namely, pre -processing, processing and post-processing. In phase 1, we first proceed to the optimization of four versions of the SMVP algorithm corresponding to four specific matrix compressing formats, then study their performances on sequential target machines. In addition, we focus on the study of load balancing in the procedure of data (i. E. The sparse matrix rows) distribution on a LSDS. Concerning the processing phase, it consists in validating the previous study by a series of experimentations achieved on a volunteer distributed system we installed through using XtremWeb-CH middleware. As to the post-processing phase, it consists in interpreting the experimental results previously obtained in order to deduce adequate conclusions
Styles APA, Harvard, Vancouver, ISO, etc.
26

Aymard, Benjamin. « Simulation numérique d'un modèle multi-échelle de cinétique cellulaire formulé à partir d'équations de transport non conservatives ». Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066254/document.

Texte intégral
Résumé :
La thèse porte sur la calibration d'un modèle biomathématique multi-échelle expliquant le phénomène de sélection des follicules ovariens à partir du niveau cellulaire. Le modèle EDP consiste en un système hyperbolique quasi linéaire de grande taille gouvernant l'évolution des fonctions de densité cellulaire pour une cohorte de follicules (en pratique, une vingtaine).Les équations sont couplées de manière non locale par l'intermédiaire de termes de contrôle faisant intervenir les moments de la solution, intégrée à l'échelle mésoscopique et macroscopique. Trois chapitres de la thèse présentent, sous forme d'articles publiés, la méthode développée pour simuler numériquement ce modèle. Elle est conçue pour être implémentée sur une architecture parallèle. Les EDP sont discrétisées avec un schéma Volumes Finis sur un maillage adaptatif piloté par une analyse multirésolution. Le modèle présente des discontinuités de flux aux interfaces entre les différents états cellulaires, qui nécessitent la mise en ½uvre d'un couplage spécifique, compatible avec le schéma d'ordre élevé et le raffinement de maillage.Un chapitre de la thèse est dévolu à la méthode de calibration, qui consiste à traduire les connaissances biologiques en contraintes sur les paramètres et sur les sorties du modèle. Le caractère multi-échelle est là encore crucial. Les paramètres interviennent au niveau microscopique dans les équations gouvernant l'évolution des densités de cellules au sein de chaque follicule, alors que les données biologiques quantitatives sont disponibles aux niveaux mésoscopique et macroscopique
The thesis focuses on the numerical simulation of a biomathematical, multiscale model explaining the phenomenon of selection within the population of ovarian follicles, and grounded on a cellular basis. The PDE model consists of a large dimension hyperbolic quasilinear system governing the evolution of cell density functions for a cohort of follicles (around twenty in practice).The equations are coupled in a nonlocal way by control terms involving moments of the solution, defined on either the mesoscopic or macroscopic scale.Three chapters of the thesis, presented in the form of articles, develop the method used to simulate the model numerically. The numerical code is implemented on a parallel architecture. PDEs are discretized with a Finite Volume scheme on an adaptive mesh driven by a multiresolution analysis. Flux discontinuities, at the interfaces between different cellular states, require a specific treatment to be compatible with the high order numerical scheme and mesh refinement.A chapter of the thesis is devoted to the calibration method, which translates the biological knowledge into constraints on the parameters and model outputs. The multiscale character is crucial, since parameters are used at the microscopic level in the equations governing the evolution of the density of cells within each follicle, whereas quantitative biological data are rather available at the mesoscopic and macroscopic levels.The last chapter of the thesis focuses on the analysis of computational performances of the parallel code, based on statistical methods inspired from the field of uncertainty quantification
Styles APA, Harvard, Vancouver, ISO, etc.
27

Cavallaro, Gabriel. « Modélisation multi-échelle et analyse des roulements à billes à bagues déformables ». Lyon, INSA, 2004. http://www.theses.fr/2004ISAL0005.

Texte intégral
Résumé :
La modélisation d’un roulement fait classiquement l’hypothèse que les bagues sont rigides, c’est à dire que seuls le jeu interne et les déformations de contact interviennent dans l’équilibre interne. Les contraintes actuelles d’espace et de poids incitent à concevoir des roulements et des logements de sections minces, alors que le niveau des charges à supporter augmente. En conséquence la structure, dont les bagues, se déforme. L’ordre de grandeur de ces déformations dans le roulement est équivalent à celui des déformations locales. L’équilibre interne est ainsi modifié. Une approche multi échelle des déformations est nécessaire et adoptée ici. Nous avons développé un code analytique qui donne une description précise de l’équilibre interne prenant en compte les déformations locales, et qui intègre les déformations de structure calculées indépendamment par éléments finis (E. F. ). L’analyse de la contribution des déformations structurelles montre une modification du jeu interne, et en conséquence de l’équilibre interne (angles et charges de contact) et des caractéristiques mécaniques du roulement (raideur, durée de vie)
Rolling bearing models are express with the classic hypotheses of rigid rings; it means that only the internal clearance and the contact deformation drive the internal equilibrium. Current space and weight constrains lead to develop new bearing and shaft with thin sections. While the load intensity increase. Consequently, the structure, including the rings, deforms. This structural deformation modifies the internal equilibrium. A multi scale approach is adopted to include this deformation in analytical computer code. This code gives a precise description of the internal equilibrium and the contact deformation and is able to interact with a finite element code to include the structural deformation. The analysis of the contribution of this deformation shows an evolution of the internal clearance. Consequently, the internal equilibrium: angle contact loads, and the mechanical bearing characteristic is substantially modified
Styles APA, Harvard, Vancouver, ISO, etc.
28

Bourel, Christophe. « Étude mathématique et numérique de cristaux photoniques fortement contrastés ». Phd thesis, Université du Sud Toulon Var, 2010. http://tel.archives-ouvertes.fr/tel-00562138.

Texte intégral
Résumé :
Dans cette thèse, on se propose d'étudier rigoureusement le comportement macroscopique de matériaux composites fortement contrastés dans le cadre de l'électromagnétisme. Nous considérons des structures constituées de micro-inclusions réparties périodiquement (ou aléatoirement), au sein desquelles un matériau de très grande permittivité, ou de très grande conductivité, sera disposé. En pratique, une telle structure occupe un domaine borné 3D et est éclairée par une onde incidente monochromatique (de fréquence xée) venant de l'inni. Notre approche mathématique consiste à passer à la limite dans le système de Maxwell décrivant le problème de diffraction lorsque la distance séparant les inclusions tend vers zéro, et que l'indice électromagnétique des inclusions tend vers l'infini (`fort contraste'). Nous étudions deux types de structures diffractantes 3D qui permettent de réaliser des matériaux de permittivité ou perméabilité négatives. L'étude asymptotique et basée sur la méthode de convergence double-échelle (parfois dans une variante stochastique), et les problèmes sur la cellule de périodicité qui en résultent sont résolus par méthode spectrale. Ceci permet d'obtenir explicitement les tenseurs effectifs en fonction de la fréquence, mettant ainsi en évidence leurs grandes variations autour de fréquences de résonances.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Caian, Mihaéla. « Maille variable ou domaine limité : quelle solution choisir pour la prévision à échelle fine ? » Toulouse 3, 1996. http://www.theses.fr/1996TOU30226.

Texte intégral
Résumé :
Deux solutions pour l'ecoulement 3d atmospherique hydrostatique sont comparees sur un domaine d'interet: la solution du probleme mixte aux conditions initiales et a la limite, et celle globale du probleme initial sur une sphere virtuelle. Cette derniere, obtenue via une transformation homothetique definie par un pole de dilatation et par un coefficient d'etirement, donne une solution en maille variable sur la sphere reelle. Le but est d'etablir la limite de l'etirement pour laquelle l'augmentation de celui-ci entraine une meilleure precision, et pour quel cout de calcul. La convergence de la solution en maille variable est etudiee sur la sphere reelle: un critere de pseudo-equivalence avec la convergence en maille uniforme est defini. La stabilite des solutions numeriques est analysee par le comportement des spectres de l'energie cinetique. L'existence d'un intervalle de nombres d'onde pour lequel les deux solutions ont un meme type de convergence suivant la troncature est montree. Quand l'etirement augmente cet intervalle s'annule. La validite temporelle des deux solutions a meso-echelle est analysee par un algorithme de previsibilite dynamique. Une limite de l'etirement satisfaisant les deux contraintes de precision et d'efficacite est trouvee. Ces resultats ont ete aussi confirmes sur des situations meteorologiques reelles
Styles APA, Harvard, Vancouver, ISO, etc.
30

Rolland, Joran. « Etude numérique à petite et grande échelle de la bande laminaire-turbulente de l'écoulement de Couette plan transitionnel ». Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00755414.

Texte intégral
Résumé :
La thèse propose une étude numérique et une modélisation de la transition vers la turbulence dans l'écoulement de Couette plan. On se concentre particulièrement sur le régime de bandes oblique laminaire turbulentes, au coeur de la transition. On suit deux types d'approches selon le type d'échelles considérées. D'une part on étudie le détail à petite échelle de l'écoulement. A l'aide de DNS, une instabilité de cisaillement créant de la vorticité transverse est mise en évidence, et la vitesse d'advection des perturbations est mesurée. La modélisation de l'écoulement turbulent et cette instabilité vient confirmer ces mécanismes et met en évidence la transition absolue/convective à l'entrée des bandes. une description du maintien de la turbulence en termes de cycle auto-entretenu est proposée. D'autre part, on étudie l'écoulement 'a l'échelle de la bande. Des outils statistiques permettent d'étudier les bandes en termes de formation de motif. L'effet du bruit intrinsèque issu de la turbulence est mis en évidence, en particulier dans les changements d'orientation. La modélisation du motif en termes d'équation de Landau-Langevin et d'équation de Fokker-Planck correspondante fait le parallèle avec les motifs bruités et les phénomènes critiques. Partant de ce modèle on peut comprendre les retournements en termes de temps de premier passage moyen. Finalement, on regarde deux autres types de problèmes en couplant les approches microscopiques et macroscopiques. L'étude des relaminarisations tant au seuil de disparition de la turbulence qu'au seuil d'apparition du motif permet de mettre en évidence les mécanismes de disparition de la turbulence. L'étude de spots turbulents propose un aperçu de leur zoologie et permet d'approcher les mécanismes petite échelle à plus grand nombre de Reynolds.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Pioch, Claude. « Evaluation prospective de l'intensité de la douleur aux urgences : corrélation entre l'échelle numérique et l 'échelle visuelle analogique ». Montpellier 1, 2000. http://www.theses.fr/2000MON11052.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
32

Alimi, Amel. « Analyse experimentale et numérique multi-échelle du comportement mécanique de l'acier X40CrMoV5-1 : application au matriçage à chaud ». Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4043/document.

Texte intégral
Résumé :
Au cours du procédé de matriçage à chaud, les outils subissent des chargements sévères, complexes et variables. Agissant en synergie, ils induisent la dégradation des outillages par différents processus d’endommagement qui dépendent de plusieurs facteurs notamment le niveau du chargement, la microstructure des matériaux en contact et les contraintes résiduelles dans les matrices. Pour répondre à cette problématique, il apparaît particulièrement important de maîtriser le comportement mécanique du matériau des outils de matriçage. Cette étude est basée sur différentes approches expérimentales et numériques multi-échelles. Afin d’identifier les modes d’endommagement, une matrice en fin de service est expertisée par des observations au Microscope Electronique à Balayage, des analyses des contraintes résiduelles par DRX ainsi que des mesures de dureté. Cette expertise a mis en évidence la nature multiéchelle, et multiphysique de l’endommagement. Au regard de ces résultats, une première approche phénoménologique a été développée permettant de prédire la cartographie des contraintes thermiques et mécaniques dans l’outil. Une modélisation multiéchelle du comportement mécanique cyclique de l’acier à outil X40CrMoV5-1 est développée, en adoptant le modèle Chaboche-Lemaitre dans un premier temps et en exploitant un modèle autocohérent dans un deuxième temps. Une confrontation des résultats issus des différentes approches investiguées dans la thèse est établie
During hot forming process, tools are subjected to severe, complex and variable loadings. Acting in synergy, they induce degradation of tooling by various damage processes that depend on several factors including the level of loading, the microstructure of materials in contact and the residual stresses in dies. In order to solve this set of problems, it seems particularly important to study the mechanical behaviour of hot forming tooling material. This study is based on different multi-scale experimental and numerical approaches. To identify damage modes, a damaged hot working tool has been investigated with SEM observations, analysis of residual stresses by XRD and hardness measurements. This expertise highlights the complexity and multi-scale of damage. In view of these results, a first phenomenological approach was developed to predict the cartography of thermal and mechanical stresses in the tool. Multi-scale modelling of the X40CrMoV5-1 steel tool cyclic mechanical behaviour is developed by adopting Chaboche-Lemaitre model initially and operating a self-consistent model in a second time. A comparison of results acquired from the different approaches investigated in the thesis is established
Styles APA, Harvard, Vancouver, ISO, etc.
33

Tine, Samir. « Evaluation d'un stimulus de pression par des échelles verbales simples, numériques et visuelles analogiques au sein d'une population âgée hospitalisé : implications pour l'évaluation de la douleur en gériatrie ». Paris 13, 2004. http://www.theses.fr/2004PA130027.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
34

Henon, Joseph. « Elaboration de matériaux poreux géopolymères à porosité multi-échelle et contrôlée ». Limoges, 2012. https://aurore.unilim.fr/theses/nxfile/default/2e0cd75e-4baa-4db6-980a-67278d007105/blobholder:0/2012LIMO4019.pdf.

Texte intégral
Résumé :
Ce travail est basé sur l’élaboration, la caractérisation, et le contrôle de la porosité d’un matériau poreux à matrice géopolymérique, synthétisé à partir du mélange de métakaolin, d’une solution de silicate alcaline, d’hydroxyde alcalin, et de fumée de silice comme agent porogène. Ce mélange donne lieu à une « mousse » avec production continue de dihydrogène in-situ au sein d’un gel visqueux évolutif. Le contrôle de la porosité à cette valeur élevée de pH est régi par un équilibre entre des cinétiques de réactions de polycondensation (consolidation) et de production de gaz. L’influence des différents paramètres est testée par la caractérisation du réseau poreux obtenu. La conductivité thermique d’échantillons homogènes est mesurée par fluxmètre et par fil chaud. Ces valeurs sont discutées à partir de l’analyse de la microstructure et des différents modèles analytiques issus de la littérature. Une démarche numérique inverse est utilisée pour retrouver la valeur de conductivité thermique du squelette solide λs du matériau. En effet il est difficile d’obtenir un matériau pseudo-dense pour une même composition. Un calcul par éléments finis, avec une méthode d’homogénéisation, est appliqué sur des Volumes Elémentaires Représentatifs construits à partir des données expérimentales. La valeur de λs est alors évaluée entre 0,98 et 1,12 W. M-1. K-1. Les mousses ont des taux de porosité compris entre 65 et 85% et des valeurs de conductivités thermiques comprises entre 0,12 et 0,35 W. M-1. K-1, ce qui en fait un matériau isolant
This work is focused on the preparation, the characterization, and the control of the porosity in geopolymer foams, synthesized from the mixing of metakaolin, a alkali silicate solution, alkali hydroxide, and silica fume as the pore forming agent. This mixture results in a foam in which hydrogen gas is produced continuously in an evolutive viscous gel. The control of porosity, in consideration of the very high value of pH, requires the establishment of an equilibrium between the kinetics of polycondensation reactions (hardening) and the kinetics of gassing. The influence of different parameters is studied through the characterization of the obtained porous network. The thermal conductivity of the homogeneous samples is measured with a fluxmeter and also with a hot wire method. The values obtained are then discussed in relation to the microstructure and relevant analytical models of the literature. An inverse numerical approach is used to find the thermal conductivity value of the skeleton of the foam λs. In fact, it is difficult to prepare a material with a low pore volume fraction from the same composition. A finite element calculation, coupled with a homogenization method, is applied on Representative Volume Elements constructed in relation with the experimental data. The value of λs is then calculated between 0. 98 and 1. 12 W. M-1. K-1. The foams have pore volume fractions values between 65 and 85% corresponding to thermal conductivity values between 0. 12 and 0. 35 W. M-1. K-1, yielding a good material for thermal insulation
Styles APA, Harvard, Vancouver, ISO, etc.
35

Konaté, Aboubacar. « Méthode multi-échelle pour la simulation d'écoulements miscibles en milieux poreux ». Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066006/document.

Texte intégral
Résumé :
L'objet de cette thèse est l'étude et la mise en œuvre d'une méthode d’éléments finis multi-échelles pour la simulation d'écoulements miscibles en milieux poreux. La définition des fonctions de base multi-échelles suit l'idée introduite par F. Ouaki. La nouveauté de ce travail consiste à combiner cette approche multi-échelle avec des éléments finis de type Galerkine Discontinus (DG) de façon à pouvoir utiliser ces nouveaux éléments sur des maillages non-conformes composés de mailles de formes diverses. Nous rappelons, dans un premier temps, le principe des méthodes DG et montrons comment ces méthodes peuvent être utilisées pour discrétiser une équation de convection-diffusion instationnaire identique à celle rencontrée dans le problème d'écoulement considéré dans ce travail. Après avoir vérifié l'existence et l'unicité d'une solution à ce problème, nous redémontrons la convergence des méthodes DG vers cette solution en établissant une estimation d'erreur a priori. Nous introduisons, ensuite, les éléments finis multi-échelles non conformes et détaillons leur mise en œuvre sur ce problème de convection-diffusion. En supposant les conditions aux limites et les paramètres du problème périodiques, nous montrons une nouvelle estimation d'erreur a priori pour cette méthode. Dans une seconde partie, nous considérons le problème d'écoulement complet où l'équation considérée dans la première partie est résolue de manière couplée avec l'équation de Darcy. Nous introduisons différents cas tests inspirés de modèles d'écoulements rencontrés en géosciences et comparons les solutions obtenues avec les deux méthodes DG, à savoir la méthode classique utilisant un seul maillage et la méthode étudiée ici. Nous proposons de nouvelles conditions aux limites pour la résolution des problèmes de cellule qui permettent, par rapport à des conditions aux limites linéaires plus classiquement utilisées, de mieux reproduire les variations des solutions le long des interfaces du maillage grossier. Les résultats de ces tests montrent que la méthode multi-échelle proposée permet de calculer des solutions proches de celles obtenues avec la méthode DG sur un seul maillage et de réduire, de façon significative, la taille du système linéaire à résoudre à chaque pas de temps
This work deals with the study and the implementation of a multiscale finite element method for the simulation of miscible flows in porous media. The definition of the multiscale basis functions is based on the idea introduced by F. Ouaki. The novelty of this work lies in the combination of this multiscale approach with Discontinuous Galerkin methods (DG) so that these new finite elements can be used on nonconforming meshes composed of cells with various shapes. We first recall the basics of DG methods and their application to the discretisation of a convection-diffusion equation that arises in the flow problem considered in this work. After establishing the existence and uniqueness of a solution to the continuous problem, we prove again the convergence of DG methods towards this solution by establishing an a priori error estimate. We then introduce the nonconforming multiscale finite element method and explain how it can be implemented for this convection-diffusion problem. Assuming that the boundary conditions and the parameters of the problem are periodic, we prove a new a priori error estimate for this method. In a second part, we consider the whole flow problem where the equation, studied in the first part of that work, is coupled and simultaneously solved with Darcy equation. We introduce various synthetic test cases which are close to flow problems encountered in geosciences and compare the solutions obtained with both DG methods, namely the classical method based on the use of a single mesh and the one studied here. For the resolution of the cell problems, we propose new boundary conditions which, compared to classical linear conditions, allow us to better reproduce the variations of the solutions on the interfaces of the coarse mesh. The results of these tests show that the multiscale method enables us to calculate solutions which are close to the ones obtained withDG methods on a single mesh and also enables us to reduce significantly the size of the linear system that has to be solved at each time step
Styles APA, Harvard, Vancouver, ISO, etc.
36

Mallet, Jessy. « Contribution à la modélisation et à la simulation numérique multi-échelle du transport cinétique électronique dans un plasma chaud ». Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14584/document.

Texte intégral
Résumé :
En physique des plasmas, le transport des électrons peut être décrit d'un point de vue cinétique ou d'un point de vue hydrodynamique.En théorie cinétique, une équation de Fokker-Planck couplée aux équations de Maxwell est utilisée habituellement pour décrire l'évolution des électrons dans un plasma collisionnel. Plus précisément la solution de l'équation cinétique est une fonction de distribution non négative f spécifiant la densité des particules en fonction de la vitesse des particules, le temps et la position dans l'espace. Afin d'approcher la solution de ce problème cinétique, de nombreuses méthodes de calcul ont été développées. Ici, une méthode déterministe est proposée dans une géométrie plane. Cette méthode est basée sur différents schémas numériques d'ordre élevé . Chaque schéma déterministe utilisé présente de nombreuses propriétés fondamentales telles que la conservation du flux de particules, la préservation de la positivité de la fonction de distribution et la conservation de l'énergie. Cependant, le coût de calcul cinétique pour cette méthode précise est trop élevé pour être utilisé dans la pratique, en particulier dans un espace multidimensionnel.Afin de réduire ce temps de calcul, le plasma peut être décrit par un modèle hydrodynamique. Toutefois, pour les nouvelles cibles à haute énergie, les effets cinétiques sont trop importants pour les négliger et remplacer le calcul cinétique par des modèles habituels d'Euler macroscopiques. C'est pourquoi une approche alternative est proposée en considérant une description intermédiaire entre le modèle fluide et le modèle cinétique. Pour décrire le transport des électrons, le nouveau modèle réduit cinétique M1 est basé sur une approche aux moments pour le système Maxwell-Fokker-Planck. Ce modèle aux moments utilise des intégrations de la fonction de distribution des électrons sur la direction de propagation et ne retient que l'énergie des particules comme variable cinétique. La variable de vitesse est écrite en coordonnées sphériques et le modèle est défini en considérant le système de moments par rapport à la variable angulaire. La fermeture du système de moments est obtenue sous l'hypothèse que la fonction de distribution est une fonction d'entropie minimale. Ce modèle satisfait les propriétés fondamentales telles que la conservation de la positivité de la fonction de distribution, les lois de conservation pour les opérateurs de collision et la dissipation d'entropie. En outre une discrétisation entropique avec la variable de vitesse est proposée sur le modèle semi-discret. De plus, le modèle M1 peut être généralisé au modèle MN en considérant N moments donnés. Le modèle aux N-moments obtenu préserve également les propriétés fondamentales telles que les lois de conservation et la dissipation de l'entropie. Le schéma semi-discret associé préserve les propriétés de conservation et de décroissance de l'entropie
In plasma physics, the transport of electrons can be described from a kinetic point of view or from an hydrodynamical point of view.Classically in kinetic theory, a Fokker-Planck equation coupled with Maxwell equations is used to describe the evolution of electrons in a collisional plasma. More precisely the solution of the kinetic equations is a non-negative distribution function f specifying the density of particles as a function of velocity of particles, the time and the position in space. In order to approximate the solution of such problems, many computational methods have been developed. Here, a deterministic method is proposed in a planar geometry. This method is based on different high order numerical schemes. Each deterministic scheme used presents many fundamental properties such as conservation of flux particles, preservation of positivity of the distribution function and conservation of energy. However the kinetic computation of this accurate method is too expensive to be used in practical computation especially in multi-dimensional space.To reduce the computational time, the plasma can be described by an hydrodynamic model. However for the new high energy target drivers, the kinetic effects are too important to neglect them and replace kinetic calculus by usual macroscopic Euler models.That is why an alternative approach is proposed by considering an intermediate description between the fluid and the kinetic level. To describe the transport of electrons, the new reduced kinetic model M1 proposed is based on a moment approach for Maxwell-Fokker-Planck equations. This moment model uses integration of the electron distribution function on the propagating direction and retains only the energy of particles as kinetic variable. The velocity variable is written in spherical coordinates and the model is written by considering the system of moments with respect to the angular variable. The closure of the moments system is obtained under the assumption that the distribution function is a minimum entropy function. This model is proved to satisfy fundamental properties such as the non-negativity of the distribution function, conservation laws for collision operators and entropy dissipation. Moreover an entropic discretization in the velocity variable is proposed on the semi-discrete model. Moreover the M1 model can be generalized to the MN model by considering N given moments. The N-moments model obtained also preserves fundamental properties such as conservation laws and entropy dissipation. The associated semi-discrete scheme is shown to preserve the conservation properties and entropy decay
Styles APA, Harvard, Vancouver, ISO, etc.
37

Du, Shuimiao. « Investigations numériques multi-échelle et multi-niveau des problèmes de contact adhésif à l'échelle microscopique ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC080.

Texte intégral
Résumé :
L'objectif ultime de ce travail est de fournir des méthodologies robustes et efficaces sur le plan des calculs pour la modélisation et la résolution des problèmes de contact adhésifs basés sur le potentiel de Lennard-Jones (LJ). Pour pallier les pièges théoriques et numériques du modèle LJ liés à ses caractéristiques nondéfinies et non-bornées, une méthode d'adaptativité en modèle est proposée pour résoudre le problème purement-LJ comme limite d'une séquence de problèmes multiniveaux construits de manière adaptative. Chaque membre de la séquence consiste en une partition modèle entre le modèle microscopique LJ et le modèle macroscopique de Signorini. La convergence de la méthode d'adaptativité est prouvée mathématiquement sous certaines hypothèses physiques et réalistes. D'un autre côté, la méthode asymptotique numérique (MAN) est adaptée et utilisée pour suivre avec précision les instabilités des problèmes de contact à grande échelle et souples. Les deux méthodes sont incorporées dans le cadre multiéchelle Arlequin pour obtenir une résolution précise, tout en réduisant les coûts de calcul. Dans la méthode d'adaptativité en modèle, pour capturer avec précision la localisation des zones d'intérêt (ZDI), une stratégie en deux résolutions est suggérée : une résolution macroscopique est utilisée comme une première estimation de la localisation de la ZDI. La méthode Arlequin est alors utilisée pour obtenir une résolution microscopique en superposant des modèles locaux aux modèles globaux. En outre, dans la stratégie MAN, la méthode Arlequin est utilisée pour supprimer les oscillations numériques, améliorer la précision et réduire le coût de calcul
The ultimate goal of this work is to provide computationally efficient and robust methodologies for the modelling and solution of a class of Lennard-Jones (LJ) potential-based adhesive contact problems. To alleviate theoretical and numerical pitfalls of the LJ model related to its non-defined and nonbounded characteristics, a model-adaptivity method is proposed to solve the pure-LJ problem as the limit of a sequence of adaptively constructed multilevel problems. Each member of the sequence consists of a model partition between the microscopic LJ model and the macroscopic Signorini model. The convergence of the model-adaptivity method is proved mathematically under some physical and realistic assumptions. On the other hand, the asymptotic numerical method (ANM) is adapted to track accurately instabilities for soft contact problems. Both methods are incorporated in the Arlequin multiscale framework to achieve an accurate resolution at a reasonable computational cost. In the model-adaptivity method, to capture accurately the localization of the zones of interest (ZOI), a two-step strategy is suggested: a macroscopic resolution is used as the first guess of the ZOI localization, then the Arlequin method is used there to achieve a fine scale resolution. In the ANM strategy, the Arlequin method is also used to suppress numerical oscillations and improve accuracy
Styles APA, Harvard, Vancouver, ISO, etc.
38

Vial, Grégory. « Analyse multi-échelle et conditions aux limites approchées pour un problème avec couche mince dans un domaine à coin ». Rennes 1, 2003. https://tel.archives-ouvertes.fr/tel-00005153.

Texte intégral
Résumé :
Ce travail porte sur l'analyse asymptotique d'un problème de transmission avec couche mince dans un domaine bidimensionnel à coin. Précisément, on construit un développement asymptotique de la solution en fonction de l'épaisseur de la couche. La présence d'un coin engendre des singularités qui compromettent la construction habituelle du développement, par résolution alternative entre le domaine intérieur et la couche. Celles-ci sont traitées par l'introduction de profils construits dans un domaine infini avec couche d'épaisseur 1 à l'aide de la transformation de Mellin. On s'intéresse ensuite à la performance de la condition aux limites approchée, dont on sait qu'elle remplace l'effet de la couche mince jusqu'à l'ordre 3 dans le cas d'un domaine régulier. On montre que la présence d'un coin détériore son efficacité, ce d'autant plus que l'angle d'ouverture est grand. Des calculs numériques ont été effectués, qui confirment les résultats théoriques obtenus.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Couespel, Damien. « La désoxygénation de l'océan au cours du 21ème siècle : influence des processus de petite et moyenne échelle ». Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS097.

Texte intégral
Résumé :
La quantité d'oxygène océanique diminue depuis 20ème siècle et, d'après les projections climatiques, cela se poursuivra sur le 21ème siècle avec des effets sur les cycles biogéochimiques, les organismes aquatiques et les écosystèmes. En subsurface, la désoxygénation est contrôlée par : 1) la solubilité déterminant la quantité d’oxygène pouvant être dissous, 2) la respiration utilisant l'oxygène pour reminéraliser la matière organique et 3) les échanges surface/subsurface. Ces mécanismes sont affectés par le changement climatique (CC) : 1) la solubilité diminue quand la température augmente, 2) la production de matière organique en surface diminue, diminuant ainsi la respiration en subsurface et 3) les échanges surface/subsurface sont ralentis en raison de l’augmentation de la stratification. La contribution relative de chacun de ces mécanismes à la désoxygénation est encore mal connue. Pour l'estimer nous avons calculé, dans une projection climatique, le transport d’oxygène à travers la base de la couche de mélange et la respiration sous la couche de mélange. Nos résultats montrent que chaque mécanisme contribue à proportion égale à la désoxygénation. Ce résultat a été obtenu avec un modèle à basse résolution. Or, des études indiquent que les processus de petite échelle peuvent influencer les mécanismes contrôlant la désoxygénation mais il n’y a pas encore d’estimation de leurs effets. Nous avons donc développé une configuration idéalisée nous permettant de réaliser des expériences de CC résolvant explicitement ces processus. Dans ce cadre, nos résultats montrent que les processus de petite échelle atténuent 1) la désoxygénation et 2) la réponse des mécanismes impliqués
The amount of oxygen in the ocean has decreased since the middle of the 20th century. According to climate projections, this will continue into the 21st century with effects on biogeochemical cycles, aquatic organisms and ecosystems. In the subsurface, deoxygenation is controlled by: 1) solubility, determining the amount of oxygen that can be dissolved, 2) respiration, using oxygen to remineralize organic matter and 3) surface/subsurface exchanges. These mechanisms are affected by climate change: 1) the solubility decreases as the temperature increases, 2) the production of organic matter at the surface decreases, thus decreasing the subsurface respiration and 3) the surface/subsurface exchanges are slowed down due to the increase in stratification. The relative contribution of each of these mechanisms to deoxygenation is still poorly understood. To estimate it, we calculated the transport of oxygen through the base of the mixed layer as well as the respiration under the mixed layer in a climate projection. Our results show that each mechanism contributes in equal proportion to deoxygenation. This result was obtained with a low resolution model. However, studies indicate that small-scale processes can influence the mechanisms controlling deoxygenation, but there is still no estimate of their effects. We have therefore developed an idealized configuration allowing us to perform climate change experiments that explicitly solve these processes. In this framework, our results show that small scale processes attenuate 1) deoxygenation and 2) the responses of the mechanisms involved
Styles APA, Harvard, Vancouver, ISO, etc.
40

Chouikhi, Najib. « Production de biométhane à partir de biogaz par technologie de séparation par adsorption PSA : optimisation numérique par approche multi-échelle ». Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST043.

Texte intégral
Résumé :
A mesure que l'intérêt mondial pour les énergies renouvelables s'intensifie, la production de biogaz ne cesse de croître, car elle est une source renouvelable et propre. La technologie de séparation par adsorption modulée en pression (Pressure Swing Adsorption ou PSA) se présente alors comme une des technologies intéressantes permettant la valorisation du biogaz en biométhane. La grande flexibilité du procédé PSA est liée en une certaine manière à sa complexité avec plusieurs paramètres de design et opératoires contrôlant les performances de l’unité de séparation. L’identification de ces paramètres par une approche expérimentale est pratiquement impossible et une phase d’étude numérique est primordiale pour dimensionner l’unité, concevoir le cycle de pression et déterminer les conditions optimales de fonctionnement, avant tout essai expérimental. L’objectif général de la thèse a été centré sur le développement d’outils de simulation d’un procédé de purification de biométhane par technologie PSA.Dans un premier temps, une simulation basée sur une modélisation dynamique monodimensionnelle non isotherme a été mise en place. Elle fait appel à un modèle cinétique d’adsorption de double force motrice (bi-LDF) pour décrire les échanges de matière intragranulaires. Le choix de l’adsorbant s’est porté sur un tamis moléculaire de carbone (CMS-3K) permettant d’assurer une grande sélectivité cinétique du dioxyde de carbone vis à vis du méthane (CH4). Le cycle PSA a été optimisé pour obtenir une récupération du CH4 de 92 % avec une consommation d'énergie spécifique modérée de 0,35 kWh/Nm3, tout en respectant les spécifications de pureté d’injection dans le réseau national (97 % de CH4). Les performances obtenues sont ainsi compatibles avec une exploitation industrielle. Ce cycle est composé de cinq colonnes et de quinze étapes incluant trois équilibrages et un recyclage de gaz de purge.Le développement d’un modèle numérique multidimensionnel (3D) et multi-échelle (colonne/grain/cristal) permettrait d’estimer les limites des hypothèses et des corrélations utilisées dans les simulateurs usuels. La première étape consiste à simuler l’écoulement du gaz dans un lit d’adsorbant ayant une morphologie la plus réaliste possible. Ainsi, lors de la seconde partie du travail de thèse, un lit constitué de billes inertes a été généré numériquement par calcul DEM (modélisation par éléments discrets) pour une colonne de taille de laboratoire. L’emploi d’OpenFOAM (logiciel CFD) a permis de calculer l’écoulement tridimensionnel d’un traceur dans la colonne. En parallèle une étude expérimentale du front de percée a été menée pour un lit de mêmes dimension et caractéristiques. Les temps de percée et les coefficients de dispersion-diffusion calculés et mesurés sont similaires. Cependant la simulation présente quelques divergences de la concentration du traceur localement dans la colonne, en raison de difficultés de maillage. L’étape suivante consistera à prendre en compte des interactions grains-fluide en considérant des grains poreux d’adsorbant
As global interest in renewable energy intensifies, biogas production continues to grow as a clean, renewable source. Pressure Swing Adsorption (PSA) is considered as one of the most interesting technologies for the valorization of biogas into biomethane. The great flexibility of the PSA process is linked in some way to its complexity with several design and operating parameters which control the performance of the separation unit. The identification of these parameters by an experimental approach is practically impossible. A numerical study stage is essential for sizing the unit, designing the pressure cycle and identifying the optimal operating conditions before any experimental test.The general objective of the thesis was focused on the development of simulation tools for a biomethane purification process using PSA technology.In a first stage, a simulation based on one-dimensional non-isothermal dynamic model, where the intragranular mass transfer kinetics was modelled using a double driving force (bi-LDF) approximation, was implemented. A carbon molecular sieve (CMS-3K) was selected. This adsorbent ensures a high kinetic selectivity of carbon dioxide with respect to methane (CH4). The optimized cycle, composed of five columns and fifteen steps including three equalization steps and a purge gas recycling allowed a CH4 recovery of 92% with a moderate specific energy consumption of 0.35 kWh/Nm3 , at the same time respecting the grid injection specifications (97% CH4 purity ). The performance obtained is thus compatible with industrial operation.The development of a multidimensional (3D) and multi-scale (column/grain/crystal) numerical model would serve to evaluate the limits of the assumptions and correlations used in usual simulators. The first step consists in simulating the gas flow in an adsorbent bed having a reaslistic stacking.. Thus, an inert packed bed was numerically generated by DEM calculation (discrete element modeling) for a column of laboratory size. The use of OpenFOAM (CFD software) allowed to calculate the three-dimensional tracer gas flow in the column. In parallel an experimental study of the breakthrough curves was carried out using a bed having the same dimensions and characteristics. The breakthrough times and the dispersion-diffusion coefficients calculated and measured were similar. However the simulation showed some divergences in the concentration of the tracer locally in the column, due to difficulties in meshing. The next step will consist in taking into account grain-fluid interactions by considering porous adsorbent grains
Styles APA, Harvard, Vancouver, ISO, etc.
41

Gerandi, Guillaume. « Approches expérimentale et numérique multi-échelle pour modéliser le terme source de masse durant la dégradation du bois pour l’incendie ». Thesis, Corte, 2020. http://hal-univ-corse.archives-ouvertes.fr/view_by_stamp.php?&action_todo=view&id.

Texte intégral
Résumé :
Ces travaux de thèse s’inscrivent dans l’amélioration de la compréhension des mécanismes de dégradation des combustibles pour l’incendie. Ils ont pour objectif d’étudier à travers une approche multi-échelle la dégradation thermique de plaques de bois.La dégradation thermique de deux types de bois : le chêne blanc (Quercus alba) et l’eucalyptus commun (Eucalyptus globulus), a tout d’abord été étudiée à l’échelle matière, où des échantillons de faibles masses ont été chauffés dans un analyseur thermogravimétrique. Les résultats ont montré que la dégradation thermique de ces deux bois pouvait se représenter en quatre étapes. A partir de ces résultats expérimentaux, quatre mécanismes réactionnels ont été développés : le mécanisme par constituants, le mécanisme global, le mécanisme actif et le mécanisme simplifié avec seulement deux étapes. Les paramètres cinétiques associés ont été déterminés par optimisation avec un algorithme du gradient descendant. La simulation a révélé que l’ensemble des mécanismes représente de manière efficace la perte de masse des deux bois aux différentes vitesses de chauffe étudiées. La meilleure performance est obtenue par le mécanisme global et la moins bonne par le mécanisme simplifié.La dégradation thermique des deux bois a également été étudiée à l’échelle matériau à l’aide d’un cône calorimètre. Différentes densités de flux variant entre 18 et 28,5 kW/m² ont été appliquées afin d’éviter l’auto-inflammation du bois. Deux conditions limites ont été imposées à la face inférieure des plaques de bois. La température des plaques de bois a été mesurée par thermocouples et par caméra infra-rouge. Les résultats expérimentaux ont révélé que plus la densité de flux augmente, plus la perte de masse est rapide et la température augmente rapidement. L’oxydation du résidu charbonneux prend dans ce cas l’allure d’un front bidimensionnel qui se propage au cours du temps.L’étude numérique menée sur les expériences réalisées à l’échelle matériau a permis de valider les mécanismes réactionnels développés à l’échelle matière, en utilisant le champ de température expérimental des plaques de bois fines. A cette échelle, la performance des mécanismes réactionnels est très proche. Une étude unidimensionnelle a été réalisée avec le code GPYRO afin de prédire la température et la perte de masse des plaques thermiquement fines. Les résultats obtenus sont très satisfaisants, grâce à une optimisation des propriétés thermiques du bois et une convolution pour représenter les phénomènes bidimensionnels. Pour les plaques thermiquement épaisses, les mécanismes à quatre étapes permettent de représenter la perte de masse durant la phase de gazéification mais ne permettent pas cependant de prédire la totalité de la phase d’oxydation du résidu charbonneux
This Ph-D work was done in order to better understand the thermal degradation mechanisms of fuels for fires. The aim was to study the thermal degradation of wood plates by using a multi-scale approach.The thermal degradation of two kinds of wood: white oak (Quercus alba) and common eucalyptus (Eucalyptus globulus) was first investigated at matter scale where samples with weak weight were heated with a thermogravimetric analyzer. Results showed that the thermal degradation of these two kinds of wood could be represented by four steps. From these experimental observations, four kinetic mechanisms were developed: the constituent mechanism, the lumped mechanism, the active mechanism and the simplified mechanism. The kinetic parameters were determined by optimization using the gradient descent algorithm method. The simulations showed that all mechanisms were capable to represent the mass loss of oak and eucalyptus at the different heating rates investigated. The best performance was obtained by the lumped mechanism and the least one by the simplified mechanism. The thermal degradation of these two kinds of wood was also investigated at material scale using a cone calorimeter and thermally thin and thick wood plates. Heat flux densities varying between 18 and 28.5 kW/m² were imposed at the top of the fuel sample in order to avoid the auto-ignition of wood. Two boundary conditions were imposed at the back face of the wood plates. The wood temperature was recorded by thermocouples and an infrared camera. These experimental measurements showed that the higher the heat flux, the faster the mass loss and increase of temperature. Moreover, the char oxidation revealed a two-dimensional front that spread at the surface of the wood plates over time. The thermal degradation of the wood was finally studied numerically. By using the thermally thin wood plates and the experimental temperature field, in order to avoid the evaluation of the thermal properties, the mechanisms developed at matter scale were validated. At this scale, the performance of the different mechanisms is very close. A numerical study was performed with GPYRO in order to predict the temperature and the mass loss for the fine plates. The results were satisfying, thanks to an optimization of the thermal properties of wood and a convolution to represent the two-dimensional phenomenon. For the thermally thick wood plates, the four step kinetic mechanisms allowed to represent the mass loss during the gasification stage but did not enable to predict the whole char oxidation stage
Styles APA, Harvard, Vancouver, ISO, etc.
42

Atiezo, Megbeme Komla. « Modélisation multi-échelle de l'endommagement dynamique des matériaux fragiles sous chargements complexes ». Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0212.

Texte intégral
Résumé :
Dans cette thèse, la modélisation de l’endommagement et de la rupture dynamique des matériaux quasi-fragiles est proposée en utilisant une approche double-échelle basée sur la méthode d’homogénéisation asymptotique. Des lois d’endommagement dynamique sont établies et des simulations numériques du comportement associé sont effectuées dans les cas de sollicitations correspondants aux trois modes classiques de la Mécanique de la Rupture. Le premier modèle d’endommagement dynamique est proposé pour le chargement en mode de cisaillement antiplan (mode III). La loi d’endommagement est déduite à partir d’un critère énergétique de type Griffith décrivant la propagation des microfissures, en utilisant la méthode de changement d’échelle basée sur des développements asymptotiques. Une étude locale de la réponse macroscopique prédite par ce nouveau modèle est faite pour mettre en évidence l’influence des paramètres, comme la taille de la microstructure et la vitesse de chargement, sur l’évolution de l’endommagement. Les résultats des simulations macroscopiques de rupture dynamique et les instabilités de branchement associées sont présentés et comparés à ceux des observations expérimentales. Le modèle est implémenté dans un code Éléments finis/Différences finies en utilisant le logiciel de calcul Matlab. Des simulations numériques de rupture rapide en mode d’ouverture (mode I) en utilisant une loi d’endommagement dynamique sont ensuite présentées. Le modèle utilisé pour ces simulations, est déduit à partir d’un critère microscopique de type Griffith en mode I en utilisant la méthode d’homogénéisation asymptotique. La loi d’endommagement obtenue est sensible à la vitesse de chargement qui influence le mode de rupture macroscopique. Des simulations numériques sont effectuées afin d’identifier les prédictions du modèle et les résultats obtenus sont comparés aux résultats expérimentaux. Différents tests, comme ceux de traction directe et de l’échantillon en forme de L pour les bétons, les essais d’impact sur des échantillons CCS en PMMA et le test d’impact de Kalthoff pour des roches calcaires sont reproduits numériquement. Ces simulations montrent que la vitesse de chargement détermine essentiellement la trajectoire de rupture macroscopique et la formation des branches associées, en accord avec les résultats expérimentaux. La loi a été implémentée dans le code d’éléments finis Abaqus/Explicit via une sub-routine VUMAT. Un troisième modèle d’endommagement est obtenu pour le mode de cisaillement plan (Mode II) par une démarche de modélisation double-échelle similaire à celle utilisée dans les deux premiers modèles, en tenant compte du contact unilatéral avec frottement sur les lèvres des microfissures. Une étude locale concernant l’effet du chargement de compression et du coefficient du frottement sur les fissures est faite. L’influence des paramètres comme la taille de la microstructure et la vitesse de déformation sur l’évolution de l’endommagement sont étudiés. Ces études sont complétées par des simulations des essais de rupture/frottement sur des échantillons en PMMA en utilisant le logiciel Abaqus/Explicit
In this thesis, the modeling of dynamic damage and failure of quasi-materials is addressed using a two-scale approach based on the asymptotic homogenization method. Dynamic damage laws are obtained and numerical simulations of the associated behavior are performed for loadings corresponding to the classical three modes of Fracture Mechanics. The first dynamic model of damage is proposed for the anti-plane shear loading case (Mode III). The damage evolution law is deduced from the Griffith’s energy criterion governing the dynamic propagation of microcracks, by using the homogenization method based on asymptotic expansions. A study of the local macroscopic response predicted by the new model is conducted to highlight the influence of parameters, like the size of the microstructure and the loading rate, on the evolution of damage. Results of macroscopic simulations of dynamic failure and the associated branching instabilities are presented and compared with those reported by experimental observations. The model is implemented in a Finite-Elements/Finite-Differences code using the Matlab software environment. Numerical simulations of rapid failure in opening mode (Mode I) are using a dynamic damage law are presented subsequently. The model is deduced from a microscopic Griffith type criterion describing the dynamic mode I propagation of microcracks, using the asymptotic homogenization approach. The resulting damage law is sensitive to the rate of loading that determines the macroscopic failure mode. Numerical simulations are performed in order to identify the model predictions and the obtained numerical results are compared with the experimental ones. Different tests, like the compact tension and L-shape specimen tests for concrete, the compact compression test for the PMMA brittle polymer and the Kalthoff impact test for limestone rocks, are considered in the numerical simulations. These simulations show that the loading rate essentially determines the macroscopic crack trajectory and the associated branching patterns, in agreement with the experimental results. The law has been implemented in a finite element code Abaqus/Explicit via a VUMAT subroutine. A third model of damage is obtained for the in-plane shear mode (Mode II) through a similar double-scale approach by considering unilateral contact with friction conditions on the microcracks lips. A local study concerning the effects of normal compression and of the friction coefficient is carried out. The influence of the size of the microstructure and the rate of loading on damage evolution is analyzed at the local level. These studies are completed by structural failure simulations of PMMA specimens using the Abaqus/Explicit finite element software
Styles APA, Harvard, Vancouver, ISO, etc.
43

Hammoud, Mohammad. « Modélisation et simulation numérique du couplage entre les milieux discrets et continus ». Phd thesis, Ecole Nationale des Ponts et Chaussées, 2009. http://tel.archives-ouvertes.fr/tel-00469475.

Texte intégral
Résumé :
Un objectif essentiel pour les modélisations modernes est de prédire une réponse exacte dans des endroits par exemple fortement sollicités, fissurés ou endommagés, en utilisant des modèles très fins dont les échelles peuvent varier du micro au nanomètre. La modélisation continue reste efficace et valable pour les milieux où l'on ne s'intéresse qu'à la réponse structurelle. Cependant, la modélisation d'un milieu contenant un nombre important de degrés de liberté en utilisant une méthode discrète est très coûteuse en terme de temps de simulation, d'où l'idée de faire un couplage entre les méthodes continue et discrète. Dans le mémoire de cette thèse, une méthodologie de couplage entre les milieux discrets et continus a été développée. Deux modèles ont été étudiés à partir de cette méthodologie. Le premier modèle est celui d'une voie ferrée soumis à des chargements statique et dynamique. Le deuxième est un modèle de maçonnerie en 2D. La méthode de couplage proposée a permis de reproduire correctement le comportement discret en réduisant sensiblement le nombre de ddls utilisés ainsi que le temps de calcul comparé à celui discret. Le problème de réflexions d'onde à l'interface du couplage (souvent rencontré dans les méthodologies existantes à dans l'étude du modèle de poutre n'a pas été d'actualité car la longueur des ondes est déjà adaptée au maillage. Plusieurs perspectives peuvent être envisagées telles que l'étude dynamique du modèle de maçonnerie.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Erez, Giacomo. « Modélisation du terme source d'incendie : montée en échelle à partir d'essais de comportement au feu vers l'échelle réelle : approche "modèle", "numérique" et "expérimentale" ». Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0189.

Texte intégral
Résumé :
Le recours à la simulation numérique peut être précieux pour un investigateur cherchant à évaluer une hypothèse dans le cadre de la recherche des causes et circonstances d'un incendie. Pour utiliser cet outil, il est primordial de définir précisément le terme source, c'est-à-dire la quantité d'énergie ou de gaz combustibles que le foyer va dégager au cours du temps. Il peut être déterminé par des essais en échelle réduite ou réelle. La première approche est souvent préférée car plus facile à mettre en œuvre et moins coûteuse. Dans ce cas, il est ensuite nécessaire de transposer les résultats vers l'échelle réelle : pour cela, plusieurs types de modèles ont été proposés. Les plus complets reposent sur des modèles de pyrolyse, qui décrivent le comportement au feu à partir des réactions chimiques dans la phase condensée. Toutefois, ils ne sont pour l'instant pas mûrs pour les applications en investigation. C'est pourquoi une autre famille de modèles, dits thermiques, a été choisie dans l'étude présentée ici. Ces modèles visent à prédire le terme source en fonction de la sollicitation thermique uniquement. Les travaux sont divisés en deux parties principales, à savoir une caractérisation approfondie des transferts de chaleur au sein d'une flamme et une investigation de leur influence sur la décomposition des matériaux. Pour le premier sujet, l'accent est mis sur les transferts radiatifs car ils jouent un rôle prédominant dans l'entretien de la combustion et la propagation. Le rayonnement des flammes a donc été caractérisé pour plusieurs combustibles (kérosène, gazole, heptane, mousse polyuréthane et bois) et de nombreuses tailles de foyer (de 0,3 m à 3,5 m de côté). Les mesures, incluant de l'imagerie visible mais aussi un dispositif d'opacimétrie multispectral et un spectromètre infrarouge, ont permis de décrire la forme et l'émission des flammes. Ces données ont ensuite été utilisées dans un modèle (méthode de Monte-Carlo) pour prédire les flux thermiques reçus à différentes positions. Ces prédictions reproduisent bien les valeurs mesurées lors des essais, ce qui montre que les principaux phénomènes contrôlant le rayonnement ont été identifiés et pris en compte, pour toutes les tailles de foyer. Étant donné que l'objectif final est de fournir un outil de simulation complet, il a été choisi d'évaluer Fire Dynamics Simulator (FDS) afin de déterminer si le code permet de décrire correctement ces transferts radiatifs. Ce travail a été fait grâce aux données et connaissances acquises précédemment et montre que le code prédit correctement les flux reçus. Il a donc été choisi, pour la suite des travaux, de se reposer sur le modèle de rayonnement déjà incorporé dans FDS, pour profiter de son couplage avec le reste des modèles utiles à la simulation incendie. Concernant le second thème de l'étude, à savoir l'effet du rayonnement sur la décomposition, un travail expérimental a été mené sur la mousse polyuréthane au cône calorimètre, afin de lier la vitesse de perte de masse (MLR, pour Mass loss rate) au flux thermique imposé. Ces données ont permis de construire un modèle prédisant le MLR en fonction du temps et de l'éclairement, ce qui représente bien l'approche thermique évoquée précédemment. Des essais à plus grande échelle ont servi à caractériser la propagation du feu à la surface du combustible mais aussi à l'intérieur des échantillons de mousse, en employant différents moyens de mesure (imagerie visible, thermométrie, photogrammétrie). En plus des connaissances acquises, cette étude indique que l'utilisation de données obtenues à petite échelle est possible pour prédire le comportement au feu à échelle réelle. C'est donc ce qui a été fait, en modifiant le code source de FDS, pour intégrer une approche thermique en utilisant les données du modèle décrivant le MLR en fonction du temps et de l'éclairement. Les premières simulations montrent des résultats encourageants, et seront complétées par l'étude de géométries plus complexes
Numerical simulations can provide valuable information to fire investigators, but only if the fire source is precisely defined. This can be done through full- or small-scale testing. The latter is often preferred because these tests are easier to perform, but their results have to be extrapolated in order to represent full-scale fire behaviour. Various approaches have been proposed to perform this upscaling. An example is pyrolysis models, which involve a detailed description of condensed phase reactions. However, these models are not ready yet for investigation applications. This is why another approach was chosen for the work presented here, employing a heat transfer model: the prediction of mass loss rate for a material is determined based on a heat balance. This principle explains the two-part structure of this study: first, a detailed characterisation of heat transfers is performed; then, the influence of these heat transfers on thermal decomposition is studied. The first part focuses on thermal radiation because it is the leading mechanism of flame spread. Flame radiation was characterised for several fuels (kerosene, diesel, heptane, polyurethane foam and wood) and many fire sizes (from 0.3 m up to 3.5 m wide). Measurements included visible video recordings, multispectral opacimetry and infrared spectrometry, which allowed the determination of a simplified flame shape as well as its emissive power. These data were then used in a model (Monte-Carlo method) to predict incident heat fluxes at various locations. These values were compared to the measurements and showed a good agreement, thus proving that the main phenomena governing flame radiation were captured and reproduced, for all fire sizes. Because the final objective of this work is to provide a comprehensive fire simulation tool, a software already available, namely Fire Dynamics Simulator (FDS), was evaluated regarding its ability to model radiative heat transfers. This was done using the data and knowledge gathered before, and showed that the code could predict incident heat fluxes reasonably well. It was thus chosen to use FDS and its radiation model for the rest of this work. The second part aims at correlating thermal decomposition to thermal radiation. This was done by performing cone calorimeter tests on polyurethane foam and using the results to build a model which allows the prediction of MLR as a function of time and incident heat flux. Larger tests were also performed to study flame spread on top and inside foam samples, through various measurements: videos processing, temperatures analysis, photogrammetry. The results suggest that using small-scale data to predict full-scale fire behaviour is a reasonable approach for the scenarios being investigated. It was thus put into practice using FDS, by modifying the source code to allow for the use of a thermal model, in other words defining the fire source based on the model predicting MLR as a function of time and incident heat flux. The results of the first simulations are promising, and predictions for more complex geometries will be evaluated to validate this method
Styles APA, Harvard, Vancouver, ISO, etc.
45

Simone, Agnès. « Etude théorique et simulation numérique de la turbulence compressible en présence de cisaillement ou de variation de volume à grande échelle ». Ecully, Ecole centrale de Lyon, 1995. http://www.theses.fr/1995ECDL0031.

Texte intégral
Résumé :
Ce travail de thèse contribue à la compréhension physique et a la modélisation des effets de la compressibilité dans les écoulements cisaillés ou comprimés à grande vitesse. Deux approches distinctes ont été utilisées: une analyse linéaire dite de distorsion rapide et la simulation numérique directe. Des travaux récents ayant montré la pertinence de la théorie de distorsion rapide, nous nous sommes appuyés sur ces résultats pour la généraliser à une turbulence compressible soumise à un champ moyen compatible avec l'hypothèse d'homogénéité statistique de la turbulence. L'analyse dimensionnelle des équations linéarisées du mouvement met en évidence le rôle essentiel d'un paramètre sans dimension, appelé nombre de mach de gradient ; ce paramètre défini comme le rapport du temps acoustique et du temps caractéristique associé à la déformation moyenne, détermine la force des couplages induits par la déformation moyenne, entre les modes de vitesse solénoïdaux (ou incompressibles) et dilatationnel (ou rotationnel), et le mode de pression. Un code de calcul résolvant les équations linéarisées du mouvement a été développé et, validé à partir de déformations moyennes pour lesquelles des solutions analytiques existent (compressions isotrope et axiale uni-dimensionnelle). Le cas du cisaillement pur plan a été plus particulièrement étudié ; les résultats obtenus à l'aide du code de distorsion rapide, pour une large gamme de valeurs du nombre de mach de gradient, sont comparés avec des simulations numériques directes des équations de Navier-Stokes complètes. Ils confirment l'adéquation du nombre de mach de gradient à caractériser les effets de la compressibilité ; et, montrent, en particulier, que l'effet stabilisant inhérent à la compressibilité intrinsèque de l'écoulement - que l'on pensait dû à des mécanismes non-linéaires, est capturé par l'analyse de distorsion rapide. Son origine est donc, dans des phénomènes tels que la restructuration de l'anisotropie du champ de vitesse et du champ de pression, gouvernes par des équations linéaires.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Wagner, Sébastien. « Modélisation numérique de la dispersion à méso-échelle de polluants atmosphériques par emboîtement interactif de maillages : application à la zone ESCOMPTE ». Toulon, 2003. http://www.theses.fr/2003TOUL0004.

Texte intégral
Résumé :
Ce travail est une contribution aux méthodes de modélisation de la qualité de l'air. Notre nouveau modèle multi-échelle "MAPOM" (Multiscale Air Pollution Model) simule la dispersion de polluants atmosphériques à méso-échelle. Pour augmenter la précision du modèle, une nouvelle technique d'emboîtement de maillages avec interaction aux interfaces a été implémentée et testée. Les propriétés de conservation de la masse, de positivité et de monotonie du schéma sont assurées. MAPOM a été validé sur des cas tests théoriques avant d'être appliqué sur la région Marseille - Etang de Berre (domaine ESCOMPTE). Le modèle et son algorithme d'emboîtement interactif de maillages ont démontré leur efficacité à traiter des problèmes difficiles de qualité de l'air, à mésoéchelle et sur des terrains complexes. L'optimisation de la mémoire et la structure modulaire de ce nouveau modèle permettent une gestion souple, rapide et automatique des grilles emboîtées et des processus physiques et chimiques
This work aims to be a contribution to the numerical techniques used in air quality modelling. Our new multiscale model "MAPOM" (Multiscale Air Pollution Model) simulates mesoscale atmospheric pollutant dispersion. To increase the model accuracy, a new mesh embedding method, allowing grid interactions at the interface, has been implemented and tested. Mass conservation, positivity, and monotonicity are ensured. MAPOM was validated on theoretical test cases. It was then applied over the area of Marseille - Etang de Berre (ESCOMPTE domain). The model and its interactive mesh embedding algorithm were proved to be efficient in handling difficult problems of air quality at mesoscale over complex terrain. The optimization of the memory, and the modular structure of this new model enable a flexible, fast and automatic management of the nested grids, and of the physical and chemical processes
Styles APA, Harvard, Vancouver, ISO, etc.
47

Pimenta, de Miranda Anne. « Application d'un modèle numérique de circulation générale océanique permettant la génération de turbulence de méso-échelle à l'étude de l'Atlantique sud ». Université Joseph Fourier (Grenoble), 1996. http://www.theses.fr/1996GRE10203.

Texte intégral
Résumé :
L'objectif de notre travail est l'application a haute resolution (1/3) d'un modele numerique de circulation generale oceanique a l'etude de l'atlantique sud afin de mieux resoudre les courants de bord ouest et la dynamique tourbillonnaire. Les principales difficultes numeriques rencontrees sont la consequence des choix originaux que sont l'utilisation d'une coordonnee verticale epousant la topographie, et la presence de trois frontieres ouvertes. Le lissage de la topographie, base sur l'experience acquise au cours de simulations basse resolution, s'est avere par endroits trop important et a parfois limite le realisme des resultats. Les frontieres ouvertes se sont revelees efficaces, et ont fait apparaitre un manque de donnees d'observation, notamment sur le bord ouest de la frontiere nord. La simulation a obtenu de nombreux resultats interessants reproduisant fidelement les grandes lignes de la circulation generale, comme par exemple la region de confluence et la retroflexion du courant des aiguilles. On observe la presence de courants de bord ouest (courants du bresil, des malouines, des aiguilles) tres intenses, le positionnement des fronts dans le courant circumpolaire fortement lie a la topographie. Les resultats du modele proposent un schema de circulation des eaux intermediaires avec une divergence sur le bord ouest a 25s et une recirculation dans le gyre subtropical confirmes par des analyses recentes de trajectoires de flotteurs. Malgre la relativement haute resolution utilisee le niveau de variabilite du modele est un peu faible, sans doute a cause d'un manque de resolution verticale, egalement responsable d'une representation incomplete des eaux de fond. La simulation fournit de plus des informations tres interessantes sur le cycle saisonnier, comme le montre une etude originale de la subduction des eaux modales
Styles APA, Harvard, Vancouver, ISO, etc.
48

Declerck, Amandine. « Approche numérique et expérimentale pour une meilleure description physique des processus de subméso-échelle : Application à la mer Méditerranée nord-occidentale ». Thesis, Toulon, 2016. http://www.theses.fr/2016TOUL0014/document.

Texte intégral
Résumé :
L'objectif général de cette thèse est de contribuer à l'avancement de la connaissance de l'impact de l'activité àméso-échelle du Courant Nord (CN) au large du Var sur sa circulation en aval et des interactions de ce courantde bord avec la dynamique côtière, particulièrement dans une baie semi-fermée peu profonde : la baie deHyères. Ces travaux se sont appuyés sur deux configurations numériques réalistes à haute résolution basées surle code NEMO et emboîtées avec AGRIF : une première de la façade méditerranéenne française à unerésolution spatiale de 1,2 km et une seconde le long des côtes varoises à 400 m de résolution.La comparaison des simulations obtenues avec des observations (radar HF, ADCP, glider, SST satellite) apermis de confirmer le réalisme des configurations, et de montrer l'apport d'une résolution de l'ordre de 400 msur la dynamique dans une baie mais également sur le CN et son écoulement en aval.Enfin, une étude de paramétrisation de l'advection horizontale et du mélange vertical a permis d'améliorerl'impact d'un downscaling dans la région d'étude, et particulièrement concernant la représentation de lacirculation au sein de la baie semi-fermée
The main objective of this work is to improve our knowledge on the impact of the Northern Current (NC)mesoscale activity off the Var coast on its downstream flow and on the links between this boundary current andthe coastal dynamics, particularly in a semi-enclosed bay and shallow: the bay of Hyères. To do so, twonumerical realistic configurations at high-resolution were used. Based on the NEMO code and nested withAGRIF, the first one covers the French Mediterranean coasts at 1,2 km and the second one covers the Varcoasts with a spatial resolution of 400 m.Simulations comparisons with ocean observations (HF radar, ADCP, glider, satellite SST) confirm therealism of the configurations, and show the contribution of a 400 m spatial resolution on the simulateddynamics in the bay but also on the NC and its downstream flow.Finally, a parametrization study on the horizontal advection terms and vertical mixing provide an improvementof the impact of a downscaling in the studied area, and particularly for the simulated dynamics in the semienclosedbay
Styles APA, Harvard, Vancouver, ISO, etc.
49

Rakotoarivelo, Hoby. « Contributions au co-design de noyaux irréguliers sur architectures manycore : cas du remaillage anisotrope multi-échelle en mécanique des fluides numérique ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE012/document.

Texte intégral
Résumé :
La simulation numérique d'écoulements complexes telles que les turbulences ou la propagation d'ondes de choc implique un temps de calcul conséquent pour une précision industrielle acceptable. Pour accélérer ces simulations, deux recours peuvent être combinés : l'adaptation de maillages afin de réduire le nombre de points d'une part, et le parallélisme pour absorber la charge de calcul d'autre part. Néanmoins réaliser un portage efficient des noyaux adaptatifs sur des architectures massivement parallèles n'est pas triviale. Non seulement chaque tâche relative à un voisinage local du domaine doit être propagée, mais le fait de traiter une tâche peut générer d'autres tâches potentiellement conflictuelles. De plus, les tâches en question sont caractérisées par une faible intensité arithmétique ainsi qu'une faible réutilisation de données déjà accédées. Par ailleurs, l'avènement de nouveaux types de processeurs dans le paysage du calcul haute performance implique un certain nombre de contraintes algorithmiques. Dans un contexte de réduction de la consommation électrique, ils sont caractérisés par de multiples cores faiblement cadencés et une hiérarchie mémoire profonde impliquant un coût élevé et asymétrique des accès-mémoire. Ainsi maintenir un rendement optimal des cores implique d'exposer un parallélisme très fin et élevé d'une part, ainsi qu'un fort taux de réutilisation de données en cache d'autre part. Ainsi la vraie question est de savoir comment structurer ces noyaux data-driven et data-intensive de manière à respecter ces contraintes ?Dans ce travail, nous proposons une approche qui concilie les contraintes de localité et de convergence en termes d'erreur et qualité de mailles. Plus qu'une parallélisation, elle s'appuie une re-conception des noyaux guidée par les contraintes hardware en préservant leur précision. Plus précisément, nous proposons des noyaux locality-aware pour l'adaptation anisotrope de variétés différentielles triangulées, ainsi qu'une parallélisation lock-free et massivement multithread de noyaux irréguliers. Bien que complémentaires, ces deux axes proviennent de thèmes de recherche distinctes mêlant informatique et mathématiques appliquées. Ici, nous visons à montrer que nos stratégies proposées sont au niveau de l'état de l'art pour ces deux axes
Numerical simulations of complex flows such as turbulence or shockwave propagation often require a huge computational time to achieve an industrial accuracy level. To speedup these simulations, two alternatives may be combined : mesh adaptation to reduce the number of required points on one hand, and parallel processing to absorb the computation workload on the other hand. However efficiently porting adaptive kernels on massively parallel architectures is far from being trivial. Indeed each task related to a local vicintiy need to be propagated, and it may induce new conflictual tasks though. Furthermore, these tasks are characterized by a low arithmetic intensity and a low reuse rate of already cached data. Besides, new kind of accelerators have arised in high performance computing landscape, involving a number of algorithmic constraints. In a context of electrical power consumption reduction, they are characterized by numerous underclocked cores and a deep hierarchy memory involving asymmetric expensive memory accesses. Therefore, kernels must expose a high degree of concurrency and high cached-data reuse rate to maintain an optimal core efficiency. The real issue is how to structure these data-driven and data-intensive kernels to match these constraints ?In this work, we provide an approach which conciliates both locality constraints and convergence in terms of mesh error and quality. More than a parallelization, it relies on redesign of kernels guided by hardware constraints while preserving accuracy. In fact, we devise a set of locality-aware kernels for anisotropic adaptation of triangulated differential manifold, as well as a lock-free and massively multithread parallelization of irregular kernels. Although being complementary, those axes come from distinct research themes mixing informatics and applied mathematics. Here, we aim to show that our devised schemes are as efficient as the state-of-the-art for both axes
Styles APA, Harvard, Vancouver, ISO, etc.
50

Fuchs, Frank. « Contribution à la reconstruction du bâti en milieu urbain, à l'aide d'images aériennes stéréoscopiques à grande échelle : étude d'une approche structurelle ». Paris 5, 2001. http://www.theses.fr/2001PA058004.

Texte intégral
Résumé :
L'institut géographique national poursuit ses efforts de recherche visant à automatiser la saisie de bases de données localisées. Dans ce cadre, nous abordons le thème du bâti dont nous cherchons une reconstruction des toits dite grande échelle, i. E. Comprenant leur structure interne. Nous utilisons des outils de calcul de modèle numérique d'élévation (MNE) à partir d'images aériennes à forte résolution (10 à 20 cm). Le MNE produit permet de focaliser les travaux de reconstruction sur des surfaces de taille raisonnable. L'approche proposée est structurelle. Elle s'appuie sur une base de modèles exprimée de manière déclarative ce qui confère une certaine souplesse à l'approche. La stratégie générale se compose de trois étapes. La première étape consiste à détecter dans les données initiales, des objets tridimensionnels simples, appelés primitives : segments de droites, portions de plan, façades. La seconde étape consiste à reconstruire un bâtiment à l'aide d'un modèle. Un modèle est un graphe relationnel attribue. Il est mis en correspondance avec un graphe appuie sur les primitives, grâce a des techniques récentes de calcul d'isomorphisme de sous-graphes avec tolérance d'erreur. Celles-ci utilisent le formalisme de distance d’Edition, qui permet d'intégrer une fonction de ressemblance entre un modèle et les primitives détectées. L'emploi d'une grammaire de graphe est proposé, afin de réduire la combinatoire du problème d'appariement. Après mise en correspondance, une reconstruction finale est réalisée. La troisième étape consiste à choisir, parmi les reconstructions effectuées à l'aide de différents modèles, celle qui est la plus adaptée aux données. Le mémoire présente des résultats obtenus en exploitant la méthode sur des scènes aériennes réelles. Il propose également une évaluation de la méthode, dans un cadre automatique. Enfin, après avoir dressé un bilan de la méthode, ce mémoire propose des extensions de ces travaux.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!