To see the other types of publications on this topic, follow the link: Méthode de type hp.

Dissertations / Theses on the topic 'Méthode de type hp'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode de type hp.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Fahs, Hassan. "Méthodes de type Galerkin discontinu d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes non-conformes." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00359874.

Full text
Abstract:
Ce travail porte sur le développement d'une méthode Galerkin discontinue (GDDT) d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes non-conformes. On présente tout d'abord une méthode GDDT reposant sur des fonctions de base nodales pour approcher le champ électromagnétique dans un simplexe, un schéma centré pour évaluer les flux numériques aux interfaces entre cellules voisines et un schéma saute-mouton du second ordre pour l'intégration temporelle. De plus, cette méthode autorise l'utilisation de maillages non-conformes présentant un nombre arbitraire de noeuds flottants. La méthode résultante est non-dissipative, stable sous une condition de type CFL, conserve un équivalent discret de l'énergie électromagnétique, et très peu dispersive. Afin de diminuer le coût de calcul de cette méthode, on propose une méthode GDDT de type /hp/, qui combine /h-/raffinement et /p/-enrichissement locaux tout en préservant la stabilité. On réalise ensuite une étude numérique détaillée des méthodes GDDT sur la base d'une série de problèmes de propagation d'ondes en milieux homogène et hétérogène. En particulier, on effectue une comparaison des méthodes Galerkin discontinues conformes et non-conformes en termes de précision, convergence et coûts de calcul.
Afin d'améliorer la précision et la vitesse de convergence des méthodes GDDT précédentes, on étudie une famille de schémas saute-mouton d'ordre
arbitrairement élevé. Ces schémas temporels nous assurent sur tout maillage la conservation d'un équivalent discret de l'énergie électromagnétique ainsi que la stabilité des méthodes GDDT résultantes sous une condition de type CFL. On réalise aussi une étude de convergence /hp a priori/ ainsi qu'une étude de convergence de l'erreur sur la divergence. Des expériences numériques montrent que pour un maillage donné, le schéma saute-mouton du quatrième ordre est moins coûteux en temps de calcul et plus précis que le schéma saute-mouton du second ordre, en dépit d'une complexité arithmétique accrue.
De plus, on obtient une convergence exponentielle avec le schéma saute-mouton du quatrième ordre.
APA, Harvard, Vancouver, ISO, and other styles
2

Alvarez, Aramberri Julen. "hp-Adaptive Simulation and Inversion of Magnetotelluric Measurements." Thesis, Pau, 2015. http://www.theses.fr/2015PAUU3056/document.

Full text
Abstract:
La magnéto-tellurique (MT) (Cagniard 1953, Tikhonov 1950) est une technique d'exploration de la Terre basée sur des mesures de champs électromagnétiques (EM). Une source naturelle (non artificielle) harmonique en temps et située dans l'ionosphère (Weaver 1994) produit un champ EM régi par les équations de Maxwell. Les champs électromagnétiques sont enregistrés par plusieurs récepteurs placés sur la surface de la Terre. Ces mesures sont utilisées pour produire une image du sous-sol à partir d'un procédé d'inversion utilisant des méthodes numériques. Nous utilisons la méthode hp-FEM résultant d'une extension du travail de Demkowicz 2005. Nous avons développé un logiciel qui résout, pour la première fois, le problème MT avec des éléments finis auto-adaptatifs. La méthode hp-FEM permet des raffinements locaux, à la fois en taille h et en ordre p sur les éléments, ce qui est un avantage notoire puisque la combinaison de ces deux types de critères permet de mieux capter la présence de singularités, fournissant ainsi des erreurs de discrétisation faible. C'est donc une méthode très précise dont la convergence est exponentielle (Gui and Babuska 1986, Babuska and Guo 1996). En raison des défis d'implémentation encore non résolus (Demkowicz et al. 2002) et de la complexité technique des calculs hp-FEM en 3D, nous nous limitons, dans ce travail, à des calculs en 1D et 2D.Le domaine de calcul est tronqué par un matériau absorbant (Perfectly Matched Layer PML, Berenger 1994), qui est conçu pour s'adapter automatiquement aux propriétés physiques des matériaux. En particulier, il s'ajuste efficacement à l'interface air-sol, où le contraste entre la conductivité des matériaux atteint jusqu'à seize ordres de grandeur. Dans cette thèse, nous présentons également des résultats préliminaires pour la mise en place d'une technique dimensionnelle adaptative plus connue sous le nom de DAM (Dimensionally Adaptive Method (DAM)). Lorsque la distribution de la résistivité du sous-sol dépend de multiples variables spatiales, une analyse correcte de la dimensionnalité (Ledo 2005, Martí et al. 2009, Weaver and Agarwal 2000) rend parfois possible de considérer les différentes régions avec des dimensions spatiales différentes. Par exemple, il est parfois possible d’interpréter la distribution comme une formation unidimensionnelle plus quelques hétérogénéités en 2D (ou 3D). Basée sur cette interprétation, la DAM tire profit d’une telle situation. Ainsi, l'idée principale de cette méthode est d'effectuer l'adaptativité sur la dimension spatiale en commençant par un problème de faible dimension et en utilisant les résultats obtenus pour minimiser le coût des problèmes de dimension supérieure. Nous commençons l'inversion avec un modèle 1D. Les résultats de ce problème d'inversion 1D sont utilisés comme information a priori sur les modèles de dimension supérieure. Un avantage fondamental de cette approche est que nous pouvons utiliser les solutions des problèmes de dimension inférieure précédemment calculées comme composantes du terme de régularisation associé à un problème de dimension supérieure afin d'augmenter la robustesse de l'inversion. Cette thèse propose également une analyse numérique rigoureuse de divers aspects des problèmes MT. En particulier, nous avons: (a) étudié l'effet de la source, (b) effectué une analyse fréquentielle de sensibilité, (c) illustré l'augmentation du taux de convergence lorsque l'adaptativité hp est employée, (d) séparé les effets 1D et 2D dans la solution numérique et (e) exploré l'intérêt de considérer différentes variables pour effectuer l'inversion
The magnetotelluric (MT) method is a passive exploration technique that aims at estimating the resistivity distribution of the Earth's subsurface, and therefore at providing an image of it. This process is divided into two different steps. The first one consists in recording the data. In a second step, recorded measurements are analyzed by employing numerical methods. This dissertation focuses in this second task. We provide a rigorous mathematical setting in the context of the Finite Element Method (FEM) that helps to understand the MT problem and its inversion process. In order to recover a map of the subsurface based on 2D MT measurements, we employ for the first time in Mts a multi-goal oriented self adaptive hp-Finite Element Method (FEM). We accurately solve both the full formulation as well as a secondary field formulation where the primary field is given by the solution of a 1D layered media. To truncate the computational domain, we design a Perfectly Matched Layer (PML) that automatically adapts to high-contrast material properties that appear within the subsurface and on the air-ground interface. For the inversion process, we develop a first step of a Dimensionally Adaptive Method (DAM) by considering the dimension of the problem as a variable in the inversion. Additionally, this dissertation supplies a rigorous numerical analysis for the forward and inverse problems. Regarding the forward modelization, we perform a frequency sensitivity analysis, we study the effect of the source, the convergence of the hp-adaptivity, or the effect of the PML in the computation of the electromagnetic fields and impedance. As far as the inversion is concerned, we study the impact of the selected variable for the inversion process, the different information that each mode provides,and the gains of the DAM approach
APA, Harvard, Vancouver, ISO, and other styles
3

Charles, Joseph. "Amélioration des performances de méthodes Galerkin discontinues d'ordre élevé pour la résolution numérique des équations de Maxwell instationnaires sur des maillages simplexes." Phd thesis, Université Nice Sophia Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00718571.

Full text
Abstract:
Cette étude concerne le développement d'une méthode Galerkin discontinue d'ordre élevé en domaine temporel (DGTD), flexible et efficace, pour la résolution des équations de Maxwell instationnaires sur des maillages simplexes destructurés et reposant sur des schémas d'intégration en temps explicites. Les composantes du champ électromagnétique sont approximées localement par des méthodes d'interpolation polynomiale et la continuité entre éléments adjacents est renforcée de façon faible par un schéma centré pour le calcul du flux numérique à travers les interfaces du maillage. L'objectif de cette thèse est de remplir deux objectifs complémentaires. D'une part, améliorer la flexibilité de l'approximation polynomiale en vue du développement de méthodes DGTD p-adaptatives par l'étude de différentes méthodes d'interpolation polynomiale. Plusieurs aspects tels que la nature nodale ou modale de l'ensemble des fonctions de bases associées, leur éventuelle structure hiérarchique, le conditionnement des matrices élémentaires à inverser, les propriétés spectrales de l'interpolation ou la simplicité de programmation sont étudiés. D'autre part, augmenter l'efficacité de l'approximation temporelle sur des maillages localement raffinés en utilisant une stratégie de pas de temps local. Nous développerons finalement dans cette étude une méthodologie de calcul haute performance pour exploiter la localité et le parallélisme inhérents aux méthodes DGTD combinés aux capacités de calcul sur carte graphique. La combinaison de ces caractéristiques modernes résulte en une amélioration importante de l'efficacité et en une réduction significative du temps de calcul.
APA, Harvard, Vancouver, ISO, and other styles
4

Patrizio, Matthieu. "Étude et conception d'une stratégie couplée de post-maillage/résolution pour optimiser l'efficacité numérique de la méthode Galerkin discontinue appliquée à la simulation des équations de Maxwell instationnaires." Thesis, Toulouse, ISAE, 2019. http://www.theses.fr/2019ESAE0012/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l’amélioration des performances numériques dela méthode Galerkin Discontinu en Domaine Temporel (GDDT), afin de valoriser son emploi industrielpour des problèmes de propagation d’ondes électromagnétiques. Pour ce faire, nous cherchons à réduire lenombre d’éléments des maillages utilisés en appliquant une stratégie de h-déraffinement/p-enrichissement.Dans un premier temps, nous montrons que si ce type de stratégie permet d’améliorer significativementl’efficacité numérique des résolutions dans un cadre conforme, son extension aux maillages non-conformespeut s’accompagner de contre-performances rédhibitoires limitant fortement leur intérêt pratique. Aprèsavoir identifié que ces dernières sont causées par le traitement des termes de flux non-conformes, nousproposons une méthode originale de condensation afin de retrouver des performances avantageuses. Cellecise base sur une redéfinition des flux non-conformes à partir d’un opérateur de reconstruction de traces,permettant de recréer une conformité d’espaces, et d’un produit scalaire condensé, assurant un calculapproché efficace. La stabilité et la consistance du schéma GDDT ainsi défini sont établies sous certainesconditions portant sur ces deux quantités. Dans un deuxième temps, nous détaillons la construction desopérateurs de trace et des produits scalaires associés. Nous proposons alors des flux condensés pourplusieurs configurations non-conformes, et validons numériquement la convergence du schéma GDDT résultant.Puis, nous cherchons à concevoir un algorithme de h-déraffinement/p-enrichissement automatisé,dans le but de générer des maillages hp minimisant les coûts de calcul du schéma. Ce processus est traduitsous la forme d’un problème d’optimisation combinatoire sous plusieurs contraintes de natures trèsdiverses. Nous présentons alors un algorithme de post-maillage basé sur un parcours efficace de l’arbrede recherche des configurations admissibles, associé à un processus de déraffinement hiérarchique. Enfin,nous mettons en œuvre la chaîne de calcul développée sur plusieurs cas-tests d’intérêt industriel, etévaluons son apport en termes de performances numériques
This thesis is devoted to improving the numerical efficiency of the Discontinuous Galerkinin Time Domain (DGDT) method, in order to enhance its suitability for industrial use. One can noticethat, in an hp-conforming context, increasing correlatively the approximation order and the mesh sizeis a powerful strategy to reduce numerical costs. However, in complex geometries, the mesh can beconstrainted by the presence of small-scale inner elements, leading to hp-nonconforming configurationswith hanging nodes. The first issue we are dealing with is related to the nonconforming fluxes involvedin these configurations, whose high computational costs can deter the use of hp-coarsening strategies.In order to recover a satisfactory performance level, an original flux-lumping technique is set up. Thistechnique relies on recasting hybrid fluxes into conforming ones, and is performed by introducing twoingredients : a reconstruction operator designed to map traces from each side of a nonconforming interfaceinto the same functional space, and a lumped scalar product granting efficient integral computations.The resulting DGTD scheme is then proved to be stable and consistent, under some assumptions on thelatter two elements. Subsequently, we develop a lumped flux construction routine, and show numericalconvergence results on basic hybrid configurations. In a second part, we implement an automated strategyaiming at generating efficient hp-nonconforming meshes, well-suited to the previous DGDT scheme. To doso, a post-meshing process is formalized into a constrained optimization problem. We then put forward aheuristic hp-coarsening algorithm, based on a hierarchical coarsening approach coupled with an efficientsearch over the feasible configuration tree. Lastly, we present several numerical examples related toelectromagnetic wave propagation problems, and evaluate computational cost improvements
APA, Harvard, Vancouver, ISO, and other styles
5

Marcati, Carlo. "Discontinuous hp finite element methods for elliptic eigenvalue problems with singular potentials : with applications to quantum chemistry." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS349.

Full text
Abstract:
Dans cette thèse, on étudie des problèmes aux valeurs propres elliptiques avec des potentiels singuliers, motivés par plusieurs modèles en physique et en chimie quantique, et on propose une méthode des éléments finis de type hp discontinus (dG) adaptée pour l’approximation des modes propres. Dans ces modèles, arrivent naturellement des potentiels singuliers (associés à l’interaction entre noyaux et électrons). Notre analyse commence par une étude de la régularité elliptique dans des espaces de Sobolev à poids. On montre comment un opérateur elliptique avec potentiel singulier est un isomorphisme entre espaces de Sobolev à poids non homogènes et que l’on peut développer des bornes de type analytique à poids sur les solutions des problèmes aux valeurs propres associés aux opérateurs. La méthode hp/dG graduée qu’on utilise converge ainsi de façon exponentielle. On poursuit en considérant une classe de problèmes non linéaires représentatifs des applications. On montre que, sous certaines conditions, la méthode hp/dG graduée converge et que, si la non linéarité est de type polynomiale, on obtient les mêmes estimations de type analytique que dans le cas linéaire. De plus, on étudie la convergence de la valeur propre pour voir sous quelles conditions la vitesse de convergence est améliorée par rapport à celle des vecteurs propres. Pour tous les cas considérés, on effectue des tests numériques, qui ont pour objectif à la fois de valider les résultats théoriques, mais aussi d’évaluer le rôle des sources d’erreur non considérées dans l’analyse et d’aider dans la conception de méthode hp/dG graduée pour des problèmes plus complexes
In this thesis, we study elliptic eigenvalue problems with singular potentials, motivated by several models in physics and quantum chemistry, and we propose a discontinuous Galerkin hp finite element method for their solution. In these models, singular potentials occur naturally (associated with the interaction between nuclei and electrons). Our analysis starts from elliptic regularity in non homogeneous weighted Sobolev spaces. We show that elliptic operators with singular potential are isomorphisms in those spaces and that we can derive weighted analytic type estimates on the solutions to the linear eigenvalue problems. The isotropically graded hp method provides therefore approximations that converge with exponential rate to the solution of those eigenproblems. We then consider a wide class of nonlinear eigenvalue problems, and prove the convergence of numerical solutions obtained with the symmetric interior penalty discontinuous Galerkin method. Furthermore, when the non linearity is polynomial, we show that we can obtain the same analytic type estimates as in the linear case, thus the numerical approximation converges exponentially. We also analyze under what conditions the eigenvalue converges at an increased rate compared to the eigenfunctions. For both the linear and nonlinear case, we perform numerical tests whose objective is both to validate the theoretical results, but also evaluate the role of sources of errors not considered previously in the analysis, and to help in the design of hp/dG graded methods for more complex problems
APA, Harvard, Vancouver, ISO, and other styles
6

Guennouni, Ahmed El. "Mise en oeuvre et variantes par bloc des méthodes de type Lanczos." Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-61.pdf.

Full text
Abstract:
La methode de Lanczos est l'une des methodes iteratives les plus utilisees pour la resolution des systemes lineaires, cependant une division par zero (breakdown) peut etre rencontree. Dans la premiere partie de cette these, une approche unifiee de quelques strategies (mrz, biores non generique et csbcg) pour eviter cet inconvenient est proposee. Grace a cette approche, une nouvelle implantation de la methode biores non generique a ete etablie. Celle-ci requiert le stockage d'un nombre fixe de vecteurs. Dans la suite, nous nous sommes interesses a la resolution de systemes lineaires multiples ax = b avec a , r n , n, x, b , r n , s et s<
Ce lien nous a permis, d'une part, d'implanter la methode de lanczos par bloc via les relations de recurrence satisfaites par la famille rmfop et/ou la famille adjacente, d'autre part, d'introduire quelques methodes produit par bloc combinant l'une des methodes de type lanczos par bloc et celle de la plus profonde descente globale (bl-biostab, bl-bicgstab). Ces methodes ont l'avantage d'eviter l'utilisation de la matrice transposee de a et d'ameliorer la convergence des methodes initiales. Enfin, une procedure de near breakdown partiel a ete definie et appliquee au bl-bicgstab. Elle est basee sur le processus de gram-schmidt et sur une nouvelle notion de projection (projection produit). L'algorithme obtenu, appele pnb bl-bicgstab, evite les situations de near breakdown et remedie au probleme de deflation. Les exemples numeriques proposes montrent clairement l'efficacite de cette methode
APA, Harvard, Vancouver, ISO, and other styles
7

Guiz, Robin. "Influence d’additions de titane/tungstène et de vanadium sur la précipitation de carbures secondaires au sein d’alliages modèles de type HP." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEM011/document.

Full text
Abstract:
Les alliages de type HP constituent un matériau de choix pour l'élaboration des tubes de vaporeformage et de vapocraquage dans l'industrie pétrochimique. Exposés à des températures comprises entre 700°C et 1000°C sous des pressions gazeuses de plusieurs MPa, leur microstructure initiale associée à une fine précipitation secondaire, intervenant en cours de service, leur confèrent une excellente résistance aux mécanismes de fluage auxquels ils sont sujets. Néanmoins, à terme, la coalescence des précipités conduit à la dégradation rapide des tubes.Les effets de certains éléments d'alliages (V, Ti/W) sur la précipitation secondaire des carbures M23C6 et NbC ont été étudiés au travers de simulations via le logiciel TC-PRISMA. Sur la base de résultats prometteurs en termes d'optimisation des caractéristiques de la précipitation, deux alliages modèles ont été coulés au laboratoire et soumis à divers vieillissements dans la gamme de température correspondant aux conditions de service. Les microstructures de ces alliages ont d'abord été comparées à celle d'un alliage HP industriel de composition standard à l'état brut de coulée. La précipitation secondaire a par la suite été caractérisée au sein des trois alliages dans les différents états vieillis. Les investigations microstructurales ont permis de mettre en avant certains effets bénéfiques d'un ajout de vanadium et d'ajouts combinés de titane et de tungstène sur les caractéristiques de la précipitation secondaire
HP alloys are typically used as steam methane reforming tubes in the petrochemical industry. During service, they are exposed to temperatures between 700°C and 1000°C under gaz pressure of several MPa. Their as-cast microstructure, together with fine in-situ secondary precipitation, provide these alloys with an excellent resistance to creep deformation. Nevertheless, after long-time ageing, coarsening of secondary carbides leads to the weakening of the tubes and therefore to an accelerated damaging.The effects of some alloying elements (V, Ti/W) on secondary precipitation of M23C6 and NbC carbides were investigated through numerical simulations performed with TC-PRISMA software. On the basis of encouraging results in terms of precipitation optimization, two model HP-type alloys were cast at the laboratory and aged in the range of temperatures corresponding to service conditions. As-cast microstructures were first compared with an industrial "standard" alloy. Then, secondary precipitation were characterized for all the alloys and all ageing temperatures. Microstructural investigation highlighted the beneficial effect of vanadium and titanium/tungsten additions on secondary precipitation characteristics
APA, Harvard, Vancouver, ISO, and other styles
8

Hérault, Christophe. "VERS UNE SIMULATION SANS MAILLAGE DES PHÉNOMÈNES ÉLECTROMAGNÉTIQUES." Phd thesis, Grenoble INPG, 2000. http://tel.archives-ouvertes.fr/tel-00689431.

Full text
Abstract:
Récemment de nouvelles méthodes de simulation numérique ont fait leur apparition. Ces méthodes basées sur un nuage de noeuds ne font pas intervenir de maillage comme pour la méthode des éléments finis. Malgré leur nombre, leur base théorique est semblable. De plus, de part leur caractère récent, leurs développements sont encore à ce jour qu 'aux prémices. Ce travail récapitule les grandes lignes des procédures indispensables pour une résolution à l'aide d'une méthode sans maillage appelée méthode HP-Clouds. Entre autre, les fondements mathématiques par la création de nouvelles fonctions de forme sans maillage, supportées par des boules, sont présentés dans un premier chapitre. Puis, une procédure de résolution des équations de Maxwell en électromagnétisme à l'aide de la méthode HP-Clouds est présentée en décrivant précisément la méthode de. Ritz-Galerkin dans un cas simple. Nous avons d'autre part mis l'accent sur la structure rie données basée sur les boules, supports des fonctions de forme, permettant, ainsi de faciliter l'insertion de la méthode HP-Clouds dans un logiciel de simulation numérique. Dans toutes ces étapes nous nous sommes astreint à ne pas utiliser de maillage même intermédiaire ou fictif. Enfin, nous avons validé nos résultats sur trois problèmes concrets qui laisse présager un avenir prometteur pour les méthodes sans maillage.
APA, Harvard, Vancouver, ISO, and other styles
9

Pagnacco, Emmanuel. "Optimisation topologique des structures de type coque." Rouen, 1998. http://www.theses.fr/1998ROUES089.

Full text
Abstract:
Nous abordons l'optimisation topologique des coques dont l'épaisseur est continument variable, dans le cadre des nouveaux outils de la phase préliminaire de conception. Une difficulté majeure des problèmes de topologie concerne leur formulation : nous formulons le problème de recherche des pièces de masse minimale sous restrictions géométriques et structurales, proche des situations industrielles. Pour des restrictions de type vibratoire, une formulation basée sur les fréquences des modes concernés est définie. La modélisation adoptée est compatible avec les modèles de coque : la région de conception est décrite par une épaisseur maximale associée à une surface moyenne imposée. Le problème d'optimisation se ramène alors à la détermination d'une distribution d'épaisseur associée à cette surface : la pièce (resp. Les trous) correspond aux régions d'épaisseur positive (resp. Nulles). La discrétisation nécessaire a une bonne résolution géométrique implique un grand nombre de paramètres, ce qui constitue une difficulté. Elle fait également apparaitre un grand nombre de limitations pour les contraintes mécaniques de mises. Nous dissocions alors le problème d'optimisation soumis à ces limitations de celui restreint aux autres limitations structurales (peu nombreuses). Pour le premier de ces problèmes, un critère d'optimalité sans sensibilité analogue au fully stressed design est utilisé. Pour le second problème, le dual du problème approximé conduit à une méthode générale de programmation séquentielle explicite. En outre, nous proposons une méthode de désassemblage adaptée à l'analyse des structures paramétrées. Nous illustrons par quelques exemples industriels que le modèle et les méthodes numériques développés s'accordent pour donner un outil rapide de détermination de la topologie.
APA, Harvard, Vancouver, ISO, and other styles
10

Pouliot, Benoît. "Solveur GCR pour les méthodes de type mortier." Doctoral thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28121.

Full text
Abstract:
Les méthodes de type mortier, introduites en 1987 par Bernardi, Maday et Patera, font partie de la grande famille des méthodes par décomposition de domaine. Combinées à la méthode des éléments finis, elles consistent à construire une discrétisation non conforme des espaces fonctionnels du ou des problèmes étudiés. Les trente dernières années de recherche portant sur ces méthodes ont permis d'acquérir des connaissances solides tant au point de vue théorique que pratique. Aujourd'hui, elles sont naturellement utilisées pour résoudre des problèmes d'une grande complexité. Comme applications, nous pouvons simplement penser à des problèmes de contact entre divers solides, à des problèmes d'interaction fluide-structure ou à des problèmes impliquant des mécanismes en mouvement tel des engrenages ou des alternateurs. Cette thèse de doctorat a pour objectif d'expliquer en détail la construction des méthodes de type mortier et de développer des algorithmes adaptés à la résolution des systèmes ainsi créés. Nous avons décidé d'employer l'algorithme du GCR (Generalized Conjugate Residual method) comme solveur de base pour nos calculs. Nous appliquons d'abord une factorisation du système linéaire global grâce à son écriture naturelle en sous-blocs. Cette factorisation génère un système utilisant un complément de Schur qu'il faut résoudre. C'est sur ce sous-système que nous employons l'algorithme du GCR. Le complément de Schur est préconditionné par une matrice masse redimensionnée, mais il est nécessaire de modifier l'algorithme du GCR pour obtenir des résultats théoriques intéressants. Nous montrons que la convergence de ce solveur modifié est indépendante du nombre de sous-domaines impliqués ainsi que de ses diverses composantes physiques. Nous montrons de plus que le solveur ne dépend que légèrement de la taille des éléments d'interface. Nous proposons une solution élégante dans le cas de sous-domaines dits flottants. Cette solution ne requiert pas la modification du solveur décrit plus haut. Des tests numériques ont été effectués pour montrer l'efficacité de la méthode du GCR modifiée dans divers cas. Par exemple, nous étudions des problèmes possédant plusieurs échelles au niveau de la discrétisation et des paramètres physiques. Nous montrons aussi que ce solveur a une accélération importante lorsqu'il est employé en parallèle.
The mortar methods, introduced in 1987 by Bernadi, Maday and Patera, are part of the large family of domain decomposition methods. Combined to the finite element method, they consist in constructing a nonconforming discretization of the functional space of the problem under consideration. The last thirty years of research about these methods has provided a solid knowledge from a theoretical and practical point of view. Today, they are naturally used to solve problems of great complexity such as contact problems between deformable solids, fluid-structure interaction problems or moving mechanisms problems like gears and alternators. The aim of this thesis is to explain in details the principles of mortar methods and to develop adapted algorithms to solve the generated linear systems. We use the GCR algorithm (Generalized Conjugate Residual method) as our basic solver in our computations. We first apply a factorization of the global linear system using the natural sub-block structure of the matrix. This factorization generates a system using a Schur complement. It is on this sub-system that we use the GCR algorithm. The Schur complement is preconditioned by a rescaled mass matrix, but it is necessary to slightly modify the GCR algorithm to obtain theorical results. We show that the convergence of this modified solver is independent of the number of subdomains involved and of the diverse physical parameters. We also show that the solver slightly depends on the size of the interface mesh. We present a strategy to take care of the so called floating subdomains. The proposed solution does not require any modification to the solver. Numerical tests have been performed to show the efficiency of the modified GCR method in various cases. We consider problems with several discretization and physical parameter scales. We finally show that the solver presents an important speedup in parallel implementation.
APA, Harvard, Vancouver, ISO, and other styles
11

Giraudeau, Jean-Paul. "Contribution à l’étude du comportement dynamique d'un rotor monte sur des paliers de type"squeeze film"." Lyon, INSA, 1997. http://www.theses.fr/1995ISAL0045.

Full text
Abstract:
Il s'agit de la prédiction de la réponse d'un rotor supporté par de type "squeeze-film" et de l'application à un cas industriel ; un rotor du CFM 56 développé par la SNECMA/ GE. Le premier chapitre est consacré à la synthèse des connaissances relatives au calcul des forces hydrodynamiques ainsi qu' aux différentes modélisations de l'ensemble rotor/SF. Le deuxième chapitre permet d'établir une comparaison entre des résultats théoriques et expérimentaux et d'étudier l'influence de différents paramètres caractéristiques du squeeze film d'essais (pression d'alimentation, jeu radial, viscosité, etc. . . ). Le troisième chapitre est l'application de la méthode proposée un cas industriel le rotor basse pression du CFM 56. Il s'agit de réaliser un bon compromis entre la réponse du rotor et la force transmise aux paliers en déterminant la meilleure position du SF et ses dimensions. L'implantation de deux SF est ensuite envisagée et son intérêt discuté
This work concerns the dynamic response of a rotor supported by squeeze film bearings and on industrial applications : a rotor of the CFM 56 built by SNECMA/GE. The first chapter is devoted to a synthesis of the works concerning the prediction of the hydrodynamic forces and to the modeling of the assembly rotor/SF. In the second chapter a comparison between experimental and theoretical results is shown and the influence of different squeeze film parameters (inlet pressure, viscosity, radial clearance,. . . ) is studied. The chapter III :is the application of the method proposed to the low pressure rotor of the CFM 56. The aim is to define the dimensions an the position of the SF for obtaining satisfactory results on both rotor response and force transmitted through the bearings. Using simultaneous two SF is then proposed and the interest discussed
APA, Harvard, Vancouver, ISO, and other styles
12

Schubert, Karl. "Vectorisation de la méthode des éléments finis sur un calculateur de type SIMD/SPMD." Nice, 1987. http://www.theses.fr/1987NICE4147.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Tourbier, Matthieu. "Contribution à la résolution de problèmes d'interfaces mobiles de type Dirichlet." Nantes, 2005. http://www.theses.fr/2005NANT2114.

Full text
Abstract:
A l’heure actuelle, il est intéressant de développer de nouvelles approches de simulations numériques pour profiter de l’explosion de la puissance de calcul des ordinateurs. Une méthode récente, baptisée X-FEM (eXtended Finite Element Method), est basée sur la méthode des éléments finis classiques couplée à l’utilisation de fonctions de niveau, appelées Level Set. Ces fonctions permettent la représentation géométrique d’interfaces matériau, de trous, de fissure, sans qu’il soit nécessaire de mailler ces surfaces, ce qui est actuellement le point délicat des méthodes FEM classiques. Il est aisé dans X-FEM de prendre en compte une condition naturelle sur cette interface non-maillée, cependant, il n’en va pas de même pour une condition essentielle, de type Dirichlet, du fait que l’interface n’est plus discrétisée. Les travaux de cette thèse ont pour but de permettre la prise en compte de ce type de condition sur l’iso-zéro de la Level Set. Dans une première partie, différentes méthodes dans le but de vérifier une condition de Dirichlet sur ce type de surface sont présentées. L’étude porte dans un premier temps sur la méthode de Nitsche puis sur une méthode de projection L2 couplée à un enrichissement local du champ d’interpolation basé sur la partition de l’unité. Enfin, une méthode de multiplicateurs de Lagrange est présentée. Le point délicat de cette méthode est l’obtention de l’espace d’interpolation approprié, pas trop riche afin d’éviter les phénomènes de "locking", mais suffisamment pour permettre une bonne vérification de la condition de Dirichlet. L’injection de résine dans un moule préalablement garni de fibres (procédé RTM) est alors simulé par ces différentes méthodes. La simulation de ce procédé conduit à la résolution d’un problème de Laplacien en variable de pression avec des conditions aux limites de type Neumann sur les bords du moule et de type Dirichlet sur la zone d’injection de résine et le front, représenté par l’iso-zéro de la Level set. Enfin, ces méthodes sont utilisées pour la simulation de l’impact hydrodynamique, appelé tossage, dans le cas d’un dièdre rigide impactant à vitesse constante. Les équations régissant le phénomène sont écrites en potentiel des vitesses dans un référentiel fixe par rapport à la structure. Le fait de résoudre les équations de manière générale permettra un passage au problème 3D plus aisé et le changement de référentiel, une prise en compte d’éventuelles déformations de la structure.
APA, Harvard, Vancouver, ISO, and other styles
14

Labedan, Rafael. "Méthode de conception d'un syntoniseur électronique reconfigurable de type micro-ruban à faibles pertes." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/1144/1/LABEDAN_Rafarl.pdf.

Full text
Abstract:
Dans le récent contexte des systèmes de radiocommunication agiles basés sur les radios logicielles, les composantes RF reconfigurables deviennent indispensables et sont souvent la restriction à une plus grande agilité fréquentielle. Les technologies micro-ondes étant plus matures, les avancées technologiques dans ce domaine se font à un rythme plus modéré que dans le domaine des technologies de traitement numérique du signal. Cependant, au cours des dernières années, les composantes micro-ondes reconfigurables ont été 1' objet de plusieurs recherches dans l'objectif de faciliter l'émergence des radios logicielles. Ce mémoire propose une méthode de conception d'une telle composante, plus particulièrement, un syntoniseur électronique reconfigurable, basée sur une approche pratique. Cette approche exploite la force brute d'un environnement de simulation tel qu'Agitent ADS afin de judicieusement optimiser les paramètres du circuit et ainsi obtenir la meilleure couverture possible de la région de 1'abaque de Smith à adapter. Dans le cadre de cette recherche et de son application, la configuration de syntoniseur optimale est basée sur une distribution uniforme de 12 tronçons commutables le long d'une ligne de transmission. Les composantes de commutation choisies sont des interrupteurs MEMS RF disponibles commercialement au moment de ces travaux. La fabrication d'un prototype est exposée et illustrée. Le syntoniseur résultant génère de faibles pertes d'insertions, avec une moyenne de 0,05 dB de pertes par interrupteur MEMS activé et une adaptation d'impédance convenable caractérisée par une couverture s'étendant jusqu'aux extrémités de la région ciblée. Aussi, basé sur les spécifications des interrupteurs MEMS, la capacité de puissance moyenne du circuit est de 15 Watts, ou 30 Watts instantanément, ce qui permet l'utilisation d'un tel circuit dans un système de communication tactique typique. Les résultats simulés et mesurés sont finalement comparés afin de confirmer la validité du modèle de simulation et relever les améliorations possibles.
APA, Harvard, Vancouver, ISO, and other styles
15

Poinard, Franck. "Méthode d'identification fréquentielle et commande robuste de type H∞ d'un procédé d'élaboration de monocristaux." Lyon 1, 1995. http://www.theses.fr/1995LYO10180.

Full text
Abstract:
L'objectif de cette etude est d'ameliorer les performances d'un procede d'elaboration de monocristaux en synthetisant une loi de commande de type hinfini. Le cristal est elabore par la methode du cristal flottant. Notre interet s'est porte exclusivement sur la phase croissance du cristal. Pour eviter les formations de dislocations dans le cristal, le gradient thermique doit etre controle pendant toute cette phase. Cette these se scinde en trois parties: dans un premier temps, nous proposons un correcteur de tendance pour asservir la puissance rayonnee par un laser co#2. Par la suite, ce laser est utilise comme actionneur du procede. Ensuite, une methode d'identification frequentielle, particulierement adaptee a la synthese d'un correcteur robuste, est developpee pour determiner un modele nominal et ses incertitudes. Prealablement, nous proposons une solution pour attenuer le principal inconvenient inherent a l'analyse frequentielle d'un systeme i. E. Le temps d'experimentation. Enfin, plusieurs correcteurs robustes a deux degres de liberte, satisfaisant des objectifs de poursuite et de regulation, sont elabores puis implantes sur le procede. Ils permettront d'une part d'ameliorer la qualite cristalline et d'autre part de modifier les proprietes optiques du cristal
APA, Harvard, Vancouver, ISO, and other styles
16

Aghili, Joubine. "Résolution numérique d'équations aux dérivées partielles à coefficients variables." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT250/document.

Full text
Abstract:
Cette thèse aborde différents aspects de la résolution numérique des Equations aux Dérivées Partielles.Le premier chapitre est consacré à l'étude de la méthode Mixed High-Order (MHO). Il s'agit d'une méthode mixte de dernière génération permettant d'obtenir des approximations d'ordre arbitraire sur maillages généraux. Le principal résultat obtenu est l'équivalence entre la méthode MHO et une méthode primale de type Hybrid High-Order (HHO).Dans le deuxième chapitre, nous appliquons la méthode MHO/HHO à des problèmes issus de la mécanique des fluides. Nous considérons d'abord le problème de Stokes, pour lequel nous obtenons une discrétisation d'ordre arbitraire inf-sup stable sur maillages généraux. Des estimations d'erreur optimales en normes d'énergie et L2 sont proposées. Ensuite, nous étudions l'extension au problème d'Oseen, pour lequel on propose une estimation d'erreur en norme d'énergie où on trace explicitement la dépendance du nombre de Péclet local.Dans le troisième chapitre, nous analysons la version hp de la méthode HHO pour le problème de Darcy. Le schéma proposé permet de traiter des maillages généraux ainsi que de faire varier le degré polynomial d'un élément à l'autre. La dépendance de l'anisotropie locale du coefficient de diffusion est tracée explicitement dans l'analyse d'erreur en normes d'énergie et L2.La thèse se clôture par une ouverture sur la réduction de problèmes de diffusion à coefficients variables. L'objectif consiste à comprendre l'impact du choix de la formulation (mixte ou primale) utilisée pour la projection sur l'espace réduit sur la qualité du modèle réduit
This Ph.D. thesis deals with different aspects of the numerical resolution of Partial Differential Equations.The first chapter focuses on the Mixed High-Order method (MHO). It is a last generation mixed scheme capable of arbitrary order approximations on general meshes. The main result of this chapter is the equivalence between the MHO method and a Hybrid High-Order (HHO) primal method.In the second chapter, we apply the MHO/HHO method to problems in fluid mechanics. We first address the Stokes problem, for which a novel inf-sup stable, arbitrary-order discretization on general meshes is obtained. Optimal error estimates in both energy- and L2-norms are proved. Next, an extension to the Oseen problem is considered, for which we prove an error estimate in the energy norm where the dependence on the local Péclet number is explicitly tracked.In the third chapter, we analyse a hp version of the HHO method applied to the Darcy problem. The resulting scheme enables the use of general meshes, as well as varying polynomial orders on each face.The dependence with respect to the local anisotropy of the diffusion coefficient is explicitly tracked in both the energy- and L2-norms error estimates.In the fourth and last chapter, we address a perspective topic linked to model order reduction of diffusion problems with a parametric dependence. Our goal is in this case to understand the impact of the choice of the variational formulation (primal or mixed) used for the projection on the reduced space on the quality of the reduced model
APA, Harvard, Vancouver, ISO, and other styles
17

Salloum, Samir. "Introduction du contact entre solides de type Coulomb dans une formulation variationnelle hybride." Lyon, INSA, 1995. http://www.theses.fr/1995ISAL0033.

Full text
Abstract:
L'objet de cette thèse est l'approche mécanique utilisée pour représenter les interfaces entre solides sur des surfaces régulières. Une synthèse des modèles antérieurs a été réalisée. Deux approches ont été utilisées par les auteurs: (1) Une approche de type "Rigidités Appropriées", où l'interface est assimilée à un matériau fictif dont le comportement est spécifié, et (2) Une approche du type "Contact" où le critère de glissement de l'interface est introduit par des multiplicateurs de Lagrange dans la fonctionnelle décrivant la déformation des solides. Les avantages et les limitations de ces approches ont été analysés. L'approche "Rigidités Appropriées" présente plusieurs limitations, principalement liées à la description du comportement du matériau fictif constituant l'interface. L'approche "Contact", plus récente, est une approche mécanique du contact nécessitant seulement la définition du critère de glissement de l'interface. L'approche "Contact" a principalement été introduit par les auteurs dans la formulation variationnelle en déplacements du problème en déformation en Mécanique des Solides. Cependant , dans la formulation en déplacements, la réciprocité des tractions à la frontière inter-éléments n'est pas vérifiée. Par conséquent, les résultats sont fortement dépendants du maillage dans les zones de concentration des contraintes, prés des contacts. Dans cette thèse, l'approche "Contact" a été utilisée. Une interface entre solides ayant un critère de glissement de type Coulomb, a été introduite dans une formulation variationnelle hybride, vérifiant la réciprocité des tractions au sens variationnelle. Les équations d'Euler obtenues montrent que l'effet de la dilatance est implicitement inclus dans la fonctionnelle. Une solution numérique par la Méthode des Éléments Finis a été développée. L'obtention des matrices élémentaires est détaillée et un algorithme incrémentai itératif est présenté afin d'établir un code Éléments Finis. Les applications montrent l'intérêt de la formulation hybride pour simuler la concentration des contraintes près des interfaces et la réciprocité des tractions
The object of this thesis is to use the mechanics approach to represent the interface between solids with regular surfaces. A synthesis of existing models was performed which showed that either one of two approaches was taken by the authors: (1) A "Rigidités Appropriées" approach whereby the interface is modelled as a fictitious material for which the behaviour is specified, and (2) a "Contact" type approach where the slip criterion on the interface is introduced into the solid deformation functional using Lagrangian multipliers. The advantages and limitations of the two approaches were studied. The "Rigidités Appropriées" approach has a number of limitations mainly related to the description of the behaviour of the fictitious interface material. The more recent "Contact" method is a mechanics approach which only necessitates the definition of the interface slip criterion. In the main, authors introduce this criterion in the displacement variational formulation of the solid mechanics deformation problem. However, in the displacement formulation, the traction equilibrium on the inter-element boundaries is not verified. Consequently, the results in zones where the stress is concentrated, such as in areas of contact, are highly mesh dependent. In this thesis the "Contact" approach was used. An interface between the solids with a Coulomb slip criterion was introduced into a hybrid variational formulation, thus verifying the traction equilibrium in the variational sense. The resulting Euler equations show that the dilation effect is implied in the functional. A numerical solution using the finite element method was subsequently developed. The details of the element stiffness matrices are given along with the incremental iterative algorithm used to develop a finite element program. The examples tested show the benefit of the hybrid formulation for simulating the stress concentrations near the material interfaces as well as the equilibrium of the traction forces
APA, Harvard, Vancouver, ISO, and other styles
18

Kobor, Diouma. "Synthèse, dopage et caractérisation de monocristaux ferroélectriques type PZN-PT par la méthode du flux." Lyon, INSA, 2005. http://theses.insa-lyon.fr/publication/2005ISAL0122/these.pdf.

Full text
Abstract:
Les actionneurs et les capteurs sont une classe de dispositifs qui utilisent les matériaux piézoélectriques comme éléments actifs dans l'imagerie médicale (échographie) et la vélocimétrie. Les caractéristiques recherchées pour ces matériaux sont une bonne aptitude à convertir l'énergie mécanique en énergie électrique (et vice-versa), une faible perte diélectrique et une stabilité des caractéristiques sous l'influence de contraintes extérieures comme le champ électrique, la température et les contraintes mécaniques. Jusqu'à présent les matériaux utilisés sont des céramiques ferroélectriques de type Zircono-titanate de Plomb (PZT) qui ont été dopées pour obtenir des performances plus élevées. Vers la fin des années 80, un intérêt nouveau a été porté aux monocristaux. Nous avons synthétisé des monocristaux PZN-4. 5PT non dopés et dopés au Mn pour augmenter leurs performances. Des études diélectriques, piézoélectriques, de stabilité et de non-linéarité ont été effectuées pour comprendre le comportement de ces matériaux
The actuators and the sensors are a class of devices which use piezoelectric materials like active elements in the medical imagery (echography) and velocimetry. The characteristics sought for these materials are a good aptitude to convert the mechanical energy into electric power (and vice versa), a weak dielectric loss and a stability of the characteristics under the influence of external pressures like the electric field, the mechanical temperature and stress. Until now the materials used are ferroelectric ceramics of Lead Zircono-titanate (PZT) which was doped to obtain higher performances. Towards the end of the 80 years, a new interest was carried to the monocrystals. We synthesized monocrystals PZN-4. 5PT un-doped and doped with Mn to increase their performances. Studies on dielectric, piezoelectric, of stability and non-linearities were carried out to include/understand the behavior of these materials
APA, Harvard, Vancouver, ISO, and other styles
19

Ivorra, Wilfrid. "Equations diophantiennes ternaires de type (p, p, 2) et courbes elliptiques." Paris 6, 2004. http://www.theses.fr/2004PA066164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Zouari, Wajdi. "Développement d'éléments finis ferroélectriques et ferroélastiques de type solide et coque curvilignes." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10015/document.

Full text
Abstract:
Les céramiques piézoélectriques, comme le Titatano-Zirconate de Plomb (PZT), peuvent produire une tension électrique quand elles sont soumises à une contrainte mécanique et, inversement, se déforment sous l'effet d'un champ électrique. Ce couplage électromécanique peut être décrit par des équations de comportement linéaires pour des chargements modérés. Cependant, au-delà de certaines valeurs de champ électrique ou de contrainte mécanique, ce couplage devient fortement non linéaire à cause des phénomènes de réorientation de la polarisation électrique. Dans ce travail de thèse, un modèle phénoménologique, qui tient compte des réorientations ferroélectrique (par un champ électrique) et ferroélastique (par une contrainte mécanique) de la polarisation électrique, est proposé. Deux variables internes sont considérées pour décrire l'histoire du chargement et deux surfaces de charges électrique et mécanique sont définies pour déterminer les débuts des écoulements ferroélectrique et ferroélastique. Une version bi-dimensionnelle de ce modèle est développée également pour faire l'étude des structures piézoélectriques minces. Les deux versions 2D et 3D du modèle phénoménologique sont intégrées implicitement en adoptant la méthode de retour radial (prédiction/correction). Deux éléments finis coque et hexaédrique de premier ordre, qui intègrent ce modèle phénoménologique non linéaire, sont ensuite développés et implémentés dans le code de calcul par éléments finis Abaqus via la routine utilisateur UEL (User ELement)
Piezoceramics like lead zirconate titanate or PZT can produce an electric potential when they are subjected to a mechanical stress and deform in the presence of an electric field. This electromechanical coupling can be described by linear constitutive equations for moderate loadings. Nevertheless, this coupling becomes highly non linear when piezoceramics are subjected to high electromechanical loadings due to the electric polarization switching. In this thesis work, a phenomenological material constitutive model that describe the electric polarization ferroelectric switching (by an electric field) and ferroelastic switching (by a mechanical stress) is proposed. To describe the loading history, two internal variables are considered and two electric and mechanical loading surfaces are defined to indicate the onset of domain switchings. A bi-dimensional version of this model is developed to study thin piezoelectric structures. The phenomenological model 2D and 3D versions are implicitly integrated by adopting the return-mapping algorithm. Two shell and hexahedral first-order finite elements are then formulated and implemented into the commercial finite element code Abaqus via the user subroutine UEL (User ELement)
APA, Harvard, Vancouver, ISO, and other styles
21

Bernard, Bruno. "Interactions acoustiques entre transducteurs de type flextenseur." Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/da2ea5d9-88a0-4560-85ad-315bde81f554.

Full text
Abstract:
En acoustique sous-marine, il existe actuellement un intérêt grandissant pour les systèmes sonar actifs basse fréquence, destinés à la détection longue portée de sous-marins discrets. Pour ces sonars, les réseaux compacts de flextenseurs constituent un système d'émission intéressant, car ils délivrent une forte puissance acoustique en basse fréquence. Malheureusement, il se manifeste dans ces réseaux des interactions acoustiques fortes difficiles à modéliser, ce qui constitue un obstacle majeur à la conception d'antennes de flextenseurs. C'est pourquoi la recherche présentée propose une méthode de calcul spécifiquement adaptée aux réseaux de flextenseurs, s'appuyant sur des modèles éléments finis et sur une hypothèse simplificatrice originale, qui privilégie la prise en compte précise des interactions acoustiques avec les voisins immédiats. La mise en œuvre du modèle sur un réseau prototype prouve son intérêt numérique par rapport à des méthodes classiques, pour une très bonne précision de résultats
APA, Harvard, Vancouver, ISO, and other styles
22

Quinto, Michele Arcangelo. "Méthode de reconstruction adaptive en tomographie par rayons X : optimisation sur architectures parallèles de type GPU." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENT109/document.

Full text
Abstract:
La reconstruction tomographique à partir de données de projections est un problème inverse largement utilisé en imagerie médicale et de façon plus modeste pour le contrôle nondestructif. Avec un nombre suffisant de projections, les algorithmes analytiques permettentdes reconstructions rapides et précises. Toutefois, dans le cas d’un faible nombre de vues(imagerie faible dose) et/ou d’angle limité (contraintes spécifiques liées à l’installation), lesdonnées disponibles pour l’inversion ne sont pas complètes, le mauvais conditionnementdu problème s’accentue, et les résultats montrent des artefacts importants. Pour aborderces situations, une approche alternative consiste à discrétiser le problème de reconstruction,et à utiliser des algorithmes itératifs ou une formulation statistique du problème afinde calculer une estimation de l’objet inconnu. Ces méthodes sont classiquement basées surune discrétisation du volume en un ensemble de voxels, et fournissent des cartes 3D de ladensité de l’objet étudié. Les temps de calcul et la ressource mémoire de ces méthodesitératives sont leurs principaux points faibles. Par ailleurs, quelle que soit l’application, lesvolumes sont ensuite segmentés pour une analyse quantitative. Devant le large éventaild’outils de segmentation existant, basés sur différentes interprétations des contours et defonctionnelles à minimiser, les choix sont multiples et les résultats en dépendent.Ce travail de thèse présente une nouvelle approche de reconstruction simultanée àla segmentation des différents matériaux qui composent le volume. Le processus dereconstruction n’est plus basé sur une grille régulière de pixels (resp. voxels), mais sur unmaillage composé de triangles (resp. tétraèdres) non réguliers qui s’adaptent à la formede l’objet. Après une phase d’initialisation, la méthode se décompose en trois étapesprincipales que sont la reconstruction, la segmentation et l’adaptation du maillage, quialternent de façon itérative jusqu’à convergence. Des algorithmes itératifs de reconstructioncommunément utilisés avec une représentation conventionnelle de l’image ont étéadaptés et optimisés pour être exécutés sur des grilles irrégulières composées d’élémentstriangulaires ou tétraédriques. Pour l’étape de segmentation, deux méthodes basées surune approche paramétrique (snake) et l’autre sur une approche géométrique (level set)ont été mises en oeuvre afin de considérer des objets de différentes natures (mono- etmulti- matériaux). L’adaptation du maillage au contenu de l’image estimée est basée surles contours segmentés précédemment, pour affiner la maille au niveau des détails del’objet et la rendre plus grossière dans les zones contenant peu d’information. En finde processus, le résultat est une image classique de reconstruction tomographique enniveaux de gris, mais dont la représentation par un maillage adapté au contenu proposeidirectement une segmentation associée. Les résultats montrent que la partie adaptative dela méthode permet de représenter efficacement les objets et conduit à diminuer drastiquementla mémoire nécessaire au stockage. Dans ce contexte, une version 2D du calcul desopérateurs de reconstruction sur une architecture parallèle type GPU montre la faisabilitédu processus dans son ensemble. Une version optimisée des opérateurs 3D permet descalculs encore plus efficaces
Tomography reconstruction from projections data is an inverse problem widely used inthe medical imaging field. With sufficiently large number of projections over the requiredangle, the FBP (filtered backprojection) algorithms allow fast and accurate reconstructions.However in the cases of limited views (lose dose imaging) and/or limited angle (specificconstrains of the setup), the data available for inversion are not complete, the problembecomes more ill-conditioned, and the results show significant artifacts. In these situations,an alternative approach of reconstruction, based on a discrete model of the problem,consists in using an iterative algorithm or a statistical modelisation of the problem to computean estimate of the unknown object. These methods are classicaly based on a volumediscretization into a set of voxels and provide 3D maps of densities. Computation time andmemory storage are their main disadvantages. Moreover, whatever the application, thevolumes are segmented for a quantitative analysis. Numerous methods of segmentationwith different interpretations of the contours and various minimized energy functionalare offered, and the results can depend on their use.This thesis presents a novel approach of tomographic reconstruction simultaneouslyto segmentation of the different materials of the object. The process of reconstruction isno more based on a regular grid of pixels (resp. voxel) but on a mesh composed of nonregular triangles (resp. tetraedra) adapted to the shape of the studied object. After aninitialization step, the method runs into three main steps: reconstruction, segmentationand adaptation of the mesh, that iteratively alternate until convergence. Iterative algorithmsof reconstruction used in a conventionnal way have been adapted and optimizedto be performed on irregular grids of triangular or tetraedric elements. For segmentation,two methods, one based on a parametric approach (snake) and the other on a geometricapproach (level set) have been implemented to consider mono and multi materials objects.The adaptation of the mesh to the content of the estimated image is based on the previoussegmented contours that makes the mesh progressively coarse from the edges to thelimits of the domain of reconstruction. At the end of the process, the result is a classicaltomographic image in gray levels, but whose representation by an adaptive mesh toits content provide a correspoonding segmentation. The results show that the methodprovides reliable reconstruction and leads to drastically decrease the memory storage. Inthis context, the operators of projection have been implemented on parallel archituecturecalled GPU. A first 2D version shows the feasability of the full process, and an optimizedversion of the 3D operators provides more efficent compoutations
APA, Harvard, Vancouver, ISO, and other styles
23

Jemal, Ellouze Fatma. "Modélisation du comportement thermomécanique d'un alliage à mémoire de forme à base de fer type Fe-Mn-Si." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10135/document.

Full text
Abstract:
Il est bien connu que les alliages à mémoire de forme (AMF) sont considérés comme une classe particulière de matériaux qui peuvent retrouver une forme préalablement définie par simple chauffage. Cette propriété remarquable, appelée effet mémoire de forme, peut être exploitée dans la conception d'applications originales afin de trouver les solutions intéressantes aux problèmes rencontrés dans divers champs industriels. Dans notre travail, nous proposons une loi constitutive tridimensionnelle thermomécanique adaptée aux alliages à mémoire de forme à base de fer. Elle tient compte de l'effet de la transformation martensitique et des mécanismes de glissement plastique et leurs interactions. La formulation adoptée est basée sur une description micromécanique simplifiée. La comparaison entre les forces motrices et les forces critiques d'activation des mécanismes mis en jeu nous ont permis de déterminer le type de comportement induit pour un niveau de chargement donné. Nous avons adopté le schéma implicite d'intégration de Newton-Raphson pour la résolution de ce système. Les résultats obtenus pour des chargements thermomécaniques sont comparés à ceux obtenus expérimentalement
It is well known that Shape Memory Alloys (SMA) are a particular class of materials that can recover a memorized shape by simple heating. This remarkable property, called the Shape Memory Effect (SME), can be exploited in the design of original applications in order to find attractive solutions to problems encountered in various industrial fields. We propose a thermo-mechanical three-dimensional constitutive law adapted to Fe-based shape memory alloys. It takes into account the effect of the martensitic transformation and the plastic slip mechanisms and their interaction. The adopted formulation is based on a simplified micromechanical description. The macroscopic behaviour is derived by considering the equivalent homogeneous effect on a representative volume element. The Gibbs free energy expression is defined. Thermodynamic driving forces are then derived and compared to critical forces leading to the constitutive equations solved by Newton–Raphson numerical scheme. Obtained results for thermo-mechanical loadings are compared to experimental ones
APA, Harvard, Vancouver, ISO, and other styles
24

Berard, Alexandre. "Transferts de champs entre maillages de type éléments finis et applications numériques en mécanique non linéaire des structures." Thesis, Besançon, 2011. http://www.theses.fr/2011BESA2045/document.

Full text
Abstract:
En mécanique des milieux continus, la résolution d'un problème à l'aide de la méthode des éléments finis permet d'obtenir des champs discrétisés aux noeuds ou aux points de Gauss, sur un maillage donné de la structure étudiée. Si l'on souhaite utiliser ces résultats afin d'effectuer un calcul sur un second maillage, un transfert de données est inévitable, notamment dans les études chaînées, lors de processus d'adaptation de maillage ou encore pour des couplage entre codes. La simulation numérique doit tenir compte de cet état de fait, ce qui n'est pas totalement le cas aujourd'hui; la division R&D d'EDF souhaite donc disposer d'outils permettant de lever ce verrou au sein du logiciel libre Code_Aster.Le manuscrit présente une synthèse des travaux menés durant la thèse, qui répondent aux objectifs suivants: proposer des méthodes de transfert de champs, comparer et qualifier ces différentes approches à l'aide d'ananlyses d'erreur théoriques et numériques, implanter l'une de ces méthodes dans Code_Aster, valider cette programmation sur quelques cas industriels
In continuum mechanics, when a problem is solved with the finite element method, field are known on nodes or on integration points, on a given mesh of the structure. If we which to use these results to perform a calculation on a second mesh, a data transfer is inevitable, especially in studies which imply adapting mesh process, or for coupling several codes. Numerical simulation must take this fact into account, which is not entirely the case today. So R&D division of EDF is eager to use some tools to remove this lock, in the software Code_Aster.There is a sum up of the work dine during the thesis. The objectives are the following: propose some methods for fields transfers, compare and describe these different approaches with theoretical analysis and numerical errors, implement one of these methods in Code_Aster, validate this implementation on some industrial cases
APA, Harvard, Vancouver, ISO, and other styles
25

Martin-Gros, Gilles. "Préparation d'anticorps monoclonaux contre l'organisme de type bactérien BLO du greening des agrumes et l'organisme de type MLO dustolbur de la tomate : une méthode générale." Bordeaux 2, 1989. http://www.theses.fr/1989BOR22004.

Full text
Abstract:
En utilisant comme modele des pervenches de madagascar infectees par spiroplasma citri et la technique des anticorps monoclonaux, une methode a ete developpee permettant d'obtenir des anticorps contre des agents pathogenes du phloeme non disponibles en culture. Les proteines immunogenes de chaque microorganisme ont ete caracterisees sur gel de polyacrylamide. Il s'agit de la spiraline de pm 26000 d dans le cas de s. Citri, d'une proteine de 22000 d dans le cas du blo du greening, et d'une proteine de 16000 d dans le cas du mlo du stolbur
APA, Harvard, Vancouver, ISO, and other styles
26

Plassiard, Jean-Patrick. "Modélisation par la méthode des éléments discrets d'impacts de blocs rocheux sur structures de protection type merlons." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00290402.

Full text
Abstract:
Les ouvrages type merlons, construits pour se prémunir contre les chutes de blocs rocheux, sont dimensionnés en pratique au moyen de méthodes empiriques. Afin d'optimiser la géométrie de ces constructions leur modélisation a été entreprise. La méthode aux éléments discrets est utilisée en raison des fortes restructurations du remblai constitutif pouvant intervenir durant un impact. A partir d'un état de l'art, les caractéristiques mécaniques du remblai sont évaluées. La calibration des paramètres quasi-statiques du matériau modèle est alors réalisée par simulations d'essais triaxiaux. Les paramètres gérant le comportement dynamique sont calibrés à leur tour par simulations d'impacts à énergies modérées. Le remblai modèle obtenu est validé par la modélisation d'essais d'impacts expérimentaux dont la gamme d'énergies correspond à celle rencontrée pour les merlons. Il est alors utilisé pour simuler des impacts sur merlons. Plusieurs tailles d'ouvrages sont étudiées, répondant chacune à des gammes d'énergies différentes. Une analyse paramétrique portant sur divers aspects du bloc et de l'ouvrage est réalisée. Elle permet de définir les variables principales gérant le phénomène d'impact. La variation couplée de ces dernières est réalisée afin d'établir leur influence sur la capacité du merlon à contenir le bloc.
APA, Harvard, Vancouver, ISO, and other styles
27

Kechroud, Riyad. "Une méthode de couplage éléments finis-conditions absorbantes de type-padé pour les problèmes de diffraction acoustique." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/112/1/KECHROUD_Riyad.pdf.

Full text
Abstract:
Nous nous intéressons aux problèmes harmoniques de diffraction acoustique en milieu infini régis par l'équation de Helmholtz. La simulation numérique de ces phénomènes est complexe notamment lorsqu'il est question de fréquences élevées et d'obstacles de forme allongée tel qu'un sous-marin. Les codes éléments finis commerciaux sont incapables de cerner tous les aspects liés à ce type de problèmes. De plus, ce genre d'applications fait appel à de grandes ressources de calcul. En effet, la taille du système d'équations à résoudre (plusieurs millions de ddl) engendre souvent l'épuisement des ressources des calculateurs traditionnels. Notre objectif est de solutionner ce type de problèmes avec une précision pratique en utilisant le minimum de ressources. Nous proposons ainsi une méthode de couplage éléments finis de type Lagrange et à base d'ondes planes avec les conditions absorbantes d'ordre élevé basées sur les approximants complexes de Padé. A travers une série d'expériences numériques, nous montrons l'efficacité de ces conditions absorbantes en comparaison avec les conditions absorbantes de Bayliss-Gunzburger-Turkel d'ordre deux implémentées dans les codes commerciaux. La méthodologie proposée permet non seulement une réduction de la taille du domaine de calcul sans dégradation de la précision mais conduit également à la résolution de systèmes d'équations de taille relativement réduite.
APA, Harvard, Vancouver, ISO, and other styles
28

Servant, Guy. "Caractérisation biochimique du récepteur de type 2 de l'angiotensine II par la méthode du marquage par photoaffinité." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq21863.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Drouet, Guillaume. "Méthode locale de type mortar pour le contact dans le cas de maillages incompatibles de degré élevé." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30142/document.

Full text
Abstract:
Dans cette thèse, nous développons une méthode locale de type "mortar" pour traiter le problème de contact avec maillages incompatibles de manière optimale dans un code de calcul par éléments finis de niveau industriel. Dans la première partie de la thèse, nous introduisons le cadre mathématique de la méthode intitulée "Local Average Contact" (LAC). Cette approche consiste à imposer la condition de non-interpénétration en moyenne sur chaque élément d'un macro-maillage défini de manière idoine. Nous commençons par développer une nouvelle technique de preuve pour démontrer l'optimalité des approches de type inéquation variationnelle discrétisée par éléments finis standards pour le problème de Signorini, sans hypothèse autre que la régularité Sobolev de la solution du problème continu. Puis nous définissons la méthode LAC et démontrons, à l'aide des nouveaux outils techniques, l'optimalité de cette approche locale modélisant le contact unilatéral dans le cas général des maillages incompatibles. Pour finir, nous introduisons la formulation mixte équivalente et démontrons son optimalité et sa stabilité. Dans la seconde partie de la thèse, nous nous intéressons à l'étude numérique de la méthode LAC. Nous confirmons sa capacité à gérer numériquement le contact unilatéral avec maillages incompatibles de manière optimale à l'instar des méthodes "mortar" classiques, tout en restant facilement implémentable dans un code de calcul industriel. On montre ainsi, entre autres, que la méthode passe avec succès le patch test de Taylor. Finalement, nous montrons son apport en terme de robustesse et au niveau de la qualité des pressions de contact sur une étude de type industrielle
In this thesis, we develop a local "mortar" kind method to deal with the problem of contact with non-matching meshes in an optimal way into a finite element code of industrial level. In the first part of the thesis, we introduce the mathematical framework of the Local Average Contact method (LAC). This approach consists in satisfying the non-interpenetration condition in average on each element of a macro-mesh defined in a suitable way. We start by developing a new technique for proving the optimality of variational inequality approaches discretized by finite elements modeling Signorini problem without other hypothesis than the Sobolev regularity of the solution of the continuous problem. Then we define the LAC method and prove, using the new technical tools, the optimality of this local approach modeling the unilateral contact in the general case of non-matching meshes. Finally, we introduce the equivalent mixed formulation and prove its optimality and stability. In the second part of the thesis, we are interested in the numerical study of the LAC method. We confirm its ability to optimally treat the contact problem when considering non-matching meshes like standard "mortar" methods, while remaining easily implementable in an industrial finite element code. We show, for example, that the method successfully passes the Taylor patch test. Finally, we show its contribution in terms of robustness and at the quality of the contact pressures on an industrial study
APA, Harvard, Vancouver, ISO, and other styles
30

Garciaherreros, Landazabal Ivan Mauricio. "Méthode de modélisation et de commande des systèmes de positionnement multi-actionnés de type Axe en Gantry." Paris, ENSAM, 2012. https://pastel.archives-ouvertes.fr/pastel-00703721.

Full text
Abstract:
Un manipulateur cartésien dit " axe en gantry " peut être utilisé pour des applications requérant une dynamique élevée et une grande précision. Le type d'axe en gantry étudié dans ce mémoire consiste en un axe transversal porté par deux actionneurs linéaires balayant la direction longitudinale de l'espace de travail. Un troisième actionneur, monté sur le bras transversal, permet de déplacer la charge le long de la direction transversale de l'espace de travail. La problématique de ces systèmes réside dans la dégradation des performances de positionnement due au couplage mécanique existant entre les actionneurs et aux vibrations du bras transversal. La solution industrielle, consistant à minimiser les vibrations en rigidifiant (et en alourdissant) le bras transversal et à contrôler indépendamment les axes parallèles, mène à une consommation d'énergie importante qui ne sera plus acceptable à long terme. Un état de l'art sur la commande des axes en gantry met en évidence un manque d'analyse des phénomènes physiques responsables des couplages mécaniques et des vibrations du bras transversal. Ceux-ci sont en effet considérés comme des perturbations compensées par des méthodes mathématiques dérivées de l'automatique avancée. L'approche proposée dans ce mémoire se veut une alternative à ces méthodes. Elle est basée sur une modélisation physique détaillée de l'axe en gantry comprenant la flexibilité du bras transversal. Cette modélisation, associée à des méthodes d'identification expérimentale et de représentation causale, est exploitée afin de déduire des structures de commande et des méthodes de réglage adaptées. Des résultats expérimentaux montrent que cette méthodologie mène à une amélioration des performances de positionnement des axes en gantry par rapport à la commande industrielle et permet par exemple d'envisager l'allégement du bras transversal
Gantry stages are used for high-speed high-precision motion control applications such as wafer and flat panel display manufacturing and inspection. A gantry stage is a type of Cartesian manipulator that is composed of three linear actuators on its basic configuration. Two actuators move in tandem a cross-arm along the longitudinal direction of the work-space. The third actuator, mounted on the cross-arm, carries the payload along the transverse direction of the workspace. The positioning performance of the gantry stage is principally degraded by the mechanical coupling between actuators and by the vibrations of the cross-arm along the longitudinal direction. To solve the vibration problem, the current solution is to make the cross-arm very rigid. The drawback of this solution is that rigidity is generally synonym of heaviness, which leads to the use of more powerful actuators and higher energy consumption. To solve the coupling problem, the current industrial solution is independent axis control. That is, the coupling between actuators is ignored, leading to a degraded position performance. State of the art solutions put in evidence a general lack of interest in considering the physical causes of the coupling and vibration problems into the controller design, leading to complex control architectures derived from advanced control techniques. The approach presented in this PhD. Thesis is meant to be an alternative to such techniques by proposing a methodology that is based on a detailed physical modeling of gantry stages (flexibility of the cross-arm included). This physical modeling, associated to experimental identification methods, is exploited to obtain adapted control structures and tuning methods allowing to enhance the system's performance by improving the management of its degrees of freedom. Experimental results show that the proposed methodology leads to an improved motion control of the point-tool, even for very flexible systems
APA, Harvard, Vancouver, ISO, and other styles
31

Colin, Claire. "Analyse et simulation numérique par méthode combinée Volumes Finis - Éléments Finis de modèles de type Faible Mach." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I022/document.

Full text
Abstract:
Dans cette thèse, nous étudions des écoulements caractérisés par un faible nombre de Mach. Dans une première partie, nous développons un schéma numérique permettant la résolution des équations de Navier-Stokes à faible nombre de Mach. L’équation de continuité est résolue par une méthode de volumes finis, tandis que l’équation de conservation de la quantité de mouvement et l’équation d’évolution de la température sont résolues par éléments finis. Le schéma ainsi développé assure la préservation des états constants. Dans une seconde partie, nous faisons l’analyse d’un modèle de type faible Mach spécifique, dans lequel la pression thermodynamique est considérée constante, et la viscosité est une fonction particulière de la température. Nous montrons l’existence, l’unicité et la régularité des solutions, ainsi qu’un résultat de principe du maximum pour la température. Enfin dans une troisième partie, nous développons un schéma numérique permettant de simuler les équations de ce modèle. L’accent est mis sur la discrétisation de l’équation de température, qui est de type volumes finis. Plusieurs schémas sont étudiés et comparés sur des critères de précision et de respect du principe du maximum. L’équation de conservation de la quantité de mouvement est discrétisée par éléments finis, définissant un nouveau schéma combiné
In this thesis, we study some flows characterized by a low Mach number. In a first part, we develop a numerical scheme allowing the resolution of the Navier-Stokes equations in the low Mach number approximation. The continuityequation is solved by a finite volume method, while the momentum and temperature equations are solved by finite elements. The scheme ensures the preservation of constant states. In a second part, we analyze a specific low Mach type model, in which the thermodynamic pressure is considered constant, and the viscosity is a particular function of the temperature. We show the existence, the uniqueness and the regularity of the solutions, as well as a maximum principle result for the temperature. Finally, in a third part, we develop a numerical scheme to simulate the equations of this model. Emphasis is placed on the discretization of the temperature equation, which is of finite volume type. Several schemes are studied and compared on criteria of precision and respect of the maximum principle. The momentum equation is discretized by finite elements, defining a new combined scheme
APA, Harvard, Vancouver, ISO, and other styles
32

Servant, Guy. "Caractérisation biochimique du récepteur de type 2 de l'angiotensine II par la méthode du marquage par photoaffinité." Thèse, Université de Sherbrooke, 1996. http://savoirs.usherbrooke.ca/handle/11143/4088.

Full text
Abstract:
Afin d'isoler le récepteur AT[indice inférieur 2] et d'identifier ainsi quelques-unes de ses propriétés biochimiques, nous avons utilisé l'approche du marquage par photoaffinité. Pour ce faire, nous avons développé un analogue photosensible de l'angiotensine II (AngII) le Sar[indice supérieur 1], Val[inidce supérieur 5], p-benzoylPhe[indice supérieur 8]]AngII (AngII-Bpa[indice supérieur 8]). Cet analogue reconnaît le récepteur AT[indice inférieur 2] avec une forte affinité IC[indice inférieur 50] de 0.3 nM). À l'aide de l'analogue radioiodé [indice supérieur 125]I-AngII-Bpa[indice supérieur 8]), nous avons photomarqué avec un rendement élevé (70%) et spécifiquement le récepteur AT[indice inférieur 2] du myomètre humain. L'analyse des complexes covalents par électrophorèses sur gel de polyacrylamide (SDS-PAGE) a révélé une bande radioactive correspondant à une protéine de masse moléculaire apparente (Mr) de 68 kDa. Par la même approche nous avons marqué le récepteur AT[indice inférieur 2] des lignées cellulaires PC-12 et Swiss 3T3. L'analyse de ces complexes covalents par SDS-PAGE a révélé des M[indice inférieur r] de 140 kDa et 90 kDa chez les cellules PC-12 et Swiss 3T3 respectivement. La déglycosylation du récepteur AT[indice inférieur 2] du myomètre humain et des cellules PC-12 et Swiss 3T3 a significativement diminué les M[indice inférieur r] jusqu'à une valeur de 31 kDa. De plus, des études de cinétiques de déglycosylation ont démontré une baisse graduelle de la M[indice inférieur r] en trois étapes, suggérant ainsi la présence d'au moins trois chaînes d'oligosaccharides sur le récepteur AT[indice inférieur 2]. En traitant les cellules PC-12 avec un bloqueur métabolique de la N-glycosylation, la tunicamycine, nous avons remarqué, suite au marquage des cellules, que ces dernières expriment à leur surface trois populations de récepteurs avec des M[indice inférieur r] de 63 kDa, 47 kDa et 31 kDa. Par des expériences de chromatographie d'affinité sur lectine, nous avons observé que les populations à 63 kDa et 47 kDa correspondent à des formes partiellement glycosylées et que la population à 31 kDa correspond à la forme déglycosylée du récepteur AT[indice inférieur 2] Des études de liaison effectuées sur les cellules PC-12 exprimant l'une ou l'autre de ces populations partiellement glycosylées ont révélé une baisse d'affinité d'un facteur deux pour l'AngII. Nous avons développé un autre analogue photosensible de l'AngII en modifiant la position 1 de la molécule par un résidu Bpa. Nous avons utilisé le [indice supérieur 125]I-AngII-Bpa[indice supérieur 1] et le [indice supérieur 125]I-AngII-Bpa[indice supérieur 8] afin de définir les domaines de liaison du récepteur AT[indice inférieur 2]. Suite à différentes digestions enzymatiques et chimiques des complexes covalents, nous avons déterminé la taille des fragments obtenus et avons retracé leurs positions dans le récepteur. Les résultats démontrent que les positions 1 et 8 des analogues photoactivables interagissent respectivement avec le segment amino-terminal (résidus 2 a 30) et le troisième domaine transmembranaire (résidus 129 a 138) du récepteur AT[indice inférieur 2]. Ces résultats montrent que le récepteur AT[indice inférieur 2] est une glycoprotéine possédant au moins trois chaînes d'oligosaccharides de types complexes. La variabilité de la M[indice inférieur r] du récepteur AT[indice inférieur 2], observée dans différents tissus, est due essentiellement à des degrés différents de N-glycosylation. La N-glycosylation du récepteur AT[indice inférieur 2] a peu d'influence sur ses propriétés de liaison et n'est pas essentielle à son transport vers la membrane plasmique. Il est aussi proposé que le domaine de liaison du récepteur AT[indice inférieur 2] est composé de résidus situés à la fois dans le segment amino-terminal extracellulaire et le troisième domaine transmembranaire.
APA, Harvard, Vancouver, ISO, and other styles
33

Martin, Véronique. "Méthodes de décomposition de domaine de type relaxation d'ondes pour des équations de l'océanographie." Phd thesis, Université Paris-Nord - Paris XIII, 2003. http://tel.archives-ouvertes.fr/tel-00583196.

Full text
Abstract:
L'objectif de ce travail est de développer des algorithmes de décomposition de domaine pour des équations de l'océanographie. Les méthodes de décomposition de domaine consistent à décomposer un domaine de calcul de grand taille en plusieurs sous-domaines plus petits. Elles s'appliquaient jusqu'à présent à des problèmes stationnaires, nous généralisons ici ce type de méthodes aux problèmes en temps ('Schwarz Waveform Relaxation Methods'). Le principal but de cette nouvelle approche est de simuler des problèmes multiphysiques pour lesquels il est intéressant d'avoir une discrétisation temporelle différente dans chaque sous-domaine. Nous généralisons aux équations d'évolution une méthode récente qui consiste à écrire les conditions transparentes (Conditions aux Limites Absorbantes) puis les approche par des opérateurs différentiels d'ordre 1 dans la direction normale à l'interface et d'ordre 0 ou 1 dans la direction tangentielle. Nous développons cette méthode premièrement pour l'équation de convection diffusion qui traduit notamment l'advection des traceurs (température, salinité, traceurs passifs) dans l'océan. Nous approchons les opérateurs exacts par développement de Taylor, ou par optimisation du taux de convergence. Nous démontrons que les problèmes aux limites introduits sont bien posés. Puis nous montrons la convergence des algorithmes correspondants. Des résultats numériques sont implémentés dans le cas avec ou sans recouvrement et mettent en évidence la réelle efficacité des méthodes optimisées. Nous faisons ensuite un premier pas vers le couplage d'équations en implémentant un algorithme de couplage de l'équation de convection avec l'équation de convection diffusion. Ensuite nous traitons les équations de Saint Venant, moyennes verticales des équations de Navier-Stokes en milieu tournant. Nous introduisons pour ce système un algorithme de décomposition de domaine avec des conditions d'interface qui s'obtiennent par des considérations physiques. Nous montrons que cet algorithme est bien posé puis nous en démontrons la convergence. Des résultats numériques concluants sont également exposés.
APA, Harvard, Vancouver, ISO, and other styles
34

Tinzefte, Abdellatif. "Étude algorithmique et théorique de quelques méthodes de type Lanczos." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/4f702b59-cffe-4448-8753-7984d036aaba.

Full text
Abstract:
La méthode de Lanczos est l'une des méthodes itératives les plus utilisées pour la résolution des systèmes linéaires. Les polynômes orthogonaux formels permettent la mise en oeuvre des différentes méthodes de type-Lanczos. Cependant des divisions par zéro ("breakdown") peuvent être rencontrées dans le calcul de ces polynômes par des relations de récurrence. Dans la première partie de cette thèse, nous avons effectué une étude détaillée de ce phénomène, le rapport entre les différentes situations de breakdown a été établi. Cela nous a permis, d'une part, de donner une nouvelle implantation du processus de Lanczos par des récurrences à deux termes, d'autre part, d'appliquer le look-ahead à la méthode du Gradient Biconjugué. Les polynômes orthogonaux formels sont ensuite utilisés pour introduire le préconditionneur dans quelques méthodes de type-Lanczos qui utilisent le look-ahead. Ensuite, nous nous sommes particulièrement intéressés à l'algorithme MRZ-stab. Une normalisation de ses vecteurs de direction nous a permis la mise en oeuvre d'un algorithme qui évite les situations de dépassement de capacité qui sont très fréquents dans l'algorithme MRZstab. Une adaptation de l'algorithme obtenu au cas symétrique non-défini positif est proposée. A la fin de cette thèse, pour la résolution des systèmes linéaires avec plusieurs seconds membres, nous avons Proposé une nouvelle approche basée sur une projection oblique par rapport aux Sous-espaces de Krylov matriciels qui nous a permis de développer le processus de Lanczos global, ainsi que les méthodes de type-Lanczos globales. Enfin, nous avons proposé des versions avec look-ahead de certaines méthodes de type-Lanczos globales.
APA, Harvard, Vancouver, ISO, and other styles
35

Toussaint, Maxime. "Reconstruction multidimensionnelle de type mouvement cyclique en tomographie d'émission par positions: revue et nouvelle approche." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6903.

Full text
Abstract:
La tomographie d’émission par positrons (TEP) est un outil qui permet, grâce à l’injection d’une dose de radiotraceur, de diagnostiquer et caractériser différents problèmes de santé, dont le cancer et les pathologies cardiaques. Pour exploiter cette modalité de l’imagerie médicale à son plein potentiel, plusieurs éléments, dont chacun comporte son lot de défis, doivent être réunis. La conversion des données fournies par la caméra TEP en une image interprétable par un spécialiste, dénommé la reconstruction TEP, est un sous-problème particulièrement intéressant. Ce problème a déjà été abordé à maintes reprises dans la littérature, et ce, dans plusieurs contextes différents. Parmi ceux-ci, la reconstruction d’une acquisition où le sujet, ou une partie de ce dernier, est en mouvement engendre, à cause des caractéristiques inhérentes de cette modalité, des données contaminées par ce même mouvement. Cette contamination peut, si elle n’est pas prise en compte, modifier l’image reconstruite et en fausser l’interprétation. Plusieurs méthodes ont été développées pour atténuer, voire éradiquer, la contamination de l’image reconstruite. Parmi celles-ci, il existe une sous- famille de méthodes spécialement conçues pour s’attaquer aux biais induits par des mouvements cycliques. En effet, les mouvements de type cyclique, i.e. le mouvement cardiaque ou respiratoire, possèdent une propriété particulière qui peut, moyennant certaines hypothèses, être exploitée dans la phase de reconstruction. Différentes approches ont été présentées dans la littérature pour exploiter cette particularité et chacune d’entre-elles offre son lot d’avantages et d’inconvénients. Afin d’obtenir des images de qualité semblable à celle obtenue à partir d’un sujet immobile, toutes ces approches nécessitent d’augmenter la dose de radiotraceur injectée dans le sujet. Cette augmentation sera dénommé le facteur de compensation de dose. L’objectif de cette maîtrise est d’étudier ces approches afin de diminuer le facteur de compensation de dose. Pour y parvenir, un compte-rendu sur l’état de l’art de cette problématique sera présenté. Ce compte-rendu est divisé en trois volets : une étude des propriétés théoriques de chacune de ces approches, une comparaison numérique de leurs performances et une revue des lacunes qui persistent dans ce domaine. L’analyse des propriétés théoriques a débouché sur la création d’une nouvelle variante d’une des approches. L’introduction de cette nouvelle méthode, dont la résolution est explicitée, permet d’établir des parallèles théoriques avec l’approche originelle. La comparaison, en terme de vitesse de convergence, de ces variantes semble indiquer que le nouveau modèle offre un gain en vitesse de reconstruction, et ce, sans perte de qualité. La caractérisation des modèles représentant chaque approche, résultant de leur analyse théorique, a permis de motiver l’utilisation de solveurs généraux. Une méthodologie a été développée pour effectuer la comparaison numérique des per-formances. Les résultats des tests de performance permettent de déceler une lacune commune à certaines approches. Une hypothèse sur la source de cet inconvénient de même que quelques arguments la soutenant sont formulés.
APA, Harvard, Vancouver, ISO, and other styles
36

Rafhay, Quentin. "Modélisation des MOSFET nanométrique de type n aux matériaux de canal alternatifs dans le régime totalement ou quasi balistique." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0167.

Full text
Abstract:
La réduction des dimensions des transistors MOS, brique de base des circuits intégrés, ne permet plus d'augmenter efficacement leurs performances. Une des solutions envisagées actuellement consiste à remplacer le silicium par d'autres semi-conducteurs à haute mobilité (Ge, III-V) comme matériau de canal. A partir de modèles analytiques originaux, calibrés sur des simulations avancées (quantique, Monte Carlo), cette thèse démontre que, à des dimensions nanométriques, les performances attendues de ces nouvelles technologies sont en fait inférieures à celles des composants silicium conventionnels. En effet, les phénomènes quantiques (confinement, fuites tunnel) pénaliseraient davantage les dispositifs à matériaux de canal alternatifs
MOSFET scaling, building block of integrated circuits, do not allow to improve significantly the device performance anymore. One presently studied solution consists in substituting silicon for high mobility semiconductors (Ge or III-Vs) as channel material. Based on original analytical models, calibrated on advanced simulations (quantum, Monte Carlo), this thesis demonstrate that at nanometric scale, the performances expected from this new technologies are in fact lower than the one of conventional silicon devices. Quantum effects (confinement, tunnelling leakage) have been indeed found to be more penalizing in the case of alternative channel material transistors
APA, Harvard, Vancouver, ISO, and other styles
37

Charbonnel, Pierre. "Projets d'écoles, projets de classe ? : conséquences sociologiques d'une réforme de type volontariste dans un contexte ambigu." Paris 5, 1997. http://www.theses.fr/1997PA05H009.

Full text
Abstract:
La loi d'orientation de juillet 1989 étend au premier degré les projets d'établissements. Aussi, à partir de septembre 1991, l'ensemble des projets d'écoles, documents contractuels pluriannuels destinés à appliquer localement les curricula définis nationalement, constituent-ils la mise en oeuvre de la politique éducative de la France au niveau de ce segment. Or, tout cela intervient dans un contexte pédagogique parfaitement adapté à la sélection de l'élite républicaine, mais incapable en revanche de gérer l'hétérogénéité d'élèves dont chacun est désormais placé "au centre du systeme éducatif". S'ensuit un profond désarroi de la majorité des maitres du premier degré, qui n'avaient pas été préparés - et tardent à l'être - à l'indispensable mutation professionnelle. Dans ces conditions, les projets d'écoles allaient-ils produire les effets qu'on en attendait ? Plus simplement, allaient-ils être neutres ? Au terme de cette enquête, et après comparaison sur quatre ans des performances d'un échantillon d'élèves répartis sur quatre secteurs de collèges, il apparaît qu'aucun des projets d'écoles concernés ne débouche sur un processus de démocratisation généralisée. Qu'il s'agisse de leurs effets généraux, ou de certaines de leurs actions spécifiques, ils ne parviennent qu'à accentuer la relégation des élèves les plus démunis des trois formes de capital, et en particulier de la forme culturelle. Les catégories sociales "moyennes" bénéficient bien, parfois, au cycle 2, de leurs effets, mais à la fin du cursus élémentaire, la hiérarchisation classique se reconstitue, assortie même dans la plupart des cas, d'un bénéfice accru pour les catégories "supérieures". On en conclut que l'école, mal équiéee pour répondre à sa nouvelle mission, reproduit les rapports de dominance, tout en façonnant l'espace social prévu - ou requis - en fonction d'enjeux économiques.
APA, Harvard, Vancouver, ISO, and other styles
38

Atouf, Mohsen. "Etude du comportement mécanique des dentures de courroies synchrones : Application aux courroies de type HTD." Lyon, INSA, 1992. http://www.theses.fr/1992ISAL0063.

Full text
Abstract:
Ce travail a pour but d'étudier le comportement mécanique des dentures de courroies synchrones. En effet, du coté global, on cherche à connaître et comprendre la distribution des déplacements le long d'un arc de contact d'une courroie avec une poulie, évaluer la rigidité d'une dent et comparer les résultats obtenus avec les résultats issus des modèles. N•un coté local on cherche à connaître la manière de transmettre les efforts entre une dent de la courroie et une dent de la poulie et suivre l'évolution des efforts sur plusieurs dents afin de mieux spécifier les modèles. Pour l'évaluation des déplacements globaux, la méthode de photographie speckle a été utilisée et le montage optique a été adapté à un dispositif d'utilisation des courroies. Les résultats obtenus montrent une bonne répétitivité des essais, une bonne continuité de la distribution des délacements ainsi qu'une concordance avec les résultats de modélisation. En ce qui concerne l'étude locale, la méthode du speckle vidéo( ESPI) a été utilisée vu sa faible sensibilité. Les champs de déplacements ont été obtenus grâce à la bonne reproductibilité et la visibilité suffisante des franges. Ensuite, la répartition des déformations et des contraintes ont été déterminées. Des calculs numériques ont permis de représenter ces répartitions et ainsi une première compréhension des mécanismes de transmissions des efforts est avancée
The objective of this work is to study the mechanical behaviour of timing belt teeth. Two scales of study has been defined. For a global study the purpose is to determine and understand the distributions of displacement along contact arc of the timing belt with the pulley in order to evaluate rigidity of the timing belt tooth and compare experimental results with nnmerical results, while for local study the purpose is to know the efforts transmission between the timing belt teeth and of the pulley teeth. For a global displacements measurements the Speckle Photography has been adapted to mechanical belt loading device. The result show a good repetition of tests and a good continuity of displacements distribution. The experimental result permit to confirm numerical modelling for local study the Speckle Pattern Interferometry (ESPI) has been used. The displacements patterns has been obtained. Good reproducibility and fringes continuity insure sufficient confidence for deformation strain patterns. Numerical programs gives then strain distributions mechanism has been advanced
APA, Harvard, Vancouver, ISO, and other styles
39

Nemitz, N. "Méthode multipôle rapide et sensibilité topologique pour l'identification approchée de défauts à partir de données de type acoustique." Phd thesis, Ecole Polytechnique X, 2006. http://tel.archives-ouvertes.fr/tel-00120202.

Full text
Abstract:
Contexte.
Le but de ce travail est de proposer une contribution au traitement numérique de la detection d'obstacles rigides dans des domaines acoustiques tridimensionnels bornés dont la taille est grande relativement à la longueur d'onde. Ce contexte peut être considéré comme un problème modèle, représentatif de situations physiquement plus complexes associées au contrôle non destructif, et relevant pour ses aspects théoriques de la diffraction inverse. Le contexte de la diffraction inverse présente de nombreuses difficultés sur le plan des méthodes numériques, et une grande partie des références traitant de ce type d'inversion se placent dans l'hypothèse d'un milieu infini. Celle-ci est plus pertinente pour des applications en électromagnétisme, telles que la furtivité radar, que pour l'identification de défauts dans des structures.


Nous nous plaçons donc dans le cadre classique de l'acoustique linéaire avec un domaine éclairé par des sources monochromatiques. Par ailleurs, on part du principe, également classique, de poser le problème d'inversion (identification de la position et la taille des obstacles) en termes de l'optimisation d'une fonction coût. La procédure alors employée est itérative, elle consiste à résoudre le problème direct pour des obstacles hypothétiques d'essais. Vu le coût de résolution d'un problème direct, cette approche préfère en général les algorithmes utilisant le gradient que les approches type évolutionnaire.


1 -- Résolution du problème acoustique direct par la méthode multipôle rapide. Le premier aspect sur lequel ce travail s'est penché porte sur l'accélération du problème direct (calcul du champ acoustique pour une configuration donnée d'obstacle), indispensable pour évaluer la fonction-coût du problème inverse. Plusieurs méthodes numériques existent pour cela, chacune ayant des avantages et des inconvénients ; on citera les éléments finis, les différences finies et les éléments de frontière. La méthode des éléments de frontière, qui nécessite uniquement le maillage de la frontière du domaine, est bien adaptée à la résoution du problème inverse, le remaillage nécessité par un changement de configuration d'obstacle étant très simple. L'équation intégrale conduit à un système linéaire dont la matrice est pleine et complexe, ce qui limite sévèrement (besoin mémoire O(N2) et temps de calcul O(N3)) la taille numérique (nombre N d'inconnues nodales sur les éléments de frontière) des problèmes si un solveur direct est employé. Pour traiter les calculs de grande taille occasionnés par le contexte 3D, on est ainsi amené à faire appel à un solveur itératif, qui ne demande pas le stockage de la matrice. La rapidité de résolution dépend alors essentiellement de celle du calcul d'un produit matrice-vecteur. Cette opération est a priori de complexité O(N2), rédhibitoire pour les cas de grande taille (domaine grand devant la longueur d'onde). La Fast Multipole Method (FMM), initialement proposée par Greengard et Rohklin vers 1985 et depuis étendue aux formulations intégrales de nombreux problèmes de la physique, permet d'accélérer cette phase cruciale du calcul et réduire la complexité d'un produit matrice-vecteur à O(NlogN) en dynamique.


La mise en oeuvre de la FMM pour l'acoustique linéaire en 3D est ainsi l'une des composantes importantes de ce travail. Elle s'appuie sur des études récentes (en particulier thèse Sylvand, ENPC, 2002; articles E. Darve, 2000s) effectuées dans le cadre de la résolution numérique des équations de Maxwell. Le code issu de ce travail de thèse vérifie en particulier la complexité O(NlogN) théorique, et a été validé sur des solutions exactes de l'acoustique 3D.


2 -- Méthode d'identification approchée d'obstacles par sensibilité topologique. Le second point étudié porte sur l'initialisation des algorithmes d'inversion utilisant la minimisation de la fonction coût. Les algorithmes globaux (par exemple de type évolutionnaire) ne sont pas réalistes en raison du très grand nombre de simulations directes nécessaires. Les algorithmes plus classiques utilisant le gradient dépendent des choix initiaux (position, taille, forme, nombre) sur les obstacles à identifier et peuvent ne pas converger pour des choix inadéquats. Des travaux récents (Bonnet et Guzina, 2005, entre autres) ont montré que le calcul du champ de sensibilité topologique associé à la fonction coût du problème inverse (une notion initialement proposée vers 1995 pour l'optimisation topologique des structures) permet d'obtenir de bonnes informations qualitatives sur la localisation d'obstacles à identifier. Le champ de sensibilité topologique, donnant le comportement asymptotique de la fonction-coût sous l'effet de l'apparition d'un obstacle de taille infinitésimale en un point spécifié du milieu, s'exprime comme une combinaison du champ direct et du champ adjoint associé à la fonction-coût, tous deux définis en l'absence d'obstacle. Le calcul de ce champ de sensibilité repose ainsi sur l'évaluation des formules de représentation intégrale donnant les champs direct et adjoint aux points d'une grille d'échantillonnage de la région 3D dans laquelle on cherche à identifier un défaut. Ce calcul, également coûteux a priori (O(NM) pour O(N) DDLs sur la frontière et
O(M) points d'échantillonnage), est lui aussi considérablement accéléré par l'emploi de la FMM. La FMM constitue donc au total une approche numérique bien adaptée à cette méthode d'exploration globale approchée reposant sur la sensibilité topologique. Le calcul FMM du champ de sensibilité topologique a été mis en oeuvre, et son intérêt testé sur des exemples synthétiques d'inversion. En particulier, pour une fonction-coût de type moindres carrés, la sensibilité topologique dépend linéairement des erreurs de mesure, et son calcul est donc moins sensible à ces erreurs que d'autres méthodes d'inversion.


Ce travail débouche donc sur une méthode approchée et rapide, utilisant les deux aspects présentés, qui donne des indications sur le nombre d'obstacles et leurs positions dans le domaine.
APA, Harvard, Vancouver, ISO, and other styles
40

Loubère, Raphaël. "Une méthode particulaire lagrangienne de type Galerkin discontinu : Application à la mécanique des fluides et l'interaction laser/plasma." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12568.

Full text
Abstract:
Une méthode lagrangienne de type Galerkin Discontinu est développée dans ce travail pour le système de la dynamique des gaz en maillage non structuré. La méthode numérique suppose que les données sont discontinues par maille. La base des polynômes de Bernstein est utilisée comme base de décomposition. Une méthode de régularisation des distributions préservant la positivité a été construite. Le calcul des termes de flux est conservatif et assure la positivité en ajoutant de la diffusion numérique. A l'interface des mailles, les sauts des variables physiques font apparaître des masses de Dirac réparties de part et d'autre avec solveur de Riemann acoustique sur les moments. Le schéma numérique est stabilisé par une gestion du pas de temps ainsi que par un limiteur ne corrigeant que les zones de compression. Une méthode de remaillage projette tout information sur une population de particules. Ce remaillage est conservatif et sa précision est adaptée à la précision du schéma. La méthode est adaptée au cas particulier de la physique de l'interaction laser/plasma à l'aide de termes sources.
APA, Harvard, Vancouver, ISO, and other styles
41

Feidt, Alain. "Quelques résultats sur une méthode numérique de résolution du type Euler-Lagrange, pour les équations de Navier-Stokes." Lille 1, 1990. http://www.theses.fr/1990LIL10169.

Full text
Abstract:
Dans la perspective de pouvoir modéliser des écoulements de fluides dans des éléments de machines, on présente l'écriture d'un code de résolution des équations de la mécanique des fluides pour un fluide incompressible visqueux en écoulement isotherme bidimensionnel. Après avoir décrit les équations traitées, on les discrétise. La discrétisation temporelle est du type différences finies et utilise une formulation Lagrange-Euler. La discrétisation spatiale est du type éléments finis. Deux cas de conditions aux limites sont considérés : vitesse imposée, pression imposée. Des cas tests, tant en laminaire qu'en turbulent sont étudiés : écoulement dans un canal, écoulement sur une marche descendante. Deux types de modèle de turbulence sont utilisés : algébrique (longueur de mélange) et k-epsilon. Enfin, une modélisation d'une configuration industrielle à géométrie complexe, « té » avec paroi défilante et écoulement turbulent, est réalisée en utilisant le modèle de turbulence algébrique. Les résultats de calcul et les résultats expérimentaux (répartition de débit, pertes de pression) sont en très bon accord. En conclusion, le code de calcul écrit et mis en oeuvre permet, comme cela avait été initialement souhaité, de modéliser des écoulements dans des situations très diverses.
APA, Harvard, Vancouver, ISO, and other styles
42

Portelenelle, Brice. "La méthode LS-STAG avec schémas diamants pour l'approximation de la diffusion : une méthode de type "cut-cell" précise et efficace pour les écoulements incompressibles en géométries 3D complexes." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0136/document.

Full text
Abstract:
La méthode LS-STAG est une méthode cartésienne pour le calcul d’écoulements incompressibles en géométries complexes, qui propose une discrétisation précise des équations de Navier-Stokes dans les cut-cells, cellules polyédriques de forme complexe créées par l’intersection du maillage cartésien avec la frontière du solide immergé. Originalement développée pour les géométries 2D, son extension aux géométries 3D se heurte au défi posé par le grand nombre de types de cut-cells (108) à considérer. Récemment, la méthode LS-STAG a été étendue aux géométries complexes 3D dont la frontière est parallèle à l’un des axes du repère cartésien, où sont uniquement présentes les contreparties extrudées des cut-cells 2D. Cette étude a notamment souligné deux points à élucider pour le développement d’une méthode totalement 3D : premièrement, le calcul des flux diffusifs par un simple schéma à deux points s’est révélé insuffisamment précis dans les cut-cells 3D-extrudées du fait de la non orthogonalité. Ensuite, l’implémentation de ces flux à la paroi, qui s’effectue en imposant une discrétisation distincte pour chaque type de cut-cell extrudée, se révèle trop complexe pour être étendue avec succès aux nombreux types supplémentaires de cut-cells 3D, et doit être simplifiée et rationalisée. Dans cette thèse, le premier point est résolu en utilisant l’outil des schémas diamants, d’abord étudié en 2D pour l’équation de la chaleur puis les équations de Navier-Stokes dans l’approximation de Boussinesq, puis étendu en 3D. En outre, les schémas diamants ont permis de revisiter intégralement la discrétisation du tenseur des contraintes des équations de Navier-Stokes, où disparaît le traitement au cas par cas selon la disposition de la frontière solide dans les cut-cells. Cela a permis d’aboutir à une discrétisation systématique, précise et algorithmiquement efficace pour les écoulements en géométries totalement 3D. La validation numérique de la méthode LS-STAG avec schémas diamants est présentée pour une série de cas tests en géométries complexes 2D et 3D. Sa précision est d’abord évaluée par comparaison avec des solutions analytiques en 2D, puis en 3D par la simulation d’un écoulement de Stokes entre deux sphères concentriques. La robustesse de la méthode est notamment mise en évidence par l’étude d’écoulements autour d’une sphère en rotation, dans les régimes laminaires (stationnaire et instationnaire), ainsi que pour un régime faiblement turbulent
The LS-STAG method is a cartesian method for the computations of incompressible flows in complex geometries, which consists in an accurate discretisation of the Navier-Stokes equations in cut-cells, polyhedral cells with complex shape made by the intersection of cartesian mesh and the immersed boundary. Originally developed for 2D geometries, where only three types of generic cut-cells appear, its extension to 3D geometries has to deal with the large amount of cut-cells types (108). Recently, the LS-STAG method had been extended to 3D complex geometries whose boundary is parallel to an axis of the cartesian coordinate system, where there are only the extruded counterparts of 2D cut-cells. This study highlighted two points to deal with in order to develop a totally 3D method: firstly, the computation of diffusive fluxes by a simple 2-points scheme has shown to be insufficiently accurate in 3D-extruded cut-cells due to the non-orthogonality. In addition to that, implementation of these fluxes on the immersed boundary, which is done with a case by case discretisation according to the type of the cut-cells, appears to be too difficult for its successful extension to the several extra types of 3D cut-cells, and needs to be simplified and rationalized. In this thesis, the first point is solved by using the diamond scheme tool, firstly studied in 2D for the heat equation then for the Navier-Stokes equations in Boussinesq approximation, and finally extended to 3D. Moreover, the diamond schemes have been used to fully revisit the discretisation of shear stresses from Navier-Stokes equations, where the case by case procedure is removed. These modifications have permitted to come up with a systematic discretisation that is accurate and algorithmically efficient for flows in totally 3D geometries. The numerical validation of the LS-STAG method with diamond schemes is presented for a series of test cases in 2D and 3D complex geometries. The precision is firstly assessed by comparison with analytical solutions in 2D, then in 3D by the simulation of Stokes flow between two concentric spheres. The robustess of the method is highlighted by the simulations of flows past a rotating sphere, in laminar modes (steady and unsteady), as well as in a weakly turbulent mode
APA, Harvard, Vancouver, ISO, and other styles
43

Le, Gall Yves. "Etude et optimisation d'un transducteur de type Janus-Helmholtz en vue d'applications en tomographie acoustique des océans." Le Mans, 1994. http://www.theses.fr/1994LEMA1013.

Full text
Abstract:
L'oceanographie acoustique et plus particulierement la tomographie acoustique (mesure du comportement dynamique de l'ocean) reclame des transducteurs basse frequence, a rendement eleve, large bande et capables d'operer a de grandes immersions. L'objectif de ce travail est d'optimiser en termes de frequence et d'immersion le transducteur de type janus-helmholtz pour ces besoins ocenographiques. La modelisation de cette source acoustique, necessaire avant d'envisager son optimisation a ete effectuee a l'aide de deux techniques: la methode des elements finis et les analogies electromecaniques. Ces deux outils complementaires ont permis d'elaborer une methodologie de conception des transducteurs janus-helmoholtz: predimensionnement rapide a l'aide d'un schema electrique equivalent et affinement des resultats par utilisation du code de calculs par elements finis atila. La validation des deux modeles a permis par la suite de fournir une nouvelle interpretation du fonctionnement du janus-helmholtz. Plusieurs versions tres basse frequence ont ensuite ete simulees (400, 300 et 200 hz) et les resultats theoriques ont ete confirmes par la mesure en lac de diverses maquettes. Le delicat probleme de la resistance aux fortes pressions hydrostatiques a egalement ete resolu et une solution apte a supporter une immersion illimitee est presentee (modelisation et mesure). En conclusion, un janus-helmholtz optimise en termes de frequence, de niveau d'emission, d'immersion et de masse est propose pour la tomographie acoustique oceanique
APA, Harvard, Vancouver, ISO, and other styles
44

Marriere, Nicolas. "Cryptanalyse de chiffrements par blocs avec la méthode des variances." Thesis, Cergy-Pontoise, 2017. http://www.theses.fr/2017CERG0922/document.

Full text
Abstract:
La première partie de la thèse porte sur l'utilisation de la méthode des variances dans le cadre des attaques différentielles sur des schémas de Feistel généralisés. Cette méthode permet d'améliorer des attaques sur deux points : la complexité en données ou le nombre de tours couvert par l'attaque.Afin d'atteindre ce but, un outil a été développé permettant de calculer la valeur exacte de l'espérance et de la variance et nous nous servons alors de cette précision pour améliorer les attaques.La seconde partie porte sur une famille de schémas de chiffrement : les EGFN.Nous avons utilisé la méthode des variances et notre outil afin de construire des attaques différentielles. Des simulations ont été effectuées afin de confirmer les résultats.Dans la dernière partie, nous nous intéressons à LILLIPUT, un système de chiffrement concret issu des EGFN. Nous avons effectué une analyse différentielle et monté des attaques avec une structure spécifique.Ces attaques sont trouvées par un programme cherchant des attaques automatiquement. Nous avons notamment mis en avant la possibilité d'études sur les attaques différentielles improbables
The first part of the thesis is the cryptanalysis of generalized Feistel networks with the use of the variance method.This method allows to improve existing attacks by two ways: data complexity or the number of rounds. In order to do that, we have developed a tool which computes the right values of expectations and variances.It provides a better analysis of the attacks.In the second part, we have studied the EGFN a new family of generalized Feistel networks. We have used the variance method and our tool in order to build some differential attacks. Simulations were made to confirm the theoritical study.In the last part, we have studied LILLIPUT, a concret cipher based on the EGFN.We have provided a differential analysis and build differential attacks which have unusual conditions. These attacks were found empirically by a tool that automatically look for differential attacks. In particular, we have highlighted some improbable differential attacks
APA, Harvard, Vancouver, ISO, and other styles
45

Sokol, Sergueï. "Approche multi-échelle pour appariement d'images par modèles élastiques." Toulouse, ENSAE, 1997. http://www.theses.fr/1997ESAE0020.

Full text
Abstract:
Dans ce travail, le problème de l'appariement d'images dense ou "pixel par pixel" est formulé en termes de minimisation de fonctionnelles issues de différents modèles élastiques imposés a priori. Les méthodes numériques utilisées ici pour résoudre le problème de minimisation sont les itérations de Gauss-Seidel avec la numérotation rouge-noir et un algorithme de minimisation de Newton inexacte. Ce dernier nécessite une méthode itérative pour résoudre de façon approchée les systèmes d'équations linéaires à chaque pas d'algorithme. Une méthode originale de type multi-grille a été développée à ces fins. L'originalité de la méthode consiste dans l'utilisation d'opérateurs de prolongation spécieux dits sous-optimaux. Les théorèmes de convergence sont prouvés pour la méthode de Newton inexacte aussi bien pour le problème de minimisation que pour le problème de résolution de système d'équations non linéaires. Une particularité des problèmes considérés est un très grand nombre d'inconnues (plus de 50. 000). Ce qui rend l'utilisation d'approches multi-résolution et multi-échelle presque inévitable. La méthode de minimisation de Newton inexacte étudiée ici a le caractère général et peut être appliquée pour la résolution d'autres types de problème, par exemple pour la restauration d'images. Un exemple allant dans ce sens est donné parmi d'autres applications pratiques de l'algorithme.
APA, Harvard, Vancouver, ISO, and other styles
46

Lemaire, Michaël. "Caractérisation de structures du type couche sur substrat par ultrasons-lasers." Valenciennes, 2008. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/513b930e-e6c1-459e-8b94-2fa873deb448.

Full text
Abstract:
L’utilisation croissante des structures du type couche sur substrat dans des domaines tels que l’électronique, la microélectronique ou l’optique rend indispensable le contrôle des différentes propriétés physiques de celles-ci. La caractérisation des propriétés élastiques et la détermination de l’épaisseur de la couche peuvent être réalisées de manière non destructive par ultrasons. Plus particulièrement, les sources laser permettent de générer et de détecter différentes ondes acoustiques dont l’onde de Rayleigh. La technique laser-ultrasons présente l’avantage de ne pas nécessiter de contact avec la structure à inspecter contrairement aux méthodes ultrasonores dites « classiques ». Dans des structures du type couche sur substrat, l’onde de Rayleigh est perturbée par la présence de la couche et devient dispersive. Différents modes de propagation appelés modes de Rayleigh peuvent alors être étudiés. Le but de ce travail a été de contribuer à la caractérisation de structures du type couche sur substrat. Un modèle de simulation par éléments finis a aussi été développé afin de prédire la propagation du premier mode de Rayleigh. Les résultats expérimentaux sont obtenus par deux méthodes laser complémentaires permettant des mesures sur une plage fréquentielle comprise entre 5 MHz et 200 MHz. La dispersion du premier mode de Rayleigh est analysée afin de déterminer les épaisseurs et les constantes élastiques des couches considérées
The increasing use of surface coatings in fields such as electronic, microelectronic or optic makes the evaluation of their physical properties necessary. For the characterisation of elastic parameters and the thickness determination, the non-destructive ultrasonic testing can be used. More particularly, laser can generate and detect acoustic waves among which Rayleigh waves. The laser-ultrasound technique has the advantage of not requiring contact with the sample to inspect contrary to the conventional piezoelectric methods. In the coated structures, the Rayleigh wave is denatured by the layer and becomes dispersive. Several modes of propagation called Rayleigh modes can be studies. The purpose of this work was to help characterize these structures. A finite element method has been developed too in order to predict the propagation of the first Rayleigh mode. Results obtained by two complementary methods allowing a non-contact measurement in a large bandwidth (frm 5 MHz to 200 MHz) are presented, and the dispersion of the Rayleigh wave propagation velocity is analyzed to determine the thickness and elastic parameters of the considerated layers
APA, Harvard, Vancouver, ISO, and other styles
47

Amblard, Anne. "Contribution à l'étude du comportement d'une endoprothèse aortique abdominale : analyse des endofuites de type I." Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0088/these.pdf.

Full text
Abstract:
L’anévrisme de l’aorte abdominale est une maladie cardiovasculaire touchant 6 à 7% de la population occidentale. Les principales complications signalées après une procédure endovasculaire sont les endofuites (passage du sang entre la prothèse et la paroi de l’artère). Un modèle éléments finis représentant le système complet aorte/endoprothèse/athérome a été conçu dans le but d’aider au choix de la meilleure endoprothèse. Ce modèle est soumis à la pression artérielle et aux contraintes induites par l’écoulement du sang avec un couplage fluide/structure. Il prend en compte le comportement viscoélastique de l’aorte. Le code de calcul Plast2 est utilisé afin de visualiser l’évolution des contacts entre les structures. Le sang étant un fluide non newtonien, il est apparu nécessaire d’utiliser un modèle tenant compte de l’analyse microstructurale. Nous nous sommes intéressés aux modèles issus de la rhéologie des solutions de polymère et plus particulièrement au modèle de Phan-Thien et Tanner. Outre les contraintes tangentielles, ce modèle permet d’obtenir les différences de contraintes normales générées sur les parois de l’artère
Abdominal aortic aneurysm disease is a degenerative process whose ultimate event is the rupture of the vessel wall. The endovascular approach suffers from problems such as endoleaks. We develop a non-invasive methodology to observe the contact between the endoprosthesis and the aorta wall. On the one hand, this study provides an evaluation of the stresses generated by the blood flow. As blood is a non-Newtonian fluid, we use the Phan-Thien and Tanner model, resulting from the polymer rheology. The application of this model gives the parietal shear stress and the first normal stress difference. On the other hand, we develop an axisymmetric finite-element model of the complete system. This model takes into account the viscoelastic behaviour of the aorta. Plast2, an explicit dynamic finite element code, is used to simulate the behavior of the system. The system is subject to hydrostatic pressure and to the stresses generated by the blood flow. A coupled fluid-structure interaction is achieved
APA, Harvard, Vancouver, ISO, and other styles
48

Amdouni, Saber. "Numerical analysis of some saddle point formulation with X-FEM type approximation on cracked or fictitious domains." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0007/document.

Full text
Abstract:
Ce mémoire de thèse à été réalisée dans le cadre d'une collaboration scientifique avec "La Manufacture Française des Pneumatiques Michelin". Il porte sur l'analyse mathématique et numérique de la convergence et de la stabilité de formulations mixtes ou hybrides de problèmes d'optimisation sous contrainte avec la méthode des multiplicateurs de Lagrange et dans le cadre de la méthode éléments finis étendus (XFEM). Tout d'abord, nous essayons de démontrer la stabilité de la discrétisation X-FEM pour le problème d'élasticité linéaire incompressible en statique. Le deuxième axe, qui représente le contenu principal de la thèse est dédié à l'étude de certaines méthodes de multiplicateur de Lagrange stabilisées. La particularité de ces méthodes est que la stabilité du multiplicateur est assurée par l'ajout de termes supplémentaires dans la formulation faible. Dans ce contexte, nous commençons par l'étude de la méthode de stabilisation de Barbosa-Hughes appliquée au problème de contact unilatéral sans frottement avec XFEM cut-off. Ensuite, nous construisons une nouvelle méthode basée sur des techniques de projections locales pour stabiliser un problème de Dirichlet dans le cadre de X-FEM et une approche de type domaine fictif. Nous faisons aussi une étude comparative entre la stabilisation avec la technique de projection locale et la stabilisation de Barbosa-Hughes. Enfin, nous appliquons cette nouvelle méthode de stabilisation aux problèmes de contact unilatéral en élastostatique avec frottement de Tresca dans le cadre de X-FEM
This Ph.D. thesis was done in collaboration with "La Manufacture Française des Pneumatiques Michelin". It concerns the mathematical and numerical analysis of convergence and stability of mixed or hybrid formulation of constrained optimization problem with Lagrange multiplier method in the framework of the eXtended Finite Element Method (XFEM). First we try to prove the stability of the X-FEM discretization for incompressible elastostatic problem by ensured a LBB condition. The second axis, which present the main content of the thesis, is dedicated to the use of some stabilized Lagrange multiplier methods. The particularity of these stabilized methods is that the stability of the multiplier is provided by adding supplementary terms in the weak formulation. In this context, we study the Barbosa-Hughes stabilization technique applied to the frictionless unilateral contact problem with XFEM-cut-off. Then we present a new consistent method based on local projections for the stabilization of a Dirichlet condition in the framework of extended finite element method with a fictitious domain approach. Moreover we make comparative study between the local projection stabilization and the Barbosa-Hughes stabilization. Finally we use the local projection stabilization to approximate the two-dimensional linear elastostatics unilateral contact problem with Tresca frictional in the framework of the eXtended Finite Element Method X-FEM
APA, Harvard, Vancouver, ISO, and other styles
49

Marilier, Nicolas. "Détermination par thermographie infrarouge d'un défaut du type rainure situé en face arrière d'un échantillon traité par méthode flash." Poitiers, 1994. http://www.theses.fr/1994POIT2256.

Full text
Abstract:
En vue du controle non destructif par thermographie infrarouge de plaques metalliques comportant un defaut de type rainure sur l'une de leurs faces, on modelise les transferts thermiques transitoires dans des echantillons plans. La caracterisation de la geometrie bidimensionnelle du defaut se deduit de l'etude de la perturbation qu'il induit dans l'evolution du champ de temperature causee par l'application sur la face opposee a celle comportant le defaut, d'un creneau de flux. Cette caracterisation conduit a des correlations entre d'une part les donnees geometriques de la rainure et les proprietes physiques du materiau, et d'autre part des valeurs definies a partir de points remarquables de l'evolution des temperatures surfaciques. Une etude de sensibilite et de faisabilite montre la difficulte experimentale de la detection
APA, Harvard, Vancouver, ISO, and other styles
50

Bernacki, Marc. "Méthodes de type Galerkin discontinu pour la propagation des ondes en aéroacoustique." Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001518.

Full text
Abstract:
On s'est intéressé dans ce travail à la résolution numérique des équations d'Euler linéarisées autour d'un écoulement stationnaire, subsonique et assez régulier. Dans le but d'obtenir des matrices symétriques dans ces équations, et in fine, une équation d'équilibre énergétique, nous considérons la linéarisation d'une forme symétrique des équations d'Euler tridimensionnelles. Nous proposons un schéma non-diffusif de type Galerkin discontinu en domaine temporel (GDDT) s'appuyant sur une formulation centrée-élément avec des ux numériques totalement centrés et un schéma en temps explicite de type saute-mouton, ce qui permet d'obtenir une approximation sans dissipation et fournit une estimation précise des variations de l'énergie aéroacoustique. En effet, dans le cas général de la linéarisation autour d'un écoulement non-uniforme, il existe une équation d'équilibre énergétique au niveau continu que nous vérifions au niveau discret. Nous montrons qu'il existe un terme source discret permettant de conserver exactement l'énergie ce qui permet de prouver la stabilité de notre schéma. Ainsi, notre schéma non-diffusif de type GDDT fournit un outil précis pour contrôler des phénomènes tel que les instabilités de Kelvin-Helmholtz. Nous illustrons la capacité de notre méthode aussi bien sur plusieurs cas tests académiques que sur différentes configurations complexes grâce à une implémentation parallèle.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography