To see the other types of publications on this topic, follow the link: Méthode de base réduite.

Dissertations / Theses on the topic 'Méthode de base réduite'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode de base réduite.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Veys, Stéphane. "Un Framework de calcul pour la méthode des bases réduites : applications à des problèmes non-linéaire multi-physiques." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM069/document.

Full text
Abstract:
Aujourd'hui, dans de nombreux champs d'applications, de plus en plus de problèmes d'ingénierie demandent d'avoir une évaluation précise et efficace de quantités d'intérêt.Très souvent, ces quantités dépendent de la solution d'une équation aux dérivées partielles (EDP) paramétrée où les paramètres -- physiques ou géométriques -- sont les entrées du modèle et les quantités d'intérêt -- valeurs moyennes -- en sont les sorties.Les techniques de réduction d'ordre, notamment la méthode des bases réduites qui est la méthode utilisée tout au long de ces travaux,permettent de répondre à ces demandes.Dans cette thèse nous nous intéressons à la mise en place d'un framework en C++, supportant le calcul parallèle, permettant d'appliquer la méthode des bases réduites à des problèmes multi-physiques non-linéaires tels queles problèmes de convection naturelle (couplage fluide-thermique), ou encore la modélisation d'aimants de type résistifs à hauts champs (nous nous limitons au couplage thermo-electrique) aboutissant à une étude sur la quantification d'incertitude.La méthode des bases réduites s'appuie naturellement sur une approximation obtenue via la discrétisation élément fini du problème à traiter. Pour cela nous utilisons la librairie de calcul Feel++, spécialisée dans la résolution d'EDPs.Nous nous intéressons également aux problèmes de type multi-échelles.La particularité de ces problèmes est de manipuler un ensemble de phénomènes mettant en jeu des échelles différentes, comme c'est le cas par exemple lorsque nous considérons un écoulement en milieu poreux.La méthode des éléments finis multi-échelles permet d'avoir le comportement "global", associé aux grandes échelles, de la solution du problème sans devoir le résoudre sur les petites échelles.Nous proposons une nouvelle construction des fonctions de base élément fini multi-échelles basée sur la méthode des bases réduites
Today, in many fields of applications, more and more engineering problems require to have an accurate and efficient evaluation of quantities of interest.Often, these quantities depend on a partial differential equation (PDE) parameterized solution -- physical or geometrical -- are the model inputs and the quantities of interest -- average values ​​-- are the outputs.The order reduction techniques, including reduced basis method which is the method used throughout this work, can meet these demands.In this thesis, we focus on the establishment of a framework in C ++ supporting parallel computing, which applies the reduced basis method to nonlinear multiphysics problems such as problems with natural convection (fluid-thermal coupling) or the high field resistive magnet modeling (we limit ourselves to thermo-electric coupling) leading to a study on the uncertainty quantification.The reduced basis method naturally relies on an approximation obtained using the finite element discretization of the problem being treated. For this, we use the Feel ++ computation library specialized in PDE resolution.We are also interested by multiscale problems.The particularity of these problems is to manipulate a set of phenomena involving different scales, as this is the case for example when we consider a flow in porous media.The multiscale finite element method allows having a "global" behavior, linked with large scales, of the problem solution without solving it on small scales.We propose a new construction of multiscale finite element basis functions based on the reduced basis method
APA, Harvard, Vancouver, ISO, and other styles
2

Soilahoudine, Moindzé. "Optimisation de structures aéronautiques : une nouvelle méthode à fidélité adaptative." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30322.

Full text
Abstract:
Les méthodes d'optimisation à base de métamodèles avec enrichissement adaptatif (type Efficient Global Optimization) peuvent, malgré leurs atouts, être rédhibitoires en temps de calculs lorsqu'elles sont appliquées à des modèles numériques de grande taille avec plusieurs minimums locaux. Elles nécessitent la résolution d'un modèle complet à chaque simulation, ce qui peut conduire à des études irréalisables ou alors dans des durées incompatibles avec les échelles de temps typiques du processus de conception d'un produit. Cette thèse s'inscrit dans la thématique de l'optimisation de simulateurs numériquement couteux par l'utilisation des modèles simplifiés. Ces modèles simplifiés peuvent être notamment de deux types : des métamodèles ou des modèles d'ordre réduit. Nous proposons dans cette thèse une nouvelle méthodologie d'optimisation globale de systèmes mécaniques en couplant les méthodes d'optimisation à base de métamodèles adaptatifs avec les méthodes de réduction d'ordre. Les méthodes d'optimisation à base de métamodèles visent à réduire le nombre d'évaluations de la fonction objectif tandis que les méthodes de réduction d'ordre visent à diminuer la taille des modèles permettant ainsi une réduction de leur temps d'exécution. L'objectif de la méthodologie développée dans cette thèse est alors de réduire le nombre d'évaluations de la fonction objectif tout en diminuant également le temps d'exécution des modèles. L'idée de l'approche développée est de construire le métamodèle de la fonction objectif de manière adaptative. Cette construction fusionne des modèles complets et des modèles d'ordre réduit et adapte ainsi la fidélité aux besoins en précision de l'itération courante de l'optimisation. Les performances des algorithmes développés dans cette thèse ont été illustrées sur deux types d'applications : i. un problème d'identification des quatre propriétés orthotropes d'un composite stratifié à partir de mesures de champs de déplacement d'une plaque trouée en traction. ii. un problème de maximisation de la rigidité d'une plaque composite stratifiée. Les résultats ont permis de montrer que notre méthodologie permet d'obtenir des gains considérables, en temps de calcul, par rapport à un algorithme de type EGO classique
The surrogate based optimization method with adaptive enrichment (Efficient Global Optimization type approach) may, in spite of its strengths, be prohibitive in terms of computational cost when applied to large scale problems with several local minima. They require the resolution of a full numerical model for each simulation, which can lead to intractable studies or to simulation times incompatible with the times allotted for the design of a product. This PhD thesis falls within the scope of optimizing expensive simulator codes by using substitution models of the simulator. These substitutions models can be of two types: a metamodel or a reduced order model. We have proposed here a new methodology for global optimization of mechanical systems by coupling adaptive surrogate based optimization methods with the reduced order modeling methods. The surrogate based optimization methods aim to reduce the number of objective function evaluations while the reduced order model methods aim to reduce the dimensionality of a model and thus its computational cost. The objective of the methodology proposed in this thesis is thus to reduce the number of the objective function evaluations while at the same time significantly reducing the computational expense to the resolutions of the full mechanical model. The basic idea of the proposed approach resides in the adaptive construction the metamodel of the objective function. This construction fuses full and reduced order models and thus adapts the model fidelity to the accuracy requirements of the optimization at the current iteration. The efficiency of our proposed algorithms was illustrated on two types of applications: i. a problem of identification of orthotropic elastic constants from full field displacement measurements based on a tensile test on a plate with a hole ii. a problem of stiffness maximization of laminated plates. The results have shown that our methodology provides a significant speed-up in terms of computational cost, compared to the traditional EGO algorithm
APA, Harvard, Vancouver, ISO, and other styles
3

Courtier, Vivien. "Réduction de modèle et simplification de l'intégration de loi de comportement pour la prévision de la durée de vie." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00854149.

Full text
Abstract:
Dans le milieu aéronautique, la simulation numérique s'est largement imposée dans le développement industriel des systèmes complexes. De la conception au suivi en service, les simulations numériques sont nombreuses et variées. Afin de proposer des méthodes alternatives aux méthodes de calcul intensif, la réduction de modèle permet de réduire considérablement le coût de la résolution numérique des problèmes non linéaires en projetant les équations aux dérivées partielles sur une base réduite. De plus, la description des phénomènes physiques requiert une loi de comportement élaborée dont une simplification est considérée en exploitant une partie restreinte du domaine spatial. Les études effectuées ont pour but d'apporter certains développements à la méthode incrémentale et adaptative A Priori Hyper Reduction dans le cas des matériaux hétérogènes. Ces développements sont intégrés dans le code éléments finis Z-set et utilisés pour traiter une série d'exemples académiques sur des structures composites.
APA, Harvard, Vancouver, ISO, and other styles
4

Maineult, Alexis. "Application de la méthode du potentiel spontané à l'hydrogéologie : expérimentation sur modèle réduit d'aquifère." Phd thesis, Université Louis Pasteur - Strasbourg I, 2004. http://tel.archives-ouvertes.fr/tel-00011461.

Full text
Abstract:
Identifier la géométrie et l'évolution chimique des écoulements souterrains est un objectif majeur de l'hydrologie. Les outils géophysiques (radar, méthodes électriques et magnétiques) apportent des informations complémentaires aux mesures en puits. Le suivi du potentiel spontané (PS) est particulièrement attractif, le champ électrique dans le sous-sol ayant une origine dynamique, résultant d'un déséquilibre hydraulique (écoulement) ou chimique (diffusion, réactions chimiques) des nappes. L'objectif de cette thèse est d'isoler les contributions individuelles de ces différents couplages.
Des expériences de laboratoire ont donc été menées pour mesurer séparément et indépendamment la signature électrique de l'écoulement d'un fluide homogène, de la diffusion d'un front salin en conditions de fluide stagnant, du transport d'un front de concentration, et des réactions acide-base et redox. La partie principale du dispositif expérimental est un bac rectangulaire de dimensions décimétriques, rempli de sable, connecté hydrauliquement à deux réservoirs indépendants, permettant de générer des écoulements uni ou bi-dimensionnels. Pour mesurer le signal, des électrodes impolarisables au cuivre – sulfate de cuivre, de diamètre réduit, ont été mises au point.
Les résultats démontrent la capacité de la PS pour suivre la progression de fronts de concentration. La réponse électrique à la diffusion est due au potentiel de jonction fluide. La réponse à l'advection est la somme de ce potentiel et de la variation du signal électrocinétique qui résulte des modifications du coefficient de couplage en fonction de la conductivité du fluide (advection de sels) ou du pH (advection d'acide). Lorsque deux fluides se mélangent ou réagissent, la comparaison des courbes de PS dans les différentes zones permet de déterminer l'extension et l'évolution temporelle de la zone de mélange ou de réaction. L'hétérogénéité du milieu, structurelle et chimique, semble aussi jouer un grand rôle.
APA, Harvard, Vancouver, ISO, and other styles
5

Bel, Liliane. "Sur la réduction des modèles linéaires : analyse de données en automatique." Paris 11, 1985. http://www.theses.fr/1985PA112306.

Full text
Abstract:
Nous étudions ici deux méthodes de réduction dans l’espace d’état : l’agrégation et la troncature dans la base d’équilibre. Dans le cas de l’agrégation on propose une nouvelle méthode de sélection des valeurs propres qui est à la fois géométrique et séquentielle. Des problèmes de robustesse sont soulevés et résolus dans quelques cas particuliers. La base d’équilibre est abordée par le biais des degrés de commandabilité et d’observabilité. La notion de degré de perturbabilité est introduite. On étudie ensuite l’application de ces deux méthodes à la détermination d’une commande d’ordre réduit. Enfin les deux méthodes sont appliquées au système représentant le lanceur Ariane en vol
Two state space model reduction methods are studied: aggregation method and the balanced state space representation method. In the case of aggregation a new method of selecting eigenvalues is proposed, which is both geometrical and sequential. Problems of robustness of aggregation are evoked and resolved in some particular cases. The balanced state space representation is approached by means of contralibility and observability degrees. The notion of perturbability degree is introduced. Then we study the application of those two methods to reduced order compensator design. The two methods are finally applied to the system representing the launch booster Ariane flying
APA, Harvard, Vancouver, ISO, and other styles
6

Hoareau, Christophe. "Vibrations hydroélastiques de réservoirs élastiques couplés à un fluide interne incompressible à surface libre autour d’un état précontraint." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1241/document.

Full text
Abstract:
Cette thèse de doctorat porte sur le calcul par la méthode des éléments finis du comportement dynamique de réservoirs élastiques précontraints contenant un liquide interne à surface libre. Nous considérons que la pression hydrostatique exercée par le fluide interne incompressible sur les parois flexibles du réservoir est à l’origine de grands déplacements, conduisant ainsi à un état d’équilibre non-linéaire géométrique. Le changement de raideur lié à cet état précontraint induit un décalage des fréquences de résonances du problème de vibrations linéaires couplées.L’objectif principal du travail est donc d’estimer, par des approches numériques précises et efficaces, l’influence des non-linéarités géométriques sur le comportement hydroélastique du système réservoir/liquide interne autour de différentes configurations d’équilibre. La méthodologie développée s’effectue en deux étapes. La première consiste à calculer l’état statique non-linéaire par une approche éléments finis lagrangienne totale. L’action du fluide sur la structure est ici modélisée par des forces suiveuses hydrostatiques. La deuxième étape porte sur le calcul des vibrations couplées linéarisées. Un modèle d’ordre réduit original est notamment proposé pour limiter les coûts de calcul associés à l’estimation de l’effet de masse ajoutée. Enfin, divers exemples sont proposés et comparés à des résultats de la littérature (issus de simulations numériques ou d’essais expérimentaux) pour montrer l’efficacité et la validité des différentes approches numériques développées dans ce travail
This doctoral thesis focuses on the calculation by the finite element method of the dynamic behavior of prestressed elastic tanks containing an internal liquid with a free surface. We consider that the hydrostatic pressure exerted by the incompressible internal fluid on the flexible walls of the tank causes large displacements, thus leading to a geometric non-linear equilibrium state. The change of stiffness related to this prestressed state induces a shift in the resonance frequencies of the coupled linear vibration problem. The main objective of the work is therefore to estimate, through precise and efficient numerical approaches, the influence of geometric nonlinearities on the hydroelastic behavior of the reservoir/internal liquid system around different equilibrium configurations. The methodology developed is carried out in two stages. The first one consists in calculating the non-linear static state by a total Lagrangian finite element approach.The action of the fluid on the structure is modelled here by hydrostatic following forces. The second step is the calculation of linearized coupled vibrations. In particular, an original reduced order model is proposed to limit the calculation costs associated with the estimation of the added mass effect. Finally, various examples are proposed and compared with results from the literature (from numerical simulations or experimental tests) to show the effectiveness and validity of the different numerical approaches developed in this work
APA, Harvard, Vancouver, ISO, and other styles
7

Hammond, Janelle K. "Méthodes des bases réduites pour la modélisation de la qualité de l'air urbaine." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1230/document.

Full text
Abstract:
L'objectif principal de cette thèse est le développement d'outils numériques peu coûteux pour la cartographie de concentrations de polluants a partir de mesures et de modèles déterministes avancés. Le développement mondial et l'urbanisation des populations génèrent une hausse d’émissions et d'expositions. A n d'estimer les expositions individuelles et évaluer leur association à des pathologies diverses, les campagnes de mesure de qualité de l'air, et des études épidémiologiques sur les effets de santé de la pollution sont devenues plus courantes. Cependant, les concentrations de pollution de l'air sont très variables en temps et en espace. La sensibilité et la précision de ces études est souvent détériorée par de mauvais classements des expositions dus aux estimations grossières des expositions individuelles. Les méthodes d'assimilation de données intègrent des données de mesures et des modèles mathématiques a n de mieux approximer le champ de concentration. Quand ces méthodes sont basées sur un modèle de qualité de l'air (AQM) déterministe avancé, elles sont capables de fournir des approximations détaillées et de petite échelle. Ces informations précises permettront de meilleures estimations d'exposition. Néanmoins, ces méthodes sont souvent tr es coûteuses. Elles nécessitent la résolution a plusieurs reprises du modèle, qui peut être coûteux soi-même. Dans ce travail nous enquêtons sur la combinaison des méthodes des bases réduites (RB) et d'assimilation de données pour des AQM avancés a l'échelle urbaine. Nous souhaitons diminuer le coût de résolution en exploitant les RB, et incorporer des données de mesure a n d'améliorer la qualité de la solution. On étend la méthode de Parameterized-Background Data-Weak (PBDW) pour des AQMs basés sur la physique. Cette méthode est capable d'estimer de façon rapide et "online" des concentrations de polluants à l'échelle du quartier. Elle se sert des AQMs disponibles dans une procédure non intrusive et efficace par rapport aux temps de calculs pour réduire le coût de résolution par des centaines de fois. Les résultats de PBDW sont comparés à la méthode d'interpolation empirique généralisée (GEIM) et à une méthode inverse usuelle, la méthode adjointe, a n de mesurer l'efficacité de la PBDW. Cette comparaison montre la possibilité d'augmenter la précision de la solution, et d'une grande réduction en temps de calcul par rapport à des méthodes classiques. Dans nos applications sur un modèle imparfait, l'étude a fourni des estimations d'état avec erreur d'approximation de moins de 10% presque partout. Les résultats se montrent prometteurs pour la reconstruction en temps réel de champs de pollution sur de grands domaines par la PBDW
The principal objective of this thesis is the development of low-cost numerical tools for spatial mapping of pollutant concentrations from field observations and advanced deterministic models. With increased pollutant emissions and exposure due to mass urbanization and development worldwide, air quality measurement campaigns and epidemiology studies of the association between air pollution and adverse health effects have become increasingly common. However, as air pollution concentrations are highly variable spatially and temporally, the sensitivity and accuracy of these epidemiology studies is often deteriorated by exposure misclassi cation due to poor estimates of individual exposures. Data assimilation methods incorporate available measurement data and mathematical models to provide improved approximations of the concentration. These methods, when based on an advanced deterministic air quality models (AQMs), could provide spatially-rich small-scale approximations and can enable better estimates of effects and exposures. However, these methods can be computationally expensive. They require repeated solution of the model, which could itself be costly. In this work we investigate a combined reduced basis (RB) data assimilation method for use with advanced AQMs on urban scales. We want to diminish the cost of resolution, using RB arguments, and incorporate measurement data to improve the quality of the solution. We extend the Parameterized-Background Data-Weak (PBDW) method to physically-based AQMs. This method can rapidly estimate "online" pollutant concentrations at urban scale, using available AQMs in a non-intrusive and computationally effcient manner, reducing computation times by factors up to hundreds. We apply this method in case studies representing urban residential pollution of PM2.5, and we study the stability of the method depending on the placement or air quality sensors. Results from the PBDW are compared to the Generalized Empirical Interpolation Method (GEIM) and a standard inverse problem, the adjoint method, in order to measure effciency of the method. This comparison shows possible improvement in precision and great improvement in computation cost with respect to classical methods. We fi nd that the PBDW method shows promise for the real-time reconstruction of a pollution eld in large-scale problems, providing state estimation with approximation error generally under 10% when applied to an imperfect model
APA, Harvard, Vancouver, ISO, and other styles
8

Bai, Ruqing. "Numerical modeling of isotropic and composites structures using a shell-based peridynamic method." Thesis, Compiègne, 2019. http://www.theses.fr/2019COMP2482.

Full text
Abstract:
Le travail de thèse porte sur de nouveaux compléments et améliorations pour la théorie de la péridynamique concernant la modélisation numérique de structures minces telles que les poutres et les plaques, les composites isotropes et multicouches soumis à un chargement dynamique. Nos développements ont principalement porté sur l'exploration des possibilités offertes par la méthode péridynamique, largement appliquée dans divers domaines de l'ingénierie où des discontinuités fortes ou faibles peuvent se produire, telles que des fissures. La procédure de généralisation de la méthode Peridynamics pour la modélisation des structures de poutres de Timoshenko et des structures de plaques de Reissner-Mindlin avec une large plage de rapport épaisseur sur longueur allant de structures épaisses à très minces est indiquée. Et un impact avec une faible vitesse simplifié basé sur le modèle péridynamique développé pour la poutre de Timoshenko et la plaque de Reissner-Mindlin a été proposé en utilisant une procédure de contact spécifique pour l'estimation « naturelle » de la charge d'impact. L’originalité de la méthode actuelle réside dans l’introduction avec deux techniques permettant de réduire le problème de blocage par cisaillement qui se pose dans les structures à poutres et à plaques minces, à savoir la méthode d’intégration réduite (ou sélective) et la formulation mixte. Le modèle péridynamique résultant pour les structures de poutre de Timoshenko et les structures de plaque de Reissner-Mindlin est efficace et ne souffre d'aucun phénomène de verrouillage par cisaillement. En outre, la procédure de généralisation de la méthode péridynamique pour la modélisation de structures composites minces renforcées par des fibres est introduite. L’approche péridynamique pour la modélisation d’une couche est d’abord validée en quasi-statique, ce qui inclut des problèmes de prévision de la propagation de fissures soumis à des conditions de chargement mécaniques. La méthode péridynamique a ensuite été étendue à l’analyse de structures composites minces renforcées par des fibres utilisant la théorie fondamentale d’une couche. Enfin, plusieurs applications impliquant des structures composites minces renforcées par des fibres et des résultats numériques ont été validées par comparaison à la solution FEM obtenue à l'aide d'un logiciel commercial ou à des solutions de référence de la littérature. Dans toutes les applications, Péridynamics montre que les résultats correspondent parfaitement aux solutions de référence, ce qui prouve son potentiel d’efficacité, en particulier pour la simulation de chemins de fissures dans les structures isotropes et composites
This thesis introduces some new complements and improvments for the Bond-Based Peridynamics theory concerning the numerical modeling of thin structures such as beams and plates, isotropic and multilayer composites subjected to dynamic loading. Our developments have been focused mainly on exploring the possibilities offered by the Peridynamic method, which has been widely applied in various engineering domains where strong or weak discontinuities may occur such as cracks or heterogeneous media. The generalization procedure of the Peridynamics method for the modeling of Timoshenko beam structures and Reissner-Mindlin plate structures respectively with a wide range of thickness to length ratio starting from thick structures to very thin structures is given. And A simplified low velocity impact based on the developed Peridynamic model for Timoshenko beam and ReissnerMindlin plate has been proposed by using a specific contact procedure for the estimation of the impact load. The originality of the present method was the introduction for the first time of two techniques for the alleviation of the shear locking problem which arises in thin beam and plate structures, namely the reduced (or selective) integration method and mixed formulation. The resulting Peridynamic model for Timoshenko beam structures and Reissner-Mindlin plate structures is efficient and does not suffer from any shear locking phenomenon. Besides, the generalization procedure of Peridynamic method for the modeling of fiber-reinforced thin composite structures is introduced. The Peridynamic approach for the modeling of a lamina is firstly validated in the quasi-statics including a crack propagation prediction problems subjected to mechanical loading conditions and then the Peridynamic method was further extended to analyze fiber-reinforced thin composite structures using the fundamental lamina theory. Finally, several applications involving fiber-reinforced thin composite structures and numerical results were validated by comparison to the FEM solution obtained using commercial software or to reference solutions from the literature. In all applications, the Peridynamics shows that results are matching perfectly the reference solutions, which proves its efficiency potentiality especially for crack paths simulation in isotropic and composite structures
APA, Harvard, Vancouver, ISO, and other styles
9

Pham, Thi Trang Nhung. "Méthodes numériques pour l'équation de Vlasov réduite." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD051/document.

Full text
Abstract:
Beaucoup de méthodes numériques ont été développées pour résoudre l'équation de Vlasov, car obtenir des simulations numériques précises en un temps raisonnable pour cette équation est un véritable défi. Cette équation décrit en effet l'évolution de la fonction de distribution de particules (électrons/ions) qui dépend de 3 variables d'espace, 3 variables de vitesse et du temps. L'idée principale de cette thèse est de réécrire l'équation de Vlasov sous forme d'un système hyperbolique par semi-discrétisation en vitesse. Cette semi-discrétisation est effectuée par méthode d'éléments finis. Le modèle ainsi obtenu est appelé équation de Vlasov réduite. Nous proposons différentes méthodes numériques pour résoudre efficacement ce modèle: méthodes des volumes finis, méthodes semi-Lagrangiennes et méthodes Galerkin discontinus
Many numerical methods have been developed in order to selve the Vlasov equation, because computing precise simulations in a reasonable time is a real challenge. This equation describes the time evolution of the distribution function of charged particles (electrons/ions), which depends on 3 variables in space, 3 in velocity and time. The main idea of this thesis is to rewrite the Vlasov equation in the form of a hyperbolic system using a semi-discretization of the velocity. This semi-discretization is achieved using the finite element method. The resulting model is called the reduced Vlasov equation. We propose different numerical methods to salve this new model efficiently: finite volume methods, semi-Lagrangian methods and discontinuous Galerkin methods
APA, Harvard, Vancouver, ISO, and other styles
10

Moreau, Antoine. "Calcul des propriétés homogénéisées de transfert dans les matériaux poreux par des méthodes de réduction de modèle : Application aux matériaux cimentaires." Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS024.

Full text
Abstract:
Cette thèse propose de coupler deux outils préexistant pour la modélisation mathématique en mécanique : l’homogénéisation périodique et la réduction de modèle, afin de modéliser la corrosion des structures de béton armé exposées à la pollution atmosphérique et au sel marin. Cette dégradation est en effet difficile à simuler numériquement, eu égard la forte hétérogénéité des matériaux concernés, et la variabilité de leur microstructure. L’homogénéisation périodique fournit un modèle multi-échelle permettant de s’affranchir de la première de ces deux difficultés. Néanmoins, elle repose sur l’existence d’un volume élémentaire représentatif (VER) de la microstructure du matériau poreux modélisé. Afin de prendre en compte la variabilité de cette dernière, on est amenés à résoudre en temps réduit les équations issues du modèle multi-échelle pour un grand nombre VER. Ceci motive l’utilisation de la méthode POD de réduction de modèle. Cette thèse propose de recourir à des transformations géométriques pour transporter ces équations sur la phase fluide d’un VER de référence. La méthode POD ne peut, en effet, pas être utilisée directement sur un domaine spatial variable (ici le réseau de pores du matériau). Dans un deuxième temps, on adapte ce nouvel outil à l’équation de Poisson-Boltzmann, fortement non linéaire, qui régit la diffusion ionique à l’échelle de la longueur de Debye. Enfin, on combine ces nouvelles méthodes à des techniques existant en réduction de modèle (MPS, interpolation ITSGM), pour tenir compte du couplage micro-macroscopique entre les équations issues de l’homogénéisation périodique
In this thesis, we manage to combine two existing tools in mechanics: periodic homogenization, and reduced-order modelling, to modelize corrosion of reinforced concrete structures. Indeed, chloride and carbonate diffusion take place their pores and eventually oxydate their steel skeleton. The simulation of this degradation is difficult to afford because of both the material heterogenenity, and its microstructure variability. Periodic homogenization provides a multiscale model which takes care of the first of these issues. Nevertheless, it assumes the existence of a representative elementary volume (REV) of the material at the microscopical scale. I order to afford the microstructure variability, we must solve the equations which arise from periodic homogenization in a reduced time. This motivates the use of model order reduction, and especially the POD. In this work we design geometrical transformations that transport the original homogenization equations on the fluid domain of a unique REV. Indeed, the POD method can’t be directly performed on a variable geometrical space like the material pore network. Secondly, we adapt model order reduction to the Poisson-Boltzmann equation, which is strongly nonlinear, and which rules ionic electro diffusion at the Debye length scale. Finally, we combine these new methods to other existing tools in model order reduction (ITSGM interpolatin, MPS method), in order to couple the micro- and macroscopic components of periodic homogenization
APA, Harvard, Vancouver, ISO, and other styles
11

Aghili, Joubine. "Résolution numérique d'équations aux dérivées partielles à coefficients variables." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT250/document.

Full text
Abstract:
Cette thèse aborde différents aspects de la résolution numérique des Equations aux Dérivées Partielles.Le premier chapitre est consacré à l'étude de la méthode Mixed High-Order (MHO). Il s'agit d'une méthode mixte de dernière génération permettant d'obtenir des approximations d'ordre arbitraire sur maillages généraux. Le principal résultat obtenu est l'équivalence entre la méthode MHO et une méthode primale de type Hybrid High-Order (HHO).Dans le deuxième chapitre, nous appliquons la méthode MHO/HHO à des problèmes issus de la mécanique des fluides. Nous considérons d'abord le problème de Stokes, pour lequel nous obtenons une discrétisation d'ordre arbitraire inf-sup stable sur maillages généraux. Des estimations d'erreur optimales en normes d'énergie et L2 sont proposées. Ensuite, nous étudions l'extension au problème d'Oseen, pour lequel on propose une estimation d'erreur en norme d'énergie où on trace explicitement la dépendance du nombre de Péclet local.Dans le troisième chapitre, nous analysons la version hp de la méthode HHO pour le problème de Darcy. Le schéma proposé permet de traiter des maillages généraux ainsi que de faire varier le degré polynomial d'un élément à l'autre. La dépendance de l'anisotropie locale du coefficient de diffusion est tracée explicitement dans l'analyse d'erreur en normes d'énergie et L2.La thèse se clôture par une ouverture sur la réduction de problèmes de diffusion à coefficients variables. L'objectif consiste à comprendre l'impact du choix de la formulation (mixte ou primale) utilisée pour la projection sur l'espace réduit sur la qualité du modèle réduit
This Ph.D. thesis deals with different aspects of the numerical resolution of Partial Differential Equations.The first chapter focuses on the Mixed High-Order method (MHO). It is a last generation mixed scheme capable of arbitrary order approximations on general meshes. The main result of this chapter is the equivalence between the MHO method and a Hybrid High-Order (HHO) primal method.In the second chapter, we apply the MHO/HHO method to problems in fluid mechanics. We first address the Stokes problem, for which a novel inf-sup stable, arbitrary-order discretization on general meshes is obtained. Optimal error estimates in both energy- and L2-norms are proved. Next, an extension to the Oseen problem is considered, for which we prove an error estimate in the energy norm where the dependence on the local Péclet number is explicitly tracked.In the third chapter, we analyse a hp version of the HHO method applied to the Darcy problem. The resulting scheme enables the use of general meshes, as well as varying polynomial orders on each face.The dependence with respect to the local anisotropy of the diffusion coefficient is explicitly tracked in both the energy- and L2-norms error estimates.In the fourth and last chapter, we address a perspective topic linked to model order reduction of diffusion problems with a parametric dependence. Our goal is in this case to understand the impact of the choice of the variational formulation (primal or mixed) used for the projection on the reduced space on the quality of the reduced model
APA, Harvard, Vancouver, ISO, and other styles
12

El, Othmani Abdelaziz. "Contribution à la modélisation réduite des transferts conjugués dans les canaux." Poitiers, 1996. http://www.theses.fr/1996POIT2348.

Full text
Abstract:
Ce memoire est constitue d'un ensemble d'approches numeriques originales pour la modelisation reduite et la resolution des equations de transferts conjugues dans des canaux avec ou sans protuberances. Une technique de perturbation est d'abord utilisee pour resoudre l'equation de l'energie dans des canaux lisse de section quelconque et pour determiner le champ dynamique a faibles nombres de reynolds. La resolution des problemes d'ecoulements au moyen d'une methode de volumes de controle - elements finis (mvcef) est ensuite abordee. Nous examinons d'abord le probleme lie a la presence des singularites geometriques dans le domaine pour lequel nous avons propose une technique de correction basee sur un principe de conservation. Afin de reduire l'effort de calcul, nous avons mis en uvre une methode de resolution par sous-domaines et nous avons couple la technique des multigrilles a la methode mvcef. Enfin, une methode de calcul des transferts radiatifs approches est proposee
APA, Harvard, Vancouver, ISO, and other styles
13

Couplet, Mathieu. "Modélisation POD-Galerkine réduite pour le contrôle des écoulements instationnaires." Phd thesis, Université Paris-Nord - Paris XIII, 2005. http://tel.archives-ouvertes.fr/tel-00142745.

Full text
Abstract:
Ce mémoire présente une étude de la modélisation POD-Galerkine réduite dans l'objectif du développement d'algorithmes robustes et efficaces de contrôle actif d'écoulements. Les deux premiers chapitres sont consacrés à la définition et au calcul numérique d'une base de modes POD et à la construction formelle de modèles dynamiques réduits par la méthode de Galerkine à partir des équations de Navier-Stokes. Le cas des écoulements incompressibles est traité en détail. Une étude de la modélisation d'un écoulement tridimensionnel turbulent, pour lequel le problème de la modélisation des petites échelles se pose, est ensuite menée : les interactions entre modes POD et les effets de la réduction de la base modale sont analysés qualitativement et quantitativement, à l'aide notamment d'une paramétrisation visqueuse. Dans le chapitre suivant, des méthodes de calibration, qui
reposent sur la résolution d'un problème d'optimisation, sont développées afin de pouvoir calculer automatiquement des modèles
réduits fiables pour un coût informatique raisonnable.
Enfin, le dernier chapitre est consacré au problème du contrôle d'écoulements par des actionneurs de soufflage ou d'aspiration : les stratégies d'exploitation de la modélisation POD-Galerkine pour le contrôle sont abordées, puis des investigations numériques sont présentées.
APA, Harvard, Vancouver, ISO, and other styles
14

Baudry, Laurent. "Etude théorique du transport électronique dans des structures à dimensionnalité réduite : application à la simulation Monte-Carlo d'hétérostructures pseudomorphiques." Lille 1, 1993. http://www.theses.fr/1993LIL10102.

Full text
Abstract:
Ce mémoire présente une étude théorique du transport électronique dans les hétérostructures, réalisée dans le but de mieux comprendre le fonctionnement de composants comme le transistor à effet de champ pseudomorphique. Le mémoire est divisé en trois parties : 1) dans le premier chapitre, après avoir rappelé les aspects théoriques fondamentaux, nous décrivons les effets de la contrainte sur les propriétés physiques du matériau GaInAs. Puis, à l'aide d'un modèle Monte-Carlo de transport en volume, nous discutons de l'influence de la contrainte sur les propriétés de transport dans ce matériau ; 2) le deuxième chapitre est consacré à une étude de l'interaction des électrons avec les impuretés ionisées, prenant en compte le phénomène d'écrantage. Successivement, nous examinons les cas des matériaux en volume, des gaz d'électrons bidimensionnels et unidimensionnels. Par la méthode du temps de relaxation du moment, nous calculons la contribution de cette interaction à la mobilité électronique, ce qui nous permet de déterminer l'influence des principaux paramètres physiques sur ce mécanisme d'interaction ; 3) dans le troisième chapitre, nous proposons un modèle Monte-Carlo de transport électronique prenant en compte les effets quantiques caractéristiques des hétérostructures à gaz bidimensionnel d'électrons. Tous les phénomènes physiques importants y sont inclus (dégénérescence, structure de bande multivallées. . . ), ce qui lui confère un domaine de validité très large. Ce modèle est ensuite appliqué à l'étude de structures adaptées en maille et pseudomorphiques
APA, Harvard, Vancouver, ISO, and other styles
15

Vassoilles, Clémentine. "Proposition d'une nouvelle méthode de classification à base de copules." Thèse, Université du Québec à Trois-Rivières, 2014. http://depot-e.uqtr.ca/7328/1/030619119.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Kibangou, Alain Y. "Modèles de volterra à complexité réduite : estimation paramétrique et application à l'égalisation des canaux de communication." Phd thesis, Université de Nice Sophia-Antipolis, 2005. http://tel.archives-ouvertes.fr/tel-00190985.

Full text
Abstract:
Une large classe de systèmes physiques peut être représentée à l'aide du modèle de Volterra. Il a notamment été montré que tout système non-linéaire, invariant dans le temps et à mémoire évanouissante peut être représenté par un modèle de Volterra de mémoire et d¤ordre finis. Ce modèle est donc particulièrement attrayant pour les besoins de modélisation et d'identification de systèmes non-linéaires. Un des atouts majeurs du modèle de Volterra est la linéarité par rapport à ses paramètres, c¤est à dire les coefficients de ses noyaux. Cette caractéristique permet d'étendre à ce modèle certains résultats établis pour l'identification des modèles linéaires. Il est à noter que le modèle de Volterra peut, par ailleurs, être vu comme une extension naturelle de la notion de réponse impulsionnelle des systèmes linéaires aux systèmes non-linéaires. Toutefois, certaines limitations sont à circonvenir: un nombre de paramètres qui peut être très élevé et un mauvais conditionnement de la matrice des moments de l'entrée intervenant dans l¤estimation du modèle au sens de l¤erreur quadratique moyenne minimale (EQMM). Il est à noter que ce mauvais conditionnement est aussi à l¤origine de la lenteur de convergence des algorithmes adaptatifs de type LMS (Least Mean Squares). Cette thèse traite principalement de ces deux questions. Les solutions apportées sont essentiellement basées sur la notion d'orthogonalité. D'une part, l'orthogonalité est envisagée vis à vis de la structure du modèle en développant les noyaux de Volterra sur une base orthogonale de fonctions rationnelles. Ce développement est d'autant plus parcimonieux que la base est bien choisie. Pour ce faire, nous avons développé de nouveaux outils d'optimisation des bases de Laguerre et BFOR (Base de Fonctions Orthonormales Rationnelles) pour la représentation des noyaux de Volterra. D'autre part, l'orthogonalité est envisagée en rapport avec les signaux d'entrée. En exploitant les propriétés statistiques de l¤entrée, des bases de polynômes orthogonaux multivariables ont été construites. Les paramètres du modèle de Volterra développé sur de telles bases sont alors estimés sans aucune inversion matricielle, ce qui simplifie significativement l¤estimation paramétrique au sens EQMM. L¤orthogonalisation des signaux d¤entrée a aussi été envisagée via une procédure de Gram-Schmidt. Dans un contexte adaptatif, il en résulte une accélération de la convergence des algorithmes de type LMS sans un surcoût de calcul excessif. Certains systèmes physiques peuvent être représentés à l¤aide d¤un modèle de Volterra simplifié, à faible complexité paramétrique, tel que le modèle de Hammerstein et celui de Wiener. C¤est le cas d¤un canal de communication représentant l'accès à un réseau sans fil via une fibre optique. Nous montrons notamment que les liaisons montante et descendante de ce canal peuvent respectivement être représentées par un modèle de Wiener et par un modèle de Hammerstein. Dans le cas mono-capteur, en utilisant un précodage de la séquence d'entrée, nous développons une solution permettant de réaliser l'estimation conjointe du canal de transmission et des symboles transmis de manière semiaveugle. Il est à noter que, dans le cas de la liaison montante, une configuration multi-capteurs peut aussi être envisagée. Pour une telle configuration, grâce à un précodage spécifique de la séquence d¤entrée, nous exploitons la diversité spatiale introduite par les capteurs et la diversité temporelle de sorte à obtenir une représentation tensorielle du signal reçu. En appliquant la technique de décomposition tensorielle dite PARAFAC, nous réalisons l'estimation conjointe du canal et des symboles émis de manière aveugle. Mots clés: Modélisation, Identification, Bases orthogonales, Base de Laguerre, Base de fonctions orthonormales rationnelles, Polynômes orthogonaux, Optimisation de pôles, Réduction de complexité, Egalisation, Modèle de Volterra, Modèle de Wiener, Modèle de Hammerstein, Décomposition PARAFAC.
APA, Harvard, Vancouver, ISO, and other styles
17

Mandallena, Céline. "Elaboration et application d'une méthode d'évaluation et d'amélioration de la qualité environnementale de bâtiments tertiaires en exploitation." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13207.

Full text
Abstract:
Dans le contexte de réduction des impacts environnementaux consécutifs à l'exploitaion des bâtimenst existants, ce travail a pour objet de développer et d'appliquer une méthode opérationnelle d'évaluation et d'amélioration de la qualité environnementale de bâtiments tertiaires. Notre recherche de par sa finalité et son objectif opérationnel, s'inscrit à la convergence de 3 disciplines : 1) Maîtrise de la Demande d'Energie : les consommations énergétiques représentent la cause principale des impacts environnementaux du secteur du bâtiment, en particulier pour les émisssions de gaz à effet de serre. 2) Les indicateurs que nous avons construits, sont basés sur des facteurs d'émission construits à partir de l'approche en Analyse en Cylce de Vie, démarche la plus exhaustive à ce jour. 3) afin de nous inscrire dans l'évolution actuelle des acteurs et de leurs référentiels, nous nous sommes appuyés sur la démarche Haute Qualité Environnementale pour structurer les indicateurs de la phase d'exploitation. La méthode qui en découle, nommée OPALE (Optimisation des Performances par des Actions de Limitation des Emissions), est relative aux bâtiments tertiaires existants. On utilise les techniques de benchmarking et d'analyse multicritères afin d'informer au mieux, les gestionnaires, les exploitants et les usages des vâtiments, ainsi que les acteurs de la maîtrised'oeuvre. Au final, nous avons proposé un mode de présentation simplifié des résultats, sous forme de tableaux de bord environnementaux regroupant 26 indicateurs sur six thèmes centraux : - 4 thèmes "performances", coûts, consommation d'eau et d'énergie, émissions à l'environnement, qualité d vie, - 2 thèmes "diagnostic", qualité des usages et qualité de gestion du bâtiment. . .
APA, Harvard, Vancouver, ISO, and other styles
18

Levasseur, Séverine. "Analyse Inverse en Géotechnique: développement d'une méthode à base d'algorithmes génétiques." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00185671.

Full text
Abstract:
La plupart des essais géotechniques in situ ne permettent pas d'identifier directement les paramètres constitutifs des couches de sol. L'utilisation de calculs par éléments finis pour dimensionner les ouvrages est ainsi limitée par une mauvaise connaissance des propriétés mécaniques des sols. C'est dans ce contexte que se pose la problématique d'analyse inverse en géotechnique : quelles informations concernant les paramètres constitutifs du sol est-il possible d'obtenir à partir de mesures in situ ?
L'objectif de ce travail est de développer une méthode d'analyse inverse permettant d'identifier l'ensemble des paramètres constitutifs d'un sol à partir de mesures géotechniques in situ. La procédure est basée sur un processus d'optimisation par algorithme génétique. L'ensemble des solutions identifiées sont ensuite décrites mathématiquement par une étude statistique de type analyse en composantes principales. Cette étude montre que ce type d'optimisation par algorithme génétique permet d'estimer différentes solutions approchées pour les problèmes inverses de géotechnique. Si toutes les solutions d'un problème ne sont pas identifiées directement par l'algorithme génétique, leur exploitation par une analyse en composantes principales permet d'estimer l'ensemble des solutions du problème inverse. Cette méthode est développée sur des exemples d'ouvrages de soutènement et d'essais pressiométriques.
APA, Harvard, Vancouver, ISO, and other styles
19

Biennier, Frédérique. "Modélisation d'une base d'hyperdocuments et méthode connexionniste d'aide a la navigation." Lyon, INSA, 1990. http://www.theses.fr/1990ISAL0104.

Full text
Abstract:
L'utilisation d'une base d'hyperdocuments doit être au moins aussi agréable que l'usage d'une documentation sur support papier. Un des principaux problèmes rencontrés par les utilisateurs, submergés de possibilités de déplacement le long des liens établis entre les nœuds de l'hyperdocument, consiste à accéder aux informations pertinentes le long d'un parcours adapté à leurs besoins propres. Le travail présenté ici commence par préconiser une décomposition de la base documentaire en trois niveaux, ainsi qu'une structure à base d'arbres persistants afin de permettre le stockage de plusieurs niveaux de versions avec un minimum de redondances. Ensuite, nous avons couplé la base documentaire avec un réseau de neurones associatif, activé sur demande selon des modalités particulières. De là procède l'assistance à l'utilisateur, en permanence susceptible de proposer le parcours de consultation qui semble le mieux correspondre à ses besoins apparents. Le système est totalement soumis au contrôle de l'utilisateur grâce à un ensemble de paramètres aisément maniables. Enfin des raffinements successifs permettent à l'utilisateur d'obtenir pleinement satisfaction
Hyperdocument bases must at least be as easy to use as paper documents. One of the readers' major problem is to select a path, from a myriad of browsing possibilities along the defined links, adapted to their own goals in order to reach the information they need. First, we propose a ,storage model for the hyperdocument base. By splitting the structure in three levels and an heavy use of persistent trees in each level, redundancy is avoided and several kinds of version can be stored. Then, the documentary base is coupled to an associative epigenetic neural network. By running this network, according to particular activation rules, a path adapted to the users' defined needs is dynamically built. By this way, the system proposes the answers and their organizations which seem to best fit the users' needs. By using several simple parameters, the users control totally the system and they can adjust the answers to their particular needs by several refinements
APA, Harvard, Vancouver, ISO, and other styles
20

Casenave, Fabien, and Fabien Casenave. "Méthodes de réduction de modèles appliquées à des problèmes d'aéroacoustique résolus par équations intégrales." Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-00961528.

Full text
Abstract:
Cette thèse s'articule autour de deux thématiques : les méthodes numériques pour la propagation d'ondes acoustiques sous écoulement et les méthodes de réduction de modèles. Dans la première thématique, nous développons une méthode de couplage d'éléments finis et d'éléments de frontière pour résoudre l'équation d'Helmholtz convectée, lorsque l'écoulement est uniforme à l'extérieur d'un domaine borné. En particulier, nous proposons une formulation bien posée à toutes les fréquences de la source. Dans la deuxième thématique, nous proposons une solution au problème classique d'accumulation d'arrondis machine qui survient en calculant l'estimateur d'erreur a posteriori dans la méthode des bases réduites. Par ailleurs, nous proposons une méthode non intrusive pour calculer une approximation sous forme séparée des systèmes linéaires résultant de l'approximation en dimension finie de problèmes aux limites dépendant d'un ou plusieurs paramètres
APA, Harvard, Vancouver, ISO, and other styles
21

Askouk, Lahcen. "Mise au point d'une méthode de transformation génétique de l'épinard (Spinacia oleracea L. ) en vue de l'obtention de plantes à teneur réduite en nitrate." Brest, 1996. http://www.theses.fr/1996BRES2031.

Full text
Abstract:
Cette étude avait pour but la mise au point d'un protocole de transformation génétique de l'épinard (Spinacia oleracea L. ) et son application à l'introduction du gène de la nitrate réductase de tabac. De tels résultats doivent permettre l'étude de l'impact de ce gène sur le métabolisme de l'azote de l'épinard ainsi que l'obtention de plantes à teneur réduite en nitrate. Au cours de l'expérimentation, le transfert direct utilisant le canon à particules et le transfert indirect via les agrobactéries ont été développés. Transfert direct: l'application de cette technique à différents explants a permis l'obtention de massifs cellulaires et de bourgeons. Ces structures présentent l'activité béta-glucuronidase. Cependant, aucune plante transgénique n'a été actuellement obtenue. Transfert via agrobacterium: la sensibilité de l'épinard aux souches sauvages d'Agrobacterium tumefaciens a été démontrée par l'obtention de tumeurs de type crown gall et de tumeurs avec pointes racinaires. Par contre, l'utilisation de souches désarmées a été sans succès, probablement en raison de l'incapacité de la maîtrise des conditions de régénération à partir des cellules transformées. L’infection de jeunes plantes décapitées avec la souche A4 GUS d'A. Rhizogènes a induit la formation de racines de type hairy root. A partir de ces racines, des plantes ont été néoformées par les voies organogène et embryogène. La mise en évidence d'opines et les analyses d'activité beta-glucuronidase, d'amplification d'une séquence du gène GUS par PCR et d'hybridation de type southern blot ont démontré la nature transgénique des plantes obtenues. Ces plantes sont fertiles et donnent une descendance R1 GUS+ L’application de cette méthode a l'introduction du gène nitrate réductase a conduit a l'obtention de pousses feuillées présentant le caractère NR+ après analyse PCR.
APA, Harvard, Vancouver, ISO, and other styles
22

Hama, Meriem. "Glissements de terrain : base de données et méthode des perturbations en 3D." Lyon, INSA, 2001. http://www.theses.fr/2001ISAL0006.

Full text
Abstract:
La prise en compte des risques naturels par l'homme n'est pas nouvelle. Les moyens de gestion et de prévision de ces risques sont mis au point peu à peu. C'est dans ce cadre que s'inscrit mon sujet de recherche, puisqu'il s'intéresse de près au projet W. A. S. S. S. (Wide Area Slope StabilitY Server) qui est un serveur d'envergure internationale dans le domaine de stabilité des pentes. Ce serveur sert de support à une base de données, regroupant des cas de glissements de terrain. L'intérêt de cette base est la collection des données qui serviront aux études de risques. Dans sa deuxième partie, ce travail de recherche aborde quelques méthodes de stabilité des pentes, et propose l'extension de la méthode des perturbations en 3D, que nous avons appliqué à deux cas : un cas théorique reporté dans un article de Ugaï (1988), et un cas réel, le glissement de la Salle en Beaumont (Isère), qui en 1994 avait fait quatre victimes. Ce glissement survenu sur une zone déclarée sans risque apparent nous rappelle que l'homme ne peut prétendre tout prévoir et maîtriser
Consideration of natural hazards is not new. Management of these risks is developed little by little. The subject of research has been made in the context of a project W. A. S. S. S. (Wide Area Slope Stability Server). This server is support to a database, regrouping cases of landslides and relative information. This database is interest because the collection of data will serve to studies of risks. In its second part, this work of research approaches some stability methods of slopes, and proposes the extension of the method of perturbations in 3D, that we have applied on two cases: case theoretical of Ugaï (1988), and a real case, the landslide of Salle Beaumont (Isere), that in 1994 bad made four victims. This landslide occurred on a zone declared without apparent risk
APA, Harvard, Vancouver, ISO, and other styles
23

Miomandre, Fabien. "Étude de processus électrochimiques non réversibles par une méthode à base d'opérateurs." Université Joseph Fourier (Grenoble ; 1971-2015), 1995. http://www.theses.fr/1995GRE10163.

Full text
Abstract:
Ce travail presente une approche nouvelle des processus electrochimiques non reversibles, reposant sur l'utilisation d'operateurs. Cette approche permet notamment de separer les contributions thermodynamique et cinetique dans la reponse du systeme a une sollicitation donnee, d'ou son interet dans l'analyse des phenomenes d'hysteresis. L'objectif est en fait de proposer une demarche alternative qui dispense de recourir a des modeles connus (fick, nernst, butler-volmer,), souvent inadequats pour l'etude de systemes electrochimiques complexes. Le principe de la methodologie consiste a representer chacune des etapes de la reaction electrochimique (transfert de charge, transferts de matiere) par un operateur. Celui-ci pouvant etre determine directement a partir des donnees experimentales, il n'est plus necessaire de postuler un modele theorique pour decrire le mecanisme de la reaction etudiee. De plus, le traitement propose est valable pour tout type de transfert obeissant a des equations lineaires. La validation experimentale de cette approche a ete realisee dans des conditions de complexite croissante: tout d'abord, dans le cas d'un couple redox a transfert de charge reversible (n-methyl phenothiazine), on a montre que l'on pouvait caracteriser le transfert de matiere et s'en servir pour prevoir la reponse du systeme a une perturbation quelconque. Puis, pour un couple redox a transfert de charge non reversible (ferro-ferricyanure), on a pu quantifier l'influence de la cinetique dans la reponse du systeme, en definissant des composantes a l'equilibre et hors equilibre experimentalement mesurables. Enfin, lorsque se superposent les effets d'un transfert de charge non reversible et de transferts de matiere mal definis (cas du polypyrrole), l'application de la methodologie a conduit a des informations originales concernant le comportement electrochimique d'un film de polymere conducteur depose sur une electrode
APA, Harvard, Vancouver, ISO, and other styles
24

Wahl, Jean-Baptiste. "The Reduced basis method applied to aerothermal simulations." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD024/document.

Full text
Abstract:
Nous présentons dans cette thèse nos travaux sur la réduction d'ordre appliquée à des simulations d'aérothermie. Nous considérons le couplage entre les équations de Navier-Stokes et une équations d'énergie de type advection-diffusion. Les paramètres physiques considérés nous obligent à considéré l'introduction d'opérateurs de stabilisation de type SUPG ou GLS. Le but étant d'ajouter une diffusion numérique dans la direction du champs de convection, afin de supprimer les oscillations non-phyisques. Nous présentons également notre stratégie de résolution basée sur la méthode des bases réduite (RBM). Afin de retrouver une décomposition affine, essentielle pour l'application de la RBM, nous avons implémenté une version discrète de la méthode d'interpolation empirique (EIM). Cette variante permet de la construction d'approximation affine pour des opérateurs complexes. Nous utilisons notamment cette méthode pour la réduction des opérateurs de stabilisations. Cependant, la construction des bases EIM pour des problèmes non-linéaires implique un grand nombre de résolution éléments finis. Pour pallier à ce problème, nous mettons en oeuvre les récents développement de l'algorithme de coconstruction entre EIM et RBM (SER)
We present in this thesis our work on model order reduction for aerothermal simulations. We consider the coupling between the incompressible Navier-Stokes equations and an advection-diffusion equation for the temperature. Since the physical parameters induce high Reynolds and Peclet numbers, we have to introduce stabilization operators in the formulation to deal with the well known numerical stability issue. The chosen stabilization, applied to both fluid and heat equations, is the usual Streamline-Upwind/Petrov-Galerkin (SUPG) which add artificial diffusivity in the direction of the convection field. We also introduce our order reduction strategy for this model, based on the Reduced Basis Method (RBM). To recover an affine decomposition for this complex model, we implemented a discrete variation of the Empirical Interpolation Method (EIM) which is a discrete version of the original EIM. This variant allows building an approximated affine decomposition for complex operators such as in the case of SUPG. We also use this method for the non-linear operators induced by the shock capturing method. The construction of an EIM basis for non-linear operators involves a potentially huge number of non-linear FEM resolutions - depending on the size of the sampling. Even if this basis is built during an offline phase, we usually can not afford such expensive computational cost. We took advantage of the recent development of the Simultaneous EIM Reduced basis algorithm (SER) to tackle this issue
APA, Harvard, Vancouver, ISO, and other styles
25

Crestaux, Thierry. "Méthode adaptative d'intégration multi-dimensionnelle et sélection d'une base de Polynômes de Chaos." Paris 13, 2011. http://www.theses.fr/2011PA132046.

Full text
Abstract:
La propagation d' incertitudes en simulation numérique peut être traitée dans le cadre probabiliste par une approche fonctionnelle utilisant des fonctions de variables aléatoires. Dans cette thèse nous avons étudié la méthode spectrale de représentation des variables aléatoires par développement en chaos polynômial. En effet, une des grandes propriétés du chaos polynômial est que la connaissance des coefficients permet la réalisation de différentes analyses d'incertitude et de sensibilité. On peut ainsi à partir des coefficients du développement, approcher facilement différentes grandeurs d'intérêt comme les moyennes et les variances des variables analysées et par décomposition fonctionnelle de la variance obtenir les indices de sensibilité de Sobol caractérisant la part de la variance due par une variable ou par un groupe de variables d'entrées. Les méthodes de calcul de ce développement polynômial se séparent en deux catégories: celles qui modifient le code de calcul; méthodes dites intrusives, et celles qui utilisent le code comme une "boîte noire" en calculant les coefficients à laide de réalisations du code, méthodes dites non-intrusives. Ce travail de thèse s'est intéressé en particulier à une méthode non-intrusive donnée: la méthode de projection non-intrusive. Cette méthode utilise l'orthogonalité des bases de Polynômes de Chaos pour calculer les coefficients du développement par approx­imation de produits scalaires. Ce qui revient ici à approcher numériquement des intégrales. Le problème principal que l'on rencontre alors est le coût numérique important de l'intégration multidimensionnelle en grande dimension, ce qui est généralement le cas en propagation d'incertitudes. Ce coût correspond au nombre de points des formules d'intégration numérique, chaque point nécessitant une réalisation du code de calcul. La projection non-intrusive est généralement associée à la cubature par construc­tion de Smolyak (ou cubature de Smolyak) pour réduire le nombre de points nécessaire à l'intégration. Cependant, lorsque la dimension augmente l'efficacité de cette méthode devient insuffisante et le nombre de points nécessaire trop élevé. Pour diminuer ce coût nous nous sommes tournés vers l'intégration adap­tative et les méthodes de cubature de Smolyak généralisée. La combinaison des deux a récemment permis la mise au point de méthodes de cubature adapta­tive qui permettent de diminuer considérablement le coût d'intégration pour des fonctions anisotropes. Le coeur de cette thèse consiste donc à l'étude de la cubature adaptative à partir de la cubature de Smolyak généralisée et à sa mise en oeuvre pour le calcul du développement en Polynômes de Chaos. Cela nous a amené à proposer notre propre méthode de cubature adaptative ainsi qu'un algorithme pour calculer un développement polynômial adapté au problème. On obtient ainsi un développement polynômial sur une base creuse et un coût numérique d'intégration réduit qui permettent l'étude de problèmes anisotropes de plus grandes dimensions.
APA, Harvard, Vancouver, ISO, and other styles
26

Chakir, Rachida. "Contribution à l'analyse numérique de quelques problèmes en chimie quantique et mécanique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00459149.

Full text
Abstract:
Dans ce travail, nous nous intéressons à l'analyse numérique de problèmes aux valeurs propres non linéaires, comme on peut en trouver en chimie quantique ou en mécanique. La résolution de ces problèmes étant très coûteuse, l'idée est de proposer de nouvelles méthodes permettant de simplifier la résolution de ce type de problèmes et ainsi diminuer le coût de calcul. L'analyse numérique est nécessaire pour comprendre si l'impact positif sur le coût de calcul total n'a pas de mauvaise conséquence sur la précision des résultats. On propose un complément aux travaux existants sur les estimations d'erreur a priori, afin d'obtenir des résultats équivalents à ceux connus dans le cas de problèmes aux valeurs propres linéaires. Ces résultats ont été utilisés pour la mise en oeuvre et l'analyse numérique de nouveaux schémas à deux grilles pour l'approximation de problèmes aux valeurs propres non linéaires. Ensuite, on propose d'adapter ce type de méthode de sous-grilles, pour une utilisation associée à la méthode des bases réduites.
APA, Harvard, Vancouver, ISO, and other styles
27

Chakroun, Chedlia. "Contribution à la définition d'une méthode de conception de bases de données à base ontologique." Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00904117.

Full text
Abstract:
Récemment, les ontologies ont été largement adoptées par différentes entreprises dans divers domaines. Elles sontdevenues des composantes centrales dans bon nombre d'applications. Ces modèles conceptualisent l'univers du discours auxmoyens de concepts primitifs et parfois redondants (calculés à partir de concepts primitifs). Au début, la relation entreontologies et base de données a été faiblement couplée. Avec l'explosion des données sémantiques, des solutions depersistance assurant une haute performance des applications ont été proposées. En conséquence, un nouveau type de base dedonnées, appelée base de données à base ontologique (BDBO) a vu le jour. Plusieurs types de BDBO ont été proposés, ilsutilisent différents SGBD. Chaque BDBO possède sa propre architecture et ses modèles de stockage dédiés à la persistancedes ontologies et de ses instances. A ce stade, la relation entre les bases de données et les ontologies devient fortementcouplée. En conséquence, plusieurs études de recherche ont été proposées sur la phase de conception physique des BDBO.Les phases conceptuelle et logique n'ont été que partiellement traitées. Afin de garantir un succès similaire au celui connupar les bases de données relationnelles, les BDBO doivent être accompagnées par des méthodologies de conception et desoutils traitant les différentes étapes du cycle de vie d'une base de données. Une telle méthodologie devrait identifier laredondance intégrée dans l'ontologie. Nos travaux proposent une méthodologie de conception dédiée aux bases de données àbase ontologique incluant les principales phases du cycle de vie du développement d'une base de données : conceptuel,logique, physique ainsi que la phase de déploiement. La phase de conception logique est réalisée grâce à l'incorporation desdépendances entre les concepts ontologiques. Ces dépendances sont semblables au principe des dépendances fonctionnellesdéfinies pour les bases de données relationnelles. En raison de la diversité des architectures des BDBO et la variété desmodèles de stockage utilisés pour stocker et gérer les données ontologiques, nous proposons une approche de déploiement àla carte. Pour valider notre proposition, une implémentation de notre approche dans un environnement de BDBO sousOntoDB est proposée. Enfin, dans le but d'accompagner l'utilisateur pendant le processus de conception, un outil d'aide à laconception des bases de données à partir d'une ontologie conceptuelle est présenté
APA, Harvard, Vancouver, ISO, and other styles
28

Boussinot, Guillaume. "Etude du vieillissement des superalliages à base nickel par la méthode de champs de phase." Paris 6, 2007. http://www.theses.fr/2007PA066575.

Full text
Abstract:
Nous avons utilisé la méthode de Champs de Phase pour étudier l'évolution de la microstructure gamma-gamma' des superalliages à base nickel, couramment utilisés dans l'industrie aéronautique. L'énergie d'interface gamma/gamma' a fait l'objet de calculs de structure électronique afin de calibrer le modèle de Champs de Phase sur un alliage Ni-Al. Nous avons ensuite étudié le vieillissement de la population de petits précipités gamma' (tertiaires) dans une microstructure bimodale, destinée aux superalliages pour disques de turbine. Les mécanismes physiques gouvernant ce vieillissement ont alors été élucidés. Par la suite, nous avons étudié les superalliages pour aubes de turbine lorsqu'ils sont soumis à une sollicitation extérieure. Notre modèle nous a permis de reproduire la coalescence orientée, fréquemment observée expérimentalement. Nous avons alors, d'une manière phénoménologique, mis au point une première approche pour décrire le fluage des superalliages
APA, Harvard, Vancouver, ISO, and other styles
29

Galliet, Isabelle. "Une version parallèle des méthodes asymptotiques numériques : application à des structures complexes à base d'élastomères." Aix-Marseille 2, 2000. http://www.theses.fr/2000AIX22083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Olive, Xavier. "Approche intégrée à base de modèles pour le diagnostic hors ligne et la conception : application au domaine de l'automobile." Toulouse 3, 2003. http://www.theses.fr/2003TOU30255.

Full text
Abstract:
Cette thèse, réalisée dans le cadre d'une convention CIFRE entre ACTIA et le LAAS-CNRS, s'inscrit dans la thématique du diagnostic à base de modèles appliquée au domaine de l'automobile. Elle fait suite à une thèse pendant laquelle une méthode opérationnelle, appelée AGENDA (Automatic GENeration of DiAgnosis trees), fut conçue et développée pour résoudre le Test Sequencing Problem. Le travail a consisté à étendre l'applicabilité d'AGENDA et à améliorer les performances de cette approche. Nous avons étendu les concepts de modélisation d'AGENDA à des composants à plusieurs modes de fonctionnement. Ces modèles constituent le coeur du système de diagnostic que nous proposons, et peuvent s'adapter à des tâches d'analyse pour la conception des systèmes (AMDEC, analyse des causes insidieuses, étude de diagnosticabilité et placement de capteurs), résultant en une approche intégrée pour le diagnostic et la conception. Pour le diagnostic, deux variantes de l'algorithme AO*, ont été proposées pour générer des arbres de diagnostic presque-optimaux en réduisant les temps de calcul. Une méthode d'isolation de fautes qualitative à base de cohérence a été développée dans le but de prendre en compte les fautes de déviation des paramètres. Elle permet de générer des arbres de diagnostic hors ligne, mais aussi de réaliser une session de diagnostic interactif par un raisonnement qualitatif de type déduction.
APA, Harvard, Vancouver, ISO, and other styles
31

Nedjar, Sébastien. "Cubes émergents pour l'analyse des renversements de tendance dans les base de données multidimensionnelles." Aix-Marseille 2, 2009. http://theses.univ-amu.fr.lama.univ-amu.fr/2009AIX22088.pdf.

Full text
Abstract:
Découvrir des renversements de tendances entre deux cubes de données offre aux utilisateurs une connaissance nouvelle et intéressante lors des fluctuations de l’univers réel modélisé : quelles sont les nouveautés ? Quelle tendance apparaît ou disparaît ? Nous introduisons le nouveau concept de Cube Emergent. Il capture les renversements de tendances en mettant en oeuvre une contrainte d’émergence (conjonction de contrainte monotones et antimonotones). Les bordures, classiques en fouille de données, sont reprises pour le Cube Emergent. Dans un second temps, nous proposons un nouveau couple de bordures pour optimiser à la fois l'espace de stockage et le temps de calcul. Cette nouvelle représentation fournit une caractérisation simple de la taille du Cube Emergent aussi bien que des outils de classification et de navigation dans les cubes. La connexion entre les bordures classiques et celles proposées est formellement établie en utilisant le concept de cube transversal. Connaître la taille du Cube Emergent est d’un grand intérêt, en particulier pour ajuster au mieux la contrainte d’émergence sous-jacente. Cette problématique est traitée en étudiant une borne supérieure et en caractérisant la taille exacte du Cube Emergent. Deux stratégies sont proposées pour estimer rapidement cette taille : la première est basée sur une estimation analytique, sans acc`es à la base de données, la seconde s’appuie sur un comptage probabiliste utilisant les bordures proposées comme entrée de l’algorithme proche de l’optimal HYPERLOGLOG. Grâce à la particuli`ere efficacité de cet algorithme, plusieurs itérations peuvent être réalisées pour calibrer au mieux la contrainte d’émergence. De plus, des nouvelles représentations réduites et sans perte d’information du Cube Emergent sont proposées en utilisant le concept de fermeture cubique
Discovering trend reversals between two data cubes provides users with a novel and interesting knowledge when the real world context fluctuates : what is new? Which trends appear or emerge? Which tendencies are immersing or disappear? With the concept of Emerging Cube, we capture such trend reversals by enforcing an emergence constraint. We resume the classical borders fot eh Emerging Cube and introduce a new one which optimiszes both storage space and computation time, provides a simple characterization of the size Emerging Cubes, as well as classification and cube navigation tools. We soundly state the connection between the classical and proposed borders by using cube transversals. Knowing the size of Emerging Cubes without computing them is of great interest in particular for adjusting at best the underlying emergence constraint. We address the issue by studying an upper bound and characterization the exact size of Ermerging Cubes. We propose two strategies for quickly estimate their size : one based on analytical estimation, without database access, and one based on probabilistic counting using the proposed borders as the input of the near-optimal algorithm HyperLogLog. Due to the efficiency of the estimation algorithm various iterations can be performed to calibrate at the best the emergence constraint. Moreover, we propose reduced and lossless representations of the Emerging Cube by using the concept of cube closure. Finally we perform experiments for different data distributions in order to measure on one hand the size on the introduced condensed and concise representations and on the other hand the performance (accuracy and computation time) of the proposed estimation method
APA, Harvard, Vancouver, ISO, and other styles
32

Casenave, Fabien. "Méthodes de réduction de modèles appliquées à des problèmes d'aéroacoustique résolus par équations intégrales." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1076/document.

Full text
Abstract:
Cette thèse s'articule autour de deux thématiques : les méthodes numériques pour la propagation d'ondes acoustiques sous écoulement et les méthodes de réduction de modèles. Dans la première thématique, nous développons une méthode de couplage d'éléments finis et d'éléments de frontière pour résoudre l'équation d'Helmholtz convectée, lorsque l'écoulement est uniforme à l'extérieur d'un domaine borné. En particulier, nous proposons une formulation bien posée à toutes les fréquences de la source. Dans la deuxième thématique, nous proposons une solution au problème classique d'accumulation d'arrondis machine qui survient en calculant l'estimateur d'erreur a posteriori dans la méthode des bases réduites. Par ailleurs, nous proposons une méthode non intrusive pour calculer une approximation sous forme séparée des systèmes linéaires résultant de l'approximation en dimension finie de problèmes aux limites dépendant d'un ou plusieurs paramètres
This thesis has two topics : numerical methods for acoustic wave propagation in a flow and reduced order models. In the first topic, we develop a coupled finite element and boundary element method to solve the convected Helmholtz equation, when the flow is uniform outside a bounded domain. In particular, we propose a formulation that is well-posed at all the frequencies of the source. In the second topic, we propose a solution to the classical problem of round-off error accumulation that occurs when computing the a posteriori error bound in the reduced basis method. Furthermore, we propose a non intrusive method for the approximation, in a separated representation form, of linear systems resulting from the finite-dimensional approximation of boundary-value problems depending on one or several parameters
APA, Harvard, Vancouver, ISO, and other styles
33

Ovsyannikov, Andrey. "Nouveau développement de la méthode Level Set sur la base d'une équation modifiée de suivi d'interface." Thesis, Ecully, Ecole centrale de Lyon, 2013. http://www.theses.fr/2013ECDL0013/document.

Full text
Abstract:
Pas de résumé
The level set method was introduced by Osher & Sethian (1988) as a general technique to capture moving interfaces. It has been used to study crystal growth, to simulate water and fire for computer graphics applications, to study two-phase flows and in many other fields. The wellknown problem of the level set method is the following: if the flow velocity is not constant, the level set scalar may become strongly distorted. Thus, the numerical integration may suffer from loss of accuracy. In level set methods, this problem is remedied by the reinitialization procedure, i.e. by reconstruction of the level set function in a way to satisfy the eikonal equation. We propose an alternative approach. We modify directly the level set equation by embedding a source term. The exact expression of this term is such that the eikonal equation is automatically satisfied. Furthermore on the interface, this term is equal to zero. In the meantime, the advantage of our approach is this: the exact expression of the source term allows for the possibility of derivation of its local approximate forms, of first-and-higher order accuracy. Compared to the extension velocity method, this may open the simplifications in realization of level set methods. Compared to the standard approach with the reinitialization procedure, this may give the economies in the number of level set re-initializations, and also, due to reduced number of reinitializations, one may expect an improvement in resolution of zero-set level. Hence, the objective of the present dissertation is to describe and to assess this approach in different test cases
APA, Harvard, Vancouver, ISO, and other styles
34

Dian, Ahmed. "Développement d'une méthode variationnelle en base de B-splines pour la résolution de problèmes vibrationnels moléculaires." Doctoral thesis, Universite Libre de Bruxelles, 2002. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211464.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Delemar, Olivier. "Reconnaissance de la parole par une méthode hybride : texte imprimé : Réseaux markoviens et base de règles." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0052.

Full text
Abstract:
Parmi les differents traitements operant en reconnaissance automatique de la parole, le decodage acoustico-phonetique occupe une place privilegiee tant la robustesse dont il doit faire preuve conditionne le bon fonctionnement de l'ensemble du processus. Si les methodes stochastiques de decodage et en particulier les chaines de markov cachees se sont revelees etre les plus efficaces, de nombreux travaux ont ete menes visant a ameliorer leurs performances. Dans ce sens, les recherches se sont tournees vers des methodes hybrides de decodage, souvent avec succes. Qu'ils utilisent des reseaux neuro-mimetiques, des regles deterministes ou des modeles markoviens, le principe directeur de ces systemes hybrides est de tirer parti des avantages de chacune des methodes mises en uvre. Nous presentons dans cette these une tentative de faire cooperer des hmms et un systeme expert base sur des regles deterministes dans un processus de decodage phonetique purement ascendant, ce qui signifie que l'hybridation intervient au cur meme de l'algorithme de decodage par les chaines de markov. La mise en uvre d'une telle methode necessitant une relation stable et non equivoque entre les etats des modeles markoviens et les evenements acoustiques constituant la parole, nous avons mis au point des techniques originales de controle de la topologie des modeles et de la duree des etats. Les etudes que nous avons menees par la suite sur les modeles hybrides ont montre l'interet des regles deterministes contraignant le processus stochastique lorsque celles-ci sont suffisamment robustes pour fournir des informations pertinentes. Si le gain en terme de performance reste limite en regard du cout de traitement, notre methode d'hybridation peut etre avantageusement employee pour integrer aux chaines de markov toute donnee d'ordre deterministe
APA, Harvard, Vancouver, ISO, and other styles
36

Petite, Hervé. "Etude d'une nouvelle méthode de réticulation (dite aux acyl-azides) de biomatériaux à base de collagène." Lyon 1, 1991. http://www.theses.fr/1991LYO10023.

Full text
Abstract:
Le but de notre travail a ete de mettre au point une methode de reticulation dite aux acyl azides stabilisant le collagene de facon equivalente a un traitement par le glutaraldehyde mais limitant les problemes de cytotoxicite et de calcification engendres par le glutaraldehyde. Cette reticulation s'effectue par transformation des groupements carboxyliques du collagene en acyl azide qui reagissent alors sur les fonctions aminees des chaines laterales voisines induisant une liaison de type covalente. Le pericarde de veau traite par cette methode s'est avere avoir une stabilite thermique, des proprietes mecaniques, une resistance a la degradation chimique similaire a un tissu traite par le glutaraldehyde. En culture organotypique, il s'est revele non cytotoxique contrairement a un meme materiau traite par le gta 0. 6%. In vivo, le pericarde de veau traite par les acylazides s'est avere capable de retarder le mineralisation des implants durant 4 mois. Au-dela les teneurs en calcium des implants traites aux acylazides ou glutaraldehyde etaient voisines
APA, Harvard, Vancouver, ISO, and other styles
37

Mota, Jean-Marc. "Méthodes formelles pour la modélisation géométrique à base topologique : définitions et algorithmes avec la méthode B." Evry-Val d'Essonne, 2005. http://www.theses.fr/2005EVRY0009.

Full text
Abstract:
A méthode B est un langage de spécifications formelles largement utilisé pour le développement de logiciels critiques. Nous l'avons utilisée pour concevoir des logiciels complexes, appelés modeleurs géométriques, qui rendent possible la manipulation et la création des images de synthèses. Notre travail de formalisation et de preuve d'un noyau de modeleur géométrique à base topologique et d'une opération topologique réputée difficile permettant d'arrondir un objet, a montré les limites et les difficultés d'une approche consistant à traduire de manière quasi-syntaxique en B les définitions mathématiques existantes. Néanmoins, nous avons proposé une autre approche fondée sur une extension de la méthode B appelée B événementiel. Nous l'avons expérimenté avec succès sur un algorithme permettant de construire la subdivision du plan induite par un ensemble de droites. En conclusion, la méthode B semble être adaptée à la modélisation géométrique : l'expérience est donc à poursuivre
The B method is a formal specification language used in order to develop critical systems. We used this language to develop complex softwares called modellers. These softwares allow to handle and create computer-generated images. Our work consists in the formalization and the proof of a topology-based modeller kernel and of a complex operation which is the topological part of the rounding operation. It teaches us the limits and difficulties of the approach which consists in translating mathematical definitions directly into formal specifications. Nevertheless, we proposed another approach based on an extension of the B method called event B. We used it successfully to specify a geometrical algorithm which calculates the subdivision of the plan corresponding to a set of lines. In conclusion, the method B seems to be adapted to geometric modelling: the experience deserves to be continued
APA, Harvard, Vancouver, ISO, and other styles
38

Pan, Jingjing. "Estimation des temps de retard et localisation de sources avec des systèmes Radar." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4016/document.

Full text
Abstract:
La localisation de sources (en champ lointain ou en champ proche) et l'estimation des temps de retard ont de nombreuses applications pratiques. Pour localiser une source en champ lointain à partir d'un réseau de capteur, seule la direction d'arrivée (DDA) de la source est nécessaire. Quand les sources se situent dans une situation de champ proche, le front d'onde du signal est sphérique et deux paramètres sont nécessaires pour localiser les sources : la direction d'arrivée et la distance entre la source et le réseau de capteurs. Dans cette thèse, on se focalise sur la localisation de sources (en champ lointain et en champ proche) ainsi sur l'estimation des temps de retard dans le contexte où les signaux sont cohérents, mélangés et avec un faible nombre de réalisation. Tout d'abord, nous proposons de combiner la théorie de la méthode SVR (Support vector regression qui est une méthode de régression à base d'apprentissage supervisée) avec la théorie de la prédiction linéaire avant-arrière. La méthode proposée, appelée FBLP-SVR, est développée pour deux applications : la localisation de sources en champ lointain et l'estimation des temps de retard des échos radar en champ lointain. La méthode développée est évaluée par des simulations et des expérimentations. Nous proposons également une méthode de localisation de sources en champ proche dans le contexte où les signaux sont cohérents et mélangés. La méthode proposée est basée sur une technique de focalisation, de moyennage en sous-bande et sur une méthode à sous-espaces pour l'estimation des DDAs. Ensuite, les distances entre les sources et le réseau de capteur sont estimées avec la méthode du maximum de vraisemblance
Source localization (in far-field or in nearfield) and time-delay estimation have many practical applications. To locate a far-field source from a sensor array, only the direction of arrival (DOA) of the source is necessary. When the sources are in a nearfield situation, the wavefront of the signal is spherical and two parameters are needed to locate the sources: the direction of arrival and the distance between the source and the sensors. In this thesis, we focus on the localization of sources (both in far-field and nearfield) as well as the estimation of time-delay in the context where the signals are coherent, overlapped and with a small number of snapshots. First, we propose to combine the theory of the SVR method (support vector regression, which is a supervised learning-based regression method) with the theory of forward-backward linear prediction (FBLP). The proposed method, called FBLP-SVR, is developed for two applications: far-field source localization and time-delay estimation by using ground penetrating radar. The proposed method is evaluated by simulations and experiments. We also propose a near-field source localization method in the context where the signals are coherent and overlapped. The proposed method is based on a focusing technique, a spatial smoothing preprocessing, and a subspace method in the estimation of DOA. Then, the distances between the sources and sensors are estimated with the maximum likelihood method
APA, Harvard, Vancouver, ISO, and other styles
39

Tilotta, Françoise. "Contribution à la reconstitution faciale en médecine légale : proposition d’une nouvelle méthode statistique." Université de Paris-Sud. UFR STAPS d'Orsay (Essonne), 2008. http://www.theses.fr/2008PA113002.

Full text
Abstract:
Grâce au développement de l'informatique et de l'imagerie médicale, de nouvelles approches ont été proposées afin de reconstituer un visage à partir d’un crâne sec et d’identifier un individu. La majorité de ces méthodes sont fondées sur une approche globale et traitent le visage dans son intégralité. Dans cette étude, nous choisissons d’explorer une approche locale et individuelle reposant sur la construction de maillage dense individuel et l’analyse de régions précises du visage. Dans un premier temps, nous constituons une base de données comprenant 47 scanners de tête entière réalisés sur des patients volontaires de sexe féminin, européens et âgés de 20 à 40 ans. Nous appliquons sur chacun de ces scanners un traitement mathématique comportant des étapes de segmentation et la construction de maillages. De plus, 39 points anatomiques sont localisés manuellement sur chaque maillage. Notre approche permet le calcul de géodésiques sur la surface maillée et l'extraction de morceaux de la surface osseuse qui sont délimités par les géodésiques et les points anatomiques (patch-os). La mise en correspondance des patches-os des différents individus de la base s’effectue par recalage et permet de déduire une notion de distance entre patches-os. Une notion d’épaisseur moyenne au-dessus d’un patch-os et une notion de surface moyenne de peau au-dessus du patch-os sont définies. Dans notre approche, chaque patch-os d’un crâne sec non identifié est habillé à l’aide de l’épaisseur ou de la surface moyenne calculée à partir des individus de la base de données dont le patch-os correspondant est proche en terme de distance après recalage
In recent years, the development of IT and medical imaging has had a major impact on facial reconstruction. New strategies have been proposed to reconstitute the morphology of a face from the observation of a skull. Usually, these techniques are based either on few landmark measurements or on the use of templates associated to the face and the skull. In our work, we choose a local and individual approach based on the used of dense meshes associated to a large collection of landmarks directly extracted from CT-scans. Our method allows to reconstruct local features on the skull like the nose with a good accuracy. We first built a database with 47 CT-Scan using whole head performed on 47 volunteers European women aged from 20 to 40 years. Our image processing includes 1/ the segmentation of both skull and external skin surface for each slice; 2/ the construction of two 3D surfaces by meshing curves on successive slices. Then 39 landmarks are manually located on each skull mesh. Our image processing step allows to compute geodesics on the meshed surface and extract anatomically identified feature from the bone surface (bone patch). Using registration techniques it is possible to construct a distance between individual features on the skull (bone patch) and to compute average of the corresponding skin features. We have derived two approaches to compute such average of skin features : one is based on the extraction of skin thickness, the second is based on the extraction of the external skin surface
APA, Harvard, Vancouver, ISO, and other styles
40

Jemal, Ellouze Fatma. "Modélisation du comportement thermomécanique d'un alliage à mémoire de forme à base de fer type Fe-Mn-Si." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10135/document.

Full text
Abstract:
Il est bien connu que les alliages à mémoire de forme (AMF) sont considérés comme une classe particulière de matériaux qui peuvent retrouver une forme préalablement définie par simple chauffage. Cette propriété remarquable, appelée effet mémoire de forme, peut être exploitée dans la conception d'applications originales afin de trouver les solutions intéressantes aux problèmes rencontrés dans divers champs industriels. Dans notre travail, nous proposons une loi constitutive tridimensionnelle thermomécanique adaptée aux alliages à mémoire de forme à base de fer. Elle tient compte de l'effet de la transformation martensitique et des mécanismes de glissement plastique et leurs interactions. La formulation adoptée est basée sur une description micromécanique simplifiée. La comparaison entre les forces motrices et les forces critiques d'activation des mécanismes mis en jeu nous ont permis de déterminer le type de comportement induit pour un niveau de chargement donné. Nous avons adopté le schéma implicite d'intégration de Newton-Raphson pour la résolution de ce système. Les résultats obtenus pour des chargements thermomécaniques sont comparés à ceux obtenus expérimentalement
It is well known that Shape Memory Alloys (SMA) are a particular class of materials that can recover a memorized shape by simple heating. This remarkable property, called the Shape Memory Effect (SME), can be exploited in the design of original applications in order to find attractive solutions to problems encountered in various industrial fields. We propose a thermo-mechanical three-dimensional constitutive law adapted to Fe-based shape memory alloys. It takes into account the effect of the martensitic transformation and the plastic slip mechanisms and their interaction. The adopted formulation is based on a simplified micromechanical description. The macroscopic behaviour is derived by considering the equivalent homogeneous effect on a representative volume element. The Gibbs free energy expression is defined. Thermodynamic driving forces are then derived and compared to critical forces leading to the constitutive equations solved by Newton–Raphson numerical scheme. Obtained results for thermo-mechanical loadings are compared to experimental ones
APA, Harvard, Vancouver, ISO, and other styles
41

Trojet, Mohamed Wassim. "Approche de vérification formelle des modèles DEVS à base du langage Z." Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX30040.

Full text
Abstract:
Le cadre général dans lequel se situe cette thèse concerne l’amélioration de la vérification et la validation des modèles de simulation par l'intégration des méthodes formelles. Notre approche consiste à doter les modèles DEVS d’une approche de vérification formelle basée sur le langage Z. DEVS est un formalisme qui permet la description et l'analyse du comportement des systèmes à évènements discrets, c'est à dire, les systèmes dont le changement d'état dépend de l'occurrence d'un évènement. Un modèle DEVS est essentiellement validé par la simulation qui permet de vérifier si celui ci décrit bien le comportement du système. Cependant, la simulation ne permet pas de détecter la présence d’une éventuelle inconsistance dans le modèle (un conflit, une ambiguïté ou une incomplétude). Pour cela, nous avons intégré un langage de spécification formelle dans le formalisme DEVS connu sous le nom de Z. Cette intégration consiste à: (1) transformer un un modèle DEVS vers une spécification Z équivalente et (2) vérifier la consistance de la spécification résultante utilisant les outils développés par la communauté Z. Ainsi un modèle DEVS est soumis à une vérification formelle automatique avant son passage à la phase de simulation
The general framework of the thesis consists in improving the verification and the validation of simulation models through the integration of formal methods. We offered an approach of formal verification of DEVS models based on Z language. DEVS is a formalism that allows the description and analysis of the behavior of discrete event systems, ie systems whose state change depends on the occurrence of an event. A DEVS model is essentially validated by the simulation which permits to verify if it correctly describes the behavior of the system. However, the simulation does not detect the presence of a possible inconsistency in the model (conflict, ambiguity or incompleteness). For this reason, we have integrated a formal specification language, known as Z, in the DEVS formalism. This integration consists in: (1) transforming a DEVS model into an equivalent Z specification and (2) verifying the consistency of the resulting specification using the tools developed by the Z community. Thus, a DEVS model is subjected to an automatic formal verification before its simulation
APA, Harvard, Vancouver, ISO, and other styles
42

Ben, Souf Mohamed Amine. "Approche stochastique à base de modes d'ondes : théorie et applications en moyennes et hautes fréquences." Thesis, Ecully, Ecole centrale de Lyon, 2012. http://www.theses.fr/2012ECDL0035/document.

Full text
Abstract:
Ce travail de recherche a été réalisé au sein du Laboratoire de Tribologie et Dynamique des Systèmes de l’École Centrale de Lyon (FRANCE) en cotutelle avec l’Unité de Mécanique, Modélisation et Productique (U2MP) à l’École Nationale d’Ingénieurs de Sfax (TUNISIE) dans le cadre du projet européen "Mid-Frequency". La prédiction du comportement dynamique des structures est une tâche importante dans la phase de conception de tout produit mécanique. Le choix de l’outil ou de la méthode utilisée dépend de plusieurs facteurs. Pour un système dynamique, la bande de fréquence d’étude est l’un des paramètres essentiels étant donné qu’il existe des approches appropriées pour chaque domaine fréquentiel. Ces derniers seront rapidement inapplicables en changeant le domaine d’application. Par exemple, les méthodes dites hautes fréquences ou globales sont très limitées dans la partie basse du spectre. De même, les méthodes dites basses fréquences deviennent, numériquement, très lourdes et peu performantes si l’on monte en fréquence. Les moyennes fréquences représentent alors les hautes fréquences pour les méthodes globales et les basses fréquences pour les méthodes locales. Comme les incertitudes jouent un rôle important dans les comportements vibratoires en moyennes fréquences, le travail présenté de ce mémoire est une contribution à la recherche d’une approche peu coûteuse en temps de calcul permettant l’extension d’une méthode locale : la méthode des éléments finis ondulatoires, à cette bande de fréquence pour les systèmes à caractère non déterministe. Cette contribution consiste à tenir compte des incertitudes présentes dans le système étudié pour évaluer la dispersion des différents paramètres (spectraux, de diffusion, dynamiques, etc.) et leurs effets sur la réponse globale (cinématique et énergétique) de la structure. Le travail présenté peut être partagé en deux parties. La première concerne le développement des formulations explicites et directes des dispersions des différents paramètres. Cette partie se base sur l’utilisation de la méthode de perturbation à l’ordre un. La deuxième partie est une généralisation de la première. En effet, l’utilisant de la projection des variables aléatoires sur la base des polynômes de chaos permet une évaluation plus générale des effets des incertitudes sur la dynamique des structures périodiques en moyennes fréquences
The prediction of dynamic behavior of structures is an important task in the design step of any mechanical product. There are many factors affecting the choice of the used methods. For a dynamic system, the frequency band under study is one of the important parameters since for each frequency range exists its appropriate approach which can be quickly inapplicable in other domains. For example, the high frequency methods are very limited in the lower part of the spectrum. Similarly, the so-called low-frequency methods become numerically inefficient if it goes up in frequency range. The mid-frequencies then represent the high-frequencies for global and low frequencies for local methods. Knowing that uncertainties play an important role on the vibro-acoustics behavior in mid-frequencies, the presented work is a contribution to the research approach, with inexpensive computing time, allowing the extension of a local method, called ’the wave finite element method’, in this frequency band. These contributions consist in taking into account uncertainties in the studied system to evaluate the dispersion of all parameters (spectral, diffusion, dynamics, etc.) and their effects on the global response (kinematic and energetic) of the structure. The presented work can be divided into two main parts. The first one involves the development of an explicit and direct formulation describing the dispersion of different parameters; this part is based on the first-order perturbation method. The second part is a generalization of the first one; indeed, using the chaos polynomial projection of all random variables allows a more general assessment of the effects of uncertainties on the dynamics of periodic structure in mid-frequency range
APA, Harvard, Vancouver, ISO, and other styles
43

Leyni-Barbaz, Daniel. "Développement d'une méthode de dosage du mercure dans l'air à base d'hopcalite par analyse par activation neutronique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/MQ65562.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Hamon, Dominique. "Préparation par la méthode des sels fondus de supports à base de zircone : application aux catalyseurs sulfures." Lyon 1, 1991. http://www.theses.fr/1991LYO10177.

Full text
Abstract:
L'amelioration des catalyseurs d'hydrotraitement peut etre realise par l'utilisation de nouveaux supports. Des solides a base d'oxyde de zirconium ont ete prepares par une methode originale: la synthese en milieu sels fondus. On a ainsi obtenu de la zircone-yttriee, sous forme quadratique, dans laquelle la repartition y/zr est homogene et qui presente des caracteristiques texturales (s#b#e#t=140 m#2/g, vp=0. 29 cm#3/g, stabilite aux traitements thermiques verifies jusqu'a 600c) compatibles avec une utilisation comme support de catalyseurs sulfures. Les catalyseurs sulfures mo et nimo supportes sur zro2-y presentent des activites specifiques dans des reactions modeles d'hdt (hyd, hds et hdn) superieures a celles des catalyseurs mo et nimo supportes sur alumine, utilises comme references. Les caracterisations physico-chimiques de ces catalyseurs (drx, spectroscopie uv et des rx, microscopie electronique) montrent qu'il y a une forte interaction entre le mo et la zircone, conduisant a une bonne dispersion de la phase active. L'effet de support apporte par la zircone est en partie explique par les faibles dimensions des crystallites de mos#2 qui y sont deposes. La synthese en milieu sels fondus a ete etendue a l'elaboration d'oxydes doubles zro#2-y-al#2o#3 dans lesquels la zircone et l'alumine se retrouvent sous deux formes distinctes, la zircone etant stabilisee par l'yttrium sous sa forme quadratique. Pour un rapport molaire de 1/1 entre alumine et zircone, on obtient des proprietes texturales interessantes
APA, Harvard, Vancouver, ISO, and other styles
45

Callen, Olivier. "Nouvelle méthode d'investigation par effet Hall des états d'interface dans les composants à base d'hétérostructures III-V." Montpellier 2, 2000. http://www.theses.fr/2000MON20029.

Full text
Abstract:
Cette these demontre l'interet des heterostructures semi-conductrices pour la caracterisation des etats presents aux interfaces dielectrique/semi-conducteur (d/sc), etats qui jouent un role important dans les composants electroniques actuels. Deux methodes originales de caracterisation de l'interface d/sc sont proposees. La premiere est une methode de mesure du spectre dit(e) des etats d'interface. Elle est basee sur la mesure de la densite de porteurs ns dans des motifs de hall recouverts du dielectrique a caracteriser et equipes d'une grille metallique (structures mis-h : metal-isolant-semiconducteur a heterostructure). Dans ces structures, ns est en effet l'image directe du niveau de fermi a la surface du sc. Cette propriete permet d'acceder a dit par la mesure dc de la tension de hall en fonction de la tension de grille vg. Cette methode se distingue des methodes usuelles (c-v, analyse de la conductance et dlts) par sa precision, sa capacite a mesurer des densites d'etats elevees et sa facilite de mise en uvre. La seconde methode, baptisee cfts (spectroscopie par analyse de transitoires effectues a niveau de fermi constant), permet de situer dit par rapport a la bande interdite du sc. Elle est basee sur la fixation par un asservissement externe du niveau de fermi dans la structure. A l'interface sinx/gaas, nous mesurons un spectre dit a profil en u avec un minimum de 4. 10 1 2 cm 2. Ev 1 situe a 0. 8 ev du minimum de la bande de conduction. Les spectres obtenus ont ete introduits dans un modele detaille de la reponse dynamique des composants. L'excellent accord mesures/modele, quel que soit le regime d'excitation de vg (continu, alternatif et transitoire), confirme la validite de la methode de determination de dit et la coherence de la modelisation proposee. Ces deux methodes composent un ensemble coherent de caracterisation des etats d'interface dans une heterostructure, applicable quelle que soit la filiere technologique des heterostructures.
APA, Harvard, Vancouver, ISO, and other styles
46

Messager, Cyrielle. "Datation par la méthode du radiocarbone de pigments et peintures anciennes à base de blanc de plomb." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASJ005.

Full text
Abstract:
La datation par la méthode du radiocarbone fait partie des méthodes d’analyse utilisées en archéologie et histoire de l’art pour déterminer l’âge d’un objet constitué de matériaux issus d’organismes vivants. Aujourd’hui, dans le domaine des arts, et en particulier dans celui de la peinture, les constituants d’une œuvre peinte accessibles à cette technique sont les supports en bois, en toile ou papier et, depuis peu, les liants d’origine végétale ou animale. Cependant, le résultat provenant des supports ne reflète pas toujours la date de réalisation de l’œuvre en raison du réemploi habituel de ces matériaux. Le liant n’est, quant à lui, pas toujours organique ni présent en quantité suffisante. Trouver d’autres matériaux du peintre datables par 14C est donc d’importance pour authentifier une œuvre picturale. À l’exception du noir de carbone issu du charbon de bois ou d’os, la plupart des autres constituants des couches de peintures semblent inappropriés car il s’agit, généralement, de pigments inorganiques extraits de minerais naturels et dépourvus en 14C.Le blanc de plomb est un pigment qui a été très largement utilisé de l’Antiquité jusqu’au tout début du 20ème siècle. L’étude des mécanismes de sa synthèse a récemment mis en évidence le rôle du dioxyde de carbone dans la formation des deux carbonates de plomb (cérusite et hydrocérusite) qui le compose. Ainsi, l’incorporation de carbone lors de la production du blanc de plomb fait de lui un potentiel candidat pour la datation radiocarbone et pour l’authentification des œuvres peintes.Ce travail de thèse a consisté à mettre en place les protocoles expérimentaux pour la mesure des isotopes du carbone (13C et 14C) dans les pigments et peintures à base de blanc de plomb afin de tester cette hypothèse. Un protocole d’extraction du carbone des carbonates de plomb a été développé et adapté à la nature et à la complexité des matériaux étudiés, pigment brut ou chargé et peinture. L’étude s’appuie sur les propriétés de décomposition thermique des carbonates de plomb et permet de déterminer les meilleures conditions d’extraction du carbone. La méthode a ensuite été éprouvée et validée sur un large panel d’échantillons modèles et d’échantillons historiques d’âge connu. De plus, les données isotopiques du carbone ont été mises en relation avec les recettes historiques et ont permis de discriminer les différents procédés de production du blanc de plomb.Cette thèse a permis de démontrer que le blanc de plomb est un pigment inorganique datable par la méthode du radiocarbone : la mesure 14C fournit alors sa date de fabrication. La démarche et les protocoles présentés pour cette étude pourraient également être adaptés à d’autres pigments inorganiques de peinture contenant du carbone organique, augmentant ainsi le nombre de matériaux disponibles pour la datation et l’authentification du patrimoine pictural
Radiocarbon dating is one of the analytical methods used in archaeology and art history to determine the age of an object made up of materials from living organisms. Today, in the field of the arts, and particularly for paintings, the supports in wood, canvas or paper, and recently the binders of plant and animal origin are the only constituents of painted works accessible to this technique. However, the results coming from the supports do not always reflect the date of creation of the artwork because of the common reuse of these materials. In addition, the binder is not always organic or present in sufficient quantities. Finding other materials that can be dated by 14C is therefore important to authenticate a painting. Except black carbon made from charcoal or bone, most of the others constituents of the paint layers are not appropriate because they are generally inorganic pigments, extracted from natural ores and depleted in 14C.Lead white is a synthesized inorganic pigment, widely used from Antiquity to the very beginning of the 20th century. The study of the mechanism of its synthesis has recently highlighted the role of carbon dioxide in the formation of cerussite and hydrocerussite, the two lead carbonates that compose this pigment. Thus, by considering the incorporation of carbon during the synthesis, lead white seems to be a potential candidate for radiocarbon dating and for the authentication of painted artworks.This thesis work consisted in setting up experimental protocols based on the measurement of carbon isotopes (13C and 14C) in lead white based pigments and paints in order to test this hypothesis. A protocol for the extraction of carbon from lead carbonates was developed and adapted to the nature and complexity of the materials studied, raw or filled pigment and paint. The study is based on the thermal decomposition properties of lead carbonates and allows to determine the best conditions for carbon extraction. This method was then tested and validated on a large panel of model samples and historical samples of know age. In addition, the carbon isotopic data were related to the historical recipes and made it possible to discriminate between the different lead white production processes.This thesis demonstrates that lead white is an inorganic pigment that can be radiocarbon dated. The 14C measurement provides information on the date of its manufacture. The approach and protocols presented for this study could also be adapted to other inorganic paint pigments containing organic carbon, thus increasing the number of available materials for dating and authenticating pictorial works of art
APA, Harvard, Vancouver, ISO, and other styles
47

Boucard, Didier. "Une méthode de reconstitution de scènes 3D fondée sur une base de connaissances : application à l'architecture classique." Nantes, 2004. http://www.theses.fr/2004NANT2121.

Full text
Abstract:
Malgré le réalisme des images de synthèse, leur modélisation reste très long, car l'utilisateur doit donner des informations (parfois) implicites sur le domaine. L'utilisation d'un système utilisant la connaissance du domaine pourrait donc s'avérer utile. L'objet de cette thèse est l'étude de la faisabilité d'un système à base de connaissances et des apports induits par l'utilisation de ce type d'outil. Après avoir identifié différents niveaux d'abstraction et montré leur application à un domaine précis, nous montrons leur interaction. Le domaine témoin choisi est l'architecture classique et la représentation de la connaissance utilise le formalisme des graphes conceptuels. Les bénéfices de cette approche sont : une description avec les termes de l'utilisateur, un respect automatique des règles du domaine, une gestion des concepts incomplets et l'allègement du système grace à l'exploitation de la connaissance
Even if computer generated images are realistic, their modeling remains long because the user has to give the system (sometimes) implicit data on the domain. The use of a system using domain knowledge could be useful. This thesis goal is to study if such a knowledge-based system is feasible and what are the advantages of this kind of tools. After having identified different abstraction layers in such an approach and shown their application to an identified domain, we have shown their interaction. The chosen domain is the classical architecture and knowledge representation uses the conceptual graphs formalism. Benefits of such an approach are: a description with the user's terms, domain rules are automatically respected, the manipulation of incompletely described concepts and a lightening of the software use due to the use of domaine knowledge
APA, Harvard, Vancouver, ISO, and other styles
48

Kempf, Jean-Yves. "Détermination des propriétés électroniques des oxydes de métaux de transition à base de vanadium." Nancy 1, 1995. http://www.theses.fr/1995NAN10194.

Full text
Abstract:
L’intercalation d'ions alcalins au sein des oxydes de métaux de transition est à la base des futures applications aux enjeux économiques et esthétiques importants. Nous proposons une étude théorique des propriétés électroniques du vanadium dans un oxyde lamellaire de basse dimensionnalité en calculs Hartree-Fock périodiques sur V2O5. Nous avons confronté nos résultats a ceux obtenus sur des oxydes à base de vanadium en milieu gazeux, l'ion décavanadate et quelques chloroalkoxydes. Les propriétés électroniques fondées sur les densités de déformation, les fonctions de localisation électronique, le potentiel électrostatique, les populations atomiques décrites au moyen d'une approche de topologie de bader, permettent une connaissance approfondie des liaisons métal-oxygène dans ces complexes. Afin de valider nos résultats théoriques, nous les avons comparés à des résultats expérimentaux, surtout de RMN
APA, Harvard, Vancouver, ISO, and other styles
49

Amirouche, Nesrine. "Dispositifs absorbants à base de matériaux à double porosité dans des champs acoustiques complexes." Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0039/these.pdf.

Full text
Abstract:
L'usage des matériaux poreux acoustique dans les systèmes absorbants est très répandu, et touche des domaines de plus en plus diversifiés, tels que le secteur du bâtiment, l'industrie automobile et aéronautique, les équipements des espaces publics et environnementaux, ou encore les usines (encoffrements de machines, traitement des locaux industriels). Les matériaux poreux, souvent performants en moyennes et hautes fréquences, présentent d'importantes défaillances en basses fréquences, alors que beaucoup de spectres de bruits rencontrés dans les divers secteurs cités plus haut, présentent une énergie importante dans cette gamme fréquentielle. Un moyen d'améliorer les performances des matériaux poreux est le concept de double porosité. Il a été démontré que sous certaines conditions, les matériaux méso-perforés ont de meilleures performances en absorption en basses fréquences, lorsqu'ils sont excités par onde plane en incidence normale et couplés à un support rigide. Dans des conditions réelles, les champs acoustiques sont plus complexes, et les matériaux poreux sont souvent couplés à d'autres éléments, tels que des supports flexibles, ou des voiles. Il est donc important de prendre en compte l'interaction entre ces éléments et les matériaux méso-perforés, ainsi que la nature des champs acoustiques en présence, afin d'évaluer au mieux les performances des systèmes absorbants basés sur ce concept
The use of acoustic porous material in absorbent systems is common, for example in domains such as building, aircraft end automotive industries, public areas and environmental equipments, or in factories (machine enclosure, industrial premises). Porous materials often have a good performance in middle and high frequencies, but have less performance in low frequencies, where most of the noise sources met in domains mentioned bave have an important energy in this frequency range. A mean to improve the performance of porous materials is the use of double porosity concept. Lt has been demonstrated that under certain conditions the meso-perforated materials have better absorption performances in low frequency range, when they are exited by a plane waves of normal incidence and cou pied to a rigid wall. Ln real conditions, the acoustic fields are more complex, and the porous materials are often coupled to other elements as flexible supports or screens. Thus it is important to take into account the interaction between meso-perforated material and those elements, along with the acoustic field type, to have the best performance evaluation of absorbent systems based on this concept
APA, Harvard, Vancouver, ISO, and other styles
50

Aiouaz, Ouanès. "Base de décomposition appliquée à la dosimétrie RF et à la gestion des incertitudes." Paris 6, 2011. http://www.theses.fr/2011PA066651.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography