Siga este link para ver outros tipos de publicações sobre o tema: Coupe – Simulation, Méthodes de.

Teses / dissertações sobre o tema "Coupe – Simulation, Méthodes de"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Coupe – Simulation, Méthodes de".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Caestecker, Pascal. "Contribution à l'analyse et au choix de l'identification d'une loi de comportement - Application à la simulation numérique de la coupe." Rennes, INSA, 2003. http://www.theses.fr/2003ISAR0022.

Texto completo da fonte
Resumo:
Le travail présenté apporte une contribution à l'analyse de lois de comportement utilisées dans une simulation d'usinage en coupe orthogonale à l'échelle mésoscopique par élément finis ; une comparaison entre la loi Johnson Cook et une loi de type Arcsinhyperbolique pour deux aciers différents est ainsi effectuée. Pour un acier de type 35NCD16, une identification par analyse inverse (données observables et modèle éléments finis simplifié du dispositif SHPB avec un échantillon cylindrique) est nécessaire afin d'obtenir les paramètres respectifs des lois vis-à-vis de la vitesse de déformation. Pour l'acier inoxydable austénitique type 304, une identification directe est effectuée vis-à-vis du caractère d'écrouissage à deux paliers du matériau. On montre l'influence des lois dans les deux simulations d'usinage et la capacité de la loi proposée à bien gérer de forts gradients de vitesses de déformation ainsi que la transformation de phase martensitique induite par les grandes déformations<br>This study is a contribution to the choice of a metallic material behaviour's law in the framework of a FEM simulation of an orthogonal cutting in a mesoscopic scale; it compares the Johnson Cook law with a Arcsinhyperbolic type law. In a first case, for a 35NCD16 steel, parameters are identified by inverse analysis (observable data and simplified FEM model of SHPB device with a cylindrical sample) with respect to strain rate. In a second case, a direct identification is carried out for a stainless steel type 304 with respect to its two state shaped curve. The strong influence of the behaviour law in both cases is showed and the capacity of the proposed law to account strong gradients of strain rate in the simulation of cutting. It is showed also that it treats correctly the transition phase phenomenon between the austenitic component and the martensitic one induced by the plastic deformation
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Barge, Matthieu. "Etude expérimentale et numérique des mécanismes de coupe par abrasion." Ecully, Ecole centrale de Lyon, 2005. http://bibli.ec-lyon.fr/exl-doc/mbarge.pdf.

Texto completo da fonte
Resumo:
L'étude des mécanismes locaux de déformation plastique et de rupture mis en jeu par le processus d'abrasion est très importante dans tous les problèmes d'interaction entre surfaces en mouvement. La rectification et l'usure abrasive peuvent notamment engendrer des déplacements rapides de métal pour des conditions favorisant la coupe. Ainsi il est important d'être capable de prédire l'instant où l'abrasif est susceptible de former un copeau plutôt que de simplement labourer le matériau. Le but de ce travail est donc de caractériser les mécanismes de coupe par abrasion dans le cadre des procédés d'usinage abrasif tels que la rectification. Il s'incrit une approche conjointe entre l'expérience et la simulation numérique. La partie expérimentale de ce travail porte sur la définition et la mise au point d'un scléromètre pendulaire permettant d'isoler le mode de coupe de celui de labourage afin d'en étudier les spécificités. Il est dans un premier temps démontré que ce mode de coupe est prépondérant tout au long de la rayure, grâce à une analyse topographique des sillons résiduels obtenus<br>The plastic strain and failure local mechanisms implied in abrasive processes is a key point to study for each problem dealing with moving surface interaction. Grinding and abrasive wear can lead to fast material displacements in cases promoting cutting. Thus it is particularly important to be able to predict if the abrasive particle is likely to form a chip rather than to simply plough the material. The aim of this study is to characterize abrasive cutting mechanisms in relevant machining processes as grinding. It is based on both experimental and numerical studies. The experimental part of this work consists in the development and the adjustment of a pendular scratching tester. This one makes it possible to isolate the cutting mode from the ploughing one to study its specificities. It is first shown from the topographies of the obtained residual grooves that this cutting mode is predominant all along the scratches. Then the study focuses on the cutting speed and the depth of cut influence on forces and energies brought into play during the porcess
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Bencheikh, Issam. "Simulation multi-étapes de l’usure des outils de coupe revêtus par une modélisation XFEM/Level-set." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0094/document.

Texto completo da fonte
Resumo:
Lors de l'opération d’usinage à grande vitesse, la résistance à l'usure des outils de coupe est améliorée par l’utilisation des revêtements mono ou multicouches sur les faces actives de l’outil. Cependant, le chargement thermomécanique généré à l'interface outil-pièce affecte considérablement les zones de contact. Par cet effet, plusieurs modes d'usure tels que la fissuration, l’abrasion, l’adhésion et le délaminage du revêtement peuvent se manifester. L'étude du comportement des revêtements et de leurs différents modes de dégradation permet de mieux comprendre leur impact sur la durée de vie de l'outil et ainsi optimiser le procédé d'usinage. Dans ce travail de thèse, une approche numérique multi-étapes a été proposée pour prédire l'usure des outils de coupe revêtus. Cette approche est composée par trois principales étapes. La première consiste à effectuer une simulation éléments finis de l’usinage pour une courte durée (jusqu’à la stabilisation du chargement à l’interface outil/pièce). La deuxième étape consiste à récupérer ce chargement et de l’utiliser comme une entrée du modèle XFEM/Level-set. Ce dernier permet d’analyser le comportement des couches de revêtement sans recours à un maillage conforme aux interfaces. Par conséquence, la distorsion du maillage est évitée lorsque le profil d'outil usé est mis à jour, ainsi que le temps de calcul CPU est drastiquement réduit. La dernière étape de cette approche consiste à calculer le taux d’usure et ainsi prédire le déplacement des nœuds de l’outil de coupe affectés par l’usure. Les essais expérimentaux ont permis d’une part d’identifier les paramètres de contact outil/pièce, et d’autre part de valider l’approche proposée<br>In high speed machining, wear resistance of the cutting tools is improved by depositing single or multilayered coatings on their surface. However, the thermomechanical loading generated at the tool-workpiece interface greatly affects the contact zones. For this purpose, several wear modes such as cracking, abrasion, adhesion and delamination of the coating can be occurred. The study of the coatings behavior and their different degradation modes lead to better understanding of their impact on the tool life and machining process under optimal conditions. In this PhD thesis work, a multi-step numerical approach has been proposed to predict wear of the coated cutting tools. This approach involves three main steps. The first is to perform a finite element simulation of the orthogonal cutting for a short time (until the loading stabilization at the tool/workpiece interface). The second step is to recover this loading and use it as an input for the XFEM/Level-set model. The latter allow to take into account the coating layers presence without any need of mesh conforming to the interfaces. As a result, the mesh distortion is avoided when the worn tool profile is updated, as well as the CPU calculation time is drastically reduced. The final step of this approach is to convert the wear rate equation into a nodal displacement, thus representing the cutting tool wear. Based on the experimental tests, a procedure for identifying tool/workpiece contact parameters, and for calibrating the wear equation for each coating layer has been proposed. Experimental trials have been also used to validate the proposed approach
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Zeramdini, Bessam. "Apport des méthodes de remaillage pour la simulation de champs localisés. Validation en usinage par corrélation d’images." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0051/document.

Texto completo da fonte
Resumo:
La compréhension des phénomènes thermiques et mécaniques mis en jeu lors de la mise en forme des matériaux est généralement réalisée avec l’aide de simulations numériques. Ces simulations montrent leurs limites pour les procédés qui conduisent à de très grandes déformations de la matière. Dans ce cas, de très fortes distorsions du maillage se produisent pendant le calcul, entrainant une augmentation de l’erreur, voire l’arrêt prématuré de la simulation. Cette étude porte sur le développement d’une stratégie de remaillage adaptative afin d’éviter les distorsions des éléments pendant les simulations en grandes transformations. La méthode proposée a été intégrée dans un environnement de calcul utilisant le solveur ABAQUS/Explicit, un mailleur 3D et un algorithme de transfert de champ.La méthode h-adaptative en combinaison avec un critère de contrôle basé sur l’endommagement et un estimateur d’erreur de type Zienkiewicz-Zhu Z2 (SPR-amélioré) ont été implantés. Le maillage initial est remplacé par un nouveau maillage avec le niveau de qualité désiré par l’utilisateur, tout en minimisant le nombre des degrés de liberté. Cette technique s’est montrée robuste et entièrement automatique pour déterminer la taille optimale des nouveaux éléments. Une fois le nouveau maillage généré, toutes les variables doivent être soigneusement transférées. Plusieurs techniques de transfert sont décrites et comparées. Des améliorations permettant d’augmenter leurs efficacités en termes de diffusion de l’information et de stabilité numérique ont été proposées. Une attention particulière est portée à la restauration de l'équilibre mécanique local du système. Les différentes techniques développées ont permis de modéliser différents procédés entrainant de grandes déformations élastoplastiques avec endommagement. Dans toutes les applications testées, il a été montré une amélioration de la précision et de la qualité des résultats numériques obtenus. Pour des opérations d’usinage, des mesures de champs cinématiques à travers la technique de corrélation d’images ont été réalisées afin de déterminer les champs de déformation en pointe d’outil. Ces mesures ont servi à la validation de la simulation numérique à l’échelle locale. La comparaison des champs cinématiques expérimentaux avec ceux issus du calcul éléments finis met en évidence la robustesse du processus d’adaptation du maillage proposée pour retranscrire les phénomènes locaux observés expérimentalement. En effet, la reproduction de l’écoulement de la matière sur les bords et la géométrie du copeau sont en très bonne corrélation avec les résultats expérimentaux. Ce développement a permis de proposer une description nouvelle du processus de formation des bandes de cisaillement<br>In this work, a fully automated adaptive remeshing strategy, based on a tetrahedral element to simulate various 3D metal forming processes, was proposed. The aim of this work is to solve problems associated with the severe mesh distortion that occurs during the computation and which may be incompatible with the evolution of the physical behavior of the FE solution. Indeed, the quality of the mesh conditions affects the accuracy of the calculations. The proposed strategy is integrated in a computational platform which integrates a finite element solver (Abaqus/Explicit), 3D mesh generation and a field transfer algorithm.The base idea is to use the h-adaptive methodology in the combination with a damage-criterion error and Zienkiewicz-Zhu Z2 type error estimator (SPR-improved) to locally control the mesh modification-as-needed. Once a new mesh is generated, all history-dependent variables need to be carefully transferred between subsequent meshes. Therefore, different transfer techniques are described and compared. An important part of this work concerns the presentation of the proposed modification of the field transfer operator and a special attention is given to restore the local mechanical equilibrium of the system. During the large elasto-plastic deformation simulation with damage, the necessary steps for remeshing the mechanical structure are presented. The several types of applications are also given. For all studied applications, the above strategy can improve the accuracy and quality of numerical results. It also has benefits to decide how refined a mesh needs to be to reach a particular level of accuracy, or how coarse the mesh can be without unacceptably impacting solution accuracy.For the machining processes, kinematic field measurements using Digital image Correlation were performed to validate the numerical simulation at the local level. The comparison of the experimental kinematic fields and those resulting from the FE calculation highlights the robustness of the proposed mesh adaptation process which can transcribe the experimental local phenomena. Also, the reproduction of the material flow at the edges and the chip are correlated with the experimental results accurately. Finally, the physical study of the numerical results can be allowed to propose an innovative description of ASB formation
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Fortin, Mathieu. "Analyse de la dynamique des peuplements mixtes de sapin baumier et d'épinette rouge après coupe partielle : contraintes et méthodologies statistiques." Doctoral thesis, Université Laval, 2006. http://hdl.handle.net/20.500.11794/33025.

Texto completo da fonte
Resumo:
Des éléments de la dynamique des peuplements mixtes de sapin baumier et d’épinette rouge après coupe partielle ont été étudiés sur une base statistique, afin de déterminer dans quelle mesure ils pourraient contribuer au phénomène de raréfaction de l’épinette rouge. L’étude visait principalement à identifier les changements structurels et à quantifier la croissance tant à l’échelle du peuplement que des tiges individuelles. Pour ce faire, les données de deux dispositifs de suivi ont été utilisées : l’Aire d’observation de la rivière Ouareau (Parc national du Mont-Tremblant) et la Forêt expérimentale du lac Édouard (Parc national de la Mauricie). Chacun de ces dispositifs disposent d’un réseau de placettes permanentes dont les mesures s’étendent sur un horizon de plus de 50 ans après une coupe partielle. Des méthodologies statistiques ont été proposées afin de formuler des inférences statistiques adaptées à la nature des données disponibles. L’analyse de la croissance s’est faite à partir d’un modèle linéaire incluant des effets aléatoires (à l’échelle de la tige individuelle) et d’un modèle non linéaire comportant une structure de covariance (à l’échelle du peuplement) afin de tenir compte de l’hétéroscédasticité des données et de l’autocorrélation des erreurs. Les changements structurels ont été analysés à l’aide d’un modèle linéaire généralisé puisque la variable dépendante n’était pas une variable continue, mais plutôt une fréquence. Pour tenir compte de l’effet dû aux placettes, des effets aléatoires ont été ajoutés au modèle. Finalement, une matrice de transition à deux niveaux a été construite sur la base de distributions discrètes dont les paramètres sont estimés par la méthode du maximum de vraisemblance. L’utilisation de distributions discrètes offre ainsi des résultats plus cohérents par rapport à l’approche traditionnelle. À l’échelle des tiges individuelles, les résultats de ces analyses démontrent que les différences quant à la croissance en diamètre sont relativement faibles. Le recrutement et la mortalité sont en fait des facteurs beaucoup plus importants dans l’évolution de ces peuplements après coupe partielle. À l’échelle du peuplement, ils induisent une variabilité importante dans l’évolution de la surface terrière du sapin baumier, de sorte que l’épinette rouge apparaît comme une essence beaucoup plus stable. La durée et l’importance de l’ouverture de la canopée après coupe partielle sont des éléments critiques qui déterminent l’abondance du recrutement du sapin baumier. Pour maintenir la proportion d’épinette rouge et une distribution diamétrale irrégulière, les coupes partielles de faible intensité comme le jardinage par pied d’arbre sont indiquées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Houel, Nicolas. "Intérêts et limites de l’analyse cinématique par imagerie : contribution à la réalisation de modèles cinématiques et dynamiques du mouvement : application au ski de fond et au saut à ski." Poitiers, 2004. http://www.theses.fr/2004POIT2318.

Texto completo da fonte
Resumo:
L’identification des caractéristiques de la performance des athlètes de haut niveau est souvent indissociable de la situation de compétition. En saut à ski et dans les différentes disciplines du ski de fond, la dispersion de la performance entre les meilleurs compétiteurs est de l’ordre du pour cent. Les outils d’analyse cinématique par imagerie qui n’utilisent pas de marqueur sont parfaitement adaptés à ce genre d’étude à condition que la gestuelle étudiée se réalise dans un volume restreint, ce qui n’est pas le cas en ski. En dehors des compétitions, les systèmes embarqués utilisant des accéléromètres semblent être des outils prometteurs pour l'analyse des paramètres mécaniques de la performance et le suivi de l’entraînement. Toutefois, l’utilisation de ces dispositifs implique une analyse rigoureuse et méthodique du phénomène à quantifier. Au delà de l’analyse clinique, les modèles cinématiques ou dynamiques et les simulations qui en résultent sont certainement des outils plus utiles en termes de compréhension des gestes sportifs et de prédiction de la performance. Si le modèle descriptif présenté pour l’analyse des effets d’aspiration en ski nordique, apporte surtout un intérêt pédagogique, la modélisation dynamique (présentée pour caractériser les propriétés mécaniques d’une détente verticale performante) demeure la plus attractive et peut être la plus efficace en termes de compréhension et de simulation du mouvement<br>Specific parameters of top athletes' performance can rarely be identified other than under competition conditions. In ski jumping, and in the various disciplines of cross country skiing, the difference in performance among the top skiers worldwide is in the order of one percent. Analyses of the kinematics based on video systems that do not require the use of markers, are well suited to this type of study, provided that the movements studied are carried out within a restricted volume. This is not the case in skiing. Excluding competition conditions, motion sensors using accelerometers seem promising, as they permit a detailed analysis of performance mechanical parameters, as well as a follow-up during training. However, the use of such devices implies a rigorous and methodical analysis of the phenomenon under study. Beyond clinical analyses, dynamic or kinematical models, and their resulting simulations, appear as the most relevant tools in terms of understanding movements under sports conditions, and also in terms of prediction of the performance. Whereas the descriptive model, presented for the analysis of the drafting effect in cross country skiing, is certainly interesting from a pedagogical point of view, the modelling of the dynamics, presented to characterize the mechanical properties of the optimum vertical jump, appears as the most appealing, and probably the most effective method as far as understanding and simulating movement is concerned
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Dechriste, Guillaume. "Méthodes numériques pour la simulation d'écoulements de gaz raréfiés autour d'obstacles mobiles." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0388/document.

Texto completo da fonte
Resumo:
Ce travail est dédié à la simulation d’écoulements multidimensionnels de gaz raréfiés dans un domaine où l’interface avec le solide est mobile. Le comportement du gaz est modélisé par un modèle de type BGK de l’équation de Boltzmann et une méthode déterministe de vitesses discrètes est utilisée pour discrétiser l’espace des vitesses microscopiques.Dans ce document, nous proposons tout d’abord trois discrétisations spatiales du modèle qui permettent la prise en compte du mouvement des parois solides, grâce à un traitement spécifique des conditions aux limites. Ces approches sont implémentées et validées pour plusieurs cas unidimensionnels et à la suite de cette étude, la méthode maille coupée est choisie pour une extension à des écoulements de dimensions plus élevées.La suite du travail présente l’algorithme utilisé pour la simulation d’écoulements 2D et 3D. La précision et la robustesse de l’implémentation sont mises en avant grâce à la simulation de nombreux cas tests, dont les résultats sont comparés à ceux issus de la littérature. La méthode maille coupée a notamment été optimisée par une technique de raffinement de maillage adaptatif. La simulation instationnaire 3D de la rotation des pâles du radiomètre de Crookes illustre pleinement le potentiel de la méthode<br>This work is devoted to the multidimentional simulation of rarefied gases in a domain with moving boundary. The governing equation is given by BGKtype model of Boltzmann equation and velocity space is discretized with a standard discrete velocity method.We first propose three space discretizations that take boundary motion into account by specific treatment of the boundary conditions. These approaches are implemented and validated for several 1D flows. Based on this study, the cut cell method is chosen to be extend to multidimentional flows.Then we detail the cut cell algorithm for 2D and 3D flow simulations. Robustness and accuracy of the implementation are investigated through the simulation of numerous test cases. Our results are rigorously compared to the ones coming from the literature and good agreement is shown. The cut cell method has been optimized with an adaptive refinement mesh technique. The 3D unstationary simulation of the Crookes radiometer rotating vanes is a perfect illustration of the method potential
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Husson, Christophe. "Simulation numérique de la mise en forme des tôles métalliques appliquées à la connectique : Etude de la découpe." Université Louis Pasteur (Strasbourg) (1971-2008), 2004. http://www.theses.fr/2004STR13218.

Texto completo da fonte
Resumo:
Le développement de l'ingénierie simultanée dans les métiers de la mise en forme, comme la simulation numérique du procédé de découpe des matériaux métalliques en feuilles, a conduit à la réduction des coûts de fabrication tout en optimisant les propriétés et la fonctionnalité des pièces fabriquées. Pour les procédés, la vitesse de déformation et la température sont des paramètres influençant le comportement du matériau découpé. C'est pourquoi nous proposons de simuler le découpage de métaux en feuilles en utilisant un modèle de viscoplasticité prenant en compte l'évolution de la microstructure couplée à un modèle d'endommagement basé sur une approche thermodynamique des processus irréversibles utilisant une nouvelle forme du potentiel de dissipation ductile d'endommagement. Les modèles proposés sont valides sur une large plage de vitesses de déformation (de 10-4 à 10+4 s-1) et de température (de 76K à la moitié de la température de fusion). Les résultats analytiques sont en bon accord avec les résultats expérimentaux. Pour optimiser le procédé de découpe des tôles minces d'alliage de cuivre, il est nécessaire d'étudier l'effet de la vitesse de déformation sur le cisaillement. Les tests ont été réalisés sur un montage à barre d'Hopkinson pour les essais dynamiques et sur une machine de traction pour les essais quasi-statiques. Les résultats obtenus montrent que la contrainte d'écoulement, le taux d'écrouissage initial et la déformation à rupture sont sensibles à la vitesse de déformation. Une méthode de déterminations des paramètres des modèles proposés a été proposée. A l'aide de l'implémentation de nos modèles de comportement dans le code commercial d'éléments finis ABAQUS/Explicit, nous présentons une étude de l'influence du jeu de découpe et de l'usure des outils de découpe sur l'aspect du faciès de découpe et de l'évolution de la force de découpe. Cette étude est développée pour des tôles d'alliages de cuivres de faible épaisseur (" 1. Mm d'épaisseur). Les résultats obtenus par simulations numériques sont comparés avec des résultats expérimentaux. L'évolution de l'aspect du profil de découpe (zone bombée, zone cisaillée, zone arrachée, bavure et angle de rupture) en fonction du jeu de découpe, de l'usure du poinçon et de la matrice et de l'interface poinçon / tôle / matrice sont présentés. A discussion sur les différentes phases de l'opération de découpe sont présentés. Une méthodologie pour optimiser le procédé de découpage est proposée<br>The development of concurrent engineering in the area of sheet metal forming, such as the numerical simulation of the blanking process of thin metallic sheets, have led to the fabrication cost reduction while optimizing the functional properties of the workpiece. In these processes, the strain rate and temperature are the parameters that influence the behaviour material. That is why we propose to simulate the blanking of thin metallic sheets using a viscoplastic model that accounts for the evolution of microstructure and coupled with a damage model based on thermodynamics of irreversible processes using a new form of the damage dissipation potential. The proposed models are valid for a wide range of strain rates (10-4 to 10+4 s-1) and temperatures (76K to half melting temperature). The comparison of the predicted results with the experimental ones shows a good agreement. To optimize the blanking process of thin copper sheets, it is necessary to study the effect of strain rate on the shearing process. Tests were performed using a Hopkinson pressure bar for the dynamic tests, and using tensile machine traction for the quasi-static tests. Hat-specimens were utilized. The results obtained shows that the hardening, the initial rate hardening and the failure strain are sensible to the strain rate. A methodology to determine the parameters at the proposed models are presented. By implementing our models in the commercial finite element code ABAQUS/Explicit, we present a study to the influence of the clearance and tool wear on the part edge and on the evolution of the cutting force. This analysis is conducted on thin copper alloys (" 1. Mm thickness). The numerical results are compared to the experimental investigations. The evolution of the shape errors (roll-over depth, fracture depth, shearing depth, burr formation and fracture angle) according to the radial clearance, the punch and the die wear, and the contact punch/die/blank-holder are presented. A discussion on the different stages of the blanking process as function of the processing parameters is given. A methodology to optimize the blanking process is proposed
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Mandrile, Sébastien. "Optimisation du brochage des alvéoles de disque de turbine." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0097.

Texto completo da fonte
Resumo:
Le procédé de brochage est aujourd’hui, et depuis plus de cinquante ans, le procédé le plus utilisé par les motoristes aéronautiques pour usiner les alvéoles pied de sapin des disques de turbine. Les travaux présentés dans cette thèse visent à améliorer la compréhension du procédé de brochage dans le but d’améliorer la performance de ce procédé. Ils sont décomposés en quatre étapes, une étude sur la coupe de l’Udimet 720®, la modélisation des broches pied de sapin et des efforts de coupe, une étude expérimentale du brochage des alvéoles pied de sapin et finalement une proposition de surveillance de ce procédé. Une étude de la coupe en brochage de l’Udimet 720® est réalisée pour pallier le manque d’études actuel sur ce superalliage et développer des lois de coupe pour la simulation des efforts. La simulation permet d’associer à chaque partie discrétisée de chaque dent de la broche des efforts spécifiques en fonction des différents paramètres d’usinage. Les essais de brochage d’alvéole pied de sapin instrumentés ont servi à vérifier la pertinence de la simulation et à proposer, à partir de cette dernière, des choix de conception visant à améliorer la performance du procédé. La surveillance en usinage propose une stratégie visant à détecter différentes anomalies d’usinage pour limiter le risque de rebut de pièces à fortes valeurs ajoutées<br>From more than fifty years ago, the broaching process is what the aeronautic engine manufacturers use the most to machine turbine disc fir-tree slots. The aim of this thesis is to improve the understanding of the broaching process in order to optimize the efficiency of this process. This study is divided into four steps: a study of Udimet 720® machinability, the modelization of fir-tree slot broaches and of cutting forces, an experimental study of fir-tree slots broaching and finally, a proposed method of process monitoring. A study of Udimet 720® machinability is made to fill the lack of current studies about this superalloy and to develop cutting forces model for the modelization of the broaching process. Modelization allows the association of specific forces to each discretized broach tooth according to various machining parameters. Fir tree slots broaching trials were used to check the accuracy of modelization and to suggest, according to the latter, conception choices aiming at improving the efficiency of the process. Process monitoring, in the broaching field, offers a strategy which purpose is to detect various machining disturbances and to limit the risk of rejected parts with high added value
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Curti, Rémi. "Analyse, modélisation et simulation de la coupe orthogonale du bois vert en vue de son application au fraisage par canter." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0034/document.

Texto completo da fonte
Resumo:
Lors de la première transformation du bois en scierie, les grumes sont surfacées ou équarries par des têtes de fraisages appelées slabber ou canter. Sous leur action, le copeau de bois est fragmenté en plaquettes dont la valorisation est un enjeu majeur de la filière. Débouché le plus rémunérateur de cette ressource, l’industrie de la pâte à papier impose des critères dimensionnels aux plaquettes approvisionnées notamment concernant leur épaisseur. L’objectif de l’étude est donc d’améliorer la compréhension des mécanismes mis en jeu par la coupe du bois, dans une configuration simplifiée de coupe orthogonale, afin d’optimiser la granulométrie des plaquettes produites. Une campagne expérimentale de coupe sur machine-outil à commande numérique a été réalisée sur du hêtre vert afin de déterminer les mécanismes principaux actionnés. Un modèle mécanique simplifié du comportement dynamique du bois vert est déterminé, ceci afin de développer un modèle numérique du bois vert par la Méthode des Eléments Discrets (DEM) en vue de simuler sa coupe. Une étude préliminaire pour déterminer la capacité de la méthode à modéliser à l’échelle mésoscopique des milieux fortement orthotropes a été réalisée. Sa capacité et ses limites démontrées, la démarche de calibration du modèle numérique a été élaborée et le modèle sollicité en configuration de coupe orthogonale numérique. Les premières simulations présentent des résultats encourageants<br>When entering sawmills, logs are faced into cants by the mean of chipper-canters. During this machining, the ribbon produced is split into small chips whose proper valorization is a high economic stake for the industry. The paper maker industry, which is the most worthwhile chips supplier, is strongly concerned by dimensional criterions of the chips for their process optimization, especially toward their thickness. The objective of this work is to improve the comprehension of cutting and fragmentation mechanisms, in a simplified orthogonal cutting configuration, to provide cutting rules to optimize the produced chips geometry. An experimental campaign dedicated to green beech cutting on a computer numerical command machining center is done to study those mechanisms. A simple mechanical model is derived, in order to develop a Discrete Element Method (DEM) model of the material to simulate cutting operations. A preliminary study dedicated to prove the capability of DEM to model a wood-like orthotropic continuous media is presented. The numerical model is then calibrated and cutting simulations are designed to copy the experimental conditions. First results are encouraging
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Arcker-Hissel, Anne-Marie. "Contrôle direct du couple électromagnétique de machines asynchrones de grande puissance : alimentation par onduleurs de tension à 2-niveaux ou 3-niveaux (NPC) : observation à structure variable de la vitesse mécanique : réalisations expérimentales en techniques numérique et analogique." Toulouse, INPT, 1999. http://www.theses.fr/1999INPT005H.

Texto completo da fonte
Resumo:
La présente étude a pour objectif le développement d'une stratégie de contrôle de machines asynchrones de forte puissance capable de fournir, lors de sollicitations contraignantes en couple résistant, des réponses en couple électromagnétique de grande dynamique. Le contrôle direct du couple permet d'atteindre ces objectifs. En effet, par choix dans une table de commutation des vecteurs de sortie de l'onduleur de tension, il impose directement les états des interrupteurs de puissance en fonction de l'état électromagnétique de la machine. Deux applications sont traitées dans le cadre de ce travail. La première concerne le contrôle d'une machine asynchrone alimentée par un onduleur à 2-niveaux de tension. La seconde développe de nouvelles tables de commutation pour un contrôle direct du couple d'une machine asynchrone alimentée par un onduleur à 3-niveaux de tension et de structure NPC. Les caractéristiques de ces tables justifient l'emploi d'une telle stratégie de contrôle pour des systèmes mettant en oeuvre des composants de forte puissance tels que les GTOs. Une attention particulière est apportée au maintien de l'équilibre du point milieu de la dernière structure d'onduleur. De nombreuses applications industrielles faisant abstraction du capteur mécanique. L'auteur propose un observateur à structure variable de la vitesse mécanique. Les diverses lois de contrôle établies dans cette étude sont validées expérimentalement sur trois dispositifs de commande, deux versions numériques et un système analogique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Lefevre, Benoit. "La soutenabilité environnementale des transports urbains dans les villes du sud : Le couple « transport – usage des sols » au cœur des dynamiques urbaines." Paris, ENMP, 2007. http://pastel.paristech.org/3538/01/BLEFEVRE_THESEFINALE_DEF.pdf.

Texto completo da fonte
Resumo:
L’objectif de cette thèse est d’explorer si, compte tenu des dynamiques démographiques et des faibles capacités financières, les technologies accessibles aux villes du Sud sont aptes à infléchir significativement les trajectoires des consommations énergétiques et des émissions de CO2 liées aux transports urbains. Le chapitre 1 récapitule ce que nous savons aujourd’hui des déterminants des consommations énergétiques liées aux transports urbains et des évolutions récentes de ces déterminants. Le chapitre 2 discute les solutions envisageables dans les politiques de transport et d’usage des sols pour placer les villes du Sud sur des trajectoires soutenables de développement. Ces conclusions nous conduisent à examiner les interactions entre le système de transport et le système d’usage des sols sur une ville particulière, Bogota (Colombie). Le chapitre 3 analyse le fonctionnement du couple « transport – usage des sols » au cœur des dynamiques urbaines sur le temps long, depuis la fondation de Bogota jusqu’à la fin du XXème siècle. Le chapitre 4 étudie les effets d’une infrastructure de transport, le Bus Rapid Transit (BRT) TransMilenio, sur les marchés foncier et immobiliers, la structure urbaine et la matrice Origine-Destination des déplacements. Le chapitre 5 évalue les outils de prospective capables de simuler différentes combinaisons des leviers d’action dont disposent les aménageurs urbains et sélectionne un modèle intégré existant (TRANUS), auquel est adossé un module de quantification des consommations énergétiques et des émissions de CO2 (Signature Energétique des Transports Urbains, SETU). Le chapitre 6 teste à l’aide de TRANUS-SETU la capacité des politiques de transport et d’urbanisme à infléchir les trajectoires de consommations énergétiques liées aux transports urbains sur le cas de Bangalore (Inde)<br>The objective of this PhD dissertation is to explore if, in view of rapid demographic growth and limited financial capacities, the technologies accessible to poor cities can decrease trajectories of energy consumption and CO2 emissions due to urban transportation. Chapter 1 reviews what we already know of the determinants involved, and their recent evolutions. Chapter 2 analyzes conceivable transport and land-use solutions that would allow southern cities to attain sustainable development trajectories. The conclusions drawn from the first two chapters led us to analyze the interactions between the transport system and land-use system on a particular city, Bogota (Colombia). Chapter 3 studies the functional relations in the “Transport – Land Use” couple and its impact on urban space structuring processes in the long term, from the foundation of Bogota to the end of the 20th century. Chapter 4 focus on the impact of a new transportation infrastructure – the TransMilenio Bus Rapid Transit (BRT) – on real-estate and housing markets, on urban structure and the Origin-Destination trip matrix. Chapter 5 reviews the existing prospective tools able to simulate various combinations of realistic policies, and to measure their consequences on the levels of energy consumption and CO2 emissions related to urban transportation. The integrated urban “Transport – Land Use” model, TRANUS, is chosen and completed with a module of of energy consumption and CO2 emissions quantification, called “Energy Signature of Urban Transportation” (SETU). Chapter 6 tests the capacity of these combinations of policies to affect the trajectories of the energy consumption of urban transportation through the application of TRANUS-SETU on a case study, Bangalore (India)
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Zhang, Yancheng. "Numerical simulation approaches and methodologies for multi-physic comprehensions of titanium alloy (Ti-6Al-4V) CUTTING." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00708761.

Texto completo da fonte
Resumo:
The objective of this study is to model material removal with cutting tool in the case of the machining of Titanium alloy (Ti-6Al-4V) and to bring a multi-physic comprehension of chip formation and the tool/workpiece interaction by adopting finite element approaches and methodologies. For that, the present contribution begins by a macroscopic modeling of the orthogonal cutting process. The cut material behavior considered is supposed based on JC law. Moreover, in order to simulate properly the chip genesis, the material fracture energy concept is adopted for controlling the material damage evolution. This allows capturing the shear strain localization and consequently the chip segmentation for a given set of cutting parameters. The frictional contact model considers the influence of temperature on the limiting shear stress at the tool/chip interface. As a result, this reliable model has the capability to simulate the cutting process even with high coefficient of friction and with large cutting edge radius. The parametric study carried out by referring to this model shows a very interesting corroboration with experimental results. In a second step, the present research work presents a material microstructure-level cutting model (MML cutting model) for cutting simulation. The crystal plasticity theory is adopted for modeling the cutting of the Titanium alloy Ti-6Al-4V in orthogonal case. In this model, the grains of the studied material are explicitly considered, and their orientation angles and slip system strength anisotropy are considered as the main source of the microstructure heterogeneity in the cutting material. To simulate the material degradation process, the continuum intra-granular damage and discrete cohesive zone inter-granular damage models are developed, wherein the zero thickness cohesive elements are implemented to simulate the bond between grain interfaces. The material model is validated by a comparison of compression tests from literature. Finally, simulation results demonstrate the possibility to capture the influence of the microstructure on the material removal in terms of chip formation. It is demonstrated that the grain orientation angle plays an important role for the chip segmentation and its periodicity during the cutting process. This certainly can affect the evolution of the cutting force. Additionally, the surface integrity is discussed based on the MML cutting model for different cutting speeds and feed rates. Indeed, a parametric study shows that the surface integrity is seriously affected by the machining parameters, and the affected region is limited within three layer grains for the present MML cutting model.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Demassey, Sophie. "Méthodes hybrides de programmation par contraintes et programmation linéaire pour le problème d'ordonnancement de projet à contrainte de ressources." Phd thesis, Université d'Avignon, 2003. http://tel.archives-ouvertes.fr/tel-00293564.

Texto completo da fonte
Resumo:
La version classique du problème d'ordonnancement de projet à contraintes de ressources (RCPSP) consiste à trouver un ordonnancement, de durée minimale, des activités d'un projet entrant en compétition sur l'usage de ressources renouvelables, cumulatives et disponibles en quantité limité. <br />La réputation d'extrême difficulté du RCPSP a mené nombre de chercheurs à proposer de nouvelles méthodes de résolution exacte toujours plus performantes pour ce problème. Malgré cela, les instances de tailles réelles, qui se recontrent fréquemment, par exemple dans la gestion de production industrielle, sont encore loins d'être résolues optimalement. Il est donc intéressant, en combinant les acquis des travaux précédents, en particulier en programmation par contraintes (PPC) et en programmation linéaire (PL), de se pencher sur des méthodes exactes innovantes ou encore de développer des procédures d'évaluation par défaut, pour permettre une meilleure estimation de la performance des heuristiques sur le RCPSP. Ce travail de thèse entre dans ce cadre.<br /><br />Dans un premier temps, nous nous attachons au calcul de bornes inférieures pour le RCPSP par relaxation lagrangienne. D'une part, nous cherchons à accélerer le calcul de la borne de Brucker et Knust (obtenue par hybridation de PPC et de génération de colonnes) en résolvant le programme linéaire sous-jacent par relaxation lagrangienne (méthodes de sous-gradient et de génération de contraintes). D'autre part, nous appliquons le même principe de relaxation lagrangienne, sur la formulation linéaire initiale de Mingozzi et al. dont est extraite la relaxation préemptive utilisée par Brucker et Knust. Une partie du problème se réduit alors, comme indiqué par Möhring et al., au calcul d'une coupe minimale dans un graphe.<br /> <br />Nous étudions ensuite, un second type de bornes inférieures, obtenu par des méthodes de coupes basées sur les relaxations continues de deux formulations linéaires entières. Ces programmes linéaires sont au préalable resserés par des techniques éprouvées de propagation de contraintes, dont la règle globale du shaving. L'originalité de notre méthode repose essentiellement dans la génération des coupes qui sont, en grande partie, directement déduites des règles de propagation de contraintes.<br /><br />Enfin, nous proposons une méthode originale de résolution exacte pour le RCPSP, basée sur la procédure de Resolution Search de Chvàtal, une alternative aux méthodes de Branch-and-Bound classiques et qui se rapproche du Dynamic Backtracking en programmation par contraintes. Dans Resolution Search, l'espace de recherche ne se présente pas comme un arbre, puisqu'il s'agit, à chaque fois qu'un noeud terminal est rencontré, de rechercher par backtrakings successifs, les fixations minimales qui font de ce noeud un noeud terminal. L'ensemble des ces fixations est alors stocké de manière intelligente de façon à les exclure de l'espace de recherche. Resolution Search a été initialement développée pour la résolution de programmes linéaires en variables binaires, mais n'a semble-t'il jamais été employée dans le cadre de problèmes spécifiques.<br />Dans le but de prouver son efficacité, nous commencons par l'appliquer basiquement à deux formulations linéaires en variables binaires pour le RCPSP et la comparons à une version tout aussi basique de Branch-and-bound.<br /> Nous en poursuivons l'étude en utilisant des règles de branchement et d'évaluation ayant déjà prouvé leur efficacité dans des implémentations classiques de méthodes arborescentes pour le RCPSP, telles que celles de Brucker et al., Carlier et Latapie, Demeulemeester et Herroelen.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Maillard, André. "Étude expérimentale et théorique du découpage." Compiègne, 1991. http://www.theses.fr/1991COMPD429.

Texto completo da fonte
Resumo:
Un programme de calcul par éléments finis, permettant de simuler l'opération de découpage de tôle, a été mis au point. Le développement du programme a été guidé par l'expérience. Pour pouvoir être comparées directement aux résultats de calcul, les courbes d'effort expérimentales ont été corrigées. Des profils de tôle partiellement poinçonnée ont été obtenus. Ils sont comparés aux profils déterminés par le calcul. Les champs de déformation plastique, estimés à partir de mesures de microdureté, permettent une validation plus locale du calcul. Trois phases dans la mise au point du programme sont nécessaires. Le maillage a d'abord été ajusté pour permettre de traiter le problème sans remaillage. Un module de gestion automatique du contact, utilisant une méthode explicite, a ensuite été introduit. Pour rendre compte sur la courbe d'effort de phénomènes d'endommagement, une technique de rupture du maillage a finalement été utilisée. Ces adaptations du programme permettent d'atteindre l'effort maximum de poinçonnage. Le programme est maintenant un outil industriel. La simulation a été appliquée pour extraire de la courbe d'effort des critères d'usure de l'outil utilisables pour le suivi en temps réel de l'opération sur presse et également pour estimer le niveau d'écrouissage du bord de la pièce découpée. Une application sur des cas de découpe industrielle est également présentée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Gramfort, Alexandre. "Localisation et suivi d'activité fonctionnelle cérébrale en électro et magnétoencéphalographie: Méthodes et applications au système visuel humain." Phd thesis, Ecole nationale supérieure des telecommunications - ENST, 2009. http://tel.archives-ouvertes.fr/tel-00426852.

Texto completo da fonte
Resumo:
Cette thèse est consacrée à l'étude des signaux mesurés par Electroencéphalographie (EEG) et Magnétoencéphalographie (MEG) afin d'améliorer notre compréhension du cerveau humain. La MEG et l'EEG sont des modalités d'imagerie cérébrale non invasives. Elles permettent de mesurer, hors de la tête, respectivement le potentiel électrique et le champ magnétique induits par l'activité neuronale. Le principal objectif lié à l'exploitation de ces données est la localisation dans l'espace et dans le temps des sources de courant ayant généré les mesures. Pour ce faire, il est nécessaire de résoudre un certain nombre de problèmes mathématiques et informatiques difficiles. La première partie de cette thèse part de la présentation des fondements biologiques à l'origine des données M/EEG, jusqu'à la résolution du problème direct. Le problème direct permet de prédire les mesures générées pour une configuration de sources de courant donnée. La résolution de ce problème à l'aide des équations de Maxwell dans l'approximation quasi-statique passe par la modélisation des générateurs de courants, ainsi que de la géométrie du milieu conducteur, dans notre cas la tête. Cette modélisation aboutit à un problème direct linéaire qui n'admet pas de solution analytique lorsque l'on considère des modèles de tête réalistes. Notre première contribution porte sur l'implémentation d'une résolution numérique à base d'éléments finis surfaciques dont nous montrons l'excellente précision comparativement aux autres implémentations disponibles. Une fois le problème direct calculé, l'étape suivante consiste à estimer les positions et les amplitudes des sources ayant généré les mesures. Il s'agit de résoudre le problème inverse. Pour ce faire, trois méthodes existent: les méthodes paramétriques, les méthodes dites de "scanning", et les méthodes distribuées. Cette dernière approche fournit un cadre rigoureux à la résolution de problème inverse tout en évitant de faire de trop importantes approximations dans la modélisation. Toutefois, elle impose de résoudre un problème fortement sous-contraint qui nécessite de fait d'imposer des a priori sur les solutions. Ainsi la deuxième partie de cette thèse est consacrée aux différents types d'a priori pouvant être utilisés dans le problème inverse. Leur présentation part des méthodes de résolution mathématiques jusqu'aux détails d'implémentation et à leur utilisation en pratique sur des tailles de problèmes réalistes. Un intérêt particulier est porté aux a priori induisant de la parcimonie et conduisant à l'optimisation de problèmes convexes non différentiables pour lesquels sont présentées des méthodes d'optimisation efficaces à base d'itérations proximales. La troisième partie porte sur l'utilisation des méthodes exposées précédemment afin d'estimer des cartes rétinotopiques dans le système visuel à l'aide de données MEG. La présentation porte à la fois sur les aspects expérimentaux liés au protocole d'acquisition jusqu'à la mise en oeuvre du problème inverse en exploitant des propriétés sur le spectre du signal mesuré. La contribution suivante ambitionne d'aller plus loin que la simple localisation d'activités par le problème inverse afin de donner accès à la dynamique de l'activité corticale. Partant des estimations de sources sur le maillage cortical, la méthode proposée utilise des méthodes d'optimisation combinatoires à base de coupes de graphes afin d'effectuer de façon robuste le suivi de l'activité au cours du temps. La dernière contribution de cette thèse porte sur l'estimation de paramètres sur des données M/EEG brutes non moyennées. Compte tenu du faible rapport signal à bruit, l'analyse de données M/EEG dites "simple essai" est un problème particulièrement difficile dont l'intérêt est fondamental afin d'aller plus loin que l'analyse de données moyennées en explorant la variabilité inter-essais. La méthode proposée utilise des outils récents à base de graphes. Elle garantit des optimisations globales et s'affranchit de problèmes classiques tels que l'initialisation des paramètres ou l'utilisation du signal moyenné dans l'estimation. L'ensemble des méthodes développées durant cette thèse ont été utilisées sur des données M/EEG réels afin de garantir leur pertinence dans le contexte expérimental parfois complexe des signaux réelles M/EEG. Les implémentations et les données nécessaires à la reproductibilité des résultats sont disponibles. Le projet de rétinotopie par l'exploitation de données de MEG a été mené en collaboration avec l'équipe du LENA au sein de l'hôpital de La Pitié-Salpêtrière (Paris).
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Homsi, Moaz. "Simulation de la découpe des métaux par un modèle de déchirure ductile, à l'aide de techniques de remaillage." Compiègne, 1995. http://www.theses.fr/1995COMPD850.

Texto completo da fonte
Resumo:
L'objectif de ce travail est de modéliser et simuler, par la méthode des éléments finis, le comportement d'une tôle lors de l'opération de découpage par poinçonnement. Une étude succincte, concernant les différentes non linéarités intervenant dans le procédé, est effectuée. Les grandes transformations dans la bande cisaillée sont traitées à l'aide d'une formulation Lagrangienne actualisée à la fin du pas de chargement. La gestion du contact et du frottement, entre la tôle et les outils de découpage, est effectuée à l'aide de la méthode directe dite de flexibilité. L'endommagement de la tôle, la propagation de fissure et la rupture sont représentés à l'aide d'une approche locale basée sur la croissance des cavités. Nous avons utilisé dans ce cadre le modèle de Gurson modifié par Tvergaard et Nneedleman, et nous l'avons intégré, dans le cas axisymétrique, à l'aide du schéma implicite proposé par Simo & Taylor. Pour éviter les distorsions du maillage, nous proposons un processus de remaillage, basé sur : - un remaillage périodique - un transport de champs par différentes techniques notamment par approximation diffuse - un équilibrage des champs transportés aux niveaux local et global. Plusieurs exemples sont proposés pour valider ces différents développements : l'étude de la rupture d'une éprouvette entaillée, l'emboutissage d'une plaque circulaire par un poinçon hémisphérique (cas test de Wagoner) et l'enfoncement d'un pieu pour lequel nous avons fourni des résultats qualitativement corrects. Finalement l'application de ces développements a permis la simulation du procédé de découpage. Nous avons obtenu des résultats en bon accord avec l'expérience, notamment sur l'estimation de l'effort maximum de découpage nécessaire au dimensionnement des outils.
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Pantalé, Olivier. "Modélisation et simulation tridimensionnelles de la coupe des métaux." Bordeaux 1, 1996. http://www.theses.fr/1996BOR10620.

Texto completo da fonte
Resumo:
On présente un modèle numérique tridimensionnel de simulation de la coupe orthogonale et oblique des métaux basé sur une approche Eulero-Lagrangienne-arbitraire (ALE). L'utilisation d'un formalisme ALE permet une réactualisation continue des surfaces libres et de contact, sans nécessiter de processus itératif comme dans les modèles eulériens. De plus, l'utilisation d'un algorithme de vitesse de grille, approprié permet des résultats sans nécessité d'un critère de séparation des noeuds en pointe d'outil comme dans les modèles lagrangiens. Le modèle thermomécanique inclue les effets visco-élastiques, thermiques et le frottement au contact outil-copeau. Le modèle inclue la loi de comportement thermoplastique de Johnson-Cook. La loi de frottement de Coulomb avec génération et transfert de chaleur est utilisée pour le contact outil-copeau. Le modèle fournit des quantités thermomécaniques, la géométrie du copeau et les efforts à partir des paramètres de coupe et du materiau. Des simulations et des essais ont été réalisés et les comparaisons montrent un bon niveau de corrélation des résultats
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Ali, Firas. "Modélisation et simulation thermomécaniques de la coupe des métaux." Paris, ENSAM, 2001. http://www.theses.fr/2001ENAM0013.

Texto completo da fonte
Resumo:
L'usinage des métaux est un procédé de mise en forme par enlèvement de matière qui, bien que très développé et très répandu, n'est pas encore maîtrisé du point de vue des phénomènes physiques mis en jeu, et des simulations numériques. En effet, la coupe des métaux fait intervenir de nombreux phénomènes mécaniques, thermiques et métallurgiques d'une très grande violence. Dans le cadre d'études d'optimisation des conditions de coupe en usinage, il est fondamental de disposer d'outils numériques de simulation des opérations afin de comprendre et de maîtriser les phénomènes mis en jeu. L'objectif principal de notre étude est la formulation et le développement d'un modèle numérique permettant la simulation de l'usinage par enlèvement de matière afin de compléter les connaissances nécessaires à une appréhension globale et industrielle de la coupe. Le travail de thèse présenté initie les travaux sur la simulation thermomécanique de la coupe au sein du Laboratoire. Nous développons notre propre outil logiciel de simulation appelé "NESSY-COUPE". Celui-ci est basé sur une approché éléments finis et s'appuie sur une plate-forme logicielle en cours de réalisation au laboratoire : "NESSY". Les premiers résultats présentés se limitent à une simulation bidimensionnelle de coupe orthogonale et sont issus d'une approche langrangienne thermomécanique en explicite. Ce type d'approche nécessite un remaillage régulier du domaine usiné vu les déformation élevées, et une particularité de notre approche est d'offrir la possibilité de générer un maillage anisotrope afin de mieux prendre en compte les forts gradients présents (thermiques et mécaniques). Des comparaisons sont présentées avec des simulations effectuées sur des logiciels éléments finis généralistes comme ABAQUS et LS-DYNA.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Chen, Shouyi. "Caractérisation de la dynamique de coupe en usinage." Compiègne, 1996. http://www.theses.fr/1996COMPD904.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Devoulon, Philippe. "Méthodes physiques en imagerie de résonance magnétique nucléaire : sélection de coupe, imagerie de diffusion." Université Joseph Fourier (Grenoble), 1994. http://www.theses.fr/1994GRE10023.

Texto completo da fonte
Resumo:
La premiere partie de ce travail est consacre a l'etude du profil de coupe produit par une impulsion selective en presence d'un gradient de b#0 en rmn. Le premier chapitre constitue une revue sur les impulsions selectives. Apres l'exposition de notions fondamentales, profil frequentiel, selectivite et efficacite d'une impulsion, sont presentees les impulsions selectives les plus utilisees en imagerie. Le second chapitre analyse les caracteristiques et les procedures de test d'une chaine d'emission radiofrequence pour la rmn. La modulation de phase et d'amplitude et le modulateur hautement lineaire construit au laboratoire sont plus particulierement discutes. Le chapitre trois correspond a l'analyse methodologique de l'obtention d'un profil de coupe complexes et souligne la necessite d'acquerir un echo complet non tronque et de coder en phase la direction de selection de tranche. Les resultats experimentaux donnes par diverses impulsions illustrent ces methodes d'imagerie de coupe. La seconde partie est l'etude de la diffusion en rmn haute resolution appliquee particulierement a l'etude des systemes biologiques. Les techniques de ponderation du signal par la diffusion en gradients pulses de champ b#0 mais aussi en gradient de champ radiofrequence b#1 son notamment presentes. Nous developpons une sequence d'imagerie de diffusion utilisable en microimagerie et permettant de s'affranchir des effets des termes croises avec les gradients de codage. Cette sequence est appliquee a l'etude d'un modele d'ischemie focale du cerveau du rat.
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Bezzina, Smail. "Modélisation théorique et numérique du procédé de découpage des tôles." Compiègne, 1996. http://www.theses.fr/1996COMPD874.

Texto completo da fonte
Resumo:
L'objectif de ce travail est la modélisation théorique et numérique du procédé de découpage des tôles. Cette opération de mise en forme fait intervenir plusieurs types de non linéarités telles que : - les grandes déformations élastoplastiques. - l'endommagement - le contact-frottement. L'approche retenue dans la présente étude utilise le couplage entre ces différentes non linéarités. En particulier le couplage élastoplasticité-endommagement conduit à une description de la dégradation continue des propriétés mécaniques du matériau jusqu'à la découpe totale de la tôle. Le mémoire est partagé en deux grandes parties. La première partie débute par une description du procédé de découpage des tôles suivie d'une présentation détaillée de plusieurs modèles de comportement d'inélasticité (élastoplasticité ou élastoviscoplasticité) couplés à l'endommagement isotrope. L'approximation numérique du problème couplé utilise la méthode des éléments finis dans le cadre des transformations finies incluant les techniques numériques d'intégration des lois de comportement. La deuxième partie est réservée aux applications. On commence par des tests de validation des lois de comportement ainsi qu'une comparaison des algorithmes d'intégration. Dans une seconde étape on présente des applications de calcul des structures par ordre croissant de difficultés incluant la simulation numérique du procédé industriel de découpage des tôles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Ferrante, Enzo. "Recalage déformable à base de graphes : mise en correspondance coupe-vers-volume et méthodes contextuelles." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC039/document.

Texto completo da fonte
Resumo:
Les méthodes de recalage d’images, qui ont pour but l’alignement de deux ou plusieurs images dans un même système de coordonnées, sont parmi les algorithmes les plus anciens et les plus utilisés en vision par ordinateur. Les méthodes de recalage servent à établir des correspondances entre des images (prises à des moments différents, par différents senseurs ou avec différentes perspectives), lesquelles ne sont pas évidentes pour l’œil humain. Un type particulier d’algorithme de recalage, connu comme « les méthodes de recalage déformables à l’aide de modèles graphiques » est devenu de plus en plus populaire ces dernières années, grâce à sa robustesse, sa scalabilité, son efficacité et sa simplicité théorique. La gamme des problèmes auxquels ce type d’algorithme peut être adapté est particulièrement vaste. Dans ce travail de thèse, nous proposons plusieurs extensions à la théorie de recalage déformable à l’aide de modèles graphiques, en explorant de nouvelles applications et en développant des contributions méthodologiques originales.Notre première contribution est une extension du cadre du recalage à l’aide de graphes, en abordant le problème très complexe du recalage d’une tranche avec un volume. Le recalage d’une tranche avec un volume est le recalage 2D dans un volume 3D, comme par exemple le mapping d’une tranche tomographique dans un système de coordonnées 3D d’un volume en particulier. Nos avons proposé une formulation scalable, modulaire et flexible pour accommoder des termes d'ordre élevé et de rang bas, qui peut sélectionner le plan et estimer la déformation dans le plan de manière simultanée par une seule approche d'optimisation. Le cadre proposé est instancié en différentes variantes, basés sur différentes topologies du graph, définitions de l'espace des étiquettes et constructions de l'énergie. Le potentiel de notre méthode a été démontré sur des données réelles ainsi que des données simulées dans le cadre d’une résonance magnétique d’ultrason (où le cadre d’installation et les stratégies d’optimisation ont été considérés).Les deux autres contributions inclues dans ce travail de thèse, sont liées au problème de l’intégration de l’information sémantique dans la procédure de recalage (indépendamment de la dimensionnalité des images). Actuellement, la plupart des méthodes comprennent une seule fonction métrique pour expliquer la similarité entre l’image source et l’image cible. Nous soutenons que l'intégration des informations sémantiques pour guider la procédure de recalage pourra encore améliorer la précision des résultats, en particulier en présence d'étiquettes sémantiques faisant du recalage un problème spécifique adapté à chaque domaine.Nous considérons un premier scénario en proposant un classificateur pour inférer des cartes de probabilité pour les différentes structures anatomiques dans les images d'entrée. Notre méthode vise à recaler et segmenter un ensemble d'images d'entrée simultanément, en intégrant cette information dans la formulation de l'énergie. L'idée principale est d'utiliser ces cartes estimées des étiquettes sémantiques (fournie par un classificateur arbitraire) comme un substitut pour les données non-étiquettées, et les combiner avec le recalage déformable pour améliorer l'alignement ainsi que la segmentation.Notre dernière contribution vise également à intégrer l'information sémantique pour la procédure de recalage, mais dans un scénario différent. Dans ce cas, au lieu de supposer que nous avons des classificateurs arbitraires pré-entraînés à notre disposition, nous considérons un ensemble d’annotations précis (vérité terrain) pour une variété de structures anatomiques. Nous présentons une contribution méthodologique qui vise à l'apprentissage des critères correspondants au contexte spécifique comme une agrégation des mesures de similarité standard à partir des données annotées, en utilisant une adaptation de l’algorithme « Latent Structured Support Vector Machine »<br>Image registration methods, which aim at aligning two or more images into one coordinate system, are among the oldest and most widely used algorithms in computer vision. Registration methods serve to establish correspondence relationships among images (captured at different times, from different sensors or from different viewpoints) which are not obvious for the human eye. A particular type of registration algorithm, known as graph-based deformable registration methods, has become popular during the last decade given its robustness, scalability, efficiency and theoretical simplicity. The range of problems to which it can be adapted is particularly broad. In this thesis, we propose several extensions to the graph-based deformable registration theory, by exploring new application scenarios and developing novel methodological contributions.Our first contribution is an extension of the graph-based deformable registration framework, dealing with the challenging slice-to-volume registration problem. Slice-to-volume registration aims at registering a 2D image within a 3D volume, i.e. we seek a mapping function which optimally maps a tomographic slice to the 3D coordinate space of a given volume. We introduce a scalable, modular and flexible formulation accommodating low-rank and high order terms, which simultaneously selects the plane and estimates the in-plane deformation through a single shot optimization approach. The proposed framework is instantiated into different variants based on different graph topology, label space definition and energy construction. Simulated and real-data in the context of ultrasound and magnetic resonance registration (where both framework instantiations as well as different optimization strategies are considered) demonstrate the potentials of our method.The other two contributions included in this thesis are related to how semantic information can be encompassed within the registration process (independently of the dimensionality of the images). Currently, most of the methods rely on a single metric function explaining the similarity between the source and target images. We argue that incorporating semantic information to guide the registration process will further improve the accuracy of the results, particularly in the presence of semantic labels making the registration a domain specific problem.We consider a first scenario where we are given a classifier inferring probability maps for different anatomical structures in the input images. Our method seeks to simultaneously register and segment a set of input images, incorporating this information within the energy formulation. The main idea is to use these estimated maps of semantic labels (provided by an arbitrary classifier) as a surrogate for unlabeled data, and combine them with population deformable registration to improve both alignment and segmentation.Our last contribution also aims at incorporating semantic information to the registration process, but in a different scenario. In this case, instead of supposing that we have pre-trained arbitrary classifiers at our disposal, we are given a set of accurate ground truth annotations for a variety of anatomical structures. We present a methodological contribution that aims at learning context specific matching criteria as an aggregation of standard similarity measures from the aforementioned annotated data, using an adapted version of the latent structured support vector machine (LSSVM) framework
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Guetari, Yosra. "Vers une meilleure compréhension de la coupe : aspects rhéologiques et simulation numérique par l'approche X-FEM." Nantes, 2005. http://www.theses.fr/2005NANT2097.

Texto completo da fonte
Resumo:
La complexité du procédé d'usinage en a longtemps interdit une compréhension précise. Une approche complète de la coupe exige des moyens d'expérimentation avancés, qui permettent de contrôler le déroulement de la formation du copeau afin de révéler les phénomènes physiques qu'elle implique. En plus des méthodes expérimentales, la compréhension et l'optimisation de la coupe nécessite de recourir à des méthodes de calcul pertinentes, qui permettent de simuler ces phénomènes. Des outils numériques spécifiques, qui allient efficacité et représentativité, doivent ainsi être développés. La première partie de ce travail est à dominante expérimentale. Lors de l'usinage d'un métal, la matière est soumise à des sollicitations extrêmes. Nous nous sommes fixés ici un double objectif : notre intérêt s'est d'abord porté sur l'identification du comportement de la matière sous des conditions approchant celle de la coupe. Des essais de traction, de compression et de cisaillement ont été pratiqués à grande vitesse de déformation sur un dispositif de barres de Hopkinson sur des échantillons chauffés. Le dispositif a ensuite été mis à profit pour réaliser des essais de rabotage à grande vitesse. Ces essais novateurs permettent de suivre en continu une partie importante des phénomènes thermomécaniques liés à la coupe. L'interprétation des données enregistrées permet de commenter le mécanisme de formation du copeau. Cette partie expérimentale prouve l'insuffisance des modèles rhéologiques utilisés jusqu'ici, et met en évidence la nécessité de prendre en compte les effets de la multiaxialité des états de déformation. La seconde partie de la thèse porte sur des aspects purement numériques. La physique complexe qui ressort des conclusions des travaux expérimentaux montre bien la nécessité d'outils numériques performants. Devant les limitations des outils de simulation actuels, généralement basés sur la MEF usuelle, une approche alternative originale, basée sur l'utilisation de la méthode X-Fem + Level-Sets, est proposée. Cette stratégie est pressentie comme particulièrement pertinente pour la description des grandes déformations et des phénomènes de localisation liés à la coupe. Cette partie présente les développements et résultats préliminaires de cette approche. Elle montre notamment son intérêt pour la gestion des problèmes de contact grâce à l'utilisation des Level-Sets. La validation sur des cas simples, dans le cadre d'une technique de pénalisation, a permis de mettre au point une procédure numérique robuste de traitement du contact, parfaitement intégrable à une simulation complète de la coupe<br>The complexity of the machining process has always prohibited its precise comprehension. A complete approach requires advanced experimental methods, which allow to control the progress of the chip formation, in order to reveal the generated physical phenomena. Beyond the experimental methods, the comprehension and the optimization of the process requires the use of relevant calculation methods, which can simulate these phenomena. Specific numerical tools have to be developed, which match together efficiency and representativity. The first part of this work has an experimental character. During the chip formation, the material is subjected to extreme sollicitations. Our purpose here was double: we focused first on the identification of the material's behaviour under thermomechanical conditions which approach the cutting-induced ones. Traction, compression, and shearing characterization tests were carried at high strain-rates using a Hopkinson bars system, on heated samples. The SHPB was then used to achieve high speed planing tests. These innovating experimentations allow to continuously follow an important part of the thermomechanical phenomena related to the metal cutting. The interpretation of the registered data allows to describe the chip formation mechanism. This experimental section prooves the limits of the commonly used rheological models, and exhibits the necessity to take into account the multi-axiallity of the deformation states. The second part of this document has pure numerical concerns. The complex physics that stands out from the conclusions of the experimental work needs to be handled using pertinent numerical tools. The limitations of the current simulation methods, generally based on the usual FEM, suggested the use of an original alternative pproach, based on the X-FEM and the Level-Sets methods. This strategy is foreshadowed to be particularly relevant for the description of the finite strains, as well as the localization phenomena related to the cutting process. This section presents the preliminary developments and results of this approach. It shows its advantages for the treatment of the contact problems thanks to the use of the Level-Sets. The validation on simple problems, in the frame of a penalization method, allowed to develop a robust numerical procedure for the contact treatment, which can perfectly be include within a complete simulation of the cutting process
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

D'Amico, Miriam. "Étude expérimentale et modélisation des explosions hybrides solides/solides : application au cas des mélanges de poussières graphite/métaux." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0256/document.

Texto completo da fonte
Resumo:
Dans le cadre des opérations de démantèlement des centrales nucléaires UNGG (Uranium Naturel Graphite Gaz), l’occurrence de phénomènes indésirables, tels que l’inflammation et l’explosion de poudres, ne peut pas être systématiquement exclue. Plus particulièrement, le risque d’inflammation et d’explosion de poussières de graphite, pur ou mélangé avec des impuretés métalliques telles que des particules de magnésium ou de fer, nécessite d’être évalué de façon plus approfondie. Les travaux de cette thèse s’inscrivent donc dans ce contexte et ont deux objectifs principaux : l’évaluation expérimentale de l’explosivité et sa modélisation. 1. L’évaluation expérimentale de l’explosivité des poudres d'intérêt a été réalisée tant en termes de sensibilité à l’inflammation, en couche et en nuage, que de sévérité à l’explosion. En effet, les caractéristiques explosives d’une poussière ou d’un mélange sont fortement influencées par plusieurs paramètres. Ils dépendent d’une part des conditions opératoires, tels que la turbulence, la température et l'énergie d’inflammation, et d’autre part, des propriétés physico-chimiques et de la composition des matériaux. Cette étude s’est focalisée sur des poudres pures de graphite, de magnésium et de fer de taille micrométrique et sur leurs mélanges, dans un éventail de concentrations d’intérêt industriel. Nous avons constaté que l’introduction de métaux peut changer en premier lieu l’étape limitant la vitesse de combustion du graphite. Tout d’abord, les phénomènes cinétiques limitant de l’oxydation du graphite ont été distingués de ceux des métaux (respectivement, réaction hétérogène ou flamme de diffusion gazeuse). En deuxième lieu, il est apparu que la flamme peut être épaissie par la présence du rayonnement lors de la combustion du métal, alors que ce phénomène est négligeable pour le graphite pur. Enfin, la turbulence initiale du nuage de poussière peut être elle aussi modifiée par l'ajout d'une deuxième poudre en vue des caractéristiques granulométriques et de densité différentes. Une étude paramétrique a donc été réalisée afin d'évaluer l'explosibilité des mélanges considérés en prenant en compte les effets de l'humidité relative des poudres, de leur distribution granulométrique, de la puissance de la source d'ignition, de la turbulence initiale du milieu et de la composition. Pour ce faire, nous avons utilisé à la fois des appareils et des technologies conventionnelles, tels que la sphère de 20 litres, la vélocimétrie par images de particules et la thermogravimétrie, mais également des nouvelles installations dédiées à la caractérisation des écoulements turbulents transitoires lors de la dispersion des poudres dans la sphère d'explosion et à l’étude de la propagation d’une flamme en milieu semi-confiné. Il a été clairement démontré que l'ajout de poudres métalliques influence l'aptitude à enflammer le nuage de poussière. L'énergie et la température minimale d'inflammation diminuent fortement lorsque le magnésium est ajouté au graphite ; ce phénomène est moins sensible pour les particules de fer. De plus, la sévérité de l'explosion augmente avec une telle addition. Cet effet de promotion est particulièrement visible sur la cinétique de combustion. 2. La modélisation du phénomène explosif a été réalisée à l’aide de la simulation numérique afin d’estimer une vitesse de propagation de flamme laminaire et d’étudier les effets induits par des facteurs spécifiques d’intérêt industriel, tels que le diamètre des particules ou la concentration en poudre. L’intérêt d’estimer une vitesse de flamme laminaire réside dans son caractère pseudo-intrinsèque. En connaissant les caractéristiques turbulentes d’un milieu industriel complexe, ce paramètre donne la possibilité d’obtenir une vitesse de propagation de flamme turbulente propre au milieu réel et donc d’estimer les effets d’une explosion potentielle. Les résultats expérimentaux ont été utilisés afin de valider le modèle numérique développé<br>During the decommissioning operations of the UNGG (Natural Uranium Graphite Gas) nuclear plants, the occurrence of undesirable phenomena, such as dust ignition and explosion, cannot be systematically neglected. In particular, graphite powders, pure or mixed with metals impurities present on the sites, such as magnesium or iron, can represent a potential risk that needs to be further evaluated. This work falls within this context and has two main objectives: the experimental evaluation of the explosion severity and its modeling. 1. The experimental evaluation of the explosivity of such a powders has been carried out both in terms of ignition sensitivity, of dust layer and cloud, and explosion severity. Actually, explosive characteristics of a dust or of a mixture are strongly influenced by several parameters. They depend on the one side on the operating conditions, such as turbulence, temperature and energy of the ignition source, and on the other side, of course, on the materials physicochemical properties and composition. This study focuses on pure micronized powders of graphite, magnesium, and iron and on their mixtures, in a concentration range of industrial interest. It has been demonstrated that the introduction of metals can change, first of all, the rate limiting step of the graphite combustion. Therefore, the kinetic phenomena controlling the graphite oxidation have been distinguished from those of metals (oxygen diffusion or metal vaporization). Secondly, the flame can be thickened by the presence of the radiation during the metal combustion, while this phenomenon is negligible for pure graphite. Finally, the initial turbulence of the dust cloud can be modified by adding a second powder because of the different granulometric characteristics and density. A parametric study was conducted to evaluate the mixtures explosivity taking into account the effects of the relative humidity, the particle size distribution of the powders, the power of the ignition source, the initial turbulence and the composition of the mixture. In order to do this, we used both conventional devices and technologies, such as 20-liters explosion sphere, the particles image velocimetry and the thermogravimetry, but also new facilities dedicated to the characterization of the transient turbulent flow during the dispersion of the powders in the explosion sphere and to study the propagation of a semi-confined flame. It was clearly demonstrated that the addition of metals influences the ability to ignite the dust cloud. The minimum ignition energy and temperature greatly decrease when magnesium powder is added to graphite dust; this phenomenon is less remarkable for iron particles. In addition, the severity of the explosion increases with such an addition. This promotion effect is particularly significant on the combustion kinetics. 2. The modeling of the explosive phenomenon has been performed using numerical simulations in order to estimate a laminar flame propagation velocity and to study the effects induced by specific factors of industrial interest, such as the particle size or the powder concentration. The interest in determining a laminar flame velocity is its pseudo-intrinsic character. Once known the turbulent characteristics of a complex industrial environment, this parameter gives the opportunity to obtain a turbulent flame propagation velocity in a real environment and, therefore, to estimate the effects of a potential explosion. Experimental results were used to validate the numerical model developed during this work
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Yaqub, Sajid. "Proposition d'une démarche pour identifier les efforts de coupe en présence de talonnage." Paris, ENSAM, 2010. http://www.theses.fr/2010ENAM0056.

Texto completo da fonte
Resumo:
Le talonnage d'un outil lors de l'usinage fait amortir les vibrations générées et impacte la stabilité du processus d'usinage. Alors, il faut prendre en compte ce phénomène lors de la simulation d'usinage. Ce travail de thèse présente une méthode pour l'identification, la modélisation, et la simulation numérique de talonnage d'un outil lors de l'usinage. La modélisation du talonnage est basée sur l'approche classique du calcul du volume de l'interférence entre la face de dépouille et la surface usinée de la pièce. Un dispositif spécifique a été conçu qui peut créer les conditions nécessaires pour générer l'interférence entre la face de dépouille de l'outil et la surface générée de la pièce. Les modèles géométriques de la pièce et l'outil sont représentés par les z-buffers qui permettent de déduire numériquement le volume de l'interférence en fonction des positions relatives de z-buffers à chaque instant. Les coefficients des efforts de coupe liés au talonnage sont estimés à partir de la méthode de la minimisation d'une erreur des efforts de coupe mesurés et les efforts de coupe simulés<br>The process damping results from the interference between tool clearance face and the workpiece generated surface and affects the stability of a machining process. Therefore it is necessary to take this phenomenon into consideration during the simulation of machining process. This thesis work presents a practical method for identification, modelling, and numerical simulation of process damping during machining of a workpiece. A special fixture has been used which creates the vibrations conditions necessary to generate the interference between tool clearance face and the specifically designed workpiece. The modelling of process damping is based on the numerical calculation of the interference volume between tool clearance face and the workpiece generated surface. The tool and workpiece geometries are represented by z-buffers whose relative positions at each instant permit to evaluate numerically the interference volume. The process damping coefficients are then estimated by minimization of the error between measured cutting force and the simulated cutting forces
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Barge, Matthieu Bergheau Jean-Michel. "Etude expérimentale et numérique des mécanismes de coupe par abrasion." [S.l.] : [s.n.], 2005. http://bibli.ec-lyon.fr/exl-doc/mbarge.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Poncet, Philippe. "Méthodes particulaires pour la simulation des sillages tridimensionnels." Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004699.

Texto completo da fonte
Resumo:
Ce travail est consacré au développement des méthodes particulaires pour la résolution des équations de Navier-Stokes incompressibles en dimension 3. L'évaluation des formules de Biot-Savart ayant un coût de calcul prohibitif en dimension trois, on utilise un couplage grille-particules. On applique alors cette technique à la simulation et au contrôle de sillages produits par un cylindre. La première partie est consacrée à la méthode numérique proprement dite. On commence par présenter le modèle lagrangien et la méthode utilisée pour calculer le champ de vitesse, qui est la clef de voûte du schéma. On décrit ensuite, au chapitre 2 comment sont calculées les couches limites. Enfin, on présente au chapitre 3 l'algorithme à pas fractionnaire utilisé, ainsi que les méthodes de transfert entre jeux de particules et grilles sous-jacentes, et le calcul de la diffusion. Le code est alors validé par des simulations d'anneaux tourbillonnaires qui se propulsent sur un obstacle cylindrique, pour des nombres de Reynolds modérés (entre 400 et 2000).La seconde partie utilise la méthode numérique décrite précédemment, en l'appliquant dans un premier temps à la simulation des sillages turbulents qui se développent derrière un cylindre circulaire (chapitre 4), puis au contrôle de ces écoulements au chapitre 4.Il est connu que les solutions bidimensionnelles sont instables pour des nombres de Reynolds suffisamment élevés. Les instabilités tridimensionnelles sont identifiée grâce à leur profil spectral. Elles ont un effet important sur les forces de traînée et sur la fréquence propre de l'écoulement.Le chapitre 5, relatif au contrôle, se propose de mettre en évidence plusieurs phénomènes. On considère un contrôle en boucle ouverte, réalisé par une rotation à pulsation et amplitude constante. On étudie des rotations basse et haute fréquences. Le coefficient de traînée est alors diminué de 43% par le contrôle à haute fréquence, pour un nombre de Reynolds de 550. De plus, on montre que l'écoulement turbulent revient à un état bidimensionnel si l'amplitude de rotation est suffisamment élevée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Xiao, Yi-Jun. "Contribution aux méthodes arithmétiques pour la simulation accélérée." Marne-la-vallée, ENPC, 1990. http://www.theses.fr/1990ENPC9031.

Texto completo da fonte
Resumo:
Cette thèse porte sur les irrégularités de distribution de suites à une ou plusieurs dimensions et sur leurs applications a l'intégration numérique. Elle comprend trois parties. La première partie est consacrée aux suites unidimensionnelles: estimations de la diaphonie de la suite de van der corput à partir de l'étude des sommes exponentielles et étude des suites (n). La deuxième partie porte sur quelques suites classiques en dimension plus grande que une (suites de Fame, suites de Halton). La troisième partie, consacrée aux applications à l'intégration contient de nombreux résultats numériques, permettant de comparer l'efficacité de suites
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Viseur, Sophie. "Simulation stochastique basée-objet de chenaux." Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL036N.

Texto completo da fonte
Resumo:
L'hétérogénéité dans la répartition des sédiments issus de systèmes de chenaux fait de cette architecture une hôte potentielle aux hydrocarbures. Lors de l'étude d'un réservoir, la connaissance des structures souterraines est disponible via les données issues de forages, de campagnes sismiques et de la connaissance géologique du domaine. Les processus de simulation stochastique représentent de nos jours un outil important pour la gestion d'un champ pétrolier à partir des simples données recueillies de la subsurface de la terre. Le but de ces méthodes est de générer plusieurs modèles équiprobables de l'architecture fluviatile afin d'étudier les risques encourus lors de l'exploitation d'un champ pétrolier. Et chaque modèle ainsi généré se doit e satisfaire les données de subsurface et refléter les informations issues de la connaissance géologique du champ étudié. Deux principales approches ont été proposées dans ce domaine : les approches dites " basées-pixel " et les approches dites " basées-objet ". Les méthodes basées pixels s'attachent à distribuer les valeurs d'une propriété (soit continue comme la perméabilité ou la porosité, ou discrète comme les indexes de faciès) dans le volume d'étude. Les méthodes objet (ou booléennes) consiste en la génération d'objets modélisant les corps fluviatiles présents dans le domaine étudié et de les distribuer dans le volume réservoir. Cependant, les difficultés généralement rencontrées dans ces dernières approches consistent à pouvoir générer de manière efficace des modèles réalistes prenant en comptes des données " dures " (les données de puits) ou " floues " (les données de proportion). Nos travaux ont donc été voués à la recherche d'une nouvelle méthode de simulation stochastique basée objet permettant de générer plusieurs modèles d'empilements de chenaux équiprobables, réalistes et rendant compte des données de subsurface.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Gaudillière, Camille. "Cisaillage à grande vitesse : des essais à la simulation." Paris, ENSAM, 2011. http://www.theses.fr/2011ENAM0052.

Texto completo da fonte
Resumo:
Afin d'augmenter leur productivité, certains industriels de la découpe mécanique s'intéressent à un procédé émergeant : le cisaillage grande vitesse. Pour ce procédé, la vitesse du poinçon atteint 10m/s alors que cette vitesse ne dépasse pas 0,1 m/s pour le cisaillage conventionnel. Cependant, même si la qualité des découpes obtenues se rapproche celle du cisaillage fin, l'apparition de phénomènes dynamiques mal compris rend aujourd'hui délicat le déploiement du cisaillage grande vitesse. Dans ce travail de thèse nous proposons d'aller vers une meilleure maîtrise de ce procédé en utilisant aussi bien des moyens expérimentaux que numériques. Ainsi un dispositif expérimental instrumenté a été mis au point afin d'observer finement les phénomènes présents lors de la découpe. Ce dispositif conserve des similitudes avec les moyens industriels et comprend notamment un poinçon dont la section varie et une matrice solidaire d'un tube de Hopkinson pour la mesure des efforts de cisaillage. Cette mesure a comprend un traitement spécifique afin de corriger des effets dynamiques présents dans la matrice. Ce traitement, qui nécessite une calibration du banc, a été validé grâce à une modélisation numérique unidimensionnelle. Des observations du faciès de rupture ont permis de mettre en évidence la présence de bandes de cisaillement adiabatiques, signature d'une augmentation localisée importante de la température. Par ailleurs, une modélisation thermomécanique du comportement de l'acier C40 (loi de Johnson-Cook) a été réalisée et utilisée dans un code de simulation utilisant une approche C-NEM (Constrained Natural Element Method) pour reproduire les cisaillages observés sur le banc. Une étude comparative simulation/expérimentation a ainsi pu être effectuée<br>To increase their productivity, blanking professionals are interested by an emerging process: the high speed blanking. For this process, the punch speed reaches10m/s whereas this speed does not exceed 0,1m/s for conventional blanking process. However, even if the quality of the obtained surfaces is close to those obtained with fine blanking, the occurence of hard dynamic phenomena makes difficult the deployment of the high speed blanking process. This work proposes to better control this process using experimentations and numerical simulations. An instrumented device has been designed to observe in detail the existing phenomenon during cutting. This device is similar to the industrial one. It includes a punch with non-constant sections and a matrix linked to an Hopkinson's tube in order to measure the blanking cutting forces. This measure requires a specific treatment to correct dynamic effects present in the matrix during the cutting. This treatment, which uses a calibration of the device, was validated thanks to a one-dimensional numerical model. Many observations made on the blanked surfaces have shown that adiabatic shear bands (ASB) can take place. A thermo-mechanical constitutive model (Johnson-Cook's law) of the C40 steel has been identified and used into simulations to reproduce real experimentations. The used simulation is based on a C-NEM approach (Constrained Natural Element Method). A comparative study between simulation and experimental results has been done. Results show a good correlation with experimental tests
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Stoltz, Gabriel. "Quelques méthodes mathématiques pour la simulation moléculaire et multiéchelle." Phd thesis, Ecole des Ponts ParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00166728.

Texto completo da fonte
Resumo:
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Ould, Salihi Mohamed Lemine. "Couplage de méthodes numériques en simulation directe d'écoulements incompressibles." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004901.

Texto completo da fonte
Resumo:
Ce travail est consacré au développement des méthodes lagrangiennes comme alternatives ou compléments aux méthodes euleriennes conventionnelles pour la simulation d'écoulements incompressibles en présence d'obstacles. On s'intéresse en particulier à des techniques ou des solveurs eulériens et lagrangiens cohabitent dans le même domaine de calcul mais traitent différents termes des équations de Navier-Stokes, ainsi qu'à des techniques de décomposition de domaines ou différents solveurs sont utilisés dans chaques sous-domaines. Lorsque les méthodes euleriennes et lagrangiennes cohabitent dans le même domaine de calcul (méthode V.I.C.), les formules de passage particules-grilles permettent de représenter la vorticité avec la même précision sur une grille fixe et sur la grille lagrangienne. Les méthodes V.I.C. ainsi obtenues combinent stabilité et précision et fournissent une alternative avantageuse aux méthodes différences-finies pour des écoulements confinés. Lorsque le domaine de calcul est décomposé en sous-domaines distincts traités par méthodes lagrangiennes et par méthodes euleriennes, l'interpolation d'ordre élevé permet de réaliser des conditions d'interface consistantes entre les différents sous-domaines. On dispose alors de méthodes de calcul avec décomposition en sous-domaines, de type Euler/Lagrange ou Lagrange/Lagrange, et résolution en formulation (vitesse-tourbillon)/(vitesse-tourbillon) ou (vitesse-pression)/(vitesse-tourbillon). Les différentes méthodes développées ici sont testées sur plusieurs types d'écoulements (cavité entrainée, rebond de dipôles de vorticité, écoulements dans une conduite et sur une marche, écoulements autour d'obstacles) et comparées à des méthodes de différences-finies d'ordre élevé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Stoltz, Gabriel. "Quelques méthodes mathématiques pour la simulation moleculaire et multiéchelle." Marne-la-vallée, ENPC, 2007. http://www.theses.fr/2007ENPC0708.

Texto completo da fonte
Resumo:
Ce travail présente quelques contributions à l'étude théorique et numérique des modèles utilisés en pratique pour la simulation moléculaire de la matière. En particulier, on présente et on analyse des méthodes numériques stochastiques dans le domaine de la physique statistique, permettant de calculer plus efficacement des moyennes d'ensemble. Une application particulièrement importante est le calcul de différences d'énergies libres, par dynamiques adaptatives ou hors d'équilibre. On étudie également quelques techniques, stochastiques ou déterministes, utilisées en chimie quantique et permettant de résoudre de manière approchée le problème de minimisation associé à la recherche de l'état fondamental d'un opérateur de Schrödinger en dimension grande. On propose enfin des modèles réduits permettant une description microscopique simplifiée des ondes de choc et de détonation par le biais d'une dynamique stochastique sur des degrés de liberté moyens, approchant la dynamique hamiltonienne déterministe du système complet<br>This work presents some contributions to the theoretical and numerical study of models used in practice in the field of molecular simulation. In particular, stochastic techniques to compute more efficiently ensemble averages in the field of computational statistical physics are presented and analyzed. An important application is the computation of free energy differences using nonequilibrium or adaptive dynamics. Some stochastic or deterministic techniques to solve approximately the Schrödinger ground state problem for high dimensional systems are also studied. Finally, some reduced models for shock and detonation waves, relying on an average stochastic dynamics reproducing in a mean sense the high dimensional deterministic hamiltonian dynamics, are proposed
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Gillyboeuf, Jean-Philippe. "Diverses méthodes chimère pour la simulation numérique d'écoulements stationnaires." Toulouse, INPT, 1996. http://www.theses.fr/1996INPT127H.

Texto completo da fonte
Resumo:
La technique chimere est une technique multidomaine qui permet de calculer des ecoulements sur des maillages qui se recouvrent sans aucune contrainte geometrique. La principale difficulte qu'elle pose est de transmettre l'information entre les domaines de calcul. Deux approches sont etudiees : l'une est fondee sur l'interpolation, l'autre sur la deformation des domaines. L'approche par interpolation est meilleure, mais son application n'est pas toujours commode. La solution consiste alors a combiner les deux approches de facon a ce qu'il y ait aussi peu de deformation que possible et autant que necessaire. A maillages equivalents, la qualite des resultats que la technique chimere permet d'obtenir est a peu pres equivalente a celle d'un resultat obtenu par un calcul multidomaine classique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Papadopoulos, Christos. "Méthodes de simulation stochastiques rapides et applications en fiabilité." Compiègne, 1999. http://www.theses.fr/1999COMP1213.

Texto completo da fonte
Resumo:
L'objectif de cette thèse est l'estimation des probabilités associées aux évènements rares rencontrés en fiabilité. Dans un premier temps, nous avons étudié les principales méthodes de réduction de la variance, et ensuite nous avons développé une heuristique de type "Failure Biasing" appelée la méthode "Inverse" qui s'est montrée très efficace en pratique et qui possède la propriété de l'Erreur Relative Bornée pour la quasi-totalité de systèmes markoviens hautement fiables. L'unique changement optimal, n'est pas toujours exploitable car il contient le paramètre que nous voulons estimer. Par contre, dans certains cas, nous pouvons effectivement le calculer. Ainsi, nous avons présenté la procédure pour le calcul récursif du changement optimal dans le cas de l'estimation de la probabilité d'un évènement rare. Nous avons également donné les classes de systèmes pour lesquelles cette procédure est appliquable. Des approches pratiques pour l'utilisation de la théorie des grandes déviations en simulation, ont également été présentées. Finalement, nous avons présenté deux méthodes pour la simulation des systèmes semi-markoviens : la méthode de la chaîne immergée et celle du risque compétitif. Cette étude a été étendue avec la présentation d'une méthode hybride pour l'estimation de la non-fiabilité d'un système consécutif-k-sur-n, basée sur la méthode analytique-statistique. L'efficacité de cette méthode a été illustrée sur de nombreux exemples.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Minvielle-Larrousse, Pierre. "Méthodes de simulation stochastique pour le traitement de l’information." Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3005.

Texto completo da fonte
Resumo:
Lorsqu’une grandeur d’intérêt ne peut être directement mesurée, il est fréquent de procéder à l’observation d’autres quantités qui lui sont liées par des lois physiques. Ces quantités peuvent contenir de l’information sur la grandeur d’intérêt si l’on sait résoudre le problème inverse, souvent mal posé, et inférer la valeur. L’inférence bayésienne constitue un outil statistique puissant pour l’inversion, qui requiert le calcul d’intégrales en grande dimension. Les méthodes Monte Carlo séquentielles (SMC), aussi dénommées méthodes particulaires, sont une classe de méthodes Monte Carlo permettant d’échantillonner selon une séquence de densités de probabilité de dimension croissante. Il existe de nombreuses applications, que ce soit en filtrage, en optimisation globale ou en simulation d’évènement rare. Les travaux ont porté notamment sur l’extension des méthodes SMC dans un contexte dynamique où le système, régi par un processus de Markov caché, est aussi déterminé par des paramètres statiques que l’on cherche à estimer. En estimation bayésienne séquentielle, la détermination de paramètres fixes provoque des difficultés particulières : un tel processus est non-ergodique, le système n’oubliant pas ses conditions initiales. Il est montré comment il est possible de surmonter ces difficultés dans une application de poursuite et identification de formes géométriques par caméra numérique CCD. Des étapes d’échantillonnage MCMC (Chaîne de Markov Monte Carlo) sont introduites pour diversifier les échantillons sans altérer la distribution a posteriori. Pour une autre application de contrôle de matériau, qui cette fois « hors ligne » mêle paramètres statiques et dynamiques, on a proposé une approche originale. Elle consiste en un algorithme PMMH (Particle Marginal Metropolis-Hastings) intégrant des traitements SMC Rao-Blackwellisés, basés sur des filtres de Kalman d’ensemble en interaction.D’autres travaux en traitement de l’information ont été menés, que ce soit en filtrage particulaire pour la poursuite d’un véhicule en phase de rentrée atmosphérique, en imagerie radar 3D par régularisation parcimonieuse ou en recalage d’image par information mutuelle<br>When a quantity of interest is not directly observed, it is usual to observe other quantities that are linked by physical laws. They can provide information about the quantity of interest if it is able to solve the inverse problem, often ill posed, and infer the value. Bayesian inference is a powerful tool for inversion that requires the computation of high dimensional integrals. Sequential Monte Carlo (SMC) methods, a.k.a. interacting particles methods, are a type of Monte Carlo methods that are able to sample from a sequence of probability densities of growing dimension. They are many applications, for instance in filtering, in global optimization or rare event simulation.The work has focused in particular on the extension of SMC methods in a dynamic context where the system, governed by a hidden Markov process, is also determined by static parameters that we seek to estimate. In sequential Bayesian estimation, the determination of fixed parameters causes particular difficulties: such a process is non-ergodic, the system not forgetting its initial conditions. It is shown how it is possible to overcome these difficulties in an application of tracking and identification of geometric shapes by CCD digital camera. Markov Monte Carlo Chain (MCMC) sampling steps are introduced to diversify the samples without altering the posterior distribution. For another material control application, which mixes static and dynamic parameters, we proposed an original offline approach. It consists of a Particle Marginal Metropolis-Hastings (PMMH) algorithm that integrates Rao-Blackwellized SMC, based on a bank of interacting Ensemble Kalman filters.Other information processing works has been conducted: particle filtering for atmospheric reentry vehicle tracking, 3D radar imaging by sparse regularization and image registration by mutual information
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Peigne, Grégoire. "Etude et simulation des effets dynamiques de la coupe sur la stabilité de la coupe et la qualité géométrique de la surface usinée : application au fraisage de profil." Grenoble INPG, 2003. http://www.theses.fr/2003INPG0133.

Texto completo da fonte
Resumo:
En fraisage, la qualité de la coupe peut être dégradée par deux phénomènes vibratoires : le broutement, provoqué principalement par le mécanisme de régénération des surfaces usinées et les vibrations forcées dues à la périodicité de la coupe. Afin de déterminer les conditions favorables d'usinage, nous avons développé un simulateur de fraisage qui utilise une modélisation dynamique de la coupe à l'échelle macroscopique et intègre le comportement dynamique de l'ensemble "pièce outil machine". L'originalité de notre travail réside dans un nouveau modèle géométrique d'enlèvement de matière, qui accroît la précision des calculs et permet d'étudier la surface usinée à l'échelle de la rugosité tout en conservant de faibles temps de calcul, indispensables pour balayer l'espace des conditions de coupe. Les apports de notre modélisation sont validés en confrontant les résultats de simulation à ceux expérimentaux et ceux calculés en utilisant la modélisation géométrique la plus courante.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Demogeot, Thierry. "Développement de l'environnement de simulation Gaspe." Vandoeuvre-les-Nancy, INPL, 1992. http://www.theses.fr/1992INPL064N.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Bonithon, Gaël. "Méthodes numériques innovantes pour la simulation thermique de composants électroniques." Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00547880.

Texto completo da fonte
Resumo:
Les composants électroniques présentent des facteurs d'échelle géométrique importants, et font intervenir des matériaux aux conductivités thermiques très différentes. L'expérience montre que dans ce cadre, la méthode des éléments de frontière est un choix judicieux pour la simulation thermique en régime permanent. En régime transitoire, la dimension temporelle ajoute un certain nombre de difficultés. Parmi celles-ci figurent classiquement l'augmentation des temps de calcul et les critères de stabilité, ou d'un manière plus générale les liens entre discrétisations spatiale et temporelle. Plus spécifiquement, un des enjeux actuels en électronique est de mesurer l'impact de phénomènes très localisés, comme des commutations ou des courts-circuits, sur la thermique globale d'un composant. Il s'agit alors de coupler différentes échelles espace-temps, en assurant en particulier des changements d'échelle sans perte d'information. Dans la première partie de ce travail, on propose d'utiliser la méthode des éléments de frontière transitoire pour répondre à cette problématique. On combine tout d'abord différentes formulations intégrales et des techniques d'optimisation pour réduire le coût de la méthode. On réutilise ensuite ce travail pour développer une approche multi-échelles, et généraliser la méthode des éléments de frontière aux matériaux non linéaires. Une seconde partie est consacrée au développement d'une méthode alternative, visant à réduire les temps de calcul de manière plus significative tout en conservant une base éléments de frontière. Il s'agit d'une méthode de décomposition propre généralisée, qui permet de construire une représentation à variables séparées de la solution de manière non incrémentale. On étudie la convergence de l'algorithme sur différents cas de test, en proposant des techniques pour traiter des conditions aux limites et initiales non homogènes, ainsi que des termes sources non linéaires.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Apraez, Camilo. "Étude comparative de méthodes de simulation de la stabilité transitoire." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1000/1/APRAEZ_Camilo.pdf.

Texto completo da fonte
Resumo:
L’analyse de la stabilité transitoire (ST) est l'un des outils les plus puissants pour étudier et améliorer le comportement des réseaux électriques. Par ailleurs, de nouveaux domaines de recherche utilisent la ST afin de déterminer l’écoulement de puissance de façon optimale à la suite d'une perturbation. La ST est une spécialité de la stabilité de l’angle du rotor qui simule et analyse le comportement dynamique des machines synchrones avant, pendant et après une perturbation. La tendance la plus courante pour étudier la ST est une simulation dans le domaine du temps (SDT). À cette fin, nous formulons un ensemble d’équations différentielles algébriques (EDA) qui simulent le comportement des machines ainsi que le fonctionnement du réseau. Ces équations sont non linéaires et leur résolution nécessite l'application de méthodes numériques d'intégration. Ce projet met en oeuvre un programme de ST qui comprend le modèle détaillé et le modèle classique des machines synchrones. Pour la simulation avec le modèle classique, nous avons inclus dix méthodes différentes d'intégration implicites et explicites à pas d'intégration constants ou variables. Pour le modèle détaillé, nous avons réalisé deux algorithmes qui permettent de résoudre le système EDA avec des méthodes simultanées implicites et partitionnées explicites. De plus, nous avons testé le fonctionnement du programme dans les cas suivants: « WECC » trois machines, « New England » 10 machines, 17 machines et 50 machines. Pour chaque étude de cas, nous avons analysé les performances de chacune de ces méthodes en termes de précision et de rapidité d'exécution. Ce programme vise à servir d’outil de simulation dans les recherches qui demandent l'utilisation d’un programme de ST.
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Silva, lopes Laura. "Méthodes numériques pour la simulation d'évènements rares en dynamique moléculaire." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC1045.

Texto completo da fonte
Resumo:
Dans les systèmes dynamiques aléatoires, tels ceux rencontrés en dynamique moléculaire, les événements rares apparaissent naturellement, comme étant liés à des fluctuations de probabilité faible. En dynamique moléculaire, le repliement des protéines, la dissociation protéine-ligand, et la fermeture ou l’ouverture des canaux ioniques dans les membranes, sont des exemples d’événements rares. La simulation d’événements rares est un domaine de recherche important en biophysique depuis presque trois décennies.En dynamique moléculaire, on est particulièrement intéressé par la simulation de la transition entre les états métastables, qui sont des régions de l’espace des phases dans lesquelles le système reste piégé sur des longues périodes de temps. Ces transitions sont rares, leurs simulations sont donc assez coûteuses et parfois même impossibles. Pour contourner ces difficultés, des méthodes d’échantillonnage ont été développées pour simuler efficacement ces événement rares. Parmi celles-ci les méthodes de splitting consistent à diviser l’événement rare en sous-événements successifs plus probables. Par exemple, la trajectoire réactive est divisée en morceaux qui progressent graduellement de l’état initial vers l’état final.Le Adaptive Multilevel Splitting (AMS) est une méthode de splitting où les positions des interfaces intermédiaires sont obtenues de façon naturelle au cours de l’algorithme. Les surfaces sont définies de telle sorte que les probabilités de transition entre elles soient constantes et ceci minimise la variance de l’estimateur de la probabilité de l’événement rare. AMS est une méthode avec peu de paramètres numériques à choisir par l’utilisateur, tout en garantissant une grande robustesse par rapport au choix de ces paramètres.Cette thèse porte sur l’application de la méthode adaptive multilevel splitting en dynamique moléculaire. Deux types de systèmes ont été étudiés. La première famille est constituée de modèles simples, qui nous ont permis d’améliorer la méthode. La seconde famille est faite de systèmes plus réalistes qui représentent des vrai défis, où AMS est utilisé pour avancer nos connaissances sur les mécanismes moléculaires. Cette thèse contient donc à la fois des contributions de nature méthodologique et numérique.Dans un premier temps, une étude conduite sur le changement conformationnel d’une biomolécule simple a permis de valider l’algorithme. Nous avons ensuite proposé une nouvelle technique utilisant une combinaison d’AMS avec une méthode d’échantillonnage préférentiel de l’ensemble des conditions initiales pour estimer plus efficacement le temps de transition. Celle-ci a été validée sur un problème simple et nos résultats ouvrent des perspectives prometteuses pour des applications à des systèmes plus complexes. Une nouvelle approche pour extraire les mécanismes réactionnels liés aux transitions est aussi proposée dans cette thèse. Elle consiste à appliquer des méthodes de clustering sur les trajectoires réactives générées par AMS. Pendant ce travail de thèse, l’implémentation de la méthode AMS pour NAMD a été améliorée. En particulier, ce manuscrit présente un tutoriel lié à cette implémentation. Nous avons aussi mené des études sur deux systèmes moléculaires complexes avec la méthode AMS. Le premier analyse l’influence du modèle d’eau (TIP3P et TIP4P/2005) sur le processus de dissociation ligand– β -cyclodextrine. Pour le second, la méthode AMS a été utilisée pour échantillonner des trajectoires de dissociation d’un ligand du domaine N-terminal de la protéine Hsp90<br>In stochastic dynamical systems, such as those encountered in molecular dynamics, rare events naturally appear as events due to some low probability stochastic fluctuations. Examples of rare events in our everyday life includes earthquakes and major floods. In chemistry, protein folding, ligandunbinding from a protein cavity and opening or closing of channels in cell membranes are examples of rare events. Simulation of rare events has been an important field of research in biophysics over the past thirty years.The events of interest in molecular dynamics generally involve transitions between metastable states, which are regions of the phase space where the system tends to stay trapped. These transitions are rare, making the use of a naive, direct Monte Carlo method computationally impracticable. To dealwith this difficulty, sampling methods have been developed to efficiently simulate rare events. Among them are splitting methods, that consists in dividing the rare event of interest into successive nested more likely events.Adaptive Multilevel Splitting (AMS) is a splitting method in which the positions of the intermediate interfaces, used to split reactive trajectories, are adapted on the fly. The surfaces are defined suchthat the probability of transition between them is constant, which minimizes the variance of the rare event probability estimator. AMS is a robust method that requires a small quantity of user defined parameters, and is therefore easy to use.This thesis focuses on the application of the adaptive multilevel splitting method to molecular dynamics. Two kinds of systems are studied. The first one contains simple models that allowed us to improve the way AMS is used. The second one contains more realistic and challenging systems, where AMS isused to get better understanding of the molecular mechanisms. Hence, the contributions of this thesis include both methodological and numerical results.We first validate the AMS method by applying it to the paradigmatic alanine dipeptide conformational change. We then propose a new technique combining AMS and importance sampling to efficiently sample the initial conditions ensemble when using AMS to obtain the transition time. This is validatedon a simple one dimensional problem, and our results show its potential for applications in complex multidimensional systems. A new way to identify reaction mechanisms is also proposed in this thesis.It consists in performing clustering techniques over the reactive trajectories ensemble generated by the AMS method.The implementation of the AMS method for NAMD has been improved during this thesis work. In particular, this manuscript includes a tutorial on how to use AMS on NAMD. The use of the AMS method allowed us to study two complex molecular systems. The first consists in the analysis of the influence of the water model (TIP3P and TIP4P/2005) on the β -cyclodextrin and ligand unbinding process. In the second, we apply the AMS method to sample unbinding trajectories of a ligand from the N-terminal domain of the Hsp90 protein
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Agouzoul, Asmaâ. "Nouvelles méthodes numériques pour la simulation de l’impression 3D métallique." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0004.

Texto completo da fonte
Resumo:
Le procédé SLM offre de nouvelles perspectives en termes de conception de pièces. Cependant, les phénomènes thermo-mécaniques liés au procédé sont responsables des contraintes résiduelles et de la distorsion de la pièce fabriquée. La simulation numérique est un outil intéressant pour mieux cerner les phénomènes physiques à l’œuvre et leur impact sur la qualité de la pièce. Dans cette thèse, nous proposons différentes approches qui permettent de réaliser les simulations à moindre coût, en utilisant des algorithmes de réduction de modèles. Les résultats sont comparés à ceux obtenus par la méthode des éléments finis. Une méthode inverse d’identification rapide de la contrainte inhérente à partir d'abaques numériques est proposée. L'approche Proper Generalised Décomposition (PGD) est utilisée pour la construction de cet abaque. Nous explorons aussi les avantages qu'offre une implémentation de la PGD sur GPU<br>Selective Laser Melting offers new perspectives in terms of part design and simplification of complex assemblies. However, severe thermo-mechanical conditions arise and are responsible for local plastic deformation, residual stresses and distortion of the manufactured component. Numerical simulation is an interesting tool for process understanding the physical phenomena and their impact on the quality of the part. In this thesis, we propose different approaches to perform simulations at a lower cost, by using model reduction algorithms. The results are compared with those obtained by the finite element method. A reverse analysis in order to identify the inherent strain responsible for the measured elastic springback makes possible to build offline numerical abacus. Therefore, we use a multi-parametric reduced order model using the so called Proper Generalised Decomposition (PGD) to construct this abacus. We also explore the benefits of an implementation of PGD on GPU
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

El, Haddad Rami. "Méthodes quasi-Monte Carlo de simulation des chaînes de Markov." Chambéry, 2008. http://www.theses.fr/2008CHAMS062.

Texto completo da fonte
Resumo:
Les méthodes de Monte Carlo (MC) sont des méthodes probabilistes basées sur l'utilisation des nombres aléatoires dans des simulations répétées afin d'estimer un paramètre. Leurs analogues déterministes sont appelées méthodes Quasi-Monte Carlo (QMC). Leur principe consiste à remplacer les points pseudo-aléatoires par des points quasi-aléatoires déterministes (ou points à discrépance faible). Dans cette thèse, nous proposons et analysons des algorithmes du type QMC pour la simulation des chaînes de Markov multidimensionnelles. Après avoir rappelé le principe et les propriétés des méthodes MC et QMC, nous introduisons quelques modèles financiers simples, qui serviront dans la suite pour tester l'efficacité des algorithmes proposés. Nous détaillons particulièrement des modèles où l'on connait la solution exacte, afin de pouvoir vérifier dans la suite la validité des méthodes d'approximation, et comparer leur efficacité. Dans un premier temps, nous nous intéressons à la simulation des chaînes de Markov à espace d'états discret de dimension S. Nous proposons un schéma itératif QMC permettant l'approximation de la distribution de la chaîne à tout instant. Ce schéma utilise une suite (T,S+1) en base B pour les transitions. De plus, il faut ordonner les copies de la chaine suivant leurs composantes successives à chaque itération. Nous étudions la convergence du schéma en faisant des hypothèses sur la matrice de transition. Nous validons l'étude théorique par des expériences numériques issues de la finance. Les résultats obtenus permettent d'affirmer que le nouvel algorithme est plus efficace que le schéma MC traditionnel. Nous nous intéressons ensuite à la simulation des chaînes de Markov à espace d'états multidimensionnel continu. Nous proposons un schéma QMC d'approximation de la distribution de la chaîne à tout instant. Il utilise le même algorithme de tri des états simulés que dans le cas discret. Nous étudions la convergence de l'algorithme dans le cas unidimensionnel puis multidimensionnel en faisant des hypothèses supplémentaires sur les transitions. Nous illustrons la convergence de l'algorithme par des expériences numériques; leurs résultats montrent que l'approche QMC converge plus rapidement que la technique Monte Carlo. Dans la dernière partie, nous considérons le problème de l'équation de diffusion dans un milieu hétérogène. Nous utilisons une méthode de marche aléatoire en faisant une correction des pas Gaussiens. Nous mettons au point une variante QMC de cette méthode, en adaptant les idées utilisées pour la simulation des chaines de Markov. Nous testons l'efficacité de l'algorithme en dimensions 1, 2 et 3 sur un problème de diffusion d'ions calcium dans un milieu biologique. Dans toutes les expériences, les résultats des calculs QMC sont de meilleure qualité que ceux des simulations MC. Finalement, nous faisons un bilan du travail effectué et nous proposons quelques perspectives pour des travaux futurs<br>Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated simulations to estimate some parameter. Their deterministic versions are called Quasi-Monte Carlo (QMC) methods. The idea is to replace pseudo-random points by deterministic quasi-random points (also known as low-discrepancy point sets or sequences). In this work, we propose and analyze QMC-based algorithms for the simulation of multidimensional Markov chains. The quasi-random points we use are (T,S)-sequences in base B. After recalling the principles of MC and QMC methods and their main properties, we introduce some plain financial models, to serve in the following as numerical examples to test the convergence of the proposed schemes. We focus on problems where the exact solution is known, in order to be able to compute the error and to compare the efficiency of the various schemes In a first part, we consider discrete-time Markov chains with S-dimensional state spaces. We propose an iterative QMC scheme for approximating the distribution of the chain at any time. The scheme uses a (T,S+1)-sequence in base b for the transitions. Additionally, one needs to re-order the copies of the chain according to their successive components at each time-step. We study the convergence of the scheme by making some assumptions on the transition matrix. We assess the accuracy of the QMC algorithm through financial examples. The results show that the new technique is more efficient than the traditional MC approach. Then, we propose a QMC algorithm for the simulation of Markov chains with multidimensional continuous state spaces. The method uses the same re-ordering step as in the discrete setting. We provide convergence results in the case of one dimensional chains and then in the case of multidimensional chains, by making additional assumptions. We illustrate the convergence of the algorithm through numerical experiments. The results show that the new method converges faster than the MC algorithm. In the last part, we consider the problem of the diffusion equation in a spatially nonhomogeneous medium. We use a random walk algorithm, in conjunction with a correction of the Gaussian Steplength. We write a QMC variant of the algorithm, by adapting the principles seen for the simulation of the Markov chains. We test the method in dimensions 1, 2 and 3 on a problem involving the diffusion of calcium ions in a biological medium. In all the simulations, the results of QMC computations show a strong improvement over MC outcomes. Finally, we give some perspectives and directions for future work
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

MAHMOUD, AHMAD. "Simulation numérique d'écoulements par des méthodes de transformation de domaines." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0102.

Texto completo da fonte
Resumo:
Ce travail fait le point sur les methodes de transformation de domaines utilisees pour la simulation numerique d'ecoulements bi- et tridimensionnels. Dans ce cadre, nous avons developpe des methodes de transformation permettant de calculer des ecoulements etablis dans des filieres a section constante, mais quelconque, et des ecoulements complexes, pour des modeles rheologiques de type newtonien, non-newtonien purement visqueux et viscoelastique. A la difference des analyses proposees dans la litterature, nous considerons une transformation inconnue entre le domaine physique et un domaine transforme (de calcul) plus simple, analyse a laquelle se rattachent les methodes de tubes de courant. Plusieurs problemes ont ete abordes et resolus : 1) la simulation d'ecoulements etablis de fluides obeissant a des lois de comportement newtonienne, non-newtonienne purement visqueuse et viscoelastique integrale pour des conduites de sections complexes, pour lesquelles une approche par decomposition de domaines a ete mise en oeuvre. 2) le calcul d'ecoulements axisymetriques a surface libre inconnue correspondant a l'extrusion en sortie de filiere annulaire, pour un liquide newtonien. 3) la simulation de problemes d'ecoulements axisymetriques comportant des zones de singularite : surfaces avec transition adherence-glissement ou libres. Dans le contexte d'une analyse de tubes de courant, une formulation originale par elements finis utilisant la methode de galerkin a ete proposee pour les cas 2d et 3d. Les resultats, obtenus avec des elements d'approximation d'hermite sont conformes a ceux de la litterature, pour le cas newtonien et en accord avec les donnees experimentales sur un polyethylene lineaire de basse densite represente par une loi de comportement integrale.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Saleh, Susi. "Méthodes de simulation des erreurs transitoires à plusieurs niveaux d'abstraction." Grenoble INPG, 2005. https://tel.archives-ouvertes.fr/tel-00009587.

Texto completo da fonte
Resumo:
La miniaturisation croissante des composants électroniques accroît considérablement la sensibilité des circuits intégrés face aux fautes transitoires de type (SEU) ou (SET). De ce fait, l'analyse de la sensibilité face aux ces fautes transitoires des circuits combinatoires et séquentiels est une tâche essentielle aujourd'hui. Les méthodes analytiques de calcul probabiliste de génération des impulsions SET ou des SEU et de propagation et transformation en erreur, publiées dans la littérateur jusqu'à ce jour, ne sont pas complets car un certain nombre de paramètres ne sont pas pris en compte. Dans cette thèse, nous proposons une méthodologie de simulation de fautes transitoires multi-niveaux qui permettra une évaluation plus rapide et en même temps précise. Cette méthodologie est en fait une collection des méthodes de simulations, une pour chaque niveau d'abstraction (niveau physique, niveau transistor, et niveau portes logiques). Au niveau physique, nous utilisons la simulation physique au niveau composants ou portes logiques élémentaires qui consiste en la caractérisation de chaque type de transistor d'une technologie donnée face aux SET en prenant en compte plusieurs paramètre (l'énergie ou le LET de la particule, l'angle d'incidence et la localisation de l'impact sur le composant, et les dimensions des transistors heurté par la particule). Suite à cette caractérisation, une famille de courbes de courants sera obtenue pour chaque transistor et un domaine de valeurs de l'amplitude et la durée de l'impulsion de courant sera établi. La transformation des impulsions de courants obtenus au niveau physique en impulsions de tension est réalisée à travers des simulations électriques en prenant en compte l'impédance de sortie de chaque porte. Une famille de courbes de tension transitoire sera aussi établie pour chaque porte. Un modèle d'impulsion logique sera défini pour ces impulsions qui sera ensuite utilisé dans des simulations numériques, qui sont beaucoup plus rapides, et qui sont utilisées finalement afin de pouvoir analyser la sensibilité face aux fautes transitoires de type SET et SEU d'un circuit complexe. Les résultats de cette analyse seront utilisés afin de réaliser une cartographie de sensibilité d'un circuit complexe qui nous permet de déterminer les zones les plus sensibles d'un circuit étudié et éventuellement de décider d'un durcissement ponctuel des portes sensibles<br>The nowadays miniaturization of the electronic components increases considerably the sensitivity of the integrated circuits face to transient faults (SEU) or (SET). The analysis of the transient faults sensitivity for combinational logic and sequential circuits is an essential task today. The analytical methods based on probabilistic calculation of the generation of transient pulses SET or SEU, and of the propagation and the transformation of these transients faults into errors, published in the literature are not complete because a certain number of parameters are not taken into account. In this thesis, we propose a fast and accurate multi levels methodology to simulate transient faults. This methodology is a collection of simulation methods, a method for each level of abstraction (physical level, transistor level, and gate level). At the physical level, we use a physical simulation at the components level for any elementary logical gates which consists in the characterization of each type of transistor of a given technology face of SET by taking into account several parameter (the energy or the LET of the particle, the angle of incidence, the impact localization and the dimensions of the transistors where the particle strike occurs). After this characterization, a family of current curves is obtained for each transistor and a domain of the current amplitude values and the current pulses duration is established. The transformation of the current pulse obtained at the physical level into voltage pulses is done by electrical simulations by taking into account the output impedance of each gate. A family of transient voltage pulse curves is also established for each gate. Furthermore, a logical pulse model is defined for these pulses which will be then used in a numerical simulations, which are much faster, and which are finally used in the sensitivity analysis phase for complex circuit. The results of this analysis are used in order to realize a cartography of a complex circuit sensitivity which allow us to determine the most significant zones of a studied circuit and, if required, to decide a hardening solution of the sensitive gates
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Labeau, Pierre-Etienne. "Méthodes semi-analytiques et outils de simulation en dynamique probabiliste." Doctoral thesis, Universite Libre de Bruxelles, 1996. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212439.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Navarro, Barragan Alberto. "Etude d'un procédé de séparation chromatographique en continu : modélisation et mise en oeuvre d'un séparateur à trois sorties fonctionnant en simulation de lit mobile." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT040G.

Texto completo da fonte
Resumo:
L'evolution des systemes de chromatographie continue industrielle est presentee ainsi que leurs domaines d'application actuelles. Dans le cas d'un separateur chromatographique a deux sorties fonctionnant selon le principe de simulation de lit mobile, les modeles permettant de representer les echanges de matiere sont discutes. Un modele simplifie et exploite pour etudier l'influence des conditions de fonctionnement du separateur sur la separation d'un melange glycerol-sulfate de sodium. La modelisation est etendue a la separation de trois constituants dans un separateur chromatographique continu a trois sorties. La resolution des equations derivees de ce modele permet de representer le profil chromatographique installe dans le separateur et de calculer la concentration et la purete des extraits et raffinat. L'influence des principaux facteurs - debits de boucle, de desorbant, de melange, des extraits, de raffinat, le temps de sequence, la configuration du separateur, sont etudies grace au modele. Une installation pilote de separation chromatographique par simulation de lit mobile est mise au point. Les previsions du modele sont verifiees experimentalement dans le cas d'un melange de polyols : mannitol, sorbitol, xylitol. Les conditions operatoires sont optimisees et les orientations validees experimentalement.
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Lucas, Philippe. "Modélisation et simulation du régime transitoire d'unités de séparation d'un procédé chimique avec leur système de régulation : Application à la conduite d'un atelier industriel." Châtenay-Malabry, Ecole centrale de Paris, 1988. http://www.theses.fr/1988ECAP0083.

Texto completo da fonte
Resumo:
Le travail proposé porte sur la simulation de régimes transitoires d'un procédé industriel et son utilisation pour l'étude de la conduite de cet atelier. A partir de l'observation d'un atelier de distillation et de l'analyse de son comportement pendant les phases transitoires est proposée une méthodologie de modélisation réaliste mais complexe pour représenter le fonctionnement d'un procédé. L'examen de la littérature scientifique sur le calcul du régime transitoire des procédés montre que la résolution numérique s'appuie le plus souvent sur la méthode de Bear comme le montrent les quelques logiciels et applications industrielles proposés. Sur la base des modèles présentés dans la littérature les équations retenues pour représenter l'installation étudiée sont exposées. Elles concernent non seulement l'accumulation et le transport de matière et d'énergie mais aussi l'acquisition de l'information et sa conversion en actions sur le procédé. La mise en oeuvre de cette modélisation avec le logiciel SpeedUp exige que le système d'équations différentielles et algébriques soit bien conditionné. L'obtention de tels systèmes est illustrée par des exemples d'opérations tirées du procédé étudié. Cette expérience permet de formuler des règles générales de modélisation. Quelques modèles ainsi écrits sont présentés. La modélisation ainsi définie appliquée à un évaporateur puis à la colonne de distillation conduit à des réponses qualitativement et quantitativement conformes à la réalité. Le choix des variables de commande d'une colonne de distillation est plus particulièrement exposé. Son application à la colonne étudiée invite après une étude en transitoire à choisir un certain jeu de variables intensives. Cette étude donne quelques recommandations pour la bonne conduite des régimes transitoires de procédés fortement perturbés. Le mémoire se termine par un bilan de l'apport potentiel de la simulation dynamique dans le choix de la stratégie de conduite d'un procédé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Dubos, Samuel. "Simulation des grandes échelles d'écoulements turbulents supersoniques." Rouen, INSA, 2005. http://www.theses.fr/2005ISAM0007.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!