To see the other types of publications on this topic, follow the link: Produits industriels – Simulation, Méthodes de.

Dissertations / Theses on the topic 'Produits industriels – Simulation, Méthodes de'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Produits industriels – Simulation, Méthodes de.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tichadou, Stéphane. "Modélisation et quantification tridimensionnelles des écarts de fabrication pour la simulation d'usinage." Nantes, 2005. http://www.theses.fr/2005NANT2092.

Full text
Abstract:
Dans le processus d'industrialisation d'un produit, l’étude de la cotation de fabrication est une étape de l’élaboration de la gamme de fabrication des pièces à produire. Grâce à la simulation d’usinage, elle met en évidence les variations dimensionnelles et géométriques probables des pièces tout le long de leur processus de fabrication, c’est à dire phase après phase. Ces écarts, dus à la fabrication, doivent être tolérés afin de respecter l’ensemble des contraintes fonctionnelles et manufacturières du produit. On distingue généralement deux étapes lors de la cotation de fabrication : Tout d’abord, la simulation dimensionnelle et géométrique d’usinage qui permet l’expertise et la validation d'un avant projet d’étude de fabrication par la prédiction des variations géométriques des surfaces réalisées. Puis, l'optimisation qui permet l’augmentation potentielle des tolérances de fabrication afin de respecter l’ensemble des contraintes associées au produit et d’intégrer au plus tôt, dès la conception, les contraintes de fabrication et de constater leurs effets sur les caractéristiques du produit L'objectif principal de ce travail est d'aboutir à un modèle global réaliste des défauts fabriqués afin de mener à bien la simulation d’usinage. Dans un premier temps, une modélisation des phases d’usinage et, une représentation graphique des gammes de fabrication sont proposées. Une première approche de la simulation d’usinage est présentée en intégrant les écarts de fabrication sur un logiciel de FAO afin de générer une pièce simulée avec défauts. Sur cette maquette numérique, est effectuée la métrologie virtuelle qui caractérise grâce à un modeleur volumique, les défauts de la pièce simulée. Dans un second temps, une approche formelle de la simulation d’usinage est proposée. Des relations sont crées entre les défauts des pièces fabriquées et les écarts de fabrication. Des travaux de recherche initiés dans le domaine de la cotation fonctionnelle ont montré que l'utilisation des torseurs permet une modélisation tridimensionnelle des défauts géométriques. En considérant une phase d’usinage comme un empilage de composants, c’est à dire comme un mécanisme, il est possible de modéliser les défauts de fabrication inhérents à chaque phase puis de les cumuler suivant le processus de fabrication. Une démarche méthodologique permet de générer automatiquement les chaînes de torseurs relatifs à l’ensemble des défauts de fabrication de la pièce brute à la pièce finie. Suite à une étude de cas, les deux approches convergent vers des résultats comparables. Un bilan des apports des deux méthodes de simulation est présenté afin de les associer et de les rendre complémentaires. Enfin, pour permettre de valider expérimentalement les modèles et les approches, un processus opératoire de mesure des défauts tridimensionnels de fabrication est proposé. Il identifie les types de dispersions de fabrication et établit leurs contributions et leurs effets sur la géométrie des pièces. Ces méthodes et les moyens de mesure associés ont été développés dans l’optique d’être adaptés au contexte industriel afin de favoriser la capitalisation du savoir-faire.
APA, Harvard, Vancouver, ISO, and other styles
2

Cantegrit, Eric. "Modélisation et simulation orientées objets des processus par lot." Lille 1, 1988. http://www.theses.fr/1988LIL10045.

Full text
Abstract:
L'objectif est de préciser les évolutions du processus face à des défaillances des objets technologiques et d'examiner les réactions des opérateurs de pilotage soit pour bâtir une base d'expertise des pilotes chevronnés, soit pour faire l'apprentissage des pilotes néophytes, soit aussi pour vérifier la qualité de la programmation de la partie commande vis-à-vis de la sécurité.
APA, Harvard, Vancouver, ISO, and other styles
3

Pereyrol, Frédéric. "Interaction produit-procédé : extension de la modélisation de la commande avec suivi automatique du produit." Montpellier 2, 1993. http://www.theses.fr/1993MON20147.

Full text
Abstract:
La démarche a pour objet de permettre à la partie commande d'un Système Automatisé de Production de suivre le produit de telle façon que le programme de commande dispose à tout moment des informations nécessaires. Pour effectuer cette tâche, il faut: définir des concepts de modélisation de la partie opérative permettant de localiser à tout moment le produit; définir un langage de manipulation du produit et de ses caractéristiques au sein de cette modélisation; faire évoluer cette modélisation en parallèle avec la partie opérative en cours de production, pendant que le produit évolue réellement dans la partie physique, sans être observable. Après un état de l'art sur les approches adoptant le point de vue «produit», ce document reprend les trois points précédents pour permettre au concepteur d'inclure de manière explicite la notion de produit dans ses programmes de commande et de décrire, ainsi, le flux de produit au sein du système. Cette approche rend la manipulation des produits transparente pour le concepteur qui en introduit les phrases directement dans la commande exprimée en schéma à relais, Equations Logiques avec boîtes fonctionnelles ou Grafcet. Grâce à ce langage, on conserve une partie de la sémantique liée à la manipulation du produit en tant que concept.
APA, Harvard, Vancouver, ISO, and other styles
4

Benoit, Scott. "Évaluation de l'éco-efficacité des procédés de transformation des produits laitiers : développement d'un outil de simulation." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/31384.

Full text
Abstract:
L’éco-efficacité est un concept qui a été spécifiquement conçu pour le monde de l’entreprise, et qui lie les performances environnementales et économiques d’un produit ou d’un service. Depuis 2012, l’éco-efficacité fait l’objet d’une méthode d’évaluation normalisée (ISO 14045) qui impose l’analyse de cycle de vie pour évaluer les impacts potentiels à l’environnement. L’évaluation de l’éco-efficacité offre ainsi au monde de l’entreprise l’opportunité de prendre des décisions non plus basées uniquement sur des égards économiques, mais prenant aussi en considération les impacts potentiels à l’environnement. Parmi les innombrables activités industrielles susceptibles de tirer profit du concept d’éco-efficacité se trouve la transformation des produits laitiers. En effet, ce secteur de l’industrie agro-alimentaire permet certes de valoriser la matière première laitière, mais exploite parallèlement une part significative des ressources naturelles. Le premier objectif de cette thèse a été de réaliser un état des lieux sur l’évolution et la mise en oeuvre du concept d’éco-efficacité dans le domaine de la transformation laitière. Une première étude a permis d’observer l’activité de transformation des produits laitiers sous une perspective de cycle de vie, et d’explorer les développements successifs du concept d’éco-efficacité dans ce domaine. Cette étude a notamment montré que la simulation de procédés présentait un potentiel intéressant pour lever les difficultés associées à l’évaluation de l’éco-efficacité selon la norme ISO 14045, soit les nécessités de disposer d’inventaires complets de flux de matière et d’énergie et d’une certaine expertise en analyse de cycle de vie. Par conséquent, le second objectif de cette thèse a été de développer un outil de simulation de procédés permettant l’évaluation de l’éco-efficacité des procédés de transformation des produits laitiers. Une seconde étude a ainsi permis le développement d’un prototype de logiciel permettant l’évaluation de l’éco-efficacité des produits laitiers. Ce prototype repose sur un simulateur de procédés spécifiquement développé pour la transformation laitière et intègre des jeux de données d’impacts potentiels à l’environnement. Ces caractéristiques lui permettent de générer des inventaires détaillés de flux de matière et d’énergie, et de procéder à l'évaluation des impacts potentiels à l’environnement, levant ainsi les difficultés identifiées lors de la première étude. Le prototype développé permet non seulement d'évaluer l’éco-efficacité des procédés modélisés, mais aussi d’identifier les opportunités d'améliorations, de comparer plusieurs scénarios de valorisation du lait cru, et d'évaluer la viabilité économique des scénarios modélisés. Cet outil a été utilisé lors d’une troisième et dernière étude, afin d’évaluer la contribution des opérations de séparation par membrane à l’éco-efficacité globale des procédés de transformation des produits laitiers. Ces opérations sont omniprésentes dans le domaine de la transformation laitière et présentent un potentiel non démontré d’amélioration de l’éco-efficacité. Trois scénarios de production de fromage Cheddar ont été comparés dans cette étude : deux intégrant des opérations de séparation par membrane à l’étape de standardisation du lait de fromagerie, et un dénué de telles opérations. Les résultats obtenus ont montré que même si l’introduction de procédés de séparation par membrane à l’étape de standardisation des laits de fromagerie permet d’augmenter significativement les rendements fromagers, elle ne permet pas d’augmenter l’éco-efficacité de cette transformation laitière. L’analyse des résultats a permis de déterminer que les potentiels d’amélioration de l’éco-efficacité par l’introduction de procédés de séparation par membranes se situaient probablement aux étapes de valorisation des sous-produits laitiers. Les travaux de cette thèse ont rencontré l’ensemble de leurs objectifs et contribuent ainsi à rendre l'évaluation de l'éco-efficacité plus accessible à l’ensemble des décideurs liés de près ou de loin à l’industrie de transformation des produits laitiers.
Eco-efficiency is a concept specifically designed for the business world and which links theenvironmental and economic performances of a product or service. Since 2012, eco-efficiency is subject to a standardised assessment (ISO 14045) which imposes life cycle analysis to conduct the assessment of the potential environmental impacts. Eco-efficiency assessment thus offers the business world the opportunity to make decisions not only based on economical criteria but also factoring in the potential environmental impacts. Among the countless industrial activities likely to benefit from the eco-efficiency concept is dairy processing. Indeed, this sector of the agri-food industry surely enables valorisation of dairy raw material but it concomitantly exploits a significant part of the natural resources. The first objective of this thesis was to conduct a state of play on the development and implementation of the ecoefficiency concept in the dairy processing field. A first study enabled to look at the dairy processing activity from a life-cycle perspective, and to investigate the successive developments of the eco-efficiency concept in this field. In particular, the study showed that process simulation presented a sound interest in overcoming the difficulties associated with eco-efficiency assessment according to the ISO 14045 standard: the need for a complete inventory of material and energy flows, and for a certain expertise in life cycle analysis. Therefore, the second objective of this thesis was to develop a process simulation tool enabling the ecoefficiency assessment of the dairy processes. A second study thus led to the development of a software prototype allowing for eco-efficiency assessment of dairy products. This prototype relies on a process simulator specifically designed for dairy processes and which includes datasets of potential environmental impacts. These features allow for both the generation of detailed inventories of material and energy flows and potential environmental impact assessments, thereby overcoming the challenges identified in the first study. The developed prototype not only allows for eco-efficiency assessments of the modelled processes but also enables identification of the improvement opportunities, comparison of multiple scenarios of raw milk valuation, and assessment of the economic viability of the modelled scenarios. This tool was used in a third and last study in order to assess the contribution of pressure driven filtration operations to the overall eco-efficiency of dairy processes. These operations are omnipresent in the dairy processing activity and hold a potential for eco-efficiency improvement which has not been yet demonstrated. Three scenarios of Cheddar cheese production were compared in this study: two integrating pressure driven filtration processes at the cheese milk standardisation stage, and one that did not include such operations. Results revealed that although introducing pressure driven filtration processes at the cheese milk standardisation stage can significantly improve the cheese yields, it does not allow for an improvement of the eco-efficiency of the cheese production process. Analysis of the results showed that t he potentials for eco-efficiency improvements in dairy processing through the introduction of pressure driven filtration operations could probably be achieved by incorporating them in the by-product valuation processes. The research work conducted within the framework of this thesis fulfilled all the different objectives set and therefore should help make eco-efficiency assessment more accessible to all the decision-makers related in one way or another to the dairy processing industry.
APA, Harvard, Vancouver, ISO, and other styles
5

Cossard, Nicolas. "Un environnement logiciel de modélisation et d'optimisation pour la planification de la production dans la chaîne logistique." Clermont-Ferrand 2, 2004. http://www.theses.fr/2004CLF21548.

Full text
Abstract:
Le sujet de cette thèse est la proposition d'un environnement de modélisation et d'optimisation pour la planification de la production. La problématique aborde les cas mono-site et multi-sites. Nous abordons la planification tactique en prenant en compte des contraintes opérationnelles par une approche flux, sur des horizons de planification concernant plusieurs centaines de périodes ( nécessaires afin de garantir des contraintes opérationnelles pertinentes). Il s'agit de résoudre conjointement, dans des délais très courts, des problèmes d'ordonnancement, d'affectation, de dimensionnement de lots et de calibrage des flux sous contraintes techniques et économiques. Le problème est de type MLCLSP, et est abordé par la méthodologie de modélisation ASCI et formalisé avec UML. Plusieurs modèles sont présentés, exploitant les méthodes exactes et approchées (simulation, heuristiques, couplages). Deux applications industrielles sont présentées (Michelin et PSA)
APA, Harvard, Vancouver, ISO, and other styles
6

Jose, Flores Alberto. "Contribution aux méthodes de conception modulaire de produits et processus industriels." Grenoble INPG, 2005. http://www.theses.fr/2005INPG0127.

Full text
Abstract:
Ce travail de thèse porte sur la mise en place d'une stratégie pour le développement d'une diversité de produits. Il propose le développement de modules de composants pour la construction optimale de produits au niveau de la production et de la conception. Lorsque l'on a besoin d'obtenir une variété définie de produits dans un délai court et avec un coût réduit, la réutilisation de modules permet la configuration et l'obtention de produits rapidement, ainsi que la réduction des coûts de conception et production. L'utilisation de modules communs (appelés plateformes dans cette thèse) permet aussi la différenciation retardée des produits dans la ligne de production. Dans des situations de très grande diversité qui rendent possibles des millions de combinaisons de composants, comment choisir les composants des plateformes ? En outre, le choix des plateformes doit être en cohérence avec l'ordre de la séquence d'assemblage, afin de faciliter la différenciation retardée. Pour résoudre ce problème, une stratégie est de réorganiser la séquence de production. Un autre problème est alors, comment réorganiser l'ordre de production ? Le but de cette étude est de proposer des outils d'aide à la décision permettant de déterminer la solution à ces problèmes. Pour cela nous avons proposé : une démarche pour le choix des composants des plateformes qui correspond aux composants nécessaires des produits, une démarche pour le choix de la séquence de production ainsi que pour le choix des plateformes, des algorithmes permettant d'optimiser de tels choix
The object of this work is the set up of strategies aiming at developing a variety of products. It proposes the development of modules of components for the optimal construction of products according to the advantages reached in the fields of production and design. When we need to obtain a certain variety of production in a very short time and with limited costs, the fact of using several times a module allows to configure and to obtain products quite fast, as well as the reduction of several costs such as those linked to the design and the production management. The use of common modules (called platform in this work) also allows delayed differentiation of the products on the production line. In situations of high diversity, which enable millions of combinations of components, how should we choose the platform components? Moreover, that choice needs to fit in the order of the production sequence to enable delayed differentiation. To solve that problem, one strategy is to reorganize the production sequence. Then, another problem we will have to face would be the reorganization of that sequence. The purpose of this study is to propose tools for the decision making allowing to solve these problems : a proposition for the choice of platform components corresponding to the necessary components of the products a proposition for the choice of the production sequence as well as for the choice of the platforms, algorithms allowing to optimize such choices
APA, Harvard, Vancouver, ISO, and other styles
7

Tichadou, Stéphane Hascoët Jean-Yves Legoff Olivier. "Modélisation et quantification tridimensionnelles des écarts de fabrication pour la simulation d'usinage." [S.l.] : [s.n.], 2005. http://castore.univ-nantes.fr/castore/GetOAIRef?idDoc=00000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Abdelfeteh, Sadok. "Formulation de matériaux de construction à base de sous-produits industriels avec des méthodes issues de l’intelligence artificielle." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10077/document.

Full text
Abstract:
La question environnementale est désormais une préoccupation majeure pour les gouvernements et les industriels. La gestion efficace des déchets s’inscrit dans les actions prioritaires dans une optique d’économie circulaire. Cette gestion efficace préconise en premier lieu la valorisation maximale des déchets. Le domaine du génie civil est particulièrement concerné. La valorisation des matériaux alternatifs dans le domaine du génie civil connaît un essor important ces dernières années, toutefois cette pratique connait certaines limites, notamment le manque de réglementation claire et surtout le manque d’outils et méthodes de formulation adaptées et adaptables à l’utilisation des matériaux alternatifs. Dans ce contexte, le présent travail porte sur la mise en place de méthode de formulation de matériaux de construction à base de sous-produits industriels. Cette méthode hybride basée sur des outils de l’intelligence artificielle, combine les Algorithmes Génétique (AG) comme outils optimisation multiobjectifs et la Programmation Génétique (PG) dans ses deux versions, la PG classique et la MGGP (MultiGène Genetic Programming) comme outils de modélisation des problèmes complexes par Apprentissage Automatique (Machine Learning). La méthode de formulation des matériaux de construction à base de sous produits industriels, proposée dans ce travail a été testée sur deux cas d’étude (la formulation de bétons à hautes performances et la formulation de mortiers à base de matériaux alternatifs ou multi-déchets) et validée par des testes au laboratoire. Les résultats obtenus sont concluants et très prometteurs
The environmental issue has become a major concern for governments and industry. Effective waste management is part of the priority actions in order to achieve a green circular economy. This efficient management imposes first maximum recovery of waste, knowing the large tonnage produced is different sectors. The field of civil engineering is particularly concerned. The valorization of alternative materials in the field of civil engineering has grown significantly in recent years. However, this practice knows some limitations, including the lack of clear regulations and especially the lack of tools and methods suitable for design of materials including alternatives materials. In this context, the present work focuses on the development of mix design method of building materials based on industrial by-products. This hybrid method combines the Genetic Algorithms (GA) as multi-objective optimization tools and Genetic Programming (GP) in its two versions, classical GP and MGGP (MultiGene Genetic Programming) as modeling tools for complex problems by Machine Learning approach. Specific studies were carried out also or these innovative tools, to demontrates benefits and weaknesses of these tools on these applications in civil engineering. Finally, this method of formulation of building materials based on industrial sub products proposed in this work was tested on two case studies (design of high performance concrete and mortars made of alternative materials) and validated by the laboratory tests. The results are conclusive and promising to generalize the method to other applications of Civil Engineering
APA, Harvard, Vancouver, ISO, and other styles
9

Heymann-Germa, Dominique. "Simulation et produits multimédias de formation : le jeu des contraintes." Grenoble 3, 1996. http://www.theses.fr/1996GRE39002.

Full text
Abstract:
Les outils multimedias et leurs possibilités de simulation s'avèrent particulièrement utiles pour mettre en oeuvre des processus d'apprentissage par l'action. Une expérimentation nous a permis de mettre en lumière le rôle et la nature des contraintes à intégrer dans une simulation multimedia pour favoriser l'engagement d'un élève dans une situation simulée - nous avons défini cet engagement comme préliminaire indispensable à l'apprentissage par l'action
Multumedia tools with their potentialities of simulation appear particularly helpful for learning by doing. An experimentation let us bring the role and the nature of the constraints to light, which we have to integrate into a multimedia simulation in order to favour the engagment of a student in a simulated situation - we definited this engagment as indispensable preamble to learning by doing
APA, Harvard, Vancouver, ISO, and other styles
10

Barrué, Hélène. "Approches eulérienne et lagrangienne pour la simulation numérique de suspensions d'hydroxyde d'alumine dans des cristalliseurs industriels." Toulouse, INPT, 1998. http://www.theses.fr/1998INPT019G.

Full text
Abstract:
Cette etude concerne la simulation numerique de suspensions d'hydroxyde d'alumine dans des cristalliseurs industriels par des approches lagrangienne et eulerienne. Dans le premier chapitre, l'analyse bibliographique porte sur le procede bayer d'attaque alcaline des bauxites et sur les suspensions d'hydroxyde d'alumine. Les connaissances en agitation mecanique et plus particulierement en agitation solide-liquide sont presentees. Le chapitre ii decrit les dispositifs experimentaux utilises sur le site industriel de pechiney gardanne et dans le laboratoire de genie chimique de toulouse. L'outil numerique et les differents modeles diphasiques sont analyses. Le troisieme chapitre traite de la simulation monophasique par boite noire des ecoulements dans le cristalliseur. La velocimetrie doppler a laser permet de caracteriser les agitateurs. Les ecoulements dans la cuve haute multi-etagee sont detailles. L'influence des modeles de turbulence et des conditions limites est etudiee. Le chapitre iv expose l'approche lagrangienne. La trajectographie est presentee dans le cas d'une cuve standard equipee d'une turbine de rushton. Cette technique est ensuite appliquee au cas de notre suspension solide-liquide. Le parametre s servant au calcul de la vitesse minimale de mise en suspension est calcule. La performance du systeme d'agitation lors de la mise en suspension est ainsi definie. Le chapitre v presente les resultats numeriques par l'approche eulerienne. Les ecoulements et les champs de fraction volumique sont determines en fonction des conditions de fonctionnement. L'influence de la vitesse de rotation, de la matiere seche moyenne, du diametre moyen des particules et du debit de transfert entre les cristalliseurs est etudiee. Ces resultats permettent de comparer plusieurs configurations industrielles. Le systeme d'agitation est optimise d'un point de vue energetique. Enfin, la loi d'extrapolation dans le cas de ces milieux denses est verifiee.
APA, Harvard, Vancouver, ISO, and other styles
11

Montan, Séthy Akpémado. "Sur la validation numérique des codes de calcul industriels." Paris 6, 2013. http://www.theses.fr/2013PA066751.

Full text
Abstract:
L'étude de la qualité numérique est cruciale pour les codes industriels tels que ceux développés à EDF R&D. C'est d'autant plus important dans le contexte actuel où les simulations numériques sont faites sur des architectures pouvant exécuter des milliards d’opérations flottantes par seconde. Des études ont montré que la bibliothèque CADNA est un outil adapté à la validation numérique des codes industriels. Toutefois, CADNA ne peut être utilisée simplement sur des grands codes industriels, ces derniers faisant appel à des bibliothèques externes (MPI, BLACS, BLAS, LAPACK). Il est donc nécessaire de développer des extensions compatibles avec l’outil CADNA. L'implémentation de ces diverses extensions pose un problème de performance, la complexité algorithmique et la taille des logiciels de calcul numérique impliquant d'importants temps d'exécution. A titre d'exemple, l'implémentation directe de CADNA dans la routine de produit matriciel DGEMM des BLAS, introduit un surcoût supérieur à 1000 pour une matrice carrée de taille 1024. Les raisons de ce surcoût sont expliquées dans ce mémoire. Nous présentons également, à travers notre routine DgemmCADNA, la méthodologie pour réduire ce surcoût. Cette routine a permis de réduire ce surcoût d'un facteur 1100 à un facteur 35 par rapport à la version GotoBLAS. Une deuxième partie de notre travail à été consacrée à l'étude de la qualité numérique du code Telemac-2D. Pour valider entièrement le code, nous avons implémenté une extension de CADNA pour le standard MPI. Le débogage numérique à l'aide de CADNA a montré que plus de 30% des instabilités détectées apparaissent dans les produits scalaires. L'utilisation des algorithmes de produit scalaire compensé permet d'améliorer la précision des résultats sans dégrader les performances du code
Numerical verification of industrial codes, such as those developed atEDF R&D, is required to estimate the precision and the quality ofcomputed results, even more for code running in HPC environments wheremillions of instructions are performed each second. These programsusually use external libraries (MPI, BLACS, BLAS, LAPACK). Inthis context, it is required to have a tool as nonintrusive aspossible to avoid rewriting the original code. In this regard, theCADNA library, which implement the Discrete Stochastic Arithmetic,appears to be one of a promising approach for industrial applications. In the first part of this work, we are interested in an efficientimplementation of the BLAS routine DGEMM (General Matrix Multiply)implementing Discrete Stochastic Arithmetic. The implementation of abasic algorithm for matrix product using stochastic types leads to anoverhead greater than 1000 for a matrix of 1024*1024 comparedto the standard version and commercial versions of xGEMM. Here, wedetail different solutions to reduce this overhead and the results wehave obtained. A new routine DgemmCADNA have been designed. This routine has allowed to reduce the overhead from 1100 to 35compare to optimized BLAS implementations (GotoBLAS). Then, we focus on the numerical verification of Telemac-2D computedresults. Performing a numerical validation with the CADNA libraryshows that more than 30% of the numerical instabilities occurringduring an execution come from the dot product function. A moreaccurate implementation of the dot product with compensated algorithmsis presented in this work. We show that implementing these kind ofalgorithms, in order to improve the accuracy of computed results doesnot alter the code performance
APA, Harvard, Vancouver, ISO, and other styles
12

Marchal, Cathie. "Développement de méthodes analytiques pour la caractérisaton de lots industriels du nitroxyde SG1." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4767.

Full text
Abstract:
Ce travail de thèse s’inscrit dans un contexte industriel. Il consiste en la caractérisation de lots bruts de SG1 : le N-tert-butyl-N- (1-diethylphosphono-2,2-dimethylpropyl)-N-oxyle. La spécificité de cette espèce est son caractère radicalaire stable. La première partie de ce travail consistait à développer une méthode d’analyse, facilement applicable en laboratoire d’analyse de contrôle sur site industriel pour la caractérisation de la pureté en SG1 dans des lots synthétisés. La méthode choisie a été développée par chromatographie liquide haute performance (HPLC). Pour ce faire, un étalon de SG1 a été préparé par purification de SG1 brut industriel en utilisant la technique séparative chromatographique de partage centrifuge (CPC). L’identification des impuretés suspectées majoritaires dans les lots de SG1 bruts a ensuite été réalisée par spectroscopie RMN ou par l’étude des fragments obtenus par spectrométrie de masse en tandem par ionisation electrospray. A l’aide de ces techniques, quinze impuretés majori- taires ont été identifiées. Des méthodes de quantification ont ensuite été développées pour douze de ces impuretés par diverses techniques analytiques chromatographiques : par HPLC-UV, HPLC-MS ou GC-MS ou par des techniques spectroscopiques Infra-Rouge ou encore par conductimétrie
This PhD study has been carried out within an industrial context. It deals with the characterization of industrial batches of N-tert-butyl-N- (1-diethylphosphono-2,2-dimethylpropyl)-N-oxyle also called SG1. The distinctive feature of this molecule lies in its specific stability which is uncommon for radical species. The first part of this study consists in developping an analytical method, easy to implement in a QC laboratory for the determination of SG1 purity. The chosen analytical method has been developped by High Performances Liquid Chromatography (HPLC). This method requires the use of a standard sample of SG1, which has been obtained after purification of industrial batches of SG1 by the use of an innovative separative technology, the Centrifugal Partition Chromatography (CPC). The identification of the impurities, suspected as the major impurities in the industrial batches of SG1, has been carried out by NMR spectroscopy or by the study of their fragmentation observed by Tandem Mass Spectrometry – Electrospray Ionization. The use of these techniques enabled the identification of fifteen major impurities. Quantification methods by various techniques (HPLC-UV, HPLC-MS, GC-MS, other direct spectroscopic techniques like Infra-Red or other types of techniques like conductimetry) have been developped for twelve impurities
APA, Harvard, Vancouver, ISO, and other styles
13

Rey, Aurélien. "Mise au point de méthodes pour l'analyse de substances critiques issues des rejets industriels et de la fabrication des produits de la filière cuir." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-01068734.

Full text
Abstract:
Dans le cadre de la protection de l'environnement et du consommateur, CTC effectue des tests enchimie analytique sur de nombreux paramètres en matrices aqueuses, cuir et textile. Les nouvelles substancesmises sur le marché ainsi que les réglementations évoluant sans cesse, le développement de nouvellesméthodes d'analyses est donc nécessaire.Plusieurs méthodes analytiques ont ainsi été développées. Pour l'analyse des rejets d'effluents industriels desinstallations classées et pour l'analyse d'innocuité de produits utilisant le cuir ou le textile (chaussures,maroquinerie, prêt-à-porter...).Les chloroalcanes ont été dosés en chromatographie gazeuse (GC) associée à la spectrométrie de masse (MS)utilisant l'ionisation chimique, à la fois en matrices aqueuses (limite de quantification, LQ, à 0,6 μg/l) et sur lescuirs (LQ à 2 mg/kg).Une analyse des alkylphénols et alkylphénols ethoxylates a été développée pour les matrices aqueuses parGC/MS (LQ à 0,05 μg/l).Plusieurs familles de retardateurs de flammes ont ensuite été étudiées. Les polybromodiphénylethers peuventêtre dosés dans les eaux (LQ<0,05 µl) et le cuir (LQ <= µg/kg), par GC/MS en ionisationchimique.L'hexabromocyclododécane et des organophosphates, par chromatographie liquide et spectrométrie de masseen tandem pour des matrices textiles (LQ à 6 mg/kg). Des hydrocarbures aromatiques polycycliques dans le cuir ont ensuite été analysés par GC/MS-MS (LQ à 250 μg/kg).Enfin, une méthode multirésidus portant sur plusieurs familles de micropolluants organiques a été mise aupoint en GC/MS pour les rejets d'effluents (LQ <0,1 µg/l)
APA, Harvard, Vancouver, ISO, and other styles
14

Rey, Aurélien. "Mise au point de méthodes pour l’analyse de substances critiques issues des rejets industriels et de la fabrication des produits de la filière cuir." Thesis, Lyon 1, 2012. http://www.theses.fr/2012LYO10015/document.

Full text
Abstract:
Dans le cadre de la protection de l’environnement et du consommateur, CTC effectue des tests enchimie analytique sur de nombreux paramètres en matrices aqueuses, cuir et textile. Les nouvelles substancesmises sur le marché ainsi que les réglementations évoluant sans cesse, le développement de nouvellesméthodes d’analyses est donc nécessaire.Plusieurs méthodes analytiques ont ainsi été développées. Pour l’analyse des rejets d’effluents industriels desinstallations classées et pour l’analyse d’innocuité de produits utilisant le cuir ou le textile (chaussures,maroquinerie, prêt-à-porter…).Les chloroalcanes ont été dosés en chromatographie gazeuse (GC) associée à la spectrométrie de masse (MS)utilisant l’ionisation chimique, à la fois en matrices aqueuses (limite de quantification, LQ, à 0,6 μg/l) et sur lescuirs (LQ à 2 mg/kg).Une analyse des alkylphénols et alkylphénols ethoxylates a été développée pour les matrices aqueuses parGC/MS (LQ à 0,05 μg/l).Plusieurs familles de retardateurs de flammes ont ensuite été étudiées. Les polybromodiphénylethers peuventêtre dosés dans les eaux (LQ<0,05 µl) et le cuir (LQ <= µg/kg), par GC/MS en ionisationchimique.L’hexabromocyclododécane et des organophosphates, par chromatographie liquide et spectrométrie de masseen tandem pour des matrices textiles (LQ à 6 mg/kg). Des hydrocarbures aromatiques polycycliques dans le cuir ont ensuite été analysés par GC/MS-MS (LQ à 250 μg/kg).Enfin, une méthode multirésidus portant sur plusieurs familles de micropolluants organiques a été mise aupoint en GC/MS pour les rejets d’effluents (LQ <0,1 µg/l)
Taking in account the increasing needs and demands in environmental and consumer protection, CTCis always seeking improvement in analytical methods and development of new ones dealing with leather,fabrics and aqueous samples. In this thesis, several new methods were developed to be able to handleanalytical requests dealing with leather and textile materials being parts of shoes, clothes and other leathergoods.A GC/MS method using chemical ionization was developed to detect short polychlorinated alkanes down to aconcentration of 0.6 μg/L in aqueous sample and 2 mg/kg in leather samples. Alkylphenols and theirethoxylates were similarly determined by GC/MS down to 0.05 μg/L.Flame retardants are another large class of chemicals becoming suspicious. Polybromodiphenylethers weredetermined in aqueous samples and leathers. The respective GC/MS highest limits of quantification (LOQ)were0.05 µg/l and 80 μg/kg. Other members of this class are hexabromocyclododecane andorganophosphates. Both were determined by LC/MS-MS with LOQ of about 6 mg/kg.Carcinogenic polyaromatic hydrocarbons were also determined in leather samples using GC/MS-MS down to250 μg/kg.The last improved GC/MS analytical method was handling sewage sludge seeking multi residues of organicpolluants down to the 0.1 µg/l level or below. The analytical performances developed or improved allowedfor an efficient and useful control of the various sample received from the CTC customers and followinginternational quality rules
APA, Harvard, Vancouver, ISO, and other styles
15

Pioch, Magali. "Contribution à l'étude du devenir, en milieu urbain, pendant le ruissellement des eaux pluviales, des produits de fission émis en cas d'accident nucléaire." Montpellier 2, 1993. http://www.theses.fr/1993MON20068.

Full text
Abstract:
Dans le cadre des recherches sur les consequences dans l'environnement d'un accident grave survenant sur un reacteur a eau pressurisee, ce memoire concerne l'etude experimentale du comportement en milieu urbain pendant le ruissellement des eaux pluviales de cinq produits de fission (cesium, strontium, iode, ruthenium et tellure). La production d'aerosols plurielementaires stables ou radioactifs a ete realisee. Leurs caracteristiques physico-chimiques et leur solubilite dans l'eau de pluie ont ete etudiees. Le cesium et le rubidium passent totalement et rapidement en solution, le strontium se solubilise partiellement (environ 50%), l'iode est peu soluble. Le comportement des produits de fission sur cinq surfaces urbaines est ensuite etudie. Des experimentations en batch ont montre que la retention des formes dissoutes des radioelements etudies variait suivant le materiau. Les reactions mises en jeu sont des reactions d'echange d'ions. La presence de certains ions dans l'eau (en particulier nh4+) augmente la desorption des radioelements. A l'aide d'un simulateur de pluie de laboratoire, le reentrainement par la pluie des produits de fission a ete aborde. Deux modes de depots et deux intensites de pluie ont ete simules. La desorption des radioelements est plus forte a la suite d'un depot humide et un accroissement de l'intensite de la pluie diminue la remobilisation. Un ajout de nh4+ dans l'eau est surtout efficace dans le cas des depots humides. Des suggestions sont faites pour ameliorer les protocoles et poursuivre les recherches
APA, Harvard, Vancouver, ISO, and other styles
16

Houel, Nicolas. "Intérêts et limites de l’analyse cinématique par imagerie : contribution à la réalisation de modèles cinématiques et dynamiques du mouvement : application au ski de fond et au saut à ski." Poitiers, 2004. http://www.theses.fr/2004POIT2318.

Full text
Abstract:
L’identification des caractéristiques de la performance des athlètes de haut niveau est souvent indissociable de la situation de compétition. En saut à ski et dans les différentes disciplines du ski de fond, la dispersion de la performance entre les meilleurs compétiteurs est de l’ordre du pour cent. Les outils d’analyse cinématique par imagerie qui n’utilisent pas de marqueur sont parfaitement adaptés à ce genre d’étude à condition que la gestuelle étudiée se réalise dans un volume restreint, ce qui n’est pas le cas en ski. En dehors des compétitions, les systèmes embarqués utilisant des accéléromètres semblent être des outils prometteurs pour l'analyse des paramètres mécaniques de la performance et le suivi de l’entraînement. Toutefois, l’utilisation de ces dispositifs implique une analyse rigoureuse et méthodique du phénomène à quantifier. Au delà de l’analyse clinique, les modèles cinématiques ou dynamiques et les simulations qui en résultent sont certainement des outils plus utiles en termes de compréhension des gestes sportifs et de prédiction de la performance. Si le modèle descriptif présenté pour l’analyse des effets d’aspiration en ski nordique, apporte surtout un intérêt pédagogique, la modélisation dynamique (présentée pour caractériser les propriétés mécaniques d’une détente verticale performante) demeure la plus attractive et peut être la plus efficace en termes de compréhension et de simulation du mouvement
Specific parameters of top athletes' performance can rarely be identified other than under competition conditions. In ski jumping, and in the various disciplines of cross country skiing, the difference in performance among the top skiers worldwide is in the order of one percent. Analyses of the kinematics based on video systems that do not require the use of markers, are well suited to this type of study, provided that the movements studied are carried out within a restricted volume. This is not the case in skiing. Excluding competition conditions, motion sensors using accelerometers seem promising, as they permit a detailed analysis of performance mechanical parameters, as well as a follow-up during training. However, the use of such devices implies a rigorous and methodical analysis of the phenomenon under study. Beyond clinical analyses, dynamic or kinematical models, and their resulting simulations, appear as the most relevant tools in terms of understanding movements under sports conditions, and also in terms of prediction of the performance. Whereas the descriptive model, presented for the analysis of the drafting effect in cross country skiing, is certainly interesting from a pedagogical point of view, the modelling of the dynamics, presented to characterize the mechanical properties of the optimum vertical jump, appears as the most appealing, and probably the most effective method as far as understanding and simulating movement is concerned
APA, Harvard, Vancouver, ISO, and other styles
17

Callot, Stanislas. "Analyse des mécanismes macroscopiques produits par les interactions rotor/stator dans les turbomachines." Ecully, Ecole centrale de Lyon, 2002. http://bibli.ec-lyon.fr/exl-doc/scallot.pdf.

Full text
Abstract:
L'écoulement instationnaire produit par le défilement des roues mobiles face aux roues fixes dans les turbomachines se caractérise par des échelles de temps et d'espace très variées. Numériquement, la prise en compte de ces effets nécessite de nouvelles modélisations. Ce travail a pour objectif une meilleure compréhension des mécanismes instationnaires dans les machines multiétagées. Pour s'affranchir de toute hypothèse restrictive sur les périodicités spatiales, les simulations numériques sont effectuées sur la circonférence complète de chaque roue. Pour l'étage isolé, on démontre que l'écoulement présente une périodicité spatio-temporelle qui est décrite par la décomposition en double série de Fourier de Tyler & Sofrin. Les modes spatiaux permettent de préciser l'interaction entre les grilles et un parallèle est fait avec la décomposition d'Adamczyk. La simulation numérique complète d'un étage et demi propose une extension de l'analyse des interactions en configuration multiétagées
Unsteady phenomena produced by the relative motion between fixed and moving rows in turbomachinery is caracterized by different scales in space and time. From the numerical point of view, taking into account those effets requires new models. The purpose of this work is a better understanding of the unstaeday mechanisms in a multistage turbomachinery. In ordre to cast of any restricting hypothesis over the spatial periodicities, numerical simulations are operated over the whole circumference of each row. In the single stage case, it is shown that the unsteady flow presents a phase-lagged periodic condition which may be described by the double Fourier decomposition proposed by Tyler & Sofrin. The spatial modes precise the interaction between rows and a comparison is made with the Adamczyk's decomposition. The numerical simulation of a one and a half stage brings an extension of the analysis of the interactions in a multistage machine
APA, Harvard, Vancouver, ISO, and other styles
18

Patard, Pierre-Alain. "Ingénierie des produits structurés : essais sur les méthodes de simulation numérique et sur la modélisation des données de marché." Lyon 1, 2008. http://www.theses.fr/2008LYO10187.

Full text
Abstract:
Cette thèse regroupe un ensemble de travaux sur les problématiques de simulation numérique et de modélisation des données de marché rencontrées lors du développement d'un système d'évaluation des produits dérivés actions. La première partie porte sur l'utilisation des méthodes de simulation Monte Carlo et Quasi-Monte Carlo pour évaluer des produits dérivés. Elle insiste plus particulièrement sur le choix et sur l'implémentation des générateurs uniformes, sur les techniques de simulation des variables gaussiennes et sur l'utilisation des méthodes de réduction de variance pour accélérer la convergence des estimateurs. La seconde partie porte sur la modélisation des paramètres de marché qui interviennent dans la dynamique des prix d'une action. Elle aborde successivement la construction des courbes zéro-coupon et des surfaces de volatilité implicite en absence d'arbitrage puis l'évaluation d'une option Européenne en présence de dividendes discrets dont les montants sont connus à l'avance
This thesis gathers a set of studies dealing with the problematic of numerical procedures and with the problematic of market data modelling met during the development of an equity derivatives valuation tool. The first part relates to the use of Monte Carlo and Quasi-Monte Carlo simulations in order to price derivatives. It insists more particularly on the choice and the implementation of uniform generators, on the techniques employed to simulate Gaussian variables and on the variance reduction procedures that can be applied to improve the convergence rate of the estimators. The second part relates to the modelling of the market parameters, which influence the stock price dynamic. The first two chapters deal successively with the zero curve construction and the implied volatility surface fitting under the no-arbitrage assumption. The third chapter resolves the European option-pricing problem in the presence of discrete cash dividends
APA, Harvard, Vancouver, ISO, and other styles
19

Kadmi, Yassine. "Étude, modélisation et simulation de la formation des sous-produits de chloration émergents dans l’eau potable." Rennes, Ecole nationale supérieure de chimie, 2015. http://www.theses.fr/2015ENCR0023.

Full text
Abstract:
La chloration est la principale méthode utilisée pour désinfecter l’eau destinée à la consommation humaine. Malheureusement, ce processus engendre la formation de sous-produits de chloration (SPCs) par la réaction entre le chlore et la matière organique présente naturellement dans les eaux. Afin de d’identifier et de quantifier les SPCs, susceptibles de coexister dans une eau chlorée, à l’état de traces ou d’ultra-traces, nous avons mis au point des méthodes analytiques de pointe. L’approche développée dans ce travail est une démarche spécifiquement dédiés à l’étude, et à la modélisation intégrant des paramètres fondamentaux (effet du pH, de la température, de la teneur en matière organique, de la dose de chlore initiale rajoutée,…), intervenant dans la formation des plusieurs SPCs. Afin d’évaluer l’influence de ces paramètres, des suivis cinétiques sont réalisés sur différentes eaux dans le cadre d’un plan d’expériences comportant une série d’essais et couvrant différents facteurs cités précédemment. Pour ce faire, nous avons mis au point une méthodologie expérimentale permettant de procéder à la réalisation de l’analyse d’un maximum de SPCs formés simultanément dans une même eau et lors d’une même manipulation. Par ailleurs, des études cinétiques, des modèles de prédiction de formation simultanée de molécules d’intérêt ont été établis. Par la suite, une modélisation de la formation couplée de ces sous-produits parallèlement à la consommation en chlore dans l’eau a été réalisée. La méthodologie proposée dans cette étude a été donc testée et validée suite à une étude expérimentale de chloration réalisée sur différents types d’eaux naturelles
Chlorination is the primary method used to disinfect water for human consumption. Unfortunately, this process leads to the formation of chlorination by-products of (CBPs) due to the reaction between chlorine and the organic matter naturally present in the water. To identify and quantify the CBPs, which may coexist in chlorinated water, at trace or ultra-trace levels, we have developed advanced analytical methods. The methodology developed in this work is an approach specifically dedicated to the study and modeling, which incorporates the basic parameters (effect of pH, temperature, organic matter content, the initial chlorine dose,…) involved in the formation of several CBPs. To assess the influence of these parameters, kinetic-performed evaluations on different waters under an experimental design with a series of tests, which covered the various factors mentioned above. To do this, we have developed an experimental methodology to proceed with the completion of the analysis of CBPs formed simultaneously in the same water in the same operation. Furthermore, kinetic studies, predictive models of simultaneous formation of target molecules, were established. Subsequently, a model of the formation of such coupled byproducts, along with the consumption of chlorine in the water, was carried out. Thus, the methodology proposed in this study was tested and validated following an experimental study of chlorination performed on various types of natural waters
APA, Harvard, Vancouver, ISO, and other styles
20

Abdelhedi, Mohamed. "Étude et réalisation d'un système de conception assistée par ordinateur pour la robotique : application à la simulation et à l'évaluation des performances de robots." Montpellier 2, 1988. http://www.theses.fr/1988MON20141.

Full text
Abstract:
De l'analyse de l'etat de l'art de la cao en robotique, on conclut sur la necessite de developper des moyens specifiques pour la conception et l'animation d'une cellule flexible sur ordinateur de faible puissance et on en deduit le cahier des charges, l'architecture materielle et logicielle du systeme sacre
APA, Harvard, Vancouver, ISO, and other styles
21

Leroy, Agnes. "Un nouveau modèle SPH incompressible : vers l’application à des cas industriels." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1065/document.

Full text
Abstract:
Cette thèse a pour objet le développement d'un modèle numérique de simulation des fluides fondé sur la méthode Smoothed Particle Hydrodynamics (SPH). SPH est une méthode de simulation numérique sans maillage présentant un certain nombre d'avantages par rapport aux méthodes Eulériennes. Elle permet notamment de modéliser des écoulements à surface libre ou interfaces fortement déformées. Ce travail s'adresse principalement à quatre problématiques liées aux fondements de la méthode SPH : l'imposition des conditions aux limites, la prédiction précise des champs de pression, l'implémentation d'un modèle thermique et la réduction des temps de calcul. L'objectif est de modéliser des écoulements industriels complexes par la méthode SPH, en complément de ce qui peut se faire avec des méthodes à maillage. Typiquement, les problèmes visés sont des écoulements 3-D à surface libre ou confinés, pouvant interagir avec des structures mobiles et/ou transporter des scalaires, notamment des scalaires actifs (e.g. température). Dans ce but, on propose ici un modèle SPH incompressible (ISPH) basé sur une représentation semi-analytique des conditions aux limites. La technique des conditions aux limites semi-analytiques permet d'imposer des conditions sur la pression de manière précise et physique, contrairement à ce qui se fait avec des conditions aux limites classiques en SPH. Un modèle k-epsilon a été incorporé à ce nouveau modèle ISPH, à partir des travaux de Ferrand et al. (2013). Un modèle de flottabilité a également été ajouté, reposant sur l'approximation de Boussinesq. Les interactions entre flottabilité et turbulence sont prises en compte. Enfin, une formulation pour les frontières ouvertes dans le nouveau modèle est établie. La validation du modèle en 2-D a été réalisée sur un ensemble de cas-tests permettant d'estimer les capacités de prédiction du nouveau modèle en ce qui concerne les écoulements isothermes et non-isothermes, laminaires ou turbulents. Des cas confinés sont présentés, ainsi que des écoulements à surface libre (l'un d'eux incluant un corps solide mobile dans l'écoulement). La formulation pour les frontières ouvertes a été testée sur un canal de Poiseuille plan laminaire et sur deux cas de propagation d'une onde solitaire. Des comparaisons sont présentées avec des méthodes à maillage, ainsi qu'avec un modèle SPH quasi-incompressible (WCSPH) avec le même type de conditions aux limites. Les résultats montrent que le modèle permet de représenter des écoulements dans des domaines à géométrie complexe, tout en améliorant la prédiction des champs de pression par rapport à la méthode WCSPH. L'extension du modèle en trois dimensions a été réalisée dans un code massivement parallèle fonctionnant sur carte graphique (GPU). Deux cas de validation en 3-D sont proposés, ainsi que des résultats sur un cas simple d'application en 3-D
In this work a numerical model for fluid flow simulation was developed, based on the Smoothed Particle Hydrodynamics (SPH) method. SPH is a meshless Lagrangian Computational Fluid Dynamics (CFD) method that offers some advantages compared to mesh-based Eulerian methods. In particular, it is able to model flows presenting highly distorted free-surfaces or interfaces. This work tackles four issues concerning the SPH method : the imposition of boundary conditions, the accuracy of the pressure prediction, the modelling of buoyancy effects and the reduction of computational time. The aim is to model complex industrial flows with the SPH method, as a complement of what can be done with mesh-based methods. Typically, the targetted problems are 3-D free-surface or confined flows that may interact with moving solids and/or transport scalars, in particular active scalars (e.g. the temperature). To achieve this goal, a new incompressible SPH (ISPH) model is proposed, based on semi-analytical boundary conditions. This technique for the representation of boundary conditions in SPH makes it possible to accurately prescribe consistent pressure boundary conditions, contrary to what is done with classical boundary conditions in SPH. A k-epsilon turbulence closure is included in the new ISPH model. A buoyancy model was also added, based on the Boussinesq approximation. The interactions between buoyancy and turbulence are modelled. Finally, a formulation for open boundary conditions is proposed in this framework. The 2-D validation was performed on a set of test-cases that made it possible to assess the prediction capabilities of the new model regarding isothermal and non-isothermal flows, in laminar or turbulent regime. Confined cases are presented, as well as free-surface flows (one of them including a moving body in the flow). The open boundary formulation was tested on a laminar plane Poiseuille flow and on two cases of propagation of a solitary wave. Comparisons with mesh-based methods are provided with, as well as comparisons with a weakly-compressible SPH (WCSPH) model using the same kind of boundary conditions. The results show that the model is able to represent flows in complex boundary geometries, while improving the pressure prediction compared to the WCSPH method. The extension of the model to 3-D was done in a massively parallel code running on a Graphic Processing Unit (GPU). Two validation cases in 3-D are presented, as well as preliminary results on a simple 3-D application case
APA, Harvard, Vancouver, ISO, and other styles
22

Véjar, Andrés. "Génération de modèles de simulation adaptatifs, pilotée par les trajectoires produits." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00670061.

Full text
Abstract:
Cette thèse propose une méthode originale pour la génération automatique d'un code de simulation pour les systèmes à événements discrets. Cette méthode utilise l'information de localisation des produits lors du fonctionnement du système. Ce flux composé par des tuples (product id, location, time) constitue le point d'entrée pour l'algorithme proposé de génération d'un modèle de simulation de type réseau de files d'attente. Ce type d'approche permet, outre un gain important de temps pour la conception initiale du modèle, une maintenance et reconfiguration " on line " du modèle. La thèse est composée de 5 chapitres. Le premier chapitre pose la problématique et fixe le cadre théorique de la thèse. Le second chapitre est une revue de la littérature sur la simulation en général et sur les travaux utilisant la notion de trajectoires à des fins de modélisation. Le troisième chapitre sert à mettre en avant la proposition au cœur de cette thèse. Le quatrième chapitre décrit le générateur développé. Le cinquième et dernier chapitre présente les travaux d'expérimentation et de validation du générateur.
APA, Harvard, Vancouver, ISO, and other styles
23

Boitier, Vincent. "Mise en oeuvre et contrôle d'un robot S. C. A. R. A. à 2 degrés de liberté, actionné par des muscles artificiels pneumatiques de Mckibben." Toulouse, INSA, 1996. http://www.theses.fr/1996ISAT0047.

Full text
Abstract:
Le robot de type s. C. A. R. A. A deux degres de liberte mis en oeuvre dans ce travail, est motorise par des muscles artificiels pneumatiques de mckibben. Ces derniers, etudies dans la premiere partie, generent une force de contraction axiale quand leur pression interne augmente. L'expression de la force developpee, en fonction de la pression et de la longueur du muscle est etablie et validee. Une expression du couple moteur, developpe par l'actionneur a deux muscles, en decoule. Le convertisseur de pression, qui alimente le muscle, est etudie dans la deuxieme partie. Un modele identifie et des modeles de semi-connaissance sont etablis. Un bouclage sur la pression est propose et valide. La structure mecanique du robot et la gestion des entrees-sorties sont decrites dans la troisieme partie. L'utilisation du modele dynamique du robot permet de completer le modele dynamique de l'actionneur et de relativiser l'influence des couplages, par rapport aux frottements mal modelises. Un modele identifie, lineaire, decouple est alors etabli. Ce modele est utilise, dans la quatrieme partie, pour realiser une commande lineaire de type proportionnelle, integrale, derivee, avec un terme d'anticipation. Une boucle de pression interne est necessaire. La cinquieme partie, utilise le meme modele de representation du robot mais avec une commande a structure variable a regime glissant classique, cette commande permet de conserver la compliance naturelle de l'actionneur a muscles. Les performances statiques sont identiques avec ces deux commandes (la precision statique est superieure a 2 mm), par contre les performances dynamiques et les resultats en regulation sont meilleurs avec la commande a structure variable.
APA, Harvard, Vancouver, ISO, and other styles
24

Garrault-Gauffinet, Sandrine. "Etude expérimentale et par simulation numérique de la cinétique de croissance et de la structure des hydrosilicates de calcium, produits d'hydratation des silicates tricalcique et dicalcique." Dijon, 1998. http://www.theses.fr/1998DIJOS057.

Full text
Abstract:
Ce travail, s'inscrivant dans la continuité d'une série de travaux menés sur l'hydratation et la prise du ciment, est consacré à l'étude de la nucléation et la croissance de l'hydrosilicate de calcium (C-S-H), forme au cours de l'hydratation des silicates tricalcique (C#3S) et dicalcique (C#2S), les composants principaux du ciment portland. La cinétique d'hydratation de C#3S et C#2S est controlée par le nombre de germes initiaux précipités au tout début de l'hydratation et par le mode de croissance des hydrates, qui dépendent tous deux de la concentration en hydroxyde de calcium en solution. Ce mécanisme reste identique en présence d'autres d'électrolytes. Le nombre de germes diminue quand la concentration en hydroxyde de calcium augmente. En présence de chlorure de sodium et d'hydroxyde de potassium, il augmente. La nucléation de C-S-H suit la théorie classique de la nucléation. Au cours de l'hydratation des silicates de calcium, la nucléation des C-S-H est hétérogène. L'observation directe par microscopie à force atomique a montré que la croissance des C-S-H se fait par agrégation de particules nanométriques anisotropes latéralement et perpendiculairement à la surface du silicate anhydre. Les simulations numériques des cinétiques d'hydratation expérimentales ont montré que l'agrégation se fait de moins en moins parallèlement à la surface des grains de silicates de calcium lorsque la concentration en hydroxyde de calcium augmente en solution. En présence de chlorure de calcium la vitesse perpendiculaire à la surface des grains augmente. Cette agrégation de particules est orientée jusqu'à ce que la surface soit complètement recouverte par la couche de C-S-H. Une fois que la surface est recouverte, la formation de C-S-H est gouvernée par un régime de diffusion des réactifs à travers la couche d'hydrate et l'assemblage devient de moins en moins organisé.
APA, Harvard, Vancouver, ISO, and other styles
25

Khoury, Elias. "Modélisation de la durée de vie résiduelle et maintenance prédictive : application à des véhicules industriels." Troyes, 2012. http://www.theses.fr/2012TROY0027.

Full text
Abstract:
La maintenance est devenue dans plusieurs domaines (dont le domaine automobile), un aspect très important des performances économiques d’une entreprise. Dans ce cadre, on s’intéresse à l’amélioration de la prise de décision en maintenance principalement afin de réduire les coûts associés. Notre attention se porte plus précisément sur l'approche de maintenance prédictive utilisant la durée de vie résiduelle (RUL) en tant qu’indicateur pour la prise de décision. L’évaluation de la RUL permet d’intégrer des informations et des prévisions sur l’état d’un système et de son environnement. On s’intéresse d’abord à la modélisation de la défaillance basée sur la dégradation. On étudie et développe plusieurs modèles pouvant décrire différents comportements de la dégradation et mécanismes de défaillance. On étudie en particulier un cas pratique portant sur l’huile moteur. Pour les différents modèles considérés, on montre comment la distribution de la RUL peut être estimée conditionnellement à l’état du système et de son environnement. On propose ensuite des stratégies de maintenance prédictive dans plusieurs configurations et on montre comment la RUL peut être utilisée dans la prise de décision. L'ensemble des études menées montre l'intérêt de l’utilisation de la RUL et permet de quantifier le gain apporté pour différentes politiques de maintenance considérées
Maintenance has become in many fields such as the automotive field, a very important aspect due mostly to its economic dimension. In this context, we are interested in improving maintenance decision making in order to reduce its costs mainly. We focus specifically on the predictive maintenance approach using the residual useful lifetime (RUL) as a tool for decision support. The RUL integrates information about the state of a system and its environment in the past, present and future (prediction). At first, we consider degradation based failure models. We study and develop several models that can describe different behaviours of degradation and failure mechanisms. In particular we consider a case study on engine oil. For these different models, we propose methods to estimate the distribution of the RUL conditionally to the state of the system and its environment. Subsequently, we propose predictive maintenance strategies in several configurations and we show how the RUL can be used in decision making. The conducted studies show the benefit of using the RUL and allow us to quantify the resulting gain depending on the considered case and the way the RUL is used
APA, Harvard, Vancouver, ISO, and other styles
26

Furieri, Bruno. "Erosion éolienne de tas de stockage de matières granulaires sur sites industriels : amélioration des méthodes de quantification des émissions." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2012. http://tel.archives-ouvertes.fr/tel-00853659.

Full text
Abstract:
L'érosion éolienne des matières granulaires (minerais, charbons,. . . ) est un des facteurs influençant grandement la qualité de l'air dans l'environnement proche de nombreux sites industriels. L'objectif principal de ce travail est l'amélioration des méthodologies de quantification des émissions des sources diffuses, notamment à partir d'une meilleure prise en compte de l'exposition éolienne des sources que sont les tas de stockage et des répartitions granulométriques des matières présentes sur les sites de stockage. Les observations sur sites industriels montrent que les régions proches des tas de stockage de matières granulaires sont chargées de particules de granulométries plutôt fines. Celles-ci sont susceptibles d'être remises en suspension par les structures tourbillonnaires générées par le vent incident. Ainsi, ces zones d'envol potentiel ont fait l'objet d'analyses afin de quantifier leur contribution aux émissions globales. Une technique de visualisation d'écoulement pariétal, associée à des simulations numériques tridimensionnelles, ont été mises en oeuvre pour mieux comprendre ces structures de l'écoulement. Les matières granulaires sont un mélange de particules érodibles et non-érodibles. Le caractère érodible étant lié aux propriétés des particules (principalement granulométrie et masse volumique), ainsi qu'à la vitesse du vent incident. Dans ce cadre, deux types d'études ont été menées: des essais expérimentaux d'envol de particules dans une soufflerie et des simulations numériques tridimensionnelles avec un logiciel open-source de mécanique des fluides (Code_Saturne). Une technique originale a ainsi été développée pour quantifier, par une pesée en continue, l'influence des particules non-érodibles sur le flux massique envolé. En parallèle, le comportement des particules sur la surface est analysé à l'aide de clichés photographiques. L'analyse de l'effet des particules non-érodibles au niveau local est réalisée grâce à des simulations numériques pour des configurations polydispersées. Les résultats présentés dans ce mémoire constituent de premiers éléments pouvant possiblement contribuer à l'amélioration des modèles actuels de quantification des émissions de particules par une meilleure intégration et pris en compte de la présence de particules non-érodibles pour les matières présentant de larges spectres granulométriques.
APA, Harvard, Vancouver, ISO, and other styles
27

Xia, Qing. "modèles et méthodes pour le génération de processus de fabrication reconfigurables." Thesis, Paris, ENSAM, 2017. http://www.theses.fr/2017ENAM0004/document.

Full text
Abstract:
Les approches conventionnelles pour la génération de processus de fabrication sont inefficaces pour gérer la complexité induite par la variété des produits et la dynamique de fabrication. La génération des processus de fabrication reconfigurables (RPP) est une nouvelle méthode de CAPP qui vise à générer des processus de fabrication pour une famille de produits / pièces. Cette thèse vise à apporter une contribution majeure aux modèles de représentation et aux méthodes de génération permettant la génération des processus de fabrication reconfigurables à deux niveaux de granularité : famille de produits et famille de pièces. Les approches proposées pour le RPP sont compatibles avec une extension du concept de famille de produits / pièces qui est défini en utilisant le concept de domaine. Un modèle pour une variété fonctionnelle de produit / pièce basé sur des entités est développé afin de représenter les informations nécessaires à la gestion des processus reconfigurables en utilisant des techniques modulaires. Des modèles mathématiques et des modèles de représentation sont proposés pour décrire le processus de fabrication reconfigurable à deux niveaux de granularité. Sur la base des modèles de représentation, les méthodes de génération et les algorithmes sont ensuite détaillés dans ce cadre. En outre, un cadre global est proposé pour décrire comment les modèles et les méthodes proposés collaborent pour gérer la variété de produit / pièce et la dynamique de fabrication. Pour illustrer la faisabilité des modèles et méthodes proposés, deux familles de pompes (l’une à engrenage et l’autre à huile) sont utilisées à titre d'exemples illustratifs tout au long de ce mémoire de thèse
Conventional manufacturing process planning approaches are inefficient to handle the process planning complexity induced by product variety and manufacturing dynamics. Reconfigurable process planning (RPP) is an emerging CAPP approach targeting to the generation of process plans for a product/part family. This thesis aims to give major contributions to the representation models and generation methods to support reconfigurable process planning at two granularity levels: product family and part family. The proposed approaches for RPP are compatible with an extended concept of product/part family which is defined by using the concept of “domain”. A feature-based product/part variety model is developed to represent the required information for RPP by using modular and platform-based techniques. Mathematical models and graph-based representation models are proposed to describe the reconfigurable process plan at two granularity levels. Based on the representation models, the generation methods and algorithms are then developed for RPP. In addition, a global framework is proposed to describe how the proposed RPP models and methods work together to handle the product/part variety and manufacturing dynamics. To test the feasibility of the proposed models and methods, a gear pump family and an oil pump body family are used as illustrative examples throughout this thesis
APA, Harvard, Vancouver, ISO, and other styles
28

Schrive, Etienne. "Étude et réalisation d'un système de conception assistée par ordinateur pour la robotique : application à la programmation graphique des robots de type SCARA." Montpellier 2, 1988. http://www.theses.fr/1988MON20142.

Full text
Abstract:
Presentation d'un systeme cao, pour la robotique fonctionnant sur microordinateur. Une des applications envisagees concerne la programmation graphique de robots horizontaux. Etude et realisation du systeme sacre
APA, Harvard, Vancouver, ISO, and other styles
29

Rharmaoui, Ahmed. "Contribution à la représentation des objets et des métiers industriels : application à la conception-préparation à la fabrication." Montpellier 2, 1993. http://www.theses.fr/1993MON20201.

Full text
Abstract:
Cette these presente une nouvelle approche de modelisation du produit et de son processus de conception a un tres haut niveau d'abstraction fondee sur la connaissance et le savoir-faire des differents metiers intervenant dans ce processus. Nous presentons d'abord, un etat de l'art des travaux concernant la modelisation d'un produit. Parmi les nombreuses approches proposees, nous distinguons celles qui tendent a unifier le processus de conception en particulier la modelisation basee sur les caracteristiques (features). Nous introduisons ensuite notre approche, appelee modelisation conceptuelle, et definie en termes d'operations de conception permettant de satisfaire un besoin fonctionnel de haut niveau. Nous proposons une representation de ces operations de conception par des operations parametrees structurees par des n-graphes pour gerer la connaissance associee. Nous presentons par la suite le modele de conception et le modele produit. Le travail realise dans cette these a contribue a specifier un environnement de conception organise autour d'une base de regle et d'une base d'operation de conception. Il a abouti a une architecture originale dediee a une activite multi-metier ou chaque concepteur est assiste d'une maniere interactive et controlee dans la realisation de sa tache. Enfin, nous presentons une application industrielle dans le domaine de l'aeronautique qui a permis de valider les concepts utilises dans notre approche. Il s'agit precisement de la conception-preparation a la fabrication des revetements d'avion
APA, Harvard, Vancouver, ISO, and other styles
30

Soubacq, Stéphane. "Etude de la détente dynamique d'un plasma laser. : Influence du champ effectif laser." Pau, 2003. http://www.theses.fr/2003PAUU3022.

Full text
Abstract:
Le premier objectif de cette thèse était d'analyser le claquage d'un intervalle d'air soumis à une haute tension et irradié par un laser Nd:YAG. Des mesures expérimentales des seuils de claquage montrent une dépendance envers la pression du gaz. L'introduction du champ effectif laser sur le temps de retard au claquage permet de rendre compte des mesures expérimentales. Le deuxième objectif comportait une modélisation du claquage optique du gaz. Pour la phase de préionisation on a simulé l'évolution de la densité et de la température électronique (ne1019cm-3, Te4×104K). La phase dynamique a été modélisée à l'aide d'un code aérodynamique 2D. Les résultats numériques concernant uniquement les neutres à l'ETL, décrivent correctement les phénomènes physiques (distribution ellipsoi͏̈dale, u104m/s, ne1018cm-3, T105K). Des mesures de vitesse d'expansion du plasma, ainsi que de densité électronique mesurée par interférométrie laser ont été réalisées et comparées aux résultats numériques
The first objective of this thesis was to analyze the breakdown of an air gap subjected to an high voltage and irradiated by a Nd:YAG laser. Experimental measurements of the breakdown thresholds show a dependence on the gas pressure. The introduction of the effective laser field on the time lag to breakdown allows to render an account of the experimental measurements. The second objective concerned a modeling of the optical gas breakdown. For the preionization phase, we simulated the evolution of the electronic density and temperature (ne1019cm-3, Te4×104K). The dynamic phase was modelized using a 2D aerodynamic code. The numerical results relating to only the neutrals at the LTE, describe the physical phenomena correctly (ellipsoidal shape, u104m/s, ne1018cm-3, T105K). Measurements of plasma expansion velocity, as well as electronic density measured by laser interferometry were carried out and compared with the numerical results
APA, Harvard, Vancouver, ISO, and other styles
31

Gagnol, Vincent. "Modélisation du comportement dynamique des électrobroches UGV." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00695243.

Full text
Abstract:
Les electrobroches UGV sont des éléments très influents sur la durée de vie des moyens de production car elles font partie des sous-systèmes les plus complexes et les plus sollicités d'une machine-outil. L'insufissance de maîtrise du comportement dynamique en usinage de ces systèmes induit des coûts d'exploitation et de maintenance très importants et constitue un frein à l'essor de cette technologie. Les travaux de thèse ont permis d'élaborer un modèle éléments finis de prédiction du comportement dynamique d'électrobroches en rotation. La simulation du modèle permet d'observer une forte dépendance du comportement dynamique avec la fréquence de rotation de la broche.Les propriétés du modèle sont ensuite exploitées pour prédire les conditions de stabilité d'une opération d'usinage. Les résultats numériques présentés dans la thése ont fait l'objet de validations expérimentales. Un logiciel industriel d'analyse d'electrobroches BrochePro a été élaboré
APA, Harvard, Vancouver, ISO, and other styles
32

Zhang, Min. "Discrete shape modeling for geometrical product specification : contributions and applications to skin model simulation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00670109.

Full text
Abstract:
The management and the control of product geometrical variations during the whole development process is an important issue for cost reduction, quality improvement and company competitiveness in the global manufacturing era. During the design phase, geometric functional requirements and tolerances are derived from the design intent. Geometric modeling tools, now largely support the modeling of product shapes and dimensions. However, permissible geometrical variations cannot be intuitively assessed using existing modeling tools. In addition, the manufacturing and measurement stages are two main geometrical variations generators according to the two well know axioms of manufacturing imprecision and measurement uncertainty. A comprehensive view of Geometrical Product Specifications should consider not only the complete tolerancing process, tolerance modeling and tolerance representation but also shape geometric representations, and suitable processing techniques and algorithms. GeoSpelling as the basis of the GPS standard enables a comprehensive modeling framework and an unambiguous language to describe geometrical variations covering the overall product life cycle thanks to a set of concepts and operations based on the fundamental concept of the "Skin Model". However, the "operationalization" of GeoSpelling has not been successfully completed and few research studies have focused on the skin model simulation. The skin model as a discrete shape model is the main focus of this dissertation. We investigate here discrete geometry fundamentals of GeoSpelling, Monte Carlo Simulation Techniques and Statistical Shape Analysis methods to simulate and analyze "realistic shapes" when considering geometrical constraints requirements (derived from functional specifications and manufacturing considerations). In addition to mapping fundamental concepts and operations to discrete geometry one's, the work presented here investigates a discrete shape model for both random and systematic errors when taking into account second order approximation of shapes. The concept of a mean skin model and its robust statistics are also developed. The results of the skin model simulations and visualizations are reported. By means of a case study based on a cross-shaped sheet metal part where the manufacturing process is simulated using Finite Element Analysis considering stochastic variations, the results of the skin model simulations are shown, and the performances of the method are described.
APA, Harvard, Vancouver, ISO, and other styles
33

Laugier, Christian. "Raisonnement géométrique et méthodes de décision en robotique : application à la programmation automatique des robots." Habilitation à diriger des recherches, Grenoble INPG, 1987. http://tel.archives-ouvertes.fr/tel-00325156.

Full text
Abstract:
Présentation des 2 catégories de techniques permettant de faire évoluer un robot. Description de la programmation des robots (grâce à des outils de programmation et simulation graphique) et de la programmation automatique en utilisant la modélisation géométrique
APA, Harvard, Vancouver, ISO, and other styles
34

Decourselle, Thomas. "Etude et modélisation du comportement des gouttelettes de produits phytosanitaires sur les feuilles de vignes par imagerie ultra-rapide et analyse de texture." Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00949360.

Full text
Abstract:
Dans le contexte actuel de diminution des pollutions d'origine agricole, laréduction des apports d'intrants devient un enjeu primordial. En France, laviticulture est l'activité qui possède le taux le plus important de traitementsphytosanitaires par unité de surface. Elle représente, à elle seule, 20% de laconsommation annuelle de pesticides. Par conséquent, il est nécessaire d'étudierle devenir des pesticides appliqués afin de réduire les quantités perduesdans l'environnement. Dans le cadre de la réduction d'apport de produitsphytosanitaires dans les vignes, de nombreux travaux ont été effectués sur lamodélisation du comportement d'un spray de gouttelettes et sa répartitionau niveau de la parcelle et de l'air environnant. Cependant, il est égalementimportant de s'intéresser au comportement de la gouttelette directement auniveau de la feuille. Les progrès dans le domaine de l'imagerie et la diminutiondu coût des systèmes ont rendus ces systèmes beaucoup plus attractifs.Le travail de cette thèse consiste en la mise en place d'un système d'imagerierapide qui permet l'observation du comportement à l'impact de gouttelettesrépondant aux conditions de pulvérisation. Les caractéristiques ainsi que lecomportement associé de chaque gouttelette sont extraits grâce à une méthodede suivi d'objets. Une analyse statistique basée sur un nombre représentatifde résultats permet ensuite d'évaluer de manière robuste le devenir d'unegoutte en fonction de ses caractéristiques. Parallèlement, un paramètre décrivantl'état de surface de la feuille est également étudié grâce à l'imagerie : larugosité qui joue un rôle prédominant dans la compréhension des mécanismesd'adhésion
APA, Harvard, Vancouver, ISO, and other styles
35

Ben, Jbara Noah. "Risk management in supply chains : a simulation and model-based approach." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI003.

Full text
Abstract:
La maîtrise des risques est un enjeu majeur pour les entreprises. Loin d’être l’apanage des seules catastrophes naturelles, les perturbations des chaînes logistiques actuelles peuvent parfois être causées par des événements mineurs amplifiés par les failles d’organisations industrielles de plus en plus complexes. Nombreux sont les exemples de ces perturbations avec des conséquences économiques graves.La gestion des risques dans les chaines logistiques est un thème récent et les méthodes et outils actuels ne répondent pas encore totalement aux préoccupations des gestionnaires de ces chaînes logistiques. Une grande aide peut être apportée par la simulation des événements affectant les chaînes. Cependant malgré son efficacité pour couvrir la complexité de la chaîne, la simulation reste encore difficile à mettre en œuvre, notamment dans les phases de création et d’exploitation des modèles.Le but de cette thèse est de faciliter l’utilisation de la simulation pour l’analyse des risques dans les chaines logistiques. Ainsi, nous avons développé un référentiel de modélisation pour la simulation qui permet d’assurer une construction facile des modèles de la structure, du comportement et des risques inhérents aux chaines logistiques. Ce référentiel est bati sur un ensemble de metamodèles et de bibliothèques adaptés à la définition de chaînes logistiques et définis sur la base du référentiel SCOR. Ajouté à cela, nous avons proposé un guide de traduction permettant le passage d’un modèle conceptuel de chaîne logistique vers un modèle de simulation permettant de tester les scénarios de risque. Une bibliothèque de modules de simulation a été proposée pour accompagner ce passage. Une étude de cas a été menée pour tester et valider partiellement l’approche proposée
Controlling risks is an important issue for companies. Far from being only the prerogative of natural disasters, the disruptions of today's supply chains can sometimes be caused by minor events amplified by the flaws of increasingly complex industrial organizations, causing severe economic losses.Risk management in supply chains is a recent theme and the proposed solutions are not yet able to meet the needs of practitioners. One of the solutions to analyse risks is using simulation. But, despite its effectiveness to cover the complexity of the chain, it still presents a major weakness which is the difficulty of implementation.The aim of this thesis is to facilitate and to adapt the simulation for risk analysis of supply chains. Thus, we have developed a modeling framework for simulation which enables an easy construction of models of supply chain structure, behavior and if the associated risks. This is done through the proposition of a set of meta-models and libraries, defined on the basis of the SCOR reference model. In addition, we proposed a translation guide for the translation of the conceptual model of supply chains into a simulation model and enabling testing risk scenario. Additionaly, we developed a library of simulation modules.A case study was conducted and the results show the relevance of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
36

El, Jannoun Ghina. "Adaptation anisotrope précise en espace et temps et méthodes d’éléments finis stabilisées pour la résolution de problèmes de mécanique des fluides instationnaires." Thesis, Paris, ENMP, 2014. http://www.theses.fr/2014ENMP0077/document.

Full text
Abstract:
Aujourd'hui, avec l'amélioration des puissances de calcul informatique, la simulation numérique est devenue un outil essentiel pour la prédiction des phénomènes physiques et l'optimisation des procédés industriels. La modélisation de ces phénomènes pose des difficultés scientifiques car leur résolution implique des temps de calcul très longs malgré l'utilisation d'importantes ressources informatiques.Dans cette thèse, on s'intéresse à la résolution de problèmes complexes couplant écoulements et transferts thermiques. Les problèmes physiques étant fortement anisotropes, il est nécessaire d'avoir un maillage avec une résolution très élevée pour obtenir un bon niveau de précision. Cela implique de longs temps de calcul. Ainsi il faut trouver un compromis entre précision et efficacité. Le développement de méthodes d'adaptation en temps et en espace est motivé par la volonté de faire des applications réelles et de limiter les inconvénients inhérents aux méthodes de résolution non adaptatives en terme de précision et d'efficacité. La résolution de problèmes multi-échelles instationnaires sur un maillage uniforme avec un nombre de degrés de liberté limité est souvent incapable de capturer les petites échelles, nécessite des temps de calcul longs et peut aboutir à des résultats incorrects. Ces difficultés ont motivé le développement de méthodes de raffinement local avec une meilleure précision aux endroits adéquats. L'adaptation en temps et en espace peut donc être considérée comme une composante essentielle de ces méthodes.L'approche choisie dans cette thèse consiste en l'utilisation de méthodes éléments finis stabilisées et le développement d'outils d'adaptation espace-temps pour améliorer la précision et l'efficacité des simulations numériques.Le développement de la méthode adaptative est basé sur un estimateur d'erreur sur les arrêtes du maillage afin de localiser les régions du domaine de calcul présentant de forts gradients ainsi que les couches limites. Ensuite une métrique décrivant la taille de maille en chaque noeud dans les différentes directions est calculée. Afin d'améliorer l'efficacité des calculs la construction de cette métrique prend en compte un nombre fixe de noeuds et aboutit à une répartition et une orientation optimale des éléments du maillage. Cette approche est étendue à une formulation espace-temps où les maillages et les pas de temps optimaux sont prédits sur des intervalles de temps en vue de contrôler l'erreur d'interpolation sur la domaine de calcul
Nowadays, with the increase in computational power, numerical modeling has become an intrinsic tool for predicting physical phenomena and developing engineering designs. The modeling of these phenomena poses scientific complexities the resolution of which requires considerable computational resources and long lasting calculations.In this thesis, we are interested in the resolution of complex long time and large scale heat transfer and fluid flow problems. When the physical phenomena exhibit sharp anisotropic features, a good level of accuracy requires a high mesh resolution, hence hindering the efficiency of the simulation. Therefore a compromise between accuracy and efficiency shall be adopted. The development of space and time adaptive adaptation techniques was motivated by the desire to devise realistic configurations and to limit the shortcomings of the traditional non-adaptive resolutions in terms of lack of solution's accuracy and computational efficiency. Indeed, the resolution of unsteady problems with multi-scale features on a prescribed uniform mesh with a limited number of degrees of freedom often fails to capture the fine scale physical features, have excessive computational cost and might produce incorrect results. These difficulties brought forth investigations towards generating meshes with local refinements where higher resolution was needed. Space and time adaptations can thus be regarded as essential ingredients in this recipe.The approach followed in this work consists in applying stabilized finite element methods and the development of space and time adaptive tools to enhance the accuracy and efficiency of the numerical simulations.The derivation process starts with an edge-based error estimation for locating the regions, in the computational domain, presenting sharp gradients, inner and boundary layers. This is followed by the construction of nodal metric tensors that prescribe, at each node in the spatial mesh, mesh sizes and the directions along which these sizes are to be imposed. In order to improve the efficiency of computations, this construction takes into account a fixed number of nodes and generates an optimal distribution and orientation of the mesh elements. The approach is extended to a space-time adaptation framework, whereby optimal meshes and time-step sizes for slabs of time are constructed in the view of controlling the global interpolation error over the computation domain
APA, Harvard, Vancouver, ISO, and other styles
37

Rakotozafy, Andriamaharavo. "Simulation temps réel de dispositifs électrotechniques." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0385/document.

Full text
Abstract:
Les contrôleurs industriels font l’objet de changements de paramètres, de modifications, d’améliorations en permanence. Ils subissent les évolutions technologiques aussi bien matérielles que logicielles (librairies, système d’exploitation, loi de commande...). Malgré ces contraintes, ces contrôleurs doivent obligatoirement assurer toutes les fonctionnalités recouvrant le séquentiel, les protections, l’interface homme machine et la stabilité du système à contrôler. Ces fonctionnalités doivent être couvertes pour une large gamme d’applications. Chaque modification (matérielle ou logicielle) quoique mineure est risquée. Le debogage, l’analyse et la programmation sur site sont énormément coûteux surtout pour des sites de type offshore ou marine. Les conditions de travail sont difficiles et les tests sont réduits au strict minimum. Cette thèse propose deux niveaux de validation en plateforme d’expérimentation : un niveau de validation algorithmique que l’on appelle Validation par Interface Logicielle (VIL) traitée au chapitre 2 ; un niveau de validation physique que l’on appelle Validation par Interface Matérielle (VIM) traitée au chapitre 3. La VIL valide uniquement l’aspect algorithme, la loi de commande et la conformité des références au niveau calcul sans prendre en compte les signaux de commande physiques et les signaux de retour gérés par l’Unité de Gestion des Entrées/Sorties (UGES). Un exemple de validation d’un contrôleur industriel d’un ensemble convertisseur trois niveaux et machine asynchrone est traité dans le deuxième chapitre avec une modélisation particulièrement adaptée à la VIL. Le dernier chapitre traite la VIM sur différentes bases matérielles (Field Programmable Gate Array (FPGA), processeurs). Cette validation prend en compte l’aspect algorithme et les signaux de commande physique ainsi que les signaux de retour. On y présente plusieurs approches de modélisation, choisies selon la base matérielle d’implémentation du simulateur temps réel. Ces travaux ont contribué aujourd’hui à au processus de validation des contrôleurs dédiés aux applications Oil and Gaz et Marine de General Electric - Power Conversion © (GE-PC)
Industrial controllers are always subjected to parameters change, modifications and permanent improvements. They have to follow off-the-shelf technologies as well as hardware than software (libraries, operating system, control regulations ...). Apart from these primary necessities, additional aspects concerning the system operation that includes sequential, protections, human machine interface and system stability have to be implemented and interfaced correctly. In addition, these functions should be generically structured to be used in common for wide range of applications. All modifications (hardware or software) even slight ones are risky. In the absence of a prior validation system, these modifications are potentially a source of system instability or damage. On-site debugging and modification are not only extremely expensive but can be highly risky, cumulate expenditure and reduce productivity. This concerns all major industrial applications, Oil & Gas installations and Marine applications. Working conditions are difficult and the amount of tests that can be done is strictly limited to the mandatory ones. This thesis proposes two levels of industrial controller validation which can be done in experimental test platform : an algorithm validation level called Software In the Loop (SIL) treated in the second chapter ; a physical hardware validation called Hardware In the Loop (HIL) treated in the third chapter. The SIL validates only the control algorithm, the control law and the computed references without taking into account neither the actual physical commands nor the physical input feedbacks managed by the Input/Output boards. SIL validation of the system where industrial asynchronous motor is fed and regulated by a three level Variable Speed Drive with a three level voltage source converter is treated in the second chapter with a particular modeling approach adapted to such validation. The last chapter presents the HIL validation with various hardware implementations (Field Programmable Gate Array (FPGA), processors). Such validation checks both the control algorithm and the actual physical Input/Output signals generated by the dedicated boards. Each time, the modeling approach is chosen according to the hardware implementation. Currently this work has contributed to the system validation used by General Electric - Power Conversion © (GE-PC) as part of their validation phase that is mandatory for Oil & Gas projects and Marine applications
APA, Harvard, Vancouver, ISO, and other styles
38

Munier, Laurent. "Simulations expérimentale et numérique des effets retardés d'une explosion en milieu clos et en présence de produits liquides." Thesis, Aix-Marseille 1, 2011. http://www.theses.fr/2011AIX10091/document.

Full text
Abstract:
Peut-on modéliser de manière fiable les effets collatéraux (en termes de quantité ou concentration de produits éjectés) et les conséquences d’une explosion en milieu clos, et en présence de produits chimiques liquides ? Pour répondre à cette vaste question, qui soulève spontanément de nombreux sous-problèmes, les travaux de thèse se sont déroulés en trois temps : 1/une étude qualitative et semi-quantitative du scénario général, afin de comprendre le déroulement chronologique des évènements, et d’émettre les hypothèses nécessaires à une modélisation, 2 /L’étude systématique des effets d’une explosion en milieu clos, en présence ou non de produits liquides. Avant de modéliser la dégradation du produit liquide soumis à une température et à une pression élevées, les expérimentations préliminaires ont en effet fait apparaître la nécessité de quantifier dans le temps et dans l’espace, les effets thermiques et mécaniques d’une explosion à volume constant, 3/L’élaboration de modèles 0D(t) à partir des conclusions précédentes afin, d’une part, d’estimer la durée de vie d’une phase liquide dans un environnement thermodynamique contraint et, d’autre part, de démontrer la possibilité de modéliser le problème global de manière réduite. En effet, le terme source d’un tel évènement ne peut être modélisé par une libération ponctuelle de produit : il s’agit d’une libération étendue dans le temps, par le biais d’un écoulement chaud a priori diphasique et de débit variable. Les couplages des phénomènes, observés expérimentalement, rendent nécessaires : 1 - Une modélisation instationnaire de l’évolution de la pression et une estimation du niveau de température atteint dans le volume d’étude, après détonation d’une charge explosive, 2 - Une modélisation de la libération de la phase liquide dans l’enceinte, sous forme de gouttes millimétriques ou de gouttelettes microniques 3 - Une modélisation instationnaire des transferts couplés de masse et d’énergie entre la phase liquide et la phase gazeuse en présence et prise en compte d’éventuelles réactions chimiques à haute pression et haute température 4 - Et enfin, une modélisation instationnaire des rejets à la brèche. L’étude d’une explosion à volume constant a montré qu’il est possible de modéliser de manière simple la montée continue en pression de l’enceinte par une fonction exponentielle croissante. Pour une configuration de référence donnée – explosion d’une sphère d’explosif dans un parallélépipède – la valeur maximale de pression est directement proportionnelle au taux de chargement en explosif, sur l’intervalle [0,01 – 0,6] kg/m3. Le passage à une géométrie différente ou plus complexe demande l’introduction d’un coefficient correctif pour traduire l’amplification (ou l’atténuation) de la combustion turbulente des produits de détonation avec l’air ambiant. En ce qui concerne le champ de température par contre, notre analyse a montré qu’il coexiste des zones chaudes et des zones dites « froides » et que la valeur de température homogène finale calculée à partir d’un code thermochimique ne peut constituer qu’une simple indication. Seule une estimation du volume respectif de ces zones a été proposée ici. Nous avons établi que les propriétés physico-chimiques des produits stockés sont un point clef du problème et on suppose ces données connues pour une gamme de produits chimiques liquides à pression ambiante, communément utilisés dans l’industrie. Seul le phénomène d’évaporation a été développé dans ce mémoire. L’introduction de réactions chimiques entre constituants se traduirait dans les modèles par des termes sources supplémentaires liés à l’apparition ou la disparition d’espèces
Is it possible to model collateral effects due to an explosion (on a chemical facility for instance) occuring in a closed volume containing liquid chemical products storage units ?This thesis deals with a zerodimensionnal modelisation of such a 3D complex problem to asses the final thermodynamic state of chemical products released in the atmosphere. Developped sub-models take into account:- the unsteady time histories of the internal overpressure and temperature,- the unsteady liquid ejection (droplets sizes)- the unsteady modelisation of the local heat and mass transfers between the gas phase and the liquid phase- the unsteady ejection process of the resulting multiphase mixture in the environment.Models and sub-models are validated thanks to many experimental results
APA, Harvard, Vancouver, ISO, and other styles
39

Petronijevic, Jelena. "Maîtrise globale des risques dans un projet de développement de produit." Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE034.

Full text
Abstract:
Les projets de développement de produits, dont le processus va de la conception à la fabrication, visent à fournir un produit respectant les caractéristiques souhaitées. La gestion globale des risques dans ce type de développement doit donc tenir compte de tous types de risques : ceux liés au processus ou au produit. Le modèle proposé supporte les interactions au sein du processus de développement et de son produit, mais également aux connexions qui les relient par l’exploitation du cadre FBS. La solution proposée supporte : l'identification, l'analyse et l'évaluation des risques. Un simulateur a été implémenté pour l'évaluation des risques. Cet outil est basé sur : la technologie multi-agents, carte cognitive floue, la simulation épidémiologique et la théorie de la conception. La solution fournit une vue complète de la gestion des risques. Elle permet une représentation ascendante, qualitative et quantitative des risques facilitant leur analyse par les approches : Monte Carlo, multi-vues et l'analyse "et si..."
Development projects, with their processes from design to manufacturing, aim to deliver a product with desired characteristics. Global risk management in the product development should, then, consider all the mentioned aspects: from process to final product. Unfortunately, this is often not the case. The thesis, hence, aims at representing project and process risks and their interactions. The proposed model includes interactions within development process and its product individually, but also those related to FBS framework. The solution focuses on risk assessment and presents identification, analysis and evaluation of risks. Simulator has been developed for risk evaluation. This tool is based on multi-agent technology, fuzzy cognitive maps, epidemiological simulation and design theory. The solution provides comprehensive process-product view on risk management. It enables bottom-up and, both, qualitative and quantitative risk representation. Monte Carlo, multi-view and “what if” analysis provide global risk evaluation
APA, Harvard, Vancouver, ISO, and other styles
40

Nouri, Ahmed Saïd. "Généralisation du régime glissant et de la commande à structure variable : applications aux actionneurs classiques et à muscles artificiels." Toulouse, INSA, 1994. http://www.theses.fr/1994ISAT0003.

Full text
Abstract:
De nombreux systemes dynamiques (exemple: robot) presentent, en plus des perturbations exterieures, des non linearites et des perturbations parametriques, le recours a des commandes robustes est donc souhaitable. Une solution reside dans la commande a structure variable. En effet, lorsque le regime glissant est atteint, la dynamique du systeme boucle est plongee dans celle du systeme reduit et libre, d'ou l'independance vis a vis des perturbations exterieures et parametriques. L'auteur propose une generalisation de la surface de glissement permettant pour le systeme a commander d'une part, la validation du modele presume issu de l'identification et d'autre part, la determination du degre relatif: les deux methodologies sont presentees et testees en simulation et experimentation. L'auteur etudie ensuite trois types de commande a structure variable appliquees a un systeme monovariable (axe de robot mu par un moteur a courant continu ou par un moteur a muscles artificiels). Une structure variable generalisee dite dynamique: la discontinuite appliquee sur la derivee la plus elevee permet une diminution du phenomene de broutement; les premiers resultats d'experimentation de cette loi de commande sont obtenus. Une structure variable classique (ou statique): l'auteur propose une nouvelle methodologie de calcul de la commande equivalente en fonction de l'entree du modele de reference et du gain statique du systeme etudie. Une structure variable adaptative avec modele de reference et utilisant seulement la description externe du systeme: l'auteur degage l'aspect multisurface de glissement et etablit une methode de calcul des parametres de reglage basee sur la notion du regime glissant. Pour chaque loi de commande, un tableau de synthese du correcteur est propose et des resultats de simulation et d'experimentation sont donnes. La robustesse de ces trois algorithmes est comparee en simulation (par rapport a une dynamique non modelisee) et en experimentation (variation de la charge manipulee). Le temps de reponse de ces trois algorithmes est pratiquement le meme
APA, Harvard, Vancouver, ISO, and other styles
41

Hamerlain, Mustapha. "Commande hiérarchisée à modèle de référence et à structure variable d'un robot manipulateur à muscles artificiels." Toulouse, INSA, 1993. http://www.theses.fr/1993ISAT0013.

Full text
Abstract:
La legerete et la souplesse des robots manipulateurs (ceux utilisant des actionneurs a muscles artificiels en particulier) justifient le recours a des algorithmes de commande robustes. Les correcteurs a structure variable travaillant en mode de glissement sont une solution au probleme de la commande de systemes non lineaires. L'auteur presente le principe d'une commande discontinue, adaptative et hierarchisee. La methodologie est detaillee dans le cas d'un systeme non lineaire a n axes et n actionneurs dans un espace a 2n dimensions: sur une hypersurface de glissement, la dynamique du systeme boucle multivariable est plongee dans celle d'un systeme reduit et libre. Les resultats obtenus en regulation et en poursuite sur un degre de liberte puis sur trois degres de liberte motorises par des muscles artificiels pneumatiques sont compares a ceux fournis par un algorithme de commande classique de type pid. La validite de cette technique de commande est confirmee par les resultats d'experimentation qui montrent sa robustesse vis-a-vis des interactions entre les axes, de la variation de la charge manipulee, de la connaissance incertaine de l'ordre du systeme et des parametres dynamiques. L'analyse de cette methodologie est regroupee dans des tableaux de synthese qui offrent un outil de base utile pour la commande des systemes non lineaires
APA, Harvard, Vancouver, ISO, and other styles
42

Mokhtarian, Hossein. "Modélisation intégrée produit-process à l'aide d'une approche de métamodélisation reposant sur une représentation sous forme de graphes : Application à la fabrication additive." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI013/document.

Full text
Abstract:
La fabrication additive (FA) a initié un changement de paradigme dans le secteur de la conception et de la fabrication des produits grâce à ses capacités uniques. Cependant, l'intégration des technologies de fabrication additive dans la productique traditionnelle doit permettre d'assurer une production fiable et une qualité reproductible des pièces. Dans cette optique, la modélisation et la simulation jouent un rôle essentiel pour améliorer la compréhension de la nature complexe et multi-physique des procédés de fabrication additive. De plus, l’intégration simultanée de différents modèles multi-physiques et de la prise en compte du procédé utilisé et de la pièce constituent toujours un défi pour la modélisation de ces technologies. L’objectif final de cette recherche est de développer et d’appliquer une approche de modélisation permettant une modélisation intégrée de la fabrication additive. Cette thèse analyse le processus de développement du produit et présente une méthodologie innovante intitulée ‘Dimensional Analysis Conceptual Modeling’ (DACM) pour modéliser les produits et les procédés de fabrication aux différentes étapes de conception. La méthode a été développée pour permettre la simulation de modèles multi-physiques. Elle intègre également une recherche systématique de faiblesses et de contradictions dans une première évaluation des solutions potentielles au problème. La méthodologie développée est appliquée dans plusieurs études de cas afin de présenter des modèles intégrant les processus de fabrication additive et les pièces à fabriquer. Les résultats montrent que la méthodologie DACM permet de modéliser distinctement et simultanément le produit et le processus de fabrication. Cette méthodologie permet aussi d'intégrer les modèles théoriques et expérimentaux déjà existants. Elle contribue à la conception pour la fabrication additive et aide le concepteur à anticiper les limites des procédés et de la conception plus tôt dans les premières étapes de développement du produit. En particulier, cela permet de prendre les bonnes décisions selon les différentes possibilités d'optimiser la conception des pièces et le paramétrage des machines de fabrication additive pour aboutir à la solution la plus adaptée. La méthode permet également de détecter la nécessité de reconcevoir des machines existantes en détectant les faiblesses de celles-ci. Cette thèse montre que la méthode DACM peut être potentiellement utilisée comme une approche de méta-modélisation pour la fabrication additive.Mots-clés: Fabrication Additive, Conception Pour la Fabrication Additive, Modélisation Intégrée, Développement de Produit, Dimensional Analysis Conceptual Modeling Framework
Additive manufacturing (AM) has created a paradigm shift in product design and manufacturing sector due to its unique capabilities. However, the integration of AM technologies in the mainstream production faces the challenge of ensuring reliable production and repeatable quality of parts. Toward this end, Modeling and simulation play a significant role to enhance the understanding of the complex multi-physics nature of AM processes. In addition, a central issue in modeling AM technologies is the integration of different models and concurrent consideration of the AM process and the part to be manufactured. Hence, the ultimate goal of this research is to present and apply a modeling approach to develop integrated modeling in additive manufacturing. Accordingly, the thesis oversees the product development process and presents the Dimensional Analysis Conceptual Modeling (DACM) Framework to model the product and manufacturing processes at the design stages of product development process. The Framework aims at providing simulation capabilities and systematic search for weaknesses and contradictions to the models for the early evaluation of solution variants. The developed methodology is applied in multiple case studies to present models integrating AM processes and the parts to be manufactured. This thesis results show that the proposed modeling framework is not only able to model the product and manufacturing process but also provide the capability to concurrently model product and manufacturing process, and also integrate existing theoretical and experimental models. The DACM framework contributes to the design for additive manufacturing and helps the designer to anticipate limitations of the AM process and part design earlier in the design stage. In particular, it enables the designer to make informed decisions on potential design alterations and AM machine redesign, and optimized part design or process parameter settings. DACM Framework shows potentials to be used as a metamodeling approach for additive manufacturing
APA, Harvard, Vancouver, ISO, and other styles
43

Sobecki, Nicolas. "Upscaling of Thermodynamic Properties for Flow Simulation in Low Permeability Unconventional Reservoirs." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS005/document.

Full text
Abstract:
Les réservoirs de type "tight oil" et "shale gaz" ont une partie importante de leur volume poreux occupée par des micropores (< 2nm) et des mesopores (entre 2 et 50 nm). Ce type d'environnement crée de fortes forces d’interaction dans le fluide confiné avec les parois du pores et entre ses propres molécules, ce qui change fortement la thermodynamique du fluide. Un travail important doit donc être effectué sur le développement de méthodes de mise à l'échelle de la distribution de pore pour effectuer des simulations réservoir à grande échelle. Premièrement, des simulations moléculaires sont effectuées sur des fluides confinés afin d'obtenir des propriétés thermodynamiques de référence à l'équilibre liquide/vapeur pour différentes tailles de pore. Ensuite, une comparaison des données de simulation moléculaire avec les résultats issus des équation d'état utilisées dans la littérature a permis de mettre en valeur la méthode de flash avec pression capillaire et changement du point critique comme la meilleure méthode existante pour décrire la physique du fluide confiné. Des simulations fines d'écoulement matrice/fracture ont donc été effectuées pour différentes tailles de pore. Des modèles de mise à l'échelle en maillage grossier ont été ensuite construits à partir du même cas synthétique et les résultats ont été comparés avec ceux des simulations de référence en maillage fin. Un nouveau modèle de triple porosité considérant fracture, petit pores et grand pores avec une approche MINC a donné des résultats très proches du maillage fin. Finalement un réservoir stimulé hydrauliquement à grande échelle a été simulé pour différentes distributions de pores avec le modèle développé
Tight oil and shale gas reservoirs have a significant part of their pore volume occupied by micro (below 2nm) and mesopores (between 2 and 50nm). This kind of environment creates strong interaction forces in the confined fluid with pore walls as well as between its own molecules and then changes dramatically the fluid phase behavior. An important work has therefore to be done on developing upscaling methodology of the pore size distribution for large scale reservoir simulations. Firstly, molecular simulations are performed on different confined fluids in order to get reference thermodynamic properties at liquid/vapor equilibrium for different pore sizes. Then, the comparison with commonly used modified equation of state (EOS) in the literature highlighted the model of flash with capillary pressure and critical temperature and pressure shift as the best one to match reference molecular simulation results. Afterwards fine grid matrix/fracture simulations have been built and performed for different pore size distributions. Then, coarse grid upscaling models have then been performed on the same synthetic case and compared to the reference fine grid results. A new triple porosity model considering fracture, small pores and large pores with MINC (Multiple Interacting Continua) approach, has shown very good match with the reference fine grid results. Finally a large scale stimulated reservoir volume with different pore size distribution inside the matrix has been built using the upscaling method developed here
APA, Harvard, Vancouver, ISO, and other styles
44

Haouari, Lobna. "MODELISATION ET SIMULATION DE L’INTRODUCTION DE TECHNOLOGIES RFID DANS DES SYSTEMES DE CONFIGURATION A LA DEMANDE." Thesis, Saint-Etienne, EMSE, 2012. http://www.theses.fr/2012EMSE0680/document.

Full text
Abstract:
L'IDentification par Radio-Fréquences (RFID) permet une identification rapide et efficace des objets. Dans les systèmes de personnalisation de masse, elle promet un apport considérable grâce à sa capacité à gérer des flux d'information complexes caractérisant ce type de systèmes.Dans cette thèse, nous étudions les impacts de la RFID sur les systèmes de configuration à la demande (CTO). Nous nous basons sur un cas réel pour apporter une mesure fiable et directement exploitable. La littérature à ce sujet offre souvent des mesures sommaires, théoriques ou qualitatives, d'où l'originalité de la thèse.L'étude est réalisée par une approche de simulation à évènements discrets et évalue l'apport des technologies RFID à deux niveaux. Le premier concerne des changements directs du système (e.g. accélération des maintes vérifications caractérisant la CTO, libération de ressources...). Ces changements influencent la performance du système en termes de temps de séjour, de taux de retard des commandes, etc. Le deuxième niveau concerne des changements profonds tirant profit d'une visibilité accrue des produits et de la facilité d'une collecte de données rigoureuse. Ces changements se focalisent sur l'allocation dynamique de la charge de travail. La remise en question des processus à l'occasion de l'introduction d'une technologie RFID constitue un point original en raison du manque de publications soulignantsuffisamment cet avantage.Nos expérimentations ont montré que les apports des technologies RFID dans un système CTO sont indéniables. De plus, repenser le fonctionnement du système afin d'exploiter plus profondément le potentiel de la technologie accroit les bénéfices
Radio Frequency IDentification allows quick and secure identification of objects. In mass customisation systems, RFID technologies can be peculiarly efficient, because they are able to support the complex flows of information which characterize these systems.In this study, we focus on RFID technologies effects on configuration to order (CTO) systems.We base the research on an existing case in order to obtain reliable information directly usable by decision makers. The rarity of studies offering quantitative, detailed and real case based measures makes the originality of this thesis.RFID technology implementation's effect is analysed by a discrete event simulation approach and is presented in two levels:The first level relates direct changes brought about by RFID (e.g. faster execution of the many checks due to the wide range of products, reduced workload for resources…). These changes have an impact on system's performance in terms of lead time, late orders' rate, etc.The second level is axed on deeper changes occurring due to the increased product visibility and the ease of collecting large amounts of data with an RFID technology.These changes mainly focus on the dynamic allocation of workload. Reconsidering of processes and proposing changes deeper than the simple direct technology impact is a breakthrough, in this study, because of the lack of publications highlighting this benefit adequately.In conclusion, RFID contribution in CTO systems and, extensively, in assembly to order systems may be undeniable. Moreover, beyond the direct technology impact, rethinking how the system works by exploiting the deeper potential of technology can increase profits
APA, Harvard, Vancouver, ISO, and other styles
45

Guyot, Julien. "Particle acceleration in colliding laser-produced plasmas." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS616.

Full text
Abstract:
Les particules chargées énergétiques sont omniprésentes dans l'Univers et sont accélérées par des sources galactiques et extragalactiques. Comprendre l'origine de ces "rayons cosmiques" est crucial en astrophysique et dans le cadre de l'astrophysique de laboratoire à haute densité d'énergie, nous avons développé une nouvelle plate-forme sur les installations laser LULI pour étudier l'accélération de particules. Dans les expériences, la collision de deux plasmas contre-propageant produits par laser génère une distribution non thermique de particules allant jusqu'à 1 MeV d'énergie. L'objectif de ce travail est de fournir un cadre théorique pour comprendre leur origine. Des simulations magnéto-hydrodynamiques avec des particules tests montrent que la collision des plasmas conduit à la croissance de structures caractéristiques de l'instabilité de Rayleigh-Taylor magnétique et à la génération de forts champs électriques. Nous constatons que les particules sont accélérées à des énergies allant jusqu'à quelques centaines de keV en moins de 20 ns, par des interactions répétées avec les perturbations de Rayleigh-Taylor. Les simulations et un modèle d'accélération stochastique reproduisent bien le spectre expérimental. En conclusion, nous avons identifié en laboratoire un nouveau mécanisme d'accélération de particules qui repose sur la croissance de l'instabilité de Rayleigh-Taylor magnétique pour accélérer de manière stochastique les particules. Cette instabilité est fréquente dans les plasmas astrophysiques, avec par exemple les restes de supernovæ et les éjections de masse coronale, et nous suggérons qu'elle peut contribuer à l'accélération de particules dans ces systèmes
Energetic charged particles are ubiquitous in the Universe and are accelerated by galactic and extragalactic sources. Understanding the origin of these "cosmic rays" is crucial in astrophysics and within the framework of high-energy-density laboratory astrophysics we have developed a novel platform on the LULI laser facilities to study particle acceleration in the laboratory. In the experiments, the collision of two laser-produced counter-propagating plasmas generates a distribution of non-thermal particles with energies up to 1 MeV. The aim of this work is to provide a theoretical framework to understand their origin. Magneto-hydrodynamic simulations with test particles show that the plasma collision leads to the growth of bubble and spike structures driven by the magnetic Rayleigh-Taylor instability and the generation of strong electric fields. We find that particles are accelerated to energies up to a few hundred of keV in less than 20 ns, by repeated interactions with these growing magnetic Rayleigh-Taylor perturbations. The simulations and a stochastic acceleration model recover very well the experimentally measured non-thermal energy spectrum. In conclusion, we have identified in the laboratory a new particle acceleration mechanism that relies on the growth of the magnetic Rayleigh-Taylor instability to stochastically energize particles. This instability is very common in astrophysical plasmas, with examples including supernovae remnants and coronal mass ejections, and we suggest that it may contribute to the energization of particles in these systems
APA, Harvard, Vancouver, ISO, and other styles
46

Shandilya, Neeraj. "Study of the (nano) particles emission during mechanical solicitation and environmental weathering of the products." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2170/document.

Full text
Abstract:
Les nanomatériaux manufacturés (comme les nanoparticules d’oxydes métalliques, les nanotubes de carbone, les nanofibres etc.) possèdent des propriétés remarquables qui leur confèrent des applications industrielles innovantes. Néanmoins, ces nouveaux matériaux soulèvent des inquiétudes vis à vis de leurs potentiels risques. Ces nanomatériaux manufacturés connaissent une production et une commercialisation croissantes. Par conséquent, de plus en plus de personnes sont potentiellement exposées à ces nanomatériaux (aussi bien les consommateurs que les opérateurs) à travers les aérosols qui pourraient être émis au cours du cycle de vie du matériau. L’une des approches possibles de réduction de risque serait la prévention de l’émission qui consisterait en une conception réfléchie du matériau avec un compromis performance/sûreté. La thèse présentée ici suit cette approche. Il s’agit de comprendre le phénomène et les mécanismes d’émission des nanomatériaux manufacturés à l’aide d’outils théoriques et expérimentaux. Le dispositif expérimental développé au cours de cette étude vise (i) à reproduire à l’échelle laboratoire des activités en conditions réelles, (ii) à identifier les mécanismes d’émission, et (iii) à mener simultanément des analyses qualitatives et quantitatives* des nanomatériaux manufacturés émis. Pour la sollicitation mécanique, le procédé d’abrasion a été choisi ; quant au vieillissement environnemental, le choix s’est porté sur un procédé d’exposition accélérée aux rayons d’UV en présence d’humidité et de chaleur. Les résultats suggèrent que les entités microscopiques présentes à la surface d’un matériau (appelées aspérités ou rugosités) subissent globalement 4 types de mécanismes d’enlèvement pendant l’abrasion, suivant la variation de 18 paramètres (liés au matériau et au procédé). Ces mécanismes déterminent la forme, la taille et le nombre de particules de l’aérosol émis. De plus, dans le cas des échantillons testés dans les conditions expérimentales données, il a été observé, lors des essais mécaniques seuls, la génération d’aérosols dans lesquels sont retrouvées des nanomatériaux manufacturés liées à leur matrice. Il s’agit de particules nanométriques et micrométriques. Cependant, dans le cas du couplage abrasion/vieillissement environnemental, après un temps donné de détérioration, il est constaté l’émission de nanomatériaux manufacturés libres, en plus des nanomatériaux manufacturés liés à leur matrice. Les résultats expérimentaux relatifs aux sollicitations mécaniques ont été mis en corrélation avec des lois de mécanique classique utilisant des modèles analytiques. Le modèle utilise en partie des relations semi-empiriques ; après ajustement, on observe une très bonne convergence modèle-expérience. Ce modèle a été utilisé pour réaliser une étude de sensibilité sur les 18 paramètres évoqués précédemment, et ce pour une variation de 25% pour chaque paramètre. Ceci permet d'illustrer la capacité du modèle à hiérarchiser l'influence des différents paramètres sur l'émission de particules, pour des conditions données. Ainsi, ce travail a permis de développer un ensemble constitué d’une part d’outils expérimentaux et d’autre part d’un modèle. Si cet ensemble est largement perfectible, il permet toutefois d’ores et déjà d’entamer une conception “nanosafe by design”
Engineering nanomaterials (ENM) like metal oxide nanoparticles, carbon nanotubes, nanofibers, etc. possess various innovative properties and their industrial use creates new opportunities. However, they also present new risks and uncertainties. There is an ever growing production and use of the products containing these ENM, like nanocomposites or nanocoatings, which result in an increasing number of workers and consumers exposed to ENM upon their emission (in the form of aerosols) from the products containing them. One of the most favored approaches, to minimize this emission, would be a preventive one which would focus on altering the product’s material properties during its design phase itself without compromising with any of its added benefits.This thesis advocates this approach. It attempts to understand the ENM emission phenomenon and its yielding mechanisms on the basis of combined experimental and theoretical approaches. The experimental set-up, developed during this thesis, is equipped with the necessary elements which can (i) seek to reproduce the real life activities on a laboratory scale (ii) identify the emission mechanism (iii) carry out both qualitative as well as quantitative*analysis of the emitted ENM simultaneously. Whilst the mean chosen for applying the mechanical solicitation or stress is an abrasion process, for the environmental weathering, it is an accelerated UV exposure process in the presence of humidity and heat. The results suggest that depending upon 18 material and process properties/parameters, the microscopic entities present on the surface of a product, called asperities, undergo mainly 4 types of removal mechanisms during abrasion. It is these mechanisms that decide the shape, size and the number of the aerosol particles emitted. Moreover, for the given test samples and experimental conditions studied during the thesis, application of the mechanical stresses alone was found to generate the emitted ENM aerosols in which ENM is always embedded inside the product matrix, thus, a representative product element. In such a case, the emitted aerosols comprise of both nanoparticles as well as microparticles. But if the mechanical stresses are coupled with the environmental weathering, then the eventual deterioration of the product, after a certain weathering duration, may lead to the emission of the free ENM aerosols too. All these experimental findings, pertaining to the effect of the mechanical stresses alone, have also been put into the perspective with classical material and mechanics state laws using a predictive analytical model. A close agreement** of the estimated results of this model with the experimentally measured ones has validated its functioning. This model was used to perform a sensitivity analysis on the aforementioned 18 parameters to rank the influence of a25% variation in each of their values on the particle emission for the given conditions.Thus, during the present thesis, both experimental and theoretical approaches have been developed to study the emission. Despite the fact that these approaches are perfectible, they can still be used during product design phase for the product to be “nanosafe by design”
APA, Harvard, Vancouver, ISO, and other styles
47

Mansuy, Mathieu. "Aide au tolérancement tridimensionnel : modèle des domaines." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00734713.

Full text
Abstract:
Face à la demande de plus en plus exigeante en terme de qualité et de coût de fabrication des produits manufacturés, la qualification et quantification optimal des défauts acceptables est primordial. Le tolérancement est le moyen de communication permettant de définir les variations géométriques autorisé entre les différents corps de métier intervenant au cours du cycle de fabrication du produit. Un tolérancement optimal est le juste compromis entre coût de fabrication et qualité du produit final. Le tolérancement repose sur 3 problématiques majeures: la spécification (normalisation d'un langage complet et univoque), la synthèse et l'analyse de tolérances. Nous proposons dans ce document de nouvelles méthodes d'analyse et de synthèse du tolérancement tridimensionnel. Ces méthodes se basent sur une modélisation de la géométrie à l'aide de l'outil domaine jeux et écarts développé au laboratoire. La première étape consiste à déterminer les différentes topologies composant un mécanisme tridimensionnel. Pour chacune de ces topologies est définie une méthode de résolution des problématiques de tolérancement. Au pire des cas, les conditions de respect des exigences fonctionnelles se traduisent par des conditions d'existence et d'inclusions sur les domaines. Ces équations de domaines peuvent ensuite être traduites sous forme de système d'inéquations scalaires. L'analyse statistique s'appuie sur des tirages de type Monte-Carlo. Les variables aléatoires sont les composantes de petits déplacements des torseur écarts défini à l'intérieur de leur zone de tolérance (modélisée par un domaine écarts) et les dimensions géométriques fixant l'étendue des jeux (taille du domaine jeux associé). A l'issue des simulations statistiques, il est possible d'estimer le risque de non-qualité et les jeux résiduels en fonction du tolérancement défini. Le développement d'une nouvelle représentation des domaines jeux et écarts plus adapté, permet de simplifier les calculs relatifs aux problématiques de tolérancement. Le traitement local de chaque topologie élémentaire de mécanisme permet d'effectuer le traitement global des mécanismes tridimensionnels complexes avec prise en compte des jeux.
APA, Harvard, Vancouver, ISO, and other styles
48

Del, Sorbo Dario. "An entropic approach to magnetized nonlocal transport and other kinetic phenomena in high-energy-density plasmas." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0336/document.

Full text
Abstract:
Les simulations hydrodynamiques pour la physique de haute densité d'énergie ainsi que pour la fusion par confinement inertiel exigent une description détaillée de flux d'énergie. Le mécanisme principal est le transport électronique, qui peut être un phénoméne non local qui doit être décrit avec des modèles de Fokker-Planck, stationnaires et simplifiés dans les codes hydrodynamiques à grande échelle. Mon travail thèse est consacré au développement d'un nouveau modèle de transport non local basé sur l'utilisation d'une méthode de fermeture entropique pour la résolution des premiers moments de l'équation de Fokker-Planck agrémentée d'un opérateur de collision dédié. Une telle fermeture permet une bonne résolution des fortes anisotropies de la fonction de distribution électronique dans les régimes où le développement d'instabilités électrostatiques à petite échelle le requiert. Ce modèle aux moments (M1) est comparé avec succès au modèle de Schurtz, Nicolaï et Busquet (SNB), référent dans le domaine du transport électronique non local. Ce modèle, basé sur l'hypothèse d'une faible anisotropie de la fonction de distribution sous-jacente induisant une relation de fermeture polynomiale (P1), utilise un opérateur de collision simplifié dont nous avons proposé une amélioration. Après avoir considéré plusieurs configurations typiques de transport de chaleur, nous avons montré que le modèle M1 ultidimensionnel peut prendre naturellement en compte des effets d'un plasmas magnétisés sur le transport électronique. De plus, ce modèle permet de calculer des fonctions de distribution utiles aux études cinétiques comme la stabilité du plasma dans la zone de transport. Nous confirmons avec notre modèle que le transport d'énergie électronique peut fortement modifier l'amortissement des ondes de Langmuir et des ondes acoustiques ; contrairement aux modèles non locaux simplifiés, M1 décrit les modifications de la fonction de distribution et l'amortissement des ondes du plasma. La structure du modèle permet également de prendre en compte naturellement des champs magnétiques autogénérés, qui jouent un rôle crucial dans des simulations multidimensionnelles. Ces champs magnétiques pourraient également être étudiés pour concentrer l'énergie dans les schémas d'ignition. Enfin, nous montrons que le modèle M1 reproduit les résultats de la théorie locale élaborée par Braginskii pour tous les niveau de magnétisation et propose de nouveaux résultats pour le régime non local. Ce travail constitue une première validation de l'utilisation des fermetures entropiques, dans les régimes de faibles anisotropies, qui va s'ajouter aux tests dans les régimes fortement anisotropes
Hydrodynamic simulations in high-energy-density physics and inertial con nement fusion require a detailed description of energy uxes. The leading mechanism is the electron transport, which can be a nonlocal phenomenon that needs to be described with quasistationary and simplified Fokker-Planck models in large scale hydrodynamic codes. My thesis is dedicated to the development of a new nonlocal transport model based on a fast-moving-particles collision operator and on a first moment Fokker-Planck equation, simplified with an entropic closure relation. Such a closure enables a better description of the electron distribution function in the limit of high anisotropies, where small scale electrostatic instabilities could be excited. This new model, so called M1, is successfully compared with the well known nonlocal electron transport model proposed by Schurtz, Nicolaï and Busquet, using different collision operators, and with the reduced Fokker-Planck model, based on a small-anisotropies polynomial closure relation (P1). Several typical configurations of heat transport are considered. We show that the M1 entropic model may operate in two and three dimensions and is able to account for electron transport modifications in external magnetic fields. Moreover, our model enables to compute realistic electron distribution functions, which can be used for kinetic studies, as for the plasma stability in the transport zone. It is demonstrated that the electron energy transport may strongly modify damping of Langmuir and ion acoustic waves, while the simplified nonlocal transport models are not able to describe accurately the modifications of the distribution function and plasma wave damping. The structure of the M1 model allows to naturally take into account self-generated magnetic fields, which play a crucial role in multidimensional simulations. Moreover, magnetic fields could also be used for the focusing of energetic particles in alternative ignition schemes. The M1 model reproduces the results of the local transport theory in plasma, developed by Braginskii, in a broad range of degrees of magnetization and predicts new results in the nonlocal regime. This work constitutes a first validation of the entropic closure assumption in the weakly-anisotropic regime. It can be added to the existing tests, in the strongly-anisotropic regimes
APA, Harvard, Vancouver, ISO, and other styles
49

Panadés-Barrueta, Ramón Lorenzo. "Full quantum simulations of the interaction between atmospheric molecules and model soot particles." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1R022.

Full text
Abstract:
Nous visons à simuler avec des arguments purement quantiques (noyaux et électrons) les processus d’adsorption et de photoréactivité du NO2 adsorbé sur des particules de suie (modélisées comme de grands hydrocarbures aromatiques polycycliques, HAP) dans les conditions atmosphériques. Une description détaillée de ces processus est nécessaire pour comprendre le comportement différentiel (jour-nuit) de la production de HONO, qui est un précurseur du radical hydroxyle (OH). En particulier, le mécanisme spécifique de l’interconversion entre NO2 et HONO par la suie n’est pas encore totalement compris. En raison de sa pertinence particulière dans ce contexte, nous avons choisi le systèmePyrène-NO2.La première étape de cette étude a consisté à déterminer les configurations stables (états de transition et minima) du système Pyrène-NO2 . À cette fin, nous avons utilisé la méthode van der Waals Transition State Search using Chemical Dynamics Simulations (vdW-TSSCDS), la généralisation de l’algorithme TSSCDS récemment développée dans notre groupe. Ainsi, le présent travail représente la première application devdW-TSSCDS à un grand système (81D). Partant d’un ensemble de géométries d’entrée judicieusement choisies, la méthode susmentionnée permet de caractériser la topographie d’une surface d’énergie potentielle intermoléculaire (SEP), ou en d’autres termes, de déterminer les conformations les plus stables du système, de manière entièrement automatisée et efficace.Les informations topographiques recueillies ont été utilisées pour obtenir une description globale (fit) du potentiel d’interaction, nécessaire à l’élucidation dynamique de l’interaction intermoléculaire (physisorption), des propriétés spectroscopiques et de la réactivité des espèces adsorbées. Pour atteindre ce dernier objectif, nous avons développé deux méthodologies différentes ainsi que les progiciels correspondants. La première d’entre elles est l’algorithme SRP-MGPF (Specific Reaction Parameter Multigrid POTFIT), qui est implémenté dans le progiciel SRPTucker. Cette méthode calcule des SEPs (intermoléculaires) chimiquement précis par reparamétrage de méthodes semiempiriques, qui sont ensuite tenseur-décomposées sous forme Tucker à l’aide de MGPF.Ce logiciel a été interfacé avec succès avec la version Heidelberg du paquet MCTDH (Multi-configuration Time-Dependent Hartree). La seconde méthode permet d’obtenir la SEP directement sous la forme mathématique requise par MCTDH, d’où son nom de Sum-Of-Products Finite-Basis-Representation (SOP-FBR). La SOP-FBR constitue une approche alternative aux méthododes d’ajustement NN. L’idée la sous-tend est simple : à partir d’une expansion Tucker low rank sur la grille, nous remplaçons les fonctions de base basées sur la grille par une expansion en termes de polynômes orthogonaux. Comme dans la méthode précédente, l’intégration avec la MCTDH a été assurée.Les deux méthodes ont été testées avec succès à un certain nombre de problèmes de référence, à savoir : le Hamiltonian Hénon-Heiles, la SEP global du H2O, et la SEP d’isomérisation HONO (6D)
We aim at simulating full quantum mechanically (nuclei and electrons) the processes of adsorption and photoreactivity of NO2 adsorbed on soot particles (modeled as large Polycyclic Aromatic Hydrocarbons, PAHs) in atmospheric conditions. A detailed description of these processes is necessary to understand the differential day-nighttime behavior of the production of HONO, which is a precursor of the hydroxyl radical (OH). In particular, the specific mechanism of the soot-mediated interconversion between NO2 and HONO is to date not fully understood. Due to its particular relevance in this context, we have chosen the Pyrene-NO2 system. The first stage in this study has consisted in the determination of the stable configurations (transition states and minima) of the Pyrene-NO2 system. To this end, we have used the recently developed van der Waals Transition State Search using Chemical Dynamics Simulations (vdW-TSSCDS) method, the generalization of the TSSCDS algorithm developed in our group. In this way, the present work represents the first application of vdW-TSSCDS to a large system (81D). Starting from a set of judiciously chosen input geometries, the aforementioned method permits the characterization of the topography of an intermolecular Potential Energy Surface (PES), or in other words the determination of the most stable conformations of the system, in a fully automated and efficient manner. The gathered topographical information has been used to obtain a global description (fit) of the interaction potential, necessary for the dynamical elucidation of the intermolecular interaction (physisorption), spectroscopic properties and reactivity of the adsorbed species. To achieve this last goal, we have developed two different methodologies together with the corresponding software packages. The first one of them is the SpecificReaction Parameter Multigrid POTFIT (SRP-MGPF) algorithm, which is implemented in the SRPTucker package. This method computes chemically accurate (intermolecular) PESs through reparametrization of semiempirical methods, which are subsequently tensor decomposed into Tucker form using MGPF. This software has been successfully interfaced with the Heidelberg version of the Multi-configuration Time-DependentHartree (MCTDH) package. The second method allows for obtaining the PES directly in the mathematical form required by MCTDH, thence its name Sum-Of-Products Finite-Basis-Representation (SOP-FBR). SOP-FBR constitutes an alternative approach to NN-fitting methods. The idea behind it is simple: from the basis of a low-rank Tucker expansion on the grid, we replace the grid-based basis functions by an expansion in terms of a orthogonal polynomials. As in the previous method, an smooth integration with MCTDH has been ensured. Both methods have been successfully benchmarked with a number of reference problems, namely: the Hénon-Heiles Hamiltonian, a global H2O PES, and the HONO isomerization PES (6D)
APA, Harvard, Vancouver, ISO, and other styles
50

Alfonso, Lizarazo Edgar. "Optimization of blood collection systems : Balancing service quality given to the donor and the efficiency in the collection planning." Thesis, Saint-Etienne, EMSE, 2013. http://www.theses.fr/2013EMSE0698/document.

Full text
Abstract:
Les rapports d’activité de l’Établissement Français du Sang (EFS) font état d’une demande croissante de produits sanguins labiles (PSL) tels les concentrés globules rouges (CGR), les plaquettes, et le plasma. Afin d’assurer la demande vitale en PSL, il est primordial d’optimiser la logistique liée aux activités de collecte du sang et de ses composants. Pour faire face à cette situation, l’EFS Auvergne-Loire mène une réflexion dans le but d’utiliser de manière plus efficiente les dispositifs de collecte en sites fixes et mobiles pour améliorer (i) la qualité de service rendue au donneur, et (ii) l’efficience de l’utilisation des ressources humaines. Dans ce contexte nous avons développé dans cette thèse des outils opérationnels pour (i) la modélisation des dispositifs de collecte, (ii) la régulation des flux de donneurs, et (iii) la planification de collectes mobiles.La méthode d'analyse des dispositifs de collecte est basée sur des techniques de simulation à événements discrets. Une modélisation préalable des flux de donneurs dans les systèmes de collecte en sites fixes et mobiles à l’aide de réseaux de Petri a été proposée. Pour la régulation de flux de donneurs, notamment pour la planification optimale des rendez-vous des donneurs et la planification de la capacité dans les systèmes de collecte au site fixe, deux approches ont été abordées: (a) Construction d'un algorithme basée sur techniques d'optimisation stochastique via simulation ; (b) Programmation mathématique: Modèle de programmation en nombres entiers non-linéaire (MINLP) basée sur réseaux de files d'attente et représentation et évaluation des systèmes à événements discrets à travers de programmation mathématique. Pour la planification de collectes mobiles. Deux types de modèles ont été développés : (a) Au niveau tactique : Modèles de programmation en nombres entiers linéaire (MIP) pour planifier les semaines de collectes pour chaque ensemble disponible sur un horizon de temps pour garantir l'autosuffisance à niveau régional des CGR. (b) Au niveau opérationnel : Modèle de programmation en nombres entiers linéaire (MIP) pour l’organisation du travail des équipes en charge de la collecte
Activity reports of the French Blood Establishment (EFS) indicate a growing demand for Labile Blood Products (LBP) as red blood cells (RBC), platelets and plasma. To ensure the vital demand of labile blood products (LBP), it’s essential to optimize the logistics related with the collection of blood components. To deal with this situation, the EFS Auvergne-Loire carry out a reflection in order to use more efficiently the collection devices in fixed and mobile sites, to improve the quality of service offered to the donor and the efficiency of human resources. In this context we have developed in this thesis operational tools for (i) modeling of blood collection devices (ii) The regulation of flows donors (iii) Planning of bloodmobile collections.The method analysis of collection devices is based on techniques of discrete event simulation. A preliminary modeling of donors’ flow in fixed and mobile collection systems using Petri nets was conducted. For the regulation of flow of donors, i.e. the optimal capacity planning and appointment scheduling of blood collections, two approaches were considered: (a) Simulation based-optimization.(b) Mathematical Programming: Mixed integer nonlinear programming (MINLP) based on queuing networks and mathematical programming representation of discrete event systems. For planning of bloodmobile collections. Two models have been developed: (a) At the tactical level: Mixed integer linear programming (MIP) to determine the weeks in which the mobile collection must be organized in order to ensure the regional self-sufficiency of RBC. (b) At the operational level: Mixed integer linear programming (MIP) for the planning of human resources in charge of blood collections
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography