To see the other types of publications on this topic, follow the link: Optimisation du processus de conception.

Dissertations / Theses on the topic 'Optimisation du processus de conception'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Optimisation du processus de conception.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Brandy, Anthony. "optimisation d'un processus de conception par quantification de l'usage." Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0018.

Full text
Abstract:
Les dispositifs médicaux forment une catégorie de produits bien à part des produits classiques par le fait qu’ils agissent sur la santé du patient. De cette destination première, l’usage de ces dispositifs entraine potentiellement des risques pour la santé du patient notamment dans le cas d’une défaillance ou d’une mauvaise utilisation. Ces produits peuvent être destinés à une large cible d’utilisateurs en usage autonome ou assisté. Cette diversité en matière de références et d’usages possibles, combinée à la criticité de ces dispositifs, implique une prise en compte significative de l’utilisateur et de l’ergonomie dans leur conception. Cela est d’autant plus important que les dispositifs médicaux constituent un milieu industriel fortement innovant en lien constant avec les avancées technologiques. Ces évolutions se doivent alors d’être adaptées aux utilisateurs qui ne disposent pas toujours des connaissances nécessaires à leur utilisation. Néanmoins, alors que le cadre (normatif et réglementaire) met en avant le besoin d’une prise en compte de l’utilisateur, cette démarche est relativement peu ou mal mise en œuvre par les entreprises dont la plupart sont des PME avec des ressources associées pour le moins modestes. Toutefois, certaines carences sont présentes en matière d’outils et de méthodes destinés à ce milieu industriel pour pouvoir déployer cette pratique qui, de plus, se heurte à des barrières liées notamment aux habitudes de conception, au caractère pluridisciplinaire et aux contraintes induites par le milieu médical. Afin d’apporter une réponse industriellement réaliste prenant en compte l’utilisateur dans la conception du produit, un outil de quantification de l’utilisabilité a été conçu. Cet outil s’appuie à la fois sur une méthode de mesure et sur des présentations de résultats de la quantification adaptées aux concepteurs et au Grand Public. Il résulte des expérimentations une cohérence de l’indice proposé dans le cadre de la thèse avec un indice de référence (SUS) tout en donnant une plus grande finesse dans le détail des résultats (tâches, priorités du panel en matière de composantes de l’utilisabilité) et en nécessitant des ressources modestes (temps, coût, connaissances). Ces retours ont montré à la fois un taux de compréhension élevé de l’outil par l’intermédiaire des propositions de représentations et un intérêt significatif pour ce type d’outil que ce soit chez les concepteurs ou le Grand Public. Ces retours ont également montré l’apport positif que peut avoir l’outil dans l’amélioration de la communication entre les concepteurs et dans la prise en compte de l’utilisabilité dans les choix de conception y compris dans les phases amonts et notamment en créativité
The medical devices make up a specific group beside classical products by their actions on the patients’ health. By this indication, the use of such devices potentially induces risk on the patients’ health especially in case of failure or misuse. These products may be used by a large target of users themselves or assisted. This diversity in terms of references and possible use, combined to the critical aspect of these products implies a significant taking into account of the user and usability during the product design. This is all the more important because as the medical devices form a very innovative industrial sector linked to the technological advances. These developments need to be adapted to the users who do not have always all the knowledge needed to their use. Nevertheless, while the framework (standards and regulations) emphasis on the need to take into account the user, this approach is little implemented by the companies which are, for a large part, SME’s with limited resources. At the same time, some weaknesses about the tools and methods in matter of use analysis are present. Moreover, this approach collides with barriers induced by design habits, multidisciplinary context and constraints related to the medical field. In the aim to give a realistic industrial answer to implement the user into the design process, a quantification tool of usability was developed. This tool draws on measurement methods and dedicated results presentation towards designers and General Public. From the experimentations, the proposed index appeared consistent against a gold standard index (SUS) and adds more details in the results (tasks, panel priority about usability components). These feedbacks showed a high understanding level of this tool and a significant interest by the designers but also the General Public. In addition, the experimentations highlighted the positive contribution of the proposed tool in the design team communication but also in the design choice by implementing usability approach including the upstream phases, especially in creativity
APA, Harvard, Vancouver, ISO, and other styles
2

Groff, Arnaud. "Optimisation de l'innovation par l'élaboration d'un processus de créativité industrielle : cas de l'industrie automobile." Paris, ENSAM, 2004. http://www.theses.fr/2004ENAM0012.

Full text
Abstract:
Aujourd'hui, la complexité et la compétitivité des marchés demandent aux entreprises de favoriser l'innovation. Cette innovation est le fruit de la collaboration optimum des acteurs de la conception, aussi pluridisciplinaires soient-ils. Or dans le secteur automobile la nature oligopolistique du marché oblige les constructeurs à aller jusqu'à l'optimisation de l'innovation pour survivre. Nous avons donc travaillé sur cette problématique dans le secteur automobile en adoptant une approche à la fois organisationnelle et procédurale. Après avoir effectué un état de l'art concernant l'innovation en milieu industriel, notre positionnement en recherche-action avec un grand groupe automobile nous a permis de mettre en avant la problématique d'optimisation de l'activité de créativité dans le processus de conception comme étant une source majeure de gain en innovation dans le milieu automobile. Ces travaux de recherche ont donc pour objet de formaliser l'organisation et le management de l'activité de recherche de solutions créatives et innovantes en conception de produits industriels. L'objectif final étant d'optimiser l'innovation en conception de produits en améliorant l'efficacité et l'adéquation du travail entre les équipes projets et les services créativité-innovation. Nous avons donc mis en avant la problématique d'intégration de l'activité de créativité dans le processus de conception comme étant une source majeure de gain en innovation dans le milieu automobile. Nos hypothèses et nos travaux expérimentaux nous ont alors permis d'élaborer un Processus de Créativité Industrielle et son outil de pilotage qui intègre la complexité des métiers et de l'innovation
Today, the complexity and the competitiveness of markets ask to the companies to favour the innovation. This innovation is the optimal fruit of the collaboration of the actors of the design, so multi-field they are. Now in the automotive sector the oligopolistique nature of the market obliges the builders to go to the optimization of the innovation to survive. We thus worked on this problem in the automotive sector by adopting an at the same moment organizational approach (professions) and procedural (actions). Having made a state of the art concerning the innovation in industrial environment, our positioning in search-action with a big automotive group allowed us to advance the problem of optimization of the activity of creativity in the process of design as being a major source of gain in innovation in the automotive environment. These research works thus have for object to formalize the organization and the management of the activity of search for creative and innovative solutions in design of manufactured goods. The final goal being to optimize the innovation in design of products by improving the efficiency and the equivalence of the work between the team's projects and the services creativity-innovation. We thus advanced the problem of integration of the activity of creativity in the process of design as being a major source of gain in innovation in the automotive environment. Our hypotheses and our experimental works then allowed us to elaborate a Process of Industrial Creativity and its tool of piloting to integrate the complexity of the professions and the innovation and so, answer our problem
Today, the complexity and the competitiveness of markets ask to the companies to favour the innovation the optimal fruit of collaboration actors of the design, so multi-fied they are. Now in the automotive sector the oligopolistique nature of the market obliges the builders to go to the optimization of the innovation to survive. We thus worked on this problem in the automotive sector by adopting an at the same moment organizational approach (professions) and procedural (actions). Having made a state of the art concerning the innovation in industrial environment, our positioning in search-action with a big automotive group allowed us to advance the problem of optimization of the activity of creativity in the process of design as being as being a major source of gain in innovation in the automotive environment. These research works thus have for object to formalize the organization and management of the activity of search for creative and innovation solutions in design of manufactured goods. The final goal being to optimize the innovation in design products by improving the efficiency and equivalence of the work between the team’s projects and the services creativity-innovation. We thus advanced the problem of integration of the activity of creativity in process of design as being a major source of gain in innovation in the automotive environment. Our hypotheses and our experimental works then allowed us to elaborate a process of industrial creativity and its tool of piloting to integrate the complexity of the professions and the innovation and so, answer our problem
APA, Harvard, Vancouver, ISO, and other styles
3

Ouazène, Yassine. "Maîtrise des systèmes industriels : optimisation de la conception des lignes de production." Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0025/document.

Full text
Abstract:
Lors de la phase de conception d'un système de production, toutes les alternatives fonctionnelles et technologiques doivent être étudiées afin de proposer la ou les meilleures solutions possibles. Ceci se traduit souvent par une conjugaison de plusieurs sous-problèmes tels que: la sélection de pièces d'équipements à partir d'un ensemble de solutions candidates pour chaque opération de fabrication; l'équilibrage et le dimensionnement des postes de travail; le dimensionnement des zones de stockage; le dimensionnement des systèmes de transport et l'aménagement des emplacements.Dans ce contexte, nous nous sommes intéressés à l’évaluation des performances ainsi qu’à l’optimisation de la conception d’un système de production très répandus dans l'industrie manufacturière à gros volume à savoir les lignes de production en série.Nous avons proposé une nouvelle méthode analytique d’évaluation de performances dite « Méthodes par Machines Equivalentes ». Cette méthode présente les avantages d'être plus précise et plus rapide que les approches existantes dans la littérature. Nous avons aussi montré la pertinence de cette méthode pour l’évaluation du taux de production des systèmes en configuration séries-parallèles ainsi que les lignes avec des machines ayant plusieurs modes de défaillance. Nous avons aussi développé un nouvel algorithme de programmation non linéaire afin d’optimiser le dimensionnement des stocks intermédiaires
During the design phase of a production system, all functional and technological alternatives should be explored in order to propose the best possible solutions. This often results in a combination of several sub-problems such as: selection of pieces of equipments from a set of candidate solutions for each manufacturing operation, dimensioning and allocation of buffers and storage areas, balancing workload among the different workstations, the specification of the type and capacity of the material handling system and the layout of equipments which consists of determining which workstations should be adjacent to each other and how they should be connected.In this context, we were interested in performance evaluation and optimization of serial production lines which are very common in high volume production systems.We have proposed a new analytical method, known as « Equivalent Machines Method» to evaluate the production line throughput. This method has the advantages to be more accurate and faster than the existing approaches in the literature.We have also established the relevance of this method for evaluating the production rate of series-parallel systems and other serial lines with machines having multiple failure modes.We have also developed a new algorithm based on nonlinear programming approach to solve the buffer allocation problem
APA, Harvard, Vancouver, ISO, and other styles
4

Ramirez, serrano Oscar. "Optimisation et pilotage du processus d’innovation de medicalex : application aux implants orthopédiques sur mesure." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0080/document.

Full text
Abstract:
Pour la plupart des entreprises, l’innovation est devenue un élément indispensable, garant de la pérennité de l’entreprise.Cependant, durant les phases de développement des produits, le concepteur est confronté lors des principaux jalons du processus à faire des choix de conception. Ces prises de décisions ont par la suite un fort impact sur l’acceptabilité ou non des produits par le marché. Le monde de la conception des implants orthopédiques n’y échappe pas.Le but de ce travail de thèse est de montrer qu’il est possible d’intégrer dans les phases amonts du processus de développement d’implants orthopédiques, un outil d’aide à la décision pour le choix de concepts intégrant des critères techniques, médicaux, chirurgicaux et économiques permettant de réduire les risques pour le patient mais aussi les risques d’un possible échec commercial.La première partie de ce document s’intéresse à l’analyse du contexte de cette étude et en particulier aux dispositifs médicaux. Ensuite, l’état de l’art étudie les différents processus d’innovation et plus spécifiquement les processus de conception dans le secteur médical des implants orthopédiques. Ces travaux nous ont amené à nous questionner et à analyser les méthodes d’évaluation du potentiel d’innovation disponibles au sein de la littérature scientifique, et de leur intégration au sein du secteur des implants.De cette analyse a émergé une question se situant au cœur de nos travaux de recherche : comment concevoir des implants innovants avec un niveau de risques faibles (risque clinique, risque de défaillance, risque d’utilisation) ?La réponse à cette question s’est traduite par la proposition d’un nouvel outil d’aide à la décision (hypothèse1) intégré aux phases amont d’un processus de conception adapté (hypothèse2) au développement d’implants. Celles-ci ont ensuite été vérifiées et validées lors de 3 expérimentations qui ont aboutis à la réalisation d’implants orthopédiques posés sur des patients
For a majority of companies, innovation has become an essential element of corporate sustainability.However, during the product development phase the designer is forced to make decisions on design. These decisions subsequently have a strong impact on the acceptability of the products by the market. Orthopaedics implants design is no exception.The aim of this thesis is to show that it is possible to integrate, in the early phases of the orthopaedic implant development process, a tool for decision-making; in choosing concepts that incorporate technical, medical, surgical and economic criteria. The goal is to reduce the risk for the patient but also reduce the risk of commercial failure.The first part of this document focuses on analysing the context of this study, particularly for medical devices. Following this, the state of the art studies the various innovation processes and more specifically, the design process of medical orthopaedic implants. This work forced us to question and analyse evaluation methods for potential innovations available in the scientific literature, and integrate them into the implant sector.From this analysis, a question emerged lying at the heart of our research: how to design innovative implants with a low level of risk (clinical risk, default risk, risk of use)?The answer to this question has resulted in the proposal of a new tool for decision-making (Hypothesis 1) integrated within upstream phases of a suitable decision process (Hypothesis 2) for developing implants. These were then checked and validated in three experiments that resulted in the development of orthopaedic implants that were successfully inserted into patients
APA, Harvard, Vancouver, ISO, and other styles
5

Waycaster, Garrett. "Stratégies d'optimisation par modélisation explicite des différents acteurs influençant le processus de conception." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30122/document.

Full text
Abstract:
Le succès ou l'échec commercial des systèmes complexes (e.g. avions de transport commercial) ne dépend pas que de la qualité technique intrinsèque du produit mais il est aussi notablement affectée par les différentes interactions avec les autres acteurs du milieu tels la concurrence, les utilisateurs finaux et les organismes de réglementation. Des produits qui manquent de performances, ont un coût trop élevé, ou sont considérées comme dangereux ou nuisibles seront inévitablement surmontés par des produits concurrents qui répondent mieux aux besoins des clients et de la société dans son ensemble. Dans cette thèse, nous cherchons à utiliser le cadre de la théorie des jeux afin d'intégrer directement l'effet de ces interactions dans un problème d'optimisation de conception qui vise à maximiser la rentabilité du concepteur du système. Cette approche permet aux concepteurs de prendre en considération les effets de l'incertitude venant d'une part des sources traditionnelles de variabilités (propriétés matériaux, tolérances géométriques, etc) ainsi que d'autres incertitudes de nature non technique reflétant par exemple l'incertitude du futur marché ou les interactions avec les autres parties prenantes (nouveaux produits concurrents, nouvelles règlementations, etc). Dans ce cadre nous développons également des techniques de modélisation utilisant des modèles causaux afin de comprendre la nature d'interactions complexes à partir des données observées. Enfin, nous examinons les effets complexes entre sureté de fonctionnement et conception en examinant l'histoire de la réglementation fédérale sur l'industrie du transport. Ces travaux ont mené à plusieurs résultats clés. D'abord, en considérant l'effet des interactions entre les différents acteurs, les concepteurs peuvent être amenés à faire des choix techniques très différents de ceux qu'ils auraient fait sans considérer ces interactions. Cela est illustré sur plusieurs études de cas avec des applications à la conception d'avions de transport commercial. Deuxièmement, nous avons développé une nouvelle méthode de construction de modèles causaux qui permet aux concepteurs d'évaluer le niveau de confiance dans leur compréhension des interactions entre les différents acteurs. Enfin, nous avons montré par une étude liens entre la réglementation et les améliorations de la sureté que la demande pour l'amélioration de la sureté ne répond pas toujours à une rationalité économique. En revanche la demande pour plus de sureté est fortement influencée par des facteurs tels que le niveau de responsabilité personnelle et la nature et ampleur des accidents potentiels
The commercial success or failure of engineered systems has always been significantly affected by their interactions with competing designs, end users, and regulatory bodies. Designs which deliver too little performance, have too high a cost, or are deemed unsafe or harmful will inevitably be overcome by competing designs which better meet the needs of customers and society as a whole. Recent efforts to address these issues have led to techniques such as design for customers or design for market systems. In this dissertation, we seek to utilize a game theory framework in order to directly incorporate the effect of these interactions into a design optimization problem which seeks to maximize designer profitability. This approach allows designers to consider the effects of uncertainty both from traditional design variabilities as well as uncertain future market conditions and the effect of customers and competitors acting as dynamic decision makers. Additionally, we develop techniques for modeling and understanding the nature of these complex interactions from observed data by utilizing causal models. Finally, we examine the complex effects of safety on design by examining the history of federal regulation on the transportation industry. These efforts lead to several key findings; first, by considering the effect of interactions designers may choose vastly different design concepts than would otherwise be considered. This is demonstrated through several case studies with applications to the design of commercial transport aircraft. Secondly, we develop a novel method for selecting causal models which allows designers to gauge the level of confidence in their understanding of stakeholder interactions, including uncertainty in the impact of potential design changes. Finally, we demonstrate through our review of regulations and other safety improvements that the demand for safety improvement is not simply related to ratio of dollars spent to lives saved; instead the level of personal responsibility and the nature and scale of potential safety concerns are found to have causal influence on the demand for increased safety in the form of new regulations
APA, Harvard, Vancouver, ISO, and other styles
6

Aoues, Younes. "Optimisation fiabiliste de la conception et de la maintenance des stuctures." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2008. http://tel.archives-ouvertes.fr/tel-00726003.

Full text
Abstract:
L'optimisation vise à trouver le meilleur compromis entre les différentes exigences contradictoires, telles que les performances, le coût et la durabilité. Toutefois, la conception des structures doit être placée dans un contexte incertain. Traditionnellement, les incertitudes sont considérées par l'application des coefficients partiels de sécurité. Cependant, l'utilisation de ces coefficients ne garantit pas une conception optimale pour le niveau de fiabilité souhaité. L'optimisation fiabiliste est développée pour établir le meilleur compromis entre la réduction des coûts et l'assurance de la fiabilité, par la considération des incertitudes. Dans ce mémoire, une nouvelle approche de l'optimisation fiabiliste est proposée afin de tenir compte de l'interaction des différents modes de défaillance et de l'évolution de la fiabilité en fonction de l'âge de la structure. La meilleure solution est recherché par la minimisation de la fonction du coût total contenant les coûts de maintenance.
APA, Harvard, Vancouver, ISO, and other styles
7

Mogenot, Yann. "Stratégie d’optimisation des procédés d’assemblage et de fabrication dans le processus de réduction de poids du châssis d’un véhicule roadster." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/11503.

Full text
Abstract:
Depuis plusieurs années, un intérêt grandissant pour les véhicules hybrides se fait sentir de la part des constructeurs. Que ce soit pour un modèle hybride, thermique et électrique, ou un modèle tout électrique, la masse importante d'un véhicule de type roadster va à l’encontre des objectifs de réduction de la consommation de carburant et d’augmentation de l’autonomie. Aussi, l’optimisation du châssis d'un roadster a été entreprise pour réduire la masse globale du véhicule. Le but de cette maîtrise est de juger de la viabilité mécanique et économique d’un châssis d’aluminium pour le roadster. Au changement de matériau vient s’ajouter la sélection d’un procédé d’assemblage pertinent. Les critères de choix seront la réduction de la masse du châssis après assemblage, le contrôle de son coût, l’assurance de sa bonne résistance mécanique, notamment en fatigue, et la rigidité de la structure. Plusieurs méthodologies ont été élaborées pour guider la conception des pièces en aluminium et permettre le choix d’un procédés d’assemblage pertinent. Appliquées au roadster, elles ont permis d’aboutir à la création de structures optimisées. Les méthodologies développées ont été formalisées pour être utilisables sur d’autres projets similaires.
APA, Harvard, Vancouver, ISO, and other styles
8

Aoues, Younes. "Optimisation fiabiliste de la conception et de la maintenance des structures." Clermont-Ferrand 2, 2009. http://www.theses.fr/2009CLF21908.

Full text
Abstract:
L'optimisation vise à trouver le meilleur compromis entre les différentes exigences contradictoires, telles que les performances, le coût et la durabilité. Toutefois, la conception des structures doit être placée dans un contexte incertain. Traditionnellement, les incertitudes sont considérées par l'application des coefficients partiels de sécurité. Cependant, l'utilisation de ces coefficients ne garantit pas une conception optimale pour le niveau de fiabilité souhaité. L'optimisation fiabiliste est développée pour établir le meilleur compromis entre la réduction des coûts et l'assurance de la fiabilité, par la considération des incertitudes. Dans ce mémoire, une nouvelle approche de l'optimisation fiabiliste est proposée afin de tenir compte de l'interaction des différents modes de défaillance et de l'évolution de la fiabilité en fonction de l'âge de la structure. La meilleure solution est recherché par la minimisation de la fonction du coût total contenant les coûts de maintenance
APA, Harvard, Vancouver, ISO, and other styles
9

Lahonde, Nathalie. "Optimisation du processus de conception : proposition d'un modèle de sélection des méthodes pour l'aide à la décision." Phd thesis, Paris, ENSAM, 2010. http://pastel.archives-ouvertes.fr/pastel-00566196.

Full text
Abstract:
L'une des problématiques du génie industriel, soulignée dans de nombreuses références, précise l'importance des méthodes de conception dans une perspective de formalisation des processus de développement de produits nouveaux. Cette structuration est devenue au fil des années un impératif de survie pour les organisations industrielles. Prolongeant les conclusions de ces travaux, notre démarche s'inscrit dans une approche qui prend comme point de départ la diversité des méthodologies de conception existantes et la difficulté inhérente à leur sélection. Partant du constat qu'aucune méthode de conception ne peut être utilisée systématiquement sur tous les projets, notre problématique de recherche peut se synthétiser de la manière suivante : Comment aider les concepteurs à sélectionner des méthodes de conception adaptées à un projet donné ? Cette question revient à construire, en préambule de chaque développement de produit, un processus de conception ad hoc associé à des méthodes et des outils et permettant de converger vers un objectif prédéfini. Notre approche en terme de modélisation vise à mettre en lumière les dépendances existantes entre le contexte projet et les méthodes utilisées. Dans cette perspective, trois champs d'investigation qui constituent autant de fondement pour notre modèle, sont étudiés : la caractérisation du contexte projet d'une part, la description des méthodes de conception d'autre part, et les interconnexions existantes entre ces deux domaines. La partie expérimentale de notre travail de recherche nous a conduit à développer un système d'aide à la sélection des méthodes. Cet outil d'aide à la décision à destination des concepteurs et chefs de projet permet, à partir d'une description du contexte renseignée par l'utilisateur, d'émettre des préconisations en matière de sélection de méthodes et d'outils de conception. L'évaluation de ce système a permis de valider le modèle proposé et de tracer de nouvelles pistes de recherche pour l'avenir.
APA, Harvard, Vancouver, ISO, and other styles
10

Jeanne, Guillaume. "Optimisation de la conception de bioprocédés : vers une approche intégrée biologie de synthèse et conduite du procédé." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC064/document.

Full text
Abstract:
La conception de souches efficacespour la production de composés d’intérêt offredes potentiels immenses qui restent trop peu exploitéspar manque de lien entre les étapes d’optimisationde la conception de souche et celle dela conduite du bioprocédé.Pour combler ce manque, cette thèse proposeune description des bioprocédés intégrant pleinementle fonctionnement interne des microorganismesimpliqués dans la production decomposés d’intérêt. Cette description permetd’optimiser simultanément la souche et le procédépour maximiser la production d’un composéd’intérêt en respectant les contraintes attachéesà ces deux étapes.Dans un premier temps, une nouvelle classe demodélisation de bioprocédés est développée, àl’interface entre les modèles intracellulaires degestion de ressources et les modèles macroscopiquesusuellement utilisés dans la commandede bioprocédés en bioréacteurs. Dans un secondtemps, des contraintes liées à l’implémentationbiologique de la stratégie de contrôle sont intégréesau problème. Ceci permet d’obtenir uneconception plus réaliste du point de vue de l’ingénieriedes génomes. Enfin, la dernière partiede la thèse montre que la méthodologie présentéejusqu’alors sur un modèle agrégé peut êtreétendue à des représentations détaillées du comportementdes micro-organismes
The design of efficient strains forthe production of compounds of interest offerstremendous potentials that remain insufficientlyexploited due to the lack of link between theoptimization stages of strain design and that ofbioprocess control.This thesis proposes a description of bioprocessesthat fully integrates the internal functioningof micro-organisms involved in the productionof compounds of interest. This descriptionallows the strain and process to be optimizedsimultaneously to maximize the productionof a compound of interest while respecting theconstraints attached to these two stages.First, a new bioprocess modelling class is developedat the interface between intracellular resourceallocation models and macroscopic modelscommonly used in bioprocess control. In asecond stage, constraints linked to the biologicalimplementation of the control strategy are integratedinto the problem. This provides a morerealistic genome engineering design. Finally, thelast part of the thesis shows that the methodologypresented so far on an aggregate model canbe extended to detailed representations of thebehaviour of micro-organisms
APA, Harvard, Vancouver, ISO, and other styles
11

Benabid, Yacine. "Contribution à l’amélioration du processus de conception des produits innovants : Développement d’outils d’aide au choix des processus." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0003/document.

Full text
Abstract:
L'optimisation des processus de conception est une activité de recherche en pleine évolution, soulignée dans de nombreuses références et pratiques des entreprises dans l'objectif l'amélioration et le développement de produits nouveaux. Notre démarche s'inscrit dans la continuité de ces activités qui prend comme point de départ la diversité des processus de conception existants et la difficulté de réaliser un choix où une adaptation. D'ou notre problématique est résumée autour d'une question centrale que nous formulons de la manière suivante : comment optimiser le choix d'un processus de conception soumis à un environnement contraint ? La réponse à cette question est à travers la proposition d'un outil d'aide au choix qui converge vers l'installation d'un processus de conception. Cet outil est tridimensionnel, où la première dimension vise la préparation de la phase amont de conception, la deuxième dimension sélectionne un processus de conception sur une carte de classement et l'objectif de la troisième dimension est l'identification des métiers, outils et méthodes pour le développement des produits. La partie expérimentale de notre travail nous a conduit à valider l'outil développer et proposer comment l'exploiter par des concepteurs. L'optimisation est réalisée dans notre travail par la proposition de l'outil tridimensionnel d'un coté et de l'autre par l'exploitation des algorithmes d'optimisation pour la modélisation de l'outil. Des nouvelles pistes de recherche pour l'amélioration sont identifiées et proposées pour des futurs travaux
The optimization of the design process is a research evolving highlighted in numerous references and business practices with the aim improving and developing new products. Our approach is a continuation of those activities that takes as its starting point the diversity of existing design processes and the difficulty of achieving a selection where adaptation. Hence our problem is summarized around a central question which we formulate as follows: how to optimize the choice of the design process subject to a constrained environment? The answer to this question is through the proposition of a tool Help in choosing which converges to the installation of a design process. This tool is three-dimensional, where the first dimension relates to the preparation of the upstream design phase, the second dimension selects a design process on a map classification and the objective of the third dimension is the identification of trades tools and methods for product development. The experimental part of our work has led us to validate the developed tool and propose how to use by designers. Optimization is achieved in our work by the proposal of a three-dimensional tool side and the other by the use of optimization algorithms for modeling tool. New avenues of research for improvement are identified and proposed for future work
APA, Harvard, Vancouver, ISO, and other styles
12

Lienhardt, Bénédicte. "Modèle d'optimisation de la maintenance : application au processus de conception d'un avion." Toulouse 3, 2008. http://www.theses.fr/2008TOU30010.

Full text
Abstract:
Cette thèse traite de la modélisation, en phase de conception, des performances de supportabilité des systèmes avions. La supportabilité est la capacité d'un produit, ainsi que de son système de soutien, à répondre aux besoins opérationnels des compagnies aériennes. L'objectif de ce travail de recherche est d'apporter un moyen d'aide à la décision aux intégrateurs des systèmes avions par rapport aux performances de supportabilité. Le modèle développé permet de prédire des critères quantitatifs de supportabilité permettant d'optimiser la conception des systèmes. Le but est de trouver des architectures de systèmes offrant le meilleur compromis entre les coûts d'exploitation d'un avion et sa disponibilité. Nous abordons les thèmes suivants : Le choix de critères pertinents de supportabilité permettant d'influencer la conception, pour obtenir de meilleures performances opérationnelles à un coût minimum pour la compagnie aérienne ; La sélection des paramètres d'entrée du modèle pour estimer les critères retenus ; La définition de modèles mathématiques afin d'explorer les relations de cause à effet entre les choix de conception et leurs impacts sur l'utilisation et la maintenance de l'avion une fois en service ; L'actualisation de la valeur des coûts pour les modèles présentés; La gestion des incertitudes des données d'entrées au moyen d'analyses globales de sensibilité
This thesis deals with supportability performance modeling for aircraft systems during the design phase. Supportability is the ability of a product, along with its support system, to meet and sustain airlines' operational needs. The purpose of this research is to support decision-making by system integrators accommodating supportability performance objectives. The model we developed provides supportability performance criteria to optimize system design. The objective is to find system architectures offering the best compromise between operating costs and availability. We discuss the following subjects: Choosing supportability performance criteria to drive the design towards enhanced operational performance at minimal cost for the airline; Selecting the driving factors necessary to assess the selected criteria; Defining mathematical models to enable the exploration of the cause and effect relationships between design decisions and their impact on aircraft operation and maintenance; Introducing the notion of time-value of money and discounting in supportability models; Managing input uncertainty with global sensitivity analyses
APA, Harvard, Vancouver, ISO, and other styles
13

Balesdent, Mathieu. "Optimisation multidisciplinaire de lanceurs." Phd thesis, Ecole centrale de Nantes, 2011. http://tel.archives-ouvertes.fr/tel-00659362.

Full text
Abstract:
La conception de lanceurs est un problème d'optimisation multidisciplinaire (MDO) complexe qui a la particularité d'intégrer une optimisation de trajectoire très contrainte, difficile à résoudre et fortement couplée à toutes les autres disciplines entrant en jeu dans le processus de conception (e.g. propulsion, aérodynamique, structure, etc.). Cette thèse s'intéresse aux méthodes permettant d'intégrer judicieusement l'optimisation de la trajectoire au sein du processus d'optimisation des variables de conception. Une nouvelle méthode, appelée "Stage-Wise decomposition for Optimal Rocket Design" (SWORD), a été proposée. Celle-ci décompose le processus de conception suivant les différentes phases de vol et transforme le problème d'optimisation de lanceur multiétage en un problème de coordination des optimisations de chacun des étages, plus facile à résoudre. La méthode SWORD a été comparée à la méthode MDO classique (Multi Discipline Feasible) dans le cas d'une optimisation globale d'un lanceur tri-étage. Les résultats montrent que la méthode SWORD permet d'améliorer l'efficacité du processus d'optimisation, tant au niveau de la vitesse de recherche de l'espace de solutions faisables que de la qualité de l'optimum trouvé en temps de calcul limité. Afin d'améliorer la vitesse de convergence de la méthode tout en ne requérant pas de connaissance a priori de l'utilisateur au niveau de l'initialisation et l'espace de recherche, une stratégie d'optimisation dédiée à la méthode SWORD a été développée.
APA, Harvard, Vancouver, ISO, and other styles
14

Jaafar, A. "Traitement de la mission et des variables environnementales et intégration au processus de conception systémique." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2011. http://tel.archives-ouvertes.fr/tel-00646708.

Full text
Abstract:
Ce travail présente une démarche méthodologique visant le " traitement de profils " de " mission " et plus généralement de " variables environnementales " (mission, gisement, conditions aux limites), démarche constituant la phase amont essentielle d‟un processus de conception systémique. La " classification " et la " synthèse " des profils relatifs aux variables d‟environnement du système constituent en effet une première étape inévitable permettant de garantir, dans une large mesure, la qualité du dispositif conçu et ce à condition de se baser sur des " indicateurs " pertinents au sens des critères et contraintes de conception. Cette approche s‟inscrit donc comme un outil d‟aide à la décision dans un contexte de conception systémique. Nous mettons en particulier l‟accent dans cette thèse sur l‟apport de notre approche dans le contexte de la conception par optimisation qui, nécessitant un grand nombre d‟itérations (évaluation de solutions de conception), exige l‟utilisation de " profils compacts " au niveau informationnel (temps, fréquence,...). Nous proposons dans une première phase d‟étude, une démarche de " classification " et de " segmentation " des profils basée sur des critères de partitionnement. Cette étape permet de guider le concepteur vers le choix du nombre de dispositifs à concevoir pour sectionner les produits créés dans une gamme. Dans une deuxième phase d‟étude, nous proposons un processus de " synthèse de profil compact ", représentatif des données relatives aux variables environnementales étudiées et dont les indicateurs de caractérisation correspondent aux caractéristiques de référence des données réelles. Ce signal de durée réduite est obtenu par la résolution d‟un problème inverse à l‟aide d‟un algorithme évolutionnaire en agrégeant des motifs élémentaires paramétrés (sinusoïde, segments, sinus cardinaux). Ce processus de " synthèse compacte " est appliqué ensuite sur des exemples de profils de missions ferroviaires puis sur des gisements éoliens (vitesse du vent) associés à la conception de chaînes éoliennes. Nous prouvons enfin que la démarche de synthèse de profil représentatif et compact accroît notablement l'efficacité de l‟optimisation en minimisant le coût de calcul facilitant dès lors une approche de conception par optimisation.
APA, Harvard, Vancouver, ISO, and other styles
15

Menou, Edern. "Conception d’alliages par optimisation combinatoire multiobjectifs : thermodynamique prédictive, fouille de données, algorithmes génétiques et analyse décisionnelle." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT4011/document.

Full text
Abstract:
Ce travail a pour objet le développement d’un système combinant un algorithme génétique d’optimisation multiobjectifs avec des outils de thermodynamique prédictive de type calphad (calcul des diagrammes de phases) et de fouille de données permettant l’estimation des propriétés thermochimiques et thermomécaniques d’alliages multicomposants. L’intégration de ces techniques permet l’optimisation quasi-autonome de la composition d’alliages complexes vis-à-vis de plusieurs critères antagonistes telles les résistances mécaniques et chimiques, la stabilité microstructurelle à haute température et le coût. La méthode est complétée d’une technique d’analyse décisionnelle multicritères pour assister la sélection d’alliages. L’approche est illustrée par l’optimisation de la chimie de deux familles d’alliages multicomposants. Le premier cas d’étude porte sur les superalliages à base de nickel polycristallins corroyés renforcés par précipitation de la phase 0 destinés à la fabrication de disques de turbines dans l’aéronautique ou de tuyauteries de centrales thermiques. L’optimisation résulte en la conception d’alliages moins onéreux et prédits plus résistants que l’Inconel 740H et le Haynes 282, deux superalliages de dernière génération. Le second cas d’étude concerne les alliages dits « à forte entropie » dont la métallurgie singulière est emblématique des problèmes combinatoires. À l’issue de l’optimisation, quelques alliages à forte entropie ont été sélectionnés et fabriqués ; leur caractérisation expérimentale préliminaire met en évidence des propriétés attrayantes tel un ratio dureté sur masse volumique inédit
The present work revolves around the development of an integrated system combining a multi-objective genetic algorithm with calphad-type computational thermodynamics (calculations of phase diagrams) and data mining techniques enabling the estimation of thermochemical and thermomechanical properties of multicomponent alloys. This integration allows the quasiautonomous chemistry optimisation of complex alloys against antagonistic criteria such as mechanical and chemical resistance, high-temperature microstructural stability, and cost. Further alloy selection capability is provided by a multi-criteria decision analysis technique. The proposed design methodology is illustrated on two multicomponent alloy families. The first case study relates to the design of wrought, polycrystalline 0-hardened nickel-base superalloys intended for aerospace turbine disks or tubing applications in the energy industry. The optimisation leads to the discovery of novel superalloys featuring lower costs and higher predicted strength than Inconel 740H and Haynes 282, two state-of-the-art superalloys. The second case study concerns the so-called “high-entropy alloys” whose singular metallurgy embodies typical combinatorial issues. Following the optimisation, several high-entropy alloys are produced; preliminary experimental characterisation highlights attractive properties such as an unprecedented hardness to density ratio
APA, Harvard, Vancouver, ISO, and other styles
16

Farhat, Asma. "Vapo-diffusion assistée par micro-ondes : conception, optimisation et application." Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00547809.

Full text
Abstract:
Un nouveau procédé d'extraction des huiles essentielles a été développé, mis au point et optimisé nommé "Vapo-diffusion Assistée par Micro-ondes (MSDf)". Le procédé MSDf à été appliqué à l'extraction des huiles essentielles des peaux d'oranges et de fleurs de lavande. Ce procédé est basé sur la combinaison d'une technique d'extraction classique : l'hydro-diffusion et le chauffage micro-ondes comme technologie d'intensification. Une deuxième nouvelle approche pour l'extraction des huiles essentielles à partir de matrices aromatiques sèches et sans ajout de vapeur ni d'eau nommé "Diffusion à sec générée par micro-ondes (MDG)". Le procédé MDG à été appliqué à l'extraction des huiles essentielles des graines de carvi. Le MSDf et le MDG apparaissent comme des procédures "douces" permettant un gain de temps et d'énergie considérable et la diminution des rejets de CO2 dans l'atmosphère
APA, Harvard, Vancouver, ISO, and other styles
17

Korbaa, Ouajdi Gentina Jean-Claude. "Contribution à la conception et l'optimisation des systèmes de transport et de production." [S.l.] : [s.n.], 2003. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2003-265-266.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Isaza, Narvaez Claudia Victoria. "Diagnostic par techniques d'apprentissage floues : conception d'une méthode de validation et d'optimisation des partitions." Toulouse, INSA, 2007. http://eprint.insa-toulouse.fr/archive/00000159/.

Full text
Abstract:
Ce travail se situe dans le domaine du diagnostic des processus défini comme étant l’identification de ses états fonctionnels. Dans le cas où l’obtention d’un modèle précis du processus est délicate ou impossible, la connaissance sur le système peut être extraite à partir des signaux obtenus lors d’un fonctionnement normal ou anormal en incluant des mécanismes d'apprentissage. Cette connaissance s’organise sous l’aspect d’une partition de l’espace des données sous forme de classes (représentant les états du système). Parmi les techniques d’apprentissage, celles incluant de la logique floue ont l’avantage d’exprimer les appartenances d’un individu à plusieurs classes, ceci permet de mieux connaître la situation réelle du système et prévoir des changements vers des états de défaillance. Nonobstant leurs performances adéquates, leur forte dépendance aux paramètres d’initialisation est une difficulté pour l’apprentissage. Cette thèse se situe dans l’amélioration de ces techniques, en particulier notre objectif est l’élaboration d’une méthode permettant de valider et d’adapter automatiquement la partition de l'espace de données obtenue par une technique de classification floue. Elle permet de trouver automatiquement une partition optimale en termes de compacité et de séparation des classes, à partir uniquement de la matrice des degrés d’appartenance obtenue par une classification antérieure. Cette méthode est donc une aide importante donnée à l’expert du processus pour établir les états fonctionnels dans l’implémentation d’une technique de surveillance d’un procédé complexe. Son application est illustrée sur des exemples académiques et sur le diagnostic de 3 procédés chimiques
This work is in the field of the process diagnosis defined as the identification of process functional states. If obtaining a precise model of the process is delicate or impossible, the system knowledge can be extracted from the signals obtained during a normal or abnormal operation by including mechanisms of training. This knowledge is organized through a data space partition into clusters (representing the states of the system). Among the training techniques, those including fuzzy logic have the advantage of expressing the memberships of an individual to several classes, this makes possible to better know the real situation of the system and to envisage changes to failure states. Notwithstanding their adequate performances, their strong dependence on the initialization parameters is a difficulty for the training. This thesis proposes the improvement of these techniques, specifically our objective is the development of a method to validate and adapt automatically the partition of data space obtained by a fuzzy classification technique. This makes possible to find automatically an optimal partition in terms of clusters compactness and separation from only the membership matrix obtained by an initial classification. This method is thus an important help given to the process expert to establish the functional states in the implementation of a monitoring technique of a complex process. Its application is illustrated on academic examples and on the diagnosis of 3 chemical processes
APA, Harvard, Vancouver, ISO, and other styles
19

Jaafar, Amine. "Traitement de la mission et des variables environnementales et intégration au processus de conception systémique." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0070/document.

Full text
Abstract:
Ce travail présente une démarche méthodologique visant le «traitement de profils» de «mission» et plus généralement de «variables environnementales» (mission, gisement, conditions aux limites), démarche constituant la phase amont essentielle d’un processus de conception systémique. La «classification» et la «synthèse» des profils relatifs aux variables d’environnement du système constituent en effet une première étape inévitable permettant de garantir, dans une large mesure, la qualité du dispositif conçu et ce à condition de se baser sur des «indicateurs» pertinents au sens des critères et contraintes de conception. Cette approche s’inscrit donc comme un outil d’aide à la décision dans un contexte de conception systémique. Nous mettons en particulier l’accent dans cette thèse sur l’apport de notre approche dans le contexte de la conception par optimisation qui, nécessitant un grand nombre d’itérations (évaluation de solutions de conception), exige l’utilisation de «profils compacts» au niveau informationnel (temps, fréquence,…). Nous proposons dans une première phase d’étude, une démarche de «classification» et de «segmentation» des profils basée sur des critères de partitionnement. Cette étape permet de guider le concepteur vers le choix du nombre de dispositifs à concevoir pour sectionner les produits créés dans une gamme. Dans une deuxième phase d’étude, nous proposons un processus de «synthèse de profil compact», représentatif des données relatives aux variables environnementales étudiées et dont les indicateurs de caractérisation correspondent aux caractéristiques de référence des données réelles. Ce signal de durée réduite est obtenu par la résolution d’un problème inverse à l’aide d’un algorithme évolutionnaire en agrégeant des motifs élémentaires paramétrés (sinusoïde, segments, sinus cardinaux). Ce processus de «synthèse compacte» est appliqué ensuite sur des exemples de profils de missions ferroviaires puis sur des gisements éoliens (vitesse du vent) associés à la conception de chaînes éoliennes. Nous prouvons enfin que la démarche de synthèse de profil représentatif et compact accroît notablement l’efficacité de l’optimisation en minimisant le coût de calcul facilitant dès lors une approche de conception par optimisation
This work presents a methodological approach aiming at analyzing and processing mission profiles and more generally environmental variables (e.g. solar or wind energy potential, temperature, boundary conditions) in the context of system design. This process constitutes a key issue in order to ensure system effectiveness with regards to design constraints and objectives. In this thesis, we pay a particular attention on the use of compact profiles for environmental variables in the frame of system level integrated optimal design, which requires a wide number of system simulations. In a first part, we propose a clustering approach based on partition criteria with the aim of analyzing mission profiles. This phase can help designers to identify different system configurations in compliance with the corresponding clusters: it may guide suppliers towards “market segmentation” not only fulfilling economic constraints but also technical design objectives. The second stage of the study proposes a synthesis process of a compact profile which represents the corresponding data of the studied environmental variable. This compact profile is generated by combining parameters and number of elementary patterns (segment, sine or cardinal sine) with regards to design indicators. These latter are established with respect to the main objectives and constraints associated to the designed system. All pattern parameters are obtained by solving the corresponding inverse problem with evolutionary algorithms. Finally, this synthesis process is applied to two different case studies. The first consists in the simplification of wind data issued from measurements in two geographic sites of Guadeloupe and Tunisia. The second case deals with the reduction of a set of railway mission profiles relative to a hybrid locomotive devoted to shunting and switching missions. It is shown from those examples that our approach leads to a wide reduction of the profiles associated with environmental variables which allows a significant decrease of the computational time in the context of an integrated optimal design process
APA, Harvard, Vancouver, ISO, and other styles
20

Kwassi, Elvis Daakpo. "Proposition d'une méthodologie pour l'optimisation de formes structures mécaniques." Thesis, Reims, 2012. http://www.theses.fr/2012REIMS007.

Full text
Abstract:
L’optimisation de formes de structures mécaniques est de nos jours incontournable dans l’industrie mécanique (automobile, aéronautique etc.). Pour rester dans la compétition mondiale, les entreprises se doivent de concevoir des structures qui, en plus de respecter des performances mécaniques précises, doivent être moins couteuses avec des délais de plus en plus courts. Les ingénieurs doivent alors réaliser des formes pour leurs structures qui soient un meilleur compromis entre les performances mécaniques et fonctionnelles, le poids, le coût de fabrication etc. Dans ce manuscrit, nous proposons une démarche d’intégration de l’optimisation de formes de structures dans un processus de conception fonctionnelle d'un point de vue méthodologique. Elle a pour avantages de prendre en compte l’intégration des connaissances métiers nécessaires à la conception de la structure dans le processus d’optimisation. Ce processus ne peut être appliqué de manière efficace que si l’on maitrise les fondamentaux de l’optimisation, ce qui nous a conduit dans un premier temps à faire un point sur l’état de l’art en optimisation de formes en général, en présentant les algorithmes mis en jeux dans les différentes disciplines à disposition des ingénieurs. Notre proposition de processus d’optimisation a été complétée par des arbres de décision, permettant à l’ingénieur de faire des choix en fonction des problèmes d’optimisation dans les métiers de la fonderie, de la plasturgie et de l’emboutissage. Ce processus d’optimisation intégré à une démarche de conception fonctionnelle sera illustré par des exemples industriels nous permettant de valider notre proposition et de montrer l’efficacité des choix issus des arbres de décision
Engineering design optimization of mechanical structures is nowadays essential in the mechanical industry (automotive, aeronautics etc.). To remain competitive in the globalized world, companies need to create and design structures that in addition to complying specific mechanical performance should be less expensive with short production time. Engineers must then realize forms and shapes that are a better compromise, between mechanical and functional performance, weight, manufacturing costs etc. In this manuscript, we propose an integration of optimization process in a functional process design of a methodological point of view. It has the advantage of taking into account the integration of business knowledge needed to design the structures in the optimization process. The process can’t be properly applied only if we master the fundamentals of the optimization. This led us in a first time, to talk about the engineering design optimization of mechanical structures in general, and the algorithms used in the different disciplines available to engineers. Our proposed optimization process was completed by decision trees that allowed the engineers to make choices based on their optimization problems in foundry, plastics and stamping companies. This optimization process integrated with a functional design approach will be illustrated with industrial examples that allow us to validate our proposal and demonstrate the effectiveness of the choices from decision trees
APA, Harvard, Vancouver, ISO, and other styles
21

Shraideh, Ahmad. "Analyse et optimisation d'un processus à partir d'un modèle BPMN dans une démarche globale de conception et de développement d'un processus métier : application à la dématérialisation de flux courrier du projet GOCD (PICOM)." Phd thesis, Ecole Centrale de Lille, 2009. http://tel.archives-ouvertes.fr/tel-00579520.

Full text
Abstract:
Cette thèse a été réalisée dans le cadre du projet " Gestion et Optimisation de la Chaîne Documentaire ", projet labellisé par le Pôle de compétitivité des Industries du Commerce. Le projet a pour but de concevoir et de développer un nouveau workflow et un outil d'aide à la décision. Ce système doit être capable de gérer et d'optimiser le flux complet dématérialisé de contrats reçus à COFIDIS.Nous présentons d'abord le framework retenu dans le cadre du projet pour modéliser et implémenter le workflow. En phase de conception BPMN a été choisi. Pour la partie développement, l'utilisation de BPEL a été préconisée pour implémenter et exécuter l'application finale (services web).Cependant la flexibilité offerte par BPMN peut conduire à des propriétés indésirables du processus telles que blocage et inaccessibilité. De plus, BPMN a été conçu pour fournir des modèles Orientés Process. Les données ou les ressources y sont donc peu représentées. En conséquence, l'analyse de performance sur un modèle BPMN est quasi inexistante.Afin de surmonter ces problèmes nous proposons d'insérer dans le framework deux nouvelles phases. Ces deux phases sont appliquées au modèle BPMN. La première est une phase de vérification et de validation et la deuxième une phase d'optimisation. Ces deux phases sont réalisées en transformant le modèle BPMN vers un langage formel. Notre choix dans ce travail a été d'utiliser les réseaux de Petri. Ce qui nous a permis de vérifier et de valider de bonnes propriétés du process. Quant à l'optimisation, nous avons défini une nouvelle variante du problème d'affectation (bin packing problem) et proposé une résolution à intégrer dans le processus d'aide à la décision
APA, Harvard, Vancouver, ISO, and other styles
22

Mesnil, Romain. "Explorations structurelles de domaines de formes constructibles pour l’architecture non-standard." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1151/document.

Full text
Abstract:
Les dernières décennies ont vu l’émergence de formes architecturales non standard. Les concepteurs se retrouvent généralement démunis face à la complexité géométrique de ces objets, dont la fabrication rime souvent avec complication. De plus, les outils utilisés dissocient forme et fonctionnement structurel,ce qui complexifie le processus de décision pour ingénieurs et architectes. Ce mémoire prend un point de vue fondé sur la notion d’invariance par transformation géométrique et étudie plusieurs strategies de génération de formes naturellement constructibles pour remédier à ces manques. Trois contraintes constructives ont été identifiées et correspondent à trois contributions indépendantes de cette thèse.La répétition des noeuds d’assemblage est étudiée via les transformations par maillages parallèles. Ces dernières sont utilisées pour créer une généralisation des surfaces de révolution. On retrouve par là un paramétrage particulier des surfaces moulures de Monge avec une grande répétition d’éléments, et notamment de noeuds d’assemblage.Les réseaux de cyclides sont ensuite utilisés pour dessiner des formes parametrées par leurs lignes de courbures. Cela permet la couverture par panneaux plans ainsi que l’offset des éléments structurels sans excentricité. L’apport de cette thèse est l’implémentation de plusieurs améliorations, notamment l’introduction de plis à double courbure, un algorithme permettant de généraliser les réseaux de cyclides à des topologies quelconques, et la génération de surfaces généralisant les surfaces canal à partir de deux courbes rail et une courbe profil.Finalement, une méthode innovante inspirée de la géométrie descriptive permettant la génération de formes courbes couvertes par des quadrilatères plans est proposée. La méthode, baptisée méthode marionnette, réduit ce problème à un système linéaire, ce qui permet une manipulation de ces forms constructibles en temps réel. Une étude comparative montre que cette technique peut être utilisée pour paramétrer des problèmes d’optimisation de forme de coques sans perte de performance par rapport aux paramétrages utilisés de façon classique. L’intégration des contraintes de fabrication dans le processus d’optimisation structurelle ouvre de nouvelles possibilités d’applications, comme des résilles gauches et des coques plissées. La pertinence de ces nouvelles solutions est démontrée par de multiples études de cas
The last decades have seen the emergence of non-standard architectural shapes. Designers find often themselves helpless with the geometrical complexity of these objects. Furthermore, the available tools dissociate shape and structural behaviour, which adds another complication. This dissertation takes the point of view based on invariance under geometrical transformations, and studies several strategies for fabrication-aware shape modelling. Three technological constraints have been identified and correspond to three independent contributions of this thesis.The repetition of nodes is studied via transformations by parallelism. They are used to generalise surfaces of revolution. A special parametrisation of moulding surfaces is found with this method. The resulting structure has a high node congruence.Cyclidic nets are then used to model shapes parametrised by their lines of curvature. This guarantees meshing by planar panels and torsion-free beam layout. The contribution of this dissertation is the implementation of several improvements, like doubly-curved creases, a hole-filling strategy that allows the extension of cyclidic nets to complex topologies, and the generation of a generalisation of canal surfaces from two rail curves and one profile curves.Finally, an innovative method inspired by descriptive geometry is proposed to generate doubly-curved shapes covered with planar facets. The method, called marionette technique, reduces the problem to a linear problem, which can be solved in real-time. A comparative study shows that this technique can be used to parametrise shape optimisation of shell structures without loss of performance compared to usual modelling technique. The handling of fabrication constraints in shape optimisation opens new possibilities for its practical application, like gridshells or plated shell structures. The relevance of those solutions is demonstrated through multiple case-studies
APA, Harvard, Vancouver, ISO, and other styles
23

Blanc, Claire-Line. "Conception et optimisation d’un procédé innovant pour la purification d’acides organiques issus de biotechnologie." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0008.

Full text
Abstract:
Le but de cette étude est d’évaluer l’utilisation de la chromatographie préparative dans le cadre de la conception d’un procédé de purification d’acides organiques. Les acides principalement étudiés sont les acides lactique et succinique. Ils sont produits par fermentation et utilisés depuis longtemps dans l’industrie comme additifs. Ils sont aussi identifiés comme des molécules plateformes très intéressantes pour le développement de la chimie verte, à partir de carbone renouvelable. En particulier, ils constituent des monomères pour l’industrie des bioplastiques. A la différence des utilisations historiques, ce type d’application requière des niveaux de pureté beaucoup plus importants. Ces puretés sont atteintes via des étapes supplémentaires d’extraction liquide-liquide, de distillation et/ou de cristallisation. Nous avons cherché à évaluer si la mise en œuvre de la chromatographie préparative pouvait permettre d’atteindre les spécifications requises. Pour cela, la chromatographie a été étudiée en détails en tant qu’opération unitaire, afin de mieux comprendre les mécanismes de séparation des composés étudiés et les paramètres de mise en œuvre. Deux types de résine ont été principalement utilisés, une cationique forte et une anionique forte. Dans un premier temps, l’étude thermodynamique de l’adsorption de trois acides organiques en solution pure a été réalisée. Elle a révélé un comportement très différent pour les deux résines : l’adsorption sur la résine cationique forte est assez linéaire alors que sur l’anionique forte, elle est fortement non linéaire et suit un modèle de Langmuir. L’influence de la vitesse sur la forme des pics et donc la dispersion pendant la séparation a ensuite été étudiée. Il a été montré que l’efficacité de la colonne diminue linéairement avec la vitesse d’élution, conformément au modèle de Van Deemter. Il a aussi été mis en évidence que la pente de cette droite est la même à l’échelle laboratoire et sur le pilote à une échelle dix fois plus grande. Elle peut ainsi permettre de prévoir l’évolution de l’efficacité de la colonne au changement d’échelle. Des solutions en mélange synthétiques et réels ont été étudiées, afin d’évaluer l’influence sur la séparation des paramètres opératoires, tels que la charge, la concentration de l’alimentation, le pH… 2 Sur la résine anionique, une première modélisation a été effectuée à partir de ces résultats expérimentaux. Elle a permis de mettre en évidence, qu’un mécanisme d’adsorption de type Langmuir ne suffit pas à expliquer la forme et la position des pics. Nous avons supposé qu’un mécanisme d’échange d’ions de la forme dissociée des acides organiques pourrait aussi entrer en jeu. Cet échange aurait un impact important sur la forme et la position des pics, bien que les acides organiques soient très majoritairement sous leur forme neutre. Les séparations mises en évidence à l’échelle laboratoire ont été validées à l’échelle pilote en chromatographie continue ISMB. Il a été montré que la résine anionique permet d’atteindre une plus grande pureté que la résine cationique avec une productivité similaire. Un procédé complet de purification a pu être testé avec de l’acide succinique, mettant en jeu une acidification par électrodialyse bipolaire, une concentration par osmose inverse, une séparation par chromatographie préparative sur résine anionique forte et une décoloration par nanofiltration. Le produit a ensuite été cristallisé afin de se comparer à un produit industriel. Le produit obtenu est proche des spécifications attendues et est plutôt meilleur que le produit industriel. Une étape supplémentaire d’échange d’ions aurait vraisemblablement permis d’obtenir des cristaux de grade polymère. Nous avons donc montré que la chromatographie a sa place dans un procédé de purification d’acides organiques, dans le but d’obtenir une très haute pureté
The objective of this study is to evaluate the use of preparative chromatography in the context of the elaboration and optimization of an innovative purification process of organic acids from biotechnology. Lactic and succinic acids were mainly studied. They are produced by fermentation and used in industry as additive, for a long time. They are identified as promising building blocks for green chemistry development, from renewable carbon. In particular, they are monomers for bioplastic industry. Unlike historical utilizations, this new type of application requires much higher purity levels. Those purities are currently obtained by additional purification steps, like liquid-liquid extraction, distillation and/or crystallization. We tried to evaluate if the required specifications may be reached by the implementation of preparative chromatography. For this chromatography was studied in details as unitary operation, in order to better understand separation mechanisms of studied compounds and implementation parameters. Two resin types were mainly used, a strong cationic one and a strong anionic one. Firstly, thermodynamic study of the adsorption of three organic acids in pure solution was performed. It revealed very different performances for both resins: adsorption on strong cationic resin is quite linear, whereas on strong anionic one adsorption is strongly nonlinear and fits with Langmuir model. Elution velocity influence on peak shape and so on dispersion was then studied. Column efficiency decreases linearly with elution velocity, accordingly to Van Deemter model. It was shown that the line slope was identical at lab scale and on a pilot ten times bigger. Then it may be used to predict column efficiency evolution during scale-up. Mixing solutions from synthetic or real origin were studied, to evaluate operational parameter influence on the separation, as load, feed concentration, pH… On the strong anionic resin, a first modeling was developed for experimental results. It highlighted that Langmuir type adsorption mechanism is not able to explain peak shape and position. We supposed that an ion exchange mechanism with the organic acid dissociated part may happen. This exchange may have a significant impact on peak shape and position, even if organic acids are mainly in molecular form, because of a low work pH. 4 Separations established at lab scale were validated at pilot scale in continuous chromatography ISMB. It was demonstrated that the anionic resin allows to reach a higher productivity than the cationic one, with a similar productivity. A complete purification process was tested with succinic acid, using bipolar electrodialysis acidification, reverse osmosis concentration, preparative chromatography separation with a strong anionic resin and nanofiltration discoloration. Product was then crystallized, to be compared to an industrial product. Our crystals were close to waited specifications and relatively better than the industrial ones. An additional ion exchange step could have allows to reach polymer grade. We show that chromatography is useful in an organic acid purification process, in order to reach a very high purity
APA, Harvard, Vancouver, ISO, and other styles
24

Ouertani, Mohamed Zied. "DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception." Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00163113.

Full text
Abstract:
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.
C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.
Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.
APA, Harvard, Vancouver, ISO, and other styles
25

Rodriguez, Verjan Carlos. "Conception des structures de soins à domicile." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2013. http://tel.archives-ouvertes.fr/tel-00836000.

Full text
Abstract:
La question de l'accès au soin est cruciale dans notre société moderne. Un effet évident de la demande accrue de services de santé est l'augmentation du taux d'occupation dans les hôpitaux. La principale différence entre la dispensation de soins à l'hôpital et au domicile est la suivante: le patient doit se déplacer et toutes les ressources nécessaires à son traitement se trouvent dans le même endroit, tandis que dans les soins délivrés au domicile, les ressources doivent être déplacées au chevet du patient. Il existe plusieurs défis afin de pouvoir réaliser ce changement. Dans cette thèse nous traitons trois problèmes importants dans la conception des structures de soins à domicile. D'abord, la localisation des structures en minimisant les coûts logistiques, où nous développons trois modèles incluant différentes caractéristiques comme du système de santé comme les coûts liés aux déplacements des ressources, la variation de la demande dans le temps et l'existence et évolution des ressource libérales. Ces modèles nous permettent de proposer des localisations robustes dans le temps tout en assurant une couverture maximale et en minimisant les coûts. La deuxième problématique consiste au choix des activités et couverture épidémiologique et spatiale en tenant compte différentes activités et types de ressources, les autorisations pour réaliser les pathologies et la couverture. Deux modèles développés nous ont permis montrer les effets sur l'affectation de la demande et le dimensionnement de ressources induits par changements dans les coûts des libéraux, salaires et d'autorisation de servir la demande. Le troisième problème et celui du dimensionnement de ressources avec incertitudes de demande (volume, épidémiologique et géographique) et le modèle proposé tient compte du problème sous-jacent de déplacement des ressources à l'aide d'une estimation de la tournée réalisée.
APA, Harvard, Vancouver, ISO, and other styles
26

Costa, Giulio. "Design and Optimisation Methods for Structures produced by means of Additive Layer Manufacturing processes." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0035/document.

Full text
Abstract:
Le développement récent des technologies de fabrication additive par couches (Additive Layer Manufacturing) a généré de nouvelles opportunités en termes de conception. Généralement, une étape d'optimisation topologique est réalisée pour les structures ALM. Cette tâche est aujourd'hui facilitée par des progiciels commerciaux, comme Altair OptiStruct ou Simulia TOSCA. Néanmoins, la liberté accordée par l’ALM est seulement apparente et des problèmes majeurs empêchent une exploitation complète et généralisée de cette technologie.La première lacune importante provient de l'intégration directe du résultat d'un calcul d’optimisation topologique dans un environnement CAO approprié. Quoi qu'il en soit, la géométrie optimisée résultante n'est disponible que sous une forme discrétisée, c'est-à-dire en termes d'éléments finis (FE) obtenus à la fin de l'optimisation. La frontière de la géométrie optimisée n'est pas décrite par une entité géométrique, par conséquent la topologie résultante n'est pas compatible avec les logiciels de CAO qui constituent l'environnement naturel du concepteur. Une phase de reconstruction CAO longue est nécessaire et le concepteur est obligé de prendre une quantité considérable de décisions arbitraires. Souvent la topologie CAO compatible résultante ne répond plus aux contraintes d'optimisation.La deuxième restriction majeure est liée aux exigences technologiques spécifiques à l’ALM qui doivent être intégrées directement dans la formulation du problème d'optimisation: considérer la spécificité de l’ALM uniquement comme un post-traitement de la tâche d’optimisation topologique impliquerait des modifications si importantes de la pièce que la topologie optimisée pourrait être complètement différente de la solution optimisée.Cette thèse propose une méthodologie générale pour résoudre les inconvénients mentionnés ci-dessus. Un algorithme d’optimisation topologique innovant a été développé: il vise à fournir une description de la topologie basée sur des entités NURBS et B-Spline purement géométriques, qui sont nativement CAO compatibles. Dans ce cadre, les analyses éléments finis sont utilisées uniquement pour évaluer les réponses physiques du problème étudié. En particulier, une entité géométrique NURBS / B-Spline de dimension D + 1 est utilisée pour résoudre le problème d’optimisation topologique de dimension D.L'efficacité de cette approche a été testée sur certains benchmarks 2D et 3D, issus de la littérature. L'utilisation d'entités NURBS dans la formulation de l’optimisation topologique accélère considérablement la phase de reconstruction CAO pour les structures 2D et présente un grand potentiel pour les problèmes 3D. En outre, il est prouvé que les contraintes géométriques, comme par exemple les épaisseurs minimale et maximale de matière, peuvent être efficacement et systématiquement traitées au moyen de l'approche proposée. De plus, des contraintes géométriques spéciales (non disponibles dans les outils commerciaux), par exemple le rayon de courbure local de la frontière de la phase solide, peuvent être formulées également grâce à la formulation NURBS. La robustesse de la méthodologie proposée a été testée en prenant en compte d'autres grandeurs mécaniques, telles que les charges de flambement et les fréquences naturelles liées aux modes de vibration.Enfin, malgré la nature intrinsèque de l'algorithme d’optimisation topologique basé sur les NURBS, certains outils ont été développés pour déterminer automatiquement le contour des pièces 2D sous forme de courbe et sous forme de surface dans le cadre 3D. L’identification automatique des paramètres des courbes 2D a été entièrement développée et un algorithme original a été proposé. Les principes fondamentaux de la méthode sont également discutés pour l'identification des paramètres des surfaces limites pour les pièces 3D
The recent development of Additive Layer Manufacturing (ALM) technologies has made possible new opportunities in terms of design. Complicated shapes and topologies, resulting from dedicated optimisation processes or by the designer decisions, are nowadays attainable. Generally, a Topology Optimisation (TO) step is considered when dealing with ALM structures and today this task is facilitated by commercial software packages, like Altair OptiStruct or Simulia TOSCA. Nevertheless, the freedom granted by ALM is only apparent and there are still major issues hindering a full and widespread exploitation of this technology.The first important shortcoming comes from the integration of the result of a TO calculation into a suitable CAD environment. The optimised geometry is available only in a discretised form, i.e. in terms of Finite Elements (FE), which are retained into the computational domain at the end of the TO analysis. Therefore, the boundary of the optimised geometry is not described by a geometrical entity, hence the resulting topology is not compatible with CAD software that constitutes the natural environment for the designer. A time consuming CAD-reconstruction phase is needed and the designer is obliged to make a considerable amount of arbitrary decisions. Consequently, often the resulting CAD-compatible topology does not meet the optimisation constraints.The second major restriction is related to ALM specific technological requirements that should be integrated directly within the optimisation problem formulation and not later: considering ALM specificity only as post-treatment of the TO task would imply so deep modifications of the component that the optimised configuration would be completely overturned.This PhD thesis proposes a general methodology to overcome the aforementioned drawbacks. An innovative TO algorithm has been developed: it aims at providing a topology description based on purely geometric, intrinsically CAD-compliant entities. In this framework, NURBS and B-Spline geometric entities have been naturally considered and FE analyses are used only to evaluate the physical responses for the problem at hand. In particular, a NURBS/B-Spline geometric entity of dimension D+1 is used to solve the TO problem of dimension D. The D+1 coordinate of the NURBS/B-Spline entity is related to a pseudo-density field that is affected to the generic element stiffness matrix; according to the classical penalisation scheme employed in density-based TO methods.The effectiveness of this approach has been tested on some 2D and 3D benchmarks, taken from literature. The use of NURBS entities in the TO formulation significantly speeds up the CAD reconstruction phase for 2D structures and exhibits a great potential for 3D TO problems. Further, it is proven that geometrical constraints, like minimum and maximum length scales, can be effectively and consistently handled by means of the proposed approach. Moreover, special geometric constraints (not available in commercial tools), e.g. on the local curvature radius of the boundary, can be formulated thanks to the NURBS formulation as well. The robustness of the proposed methodology has been tested by taking into account other mechanical quantities of outstanding interest in engineering, such as buckling loads and natural frequencies.Finally, in spite of the intrinsic CAD-compliant nature of the NURBS-based TO algorithm, some support tools have been developed in order to perform the curve and surface fitting in a very general framework. The automatic curve fitting has been completely developed and an original algorithm is developed for choosing the best values of the NURBS curve parameters, both discrete and continuous. The fundamentals of the method are also discussed for the more complicated surface fitting problem and ideas/suggestions for further researches are provided
APA, Harvard, Vancouver, ISO, and other styles
27

Ouattara, Adama. "Méthodologie d'éco-conception de procédés par optimisation multiobjectif et aide à la décision multicritère." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0055/document.

Full text
Abstract:
Ce travail a pour objectif le développement d’une méthodologie de conception de procédés éco-efficaces, avec prise en compte simultanée de considérations écologiques et économiques lors de la phase de conception préliminaire de procédés chimiques. L’aspect environnemental est quantifié à travers l’utilisation d’un ensemble d’indicateurs selon les lignes directrices de concepts de développement durable. Le cadre conceptuel est basé sur une modélisation du procédé et de l’unité de production d’utilités, car l’impact environnemental d’un procédé est lié non seulement aux effluents directs du procédé, mais également à la consommation énergétique, l’effet du recyclage, de la conversion des matières premières … Dans ce but, le logiciel d’aide à la décision ARIANETM dédié à la gestion des utilités des unités de production (vapeur, électricité, eau …) et des effluents (CO2, SO2, NOx, etc..) a été couplé au modèle d’un procédé pour déterminer les besoins en énergies primaires et quantifier les émissions polluantes. Ces modèles ont ensuite été intégrés au sein d’une boucle d’optimisation multiobjectif, basée sur une variante d’un algorithme génétique multiobjectif de type NSGA-II (Non Sorted Genetic Algorithm). Le compromis entre les objectifs économiques et écologiques est illustré à travers la génération de fronts de Pareto. La sélection des meilleures solutions parmi cet ensemble est effectuée par utilisation de techniques d’analyse multicritère. L’exemple test bien connu du procédé de production de benzène par hydrodésalkylation du toluène (HDA) est revisité ici dans un mode multiobjectif pour illustrer l’utilité de l’approche pour trouver des solutions de conception économiques et écologiques
This study aims at the development of a design methodology for eco-efficient processes, meaning that ecological and economic considerations are taken into account simultaneously at the preliminary design phase of chemical processes. The environmental aspect is quantified by using of a set of indicators following the guidelines of sustainability concepts. The design framework is based on a modelling approach considering both process and utility production units, since the environmental impact of a chemical process not only contains the material involved in the process but also the energy consumption, the effect of flow recycle, material conversion and so on... For this purpose, a decision support tool dedicated to the management of plant utilities (steam, electricity, water...) and pollutants (CO2, SO2, NOx, etc..), (ARIANETM package) was coupled to process modelling and used here both to compute the primary energy requirements of the process and to quantify its pollutant emissions. Both models were thus integrated in an outer multiobjective optimization loop, based on a variant of the so-called NSGA-II (Non Sorted Genetic Algorithm) multiobjective genetic algorithm. The trade-off between economic and environmental objectives is illustrated through the generation of Pareto fronts. The selection of the best design alternatives is performed through the use of multicriteria analysis. The well-known benchmark process for hydrodealkylation (HDA) of toluene to produce benzene, revisited here in a multi-objective mode, is used to illustrate the usefulness of the approach in finding environmentally friendly and cost-effective designs
APA, Harvard, Vancouver, ISO, and other styles
28

Mcharek, Mehdi. "Gestion des connaissances pour la conception collaborative et l’optimisation multi-physique de systèmes mécatroniques." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC098/document.

Full text
Abstract:
Les produits mécatroniques sont complexes et multidisciplinaires par nature. Les exigences pour les concevoir sont souvent contradictoires et doivent être validées par les différentes équipes d'ingénierie disciplinaire (ID). Pour répondre à cette complexité et réduire le temps de conception, les ingénieurs disciplinaires ont besoin de collaborer dynamiquement, de résoudre les conflits interdisciplinaires et de réutiliser les connaissances de projets antérieurs. De plus, ils ont besoin de collaborer en permanence avec l’équipe d’ingénierie systèmes (IS) pour avoir un accès direct aux exigences et l’équipe d’optimisation multidisciplinaire (OMD) pour valider le système dans sa globalité.Nous proposons d'utiliser des techniques de gestion des connaissances pour structurer les connaissances générées lors des activités de collaboration afin d'harmoniser le cycle de conception. Notre principale contribution est une approche d'unification qui explique comment IS, ID et OMD se complètent et peuvent être utilisés en synergie pour un cycle de conception intégré et continu. Notre méthodologie permet de centraliser les connaissances nécessaires à la collaboration et au suivi des exigences. Elle assure également la traçabilité des échanges entre les ingénieurs grâce à la théorie des graphes. Cette connaissance formalisée du processus de collaboration permet de définir automatiquement un problème OMD
Mechatronic products are complex and multidisciplinary in nature. The requirements to design them are often contradictory and must be validated by the various disciplinary engineering (DE) teams. To address this complexity and reduce design time, disciplinary engineers need to collaborate dynamically, resolve interdisciplinary conflicts, and reuse knowledge from previous projects. In addition, they need to work seamlessly with the Systems Engineering (SE) team to have direct access to requirements and the Multidisciplinary Design Optimization (MDO) team for global validation. We propose to use Knowledge Management techniques to structure the knowledge generated during collaboration activities and harmonize the overall design cycle. Our primary contribution is a unification approach, elaborating how SE, DE, and MDO complement each-other and can be used in synergy for an integrated and continuous design cycle. Our methodology centralizes the product knowledge necessary for collaboration. It ensures traceability of the exchange between disciplinary engineers using graph theory. This formalized process knowledge facilitates MDO problem definition
APA, Harvard, Vancouver, ISO, and other styles
29

Khadem, Hamedani Behnam. "Design, Scale-up and Optimization of Double Emulsion Processes." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1097/document.

Full text
Abstract:
De nos jours, les émulsions doubles se trouvent dans de nombreuses applications dans différents domaines, tels que le domaine alimentaire, les produits cosmétiques, les produits chimiques ou biochimiques. Dans les produits alimentaires par exemple, les émulsions doubles peuvent permettre d’encapsuler des arômes ou de réduire la teneur en matières grasses. La littérature manque cependant de compréhension globale de ces systèmes. La modélisation peut améliorer la compréhension d'un système et permettre d'optimiser les conditions de fonctionnement afin d'améliorer la qualité du produit. Dans ces systèmes, la qualité du produit est déterminée par l'efficacité de l'encapsulation et la distribution de la taille des gouttes internes et externes, qui peuvent affecter la stabilité physique pendant le stockage. L'objectif de ce travail est de réaliser une étude théorique et expérimentale approfondie des phénomènes intervenant à la fois lors de la préparation et du stockage des émulsions doubles. La contribution du travail peut donc être divisée en deux parties. Dans un premier temps, nous étudions les paramètres affectant l’étape de préparation des émulsions doubles et nous proposons des modèles pour les décrire. Trois procédés ont été considérés pour l’émulsification des émulsions doubles, l’ultra-sonication, l’Ultra-Turrax et un réacteur agité. Le modèle est basé sur un modèle de bilan de population des gouttelettes externes, incluant les phénomènes de rupture et de coalescence, associé à un modèle de relargage des gouttes internes. Le relargage des gouttes internes est supposé être régi par la rupture des gouttes externes. Pour être applicables aux différents procédés, les modèles de rupture ont été adaptés aux différentes échelles de turbulence, de dissipation pour ultra-sonication et inertielle pour Ultra-Turrax. La deuxième contribution de ce travail concerne l’étude des phénomènes ayant lieu lors du stockage des émulsions doubles, notamment le gonflement et le relargage des gouttes. Dans ce cas, deux modèles de bilan de population des gouttelettes internes et externes ont été développés, comprenant les phénomènes de gonflement des gouttelettes internes, et donc externes, ainsi que le relagage des gouttelettes internes par diffusion et coalescence avec la phase continue externe. Le modèle de gonflement prend en compte la pression de Laplace qui contrebalance le gradient de pression osmotique et arrête le gonflement. Dans les différentes étapes de préparation ou de stockage, les modèles développés permettent de prédire les distributions de la taille des gouttelettes et le taux de libération
Double emulsions can nowadays be found in a number of applications in different domains, like food, cosmetics, chemicals or biochemical. In food for instance, double emulsions may allow to encapsulate flavors or reduce the fat content. Yet, the literature is still lacking a comprehensive understanding of these systems. Modelling may improve the understanding of a system and allow optimizing the operating conditions in order to improve the product quality. In these systems, the product quality is determined by the encapsulation efficiency and the inner and outer droplet size distribution, which may affect the physical stability during storage. The objective of this work is to handle theoretical and experimental investigations of the phenomena occurring during both the preparation and the storage of double emulsions. The contribution of the work can therefore be divided into two parts. First of all, investigations of the parameters affecting the preparation step of double emulsions are handled, and models are proposed to describe them. Three processes were considered for the emulsification of the double emulsions, ultrasonication, Ultra-Turrax and a stirred vessel. The model is based on a population balance model of the outer droplets, including the kernels of breakage and coalescence combined with a leakage model of the inner droplets. The leakage of inner droplets is assumed to be governed by the breakage of the outer droplets. In order to be applicable in the different processes, the breakage models were adapted to different scales of turbulence, the dissipation subrange for ultrasonication and the inertial subrange for the Ultra-Turrax. The second contribution of the work concerns the investigation of the phenomena taking place during the storage of the double emulsions, including swelling and release. In this case, two population balance models of the inner and outer droplets were considered, including the phenomena of swelling of the inner, and so of the outer, droplets as well as the escape of the inner droplets by diffusion and coalescence with the external continuous phase. The swelling model takes into account the Laplace pressure that counterbalances the osmotic pressure which is the driving force for swelling. In the different steps of preparation or storage, the developed models allow the prediction of the droplet size distributions and the release rate
APA, Harvard, Vancouver, ISO, and other styles
30

Zhang, Zebin. "Intégration des méthodes de sensibilité d'ordre élevé dans un processus de conception optimale des turbomachines : développement de méta-modèles." Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0047/document.

Full text
Abstract:
La conception optimale de turbomachines repose usuellement sur des méthodes itératives avec des évaluations soit expérimentales, soit numériques qui peuvent conduire à des coûts élevés en raison des nombreuses manipulations ou de l’utilisation intensive de CPU. Afin de limiter ces coûts et de raccourcir les temps de développement, le présent travail propose d’intégrer une méthode de paramétrisation et de métamodélisation dans un cycle de conception d’une turbomachine axiale basse vitesse. La paramétrisation, réalisée par l’étude de sensibilité d’ordre élevé des équations de Navier-Stokes, permet de construire une base de données paramétrée qui contient non seulement les résultats d’évaluations, mais aussi les dérivées simples et les dérivées croisées des objectifs en fonction des paramètres. La plus grande quantité d’informations apportée par les dérivées est avantageusement utilisée lors de la construction de métamodèles, en particulier avec une méthode de Co-Krigeage employée pour coupler plusieurs bases de données. L’intérêt économique de la méthode par rapport à une méthode classique sans dérivée réside dans l’utilisation d’un nombre réduit de points d’évaluation. Lorsque ce nombre de points est véritablement faible, il peut arriver qu’une seule valeur de référence soit disponible pour une ou plusieurs dimensions, et nécessite une hypothèse de répartition d’erreur. Pour ces dimensions, le Co-Krigeage fonctionne comme une extrapolation de Taylor à partir d’un point et de ses dérivées. Cette approche a été expérimentée avec la construction d’un méta-modèle pour une hélice présentant un moyeu conique. La méthodologie fait appel à un couplage de bases de données issues de deux géométries et deux points de fonctionnement. La précision de la surface de réponse a permis de conduire une optimisation avec un algorithme génétique NSGA-2, et les deux optima sélectionnés répondent pour l’un à une maximisation du rendement, et pour l’autre à un élargissement de la plage de fonctionnement. Les résultats d’optimisation sont finalement validés par des simulations numériques supplémentaires
The turbomachinery optimal design usually relies on some iterative methods with either experimental or numerical evaluations that can lead to high cost due to numerous manipulations and intensive usage of CPU. In order to limit the cost and shorten the development time, the present thesis work proposes to integrate a parameterization method and the meta-modelization method in an optimal design cycle of an axial low speed turbomachine. The parameterization, realized by the high order sensitivity study of Navier-Stokes equations, allows to construct a parameterized database that contains not only the evaluations results, but also the simple and cross derivatives of objectives as a function of parameters. Enriched information brought by the derivatives are utilized during the meta-model construction, particularly by the Co-Kriging method employed to couple several databases. Compared to classical methods that are without derivatives, the economic benefit of the proposed method lies in the use of less reference points. Provided the number of reference points is small, chances are a unique point presenting at one or several dimensions, which requires a hypothesis on the error distribution. For those dimensions, the Co-Kriging works like a Taylor extrapolation from the reference point making the most of its derivatives. This approach has been experimented on the construction of a meta-model for a conic hub fan. The methodology recalls the coupling of databases based on two fan geometries and two operating points. The precision of the meta-model allows to perform an optimization with help of NSGA-2, one of the optima selected reaches the maximum efficiency, and another covers a large operating range. The optimization results are eventually validated by further numerical simulations
APA, Harvard, Vancouver, ISO, and other styles
31

Quirante, Thomas. "Modelling and numerical optimization methods for decision support in robust embodiment design of products and processes." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14676/document.

Full text
Abstract:
Afin de déterminer le plus tôt possible dans le processus de conception, les solutions les pluspertinentes, la prise de décisions robuste apparait comme fondamentale pour garantir lesmeilleurs choix. A partir de solutions conceptuelles, l’étape de conception architecturale, ditede pré-dimensionnement, vise à déterminer les principales grandeurs dimensionnantes etpilotantes du système à concevoir, tout en satisfaisant l’ensemble des exigences du cahier descharges. La continuité du processus de conception entre les phases préliminaires et détailléesdépend alors de l’efficacité de la phase de conception architecturale à fournir des solutionsavec un comportement physique validé et une architecture fonctionnelle optimisée. Lesactivités de pré-dimensionnement sont donc fortement tournées vers l’optimisationnumérique. L’utilisation de ces techniques requiert une modélisation précise du problème deconception architecturale. En particulier, l’exploration de vastes espaces de conception, lareprésentation et l’évaluation de solutions candidates, ainsi que la formulation a priori despréférences sont des enjeux majeurs.Les travaux de recherche présentés dans cette thèse concernent le développement deméthodologies et la proposition d’outils pour l’aide à la décision en conception architecturaledes produits et des machines. Plus précisément, l’ensemble de ces travaux vise à fournir auxconcepteurs une démarche adaptée pour structurer et formuler des fonctions objectifs lorsquel’activité de conception est abordée par l’optimisation. Notre approche consiste à relier par lamodélisation de préférences, le comportement physique du système à concevoir avec lescritères et les objectifs de conception, selon des étapes d’observation, d’interprétation etd’agrégation. A partir du concept de désirabilité, cette méthode de modélisation est utiliséepour formuler les objectifs de conceptions et pour quantifier le niveau de satisfaction globalatteint par les solutions candidates. Cette approche est utilisée pour aborder les problèmes deconception robuste où les objectifs de performance et de sensibilité sont mis en balance. Danscette perspective, des mesures de dispersion des performances, ainsi qu’une fonction decompromis spécifique au problème de conception robuste en ingénierie, sont proposés.Enfin, l’application de ces méthodes et outils est illustrée au travers du prédimensionnementd’un évaporateur flash bi-étagé, utilisé pour le traitement des moûts dansl’industrie viticole. L’objectif est alors de trouver des solutions de conception robustes, c'està-dire, des architectures présentant à la fois un niveau de performance globale satisfaisant,incluant la qualité du produit, la transportabilité de la machine ou les coûts, et une faiblesensibilités de la température de sortie du produit, ainsi que de son titre alcoolémique
In order to converge as soon as possible toward the most preferable design solution, takingrobust decisions appears as a topical issue to ensure the best choices in engineering design. Inparticular, started from a selected concept, embodiment design consists in determining themain dimensioning and monitoring parameters of the system while meeting the designrequirements. The continuity of the design process between the preliminary and detailedphases strongly depends on the efficiency of the embodiment design phase in providingembodied solutions with a validated physical behaviour and an optimized functional structure.Embodiment design problems are thus generally turned toward numerical optimization. Thisrequires an accurate modelling of embodiment design problems, and in particular,investigation of large design spaces, representation and evaluation of candidate solutions anda priori formalization of preferences are topical issues.Research works presented in this thesis deal with the development of methodologies andtools to support decision making during embodiment design of industrial systems andmachines. In particular, it aims to provide designers with a convenient way to structureobjectives functions for optimization in embodiment design. This approach consists in linkingthe physical behaviour of the system to be designed, with the design criteria and objectivesthrough the modelling of designer’s preferences according to observation, interpretation andaggregation steps. Based on the concept of desirability, this modelling procedure is used toformulate design objectives and to quantify the overall level of satisfaction achieved bycandidate solutions. In the scope of robust design, this method is applied first to formulatedesign objectives related to performances, and then, to formulate design objectives related tothe sensitivity of performances. Robust design problems are thus tackled as a trade-offbetween these two design objectives. Measurement methods for performance dispersion andoriginal trade-off function specific to robust design are proposed.Finally, an application of the modelling methodology through the embodiment design of atwo-staged flash evaporator for must concentration in the wine industry is presented.Objective is to find robust design solutions, i.e. configurations with simultaneously adesirable level of performance, including the quality of the vintage, the transportability of thesystem and the costs of ownership, and a low sensitivity of some performances, namely thetemperature of the outlet product and the final alcoholic strength
APA, Harvard, Vancouver, ISO, and other styles
32

Pelamatti, Julien. "Mixed-variable Bayesian optimization : application to aerospace system design." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I003.

Full text
Abstract:
Dans le cadre de la conception de systèmes complexes, tels que les aéronefs et les lanceurs, la présence de fonctions d'objectifs et/ou de contraintes à forte intensité de calcul (e.g., modèles d'éléments finis) couplée à la dépendance de choix de conception technologique discrets et non ordonnés entraîne des problèmes d'optimisation difficiles. De plus, une partie de ces choix technologiques est associée à un certain nombre de variables de conception continues et discrètes spécifiques qui ne doivent être prises en considération que si des choix technologiques spécifiques sont faits. Par conséquent, le problème d'optimisation qui doit être résolu afin de déterminer la conception optimale du système présente un espace de recherche et un domaine de faisabilité variant de façon dynamique. Les algorithmes existants qui permettent de résoudre ce type particulier de problèmes ont tendance à exiger une grande quantité d'évaluations de fonctions afin de converger vers l'optimum réalisable, et sont donc inadéquats lorsqu'il s'agit de résoudre les problèmes à forte intensité de calcul. Pour cette raison, cette thèse explore la possibilité d'effectuer une optimisation de l'espace de conception contraint à variables mixtes et de taille variable en s'appuyant sur des méthodes d’optimisation à base de modèles de substitution créés à l'aide de processus Gaussiens, également connue sous le nom d'optimisation Bayésienne. Plus spécifiquement, 3 axes principaux sont discutés. Premièrement, la modélisation de substitution par processus gaussien de fonctions mixtes continues/discrètes et les défis qui y sont associés sont discutés en détail. Un formalisme unificateur est proposé afin de faciliter la description et la comparaison entre les noyaux existants permettant d'adapter les processus gaussiens à la présence de variables discrètes non ordonnées. De plus, les performances réelles de modélisation de ces différents noyaux sont testées et comparées sur un ensemble de benchmarks analytiques et de conception ayant des caractéristiques et des paramétrages différents. Dans la deuxième partie de la thèse, la possibilité d'étendre la modélisation de substitution mixte continue/discrète à un contexte d'optimisation Bayésienne est discutée. La faisabilité théorique de cette extension en termes de modélisation de la fonction objectif/contrainte ainsi que de définition et d'optimisation de la fonction d'acquisition est démontrée. Différentes alternatives possibles sont considérées et décrites. Enfin, la performance de l'algorithme d'optimisation proposé, avec diverses paramétrisations des noyaux et différentes initialisations, est testée sur un certain nombre de cas-test analytiques et de conception et est comparée aux algorithmes de référence.Dans la dernière partie de ce manuscrit, deux approches permettant d'adapter les algorithmes d'optimisation bayésienne mixte continue/discrète discutés précédemment afin de résoudre des problèmes caractérisés par un espace de conception variant dynamiquement au cours de l’optimisation sont proposées. La première adaptation est basée sur l'optimisation parallèle de plusieurs sous-problèmes couplée à une allocation de budget de calcul basée sur l'information fournie par les modèles de substitution. La seconde adaptation, au contraire, est basée sur la définition d'un noyau permettant de calculer la covariance entre des échantillons appartenant à des espaces de recherche partiellement différents en fonction du regroupement hiérarchique des variables dimensionnelles. Enfin, les deux alternatives sont testées et comparées sur un ensemble de cas-test analytiques et de conception.Globalement, il est démontré que les méthodes d'optimisation proposées permettent de converger vers les optimums des différents types de problèmes considérablement plus rapidement par rapport aux méthodes existantes. Elles représentent donc un outil prometteur pour la conception de systèmes complexes
Within the framework of complex system design, such as aircraft and launch vehicles, the presence of computationallyintensive objective and/or constraint functions (e.g., finite element models and multidisciplinary analyses)coupled with the dependence on discrete and unordered technological design choices results in challenging optimizationproblems. Furthermore, part of these technological choices is associated to a number of specific continuous anddiscrete design variables which must be taken into consideration only if specific technological and/or architecturalchoices are made. As a result, the optimization problem which must be solved in order to determine the optimalsystem design presents a dynamically varying search space and feasibility domain.The few existing algorithms which allow solving this particular type of problems tend to require a large amountof function evaluations in order to converge to the feasible optimum, and result therefore inadequate when dealingwith the computationally intensive problems which can often be encountered within the design of complex systems.For this reason, this thesis explores the possibility of performing constrained mixed-variable and variable-size designspace optimization by relying on surrogate model-based design optimization performed with the help of Gaussianprocesses, also known as Bayesian optimization. More specifically, 3 main axes are discussed. First, the Gaussianprocess surrogate modeling of mixed continuous/discrete functions and the associated challenges are extensivelydiscussed. A unifying formalism is proposed in order to facilitate the description and comparison between theexisting kernels allowing to adapt Gaussian processes to the presence of discrete unordered variables. Furthermore,the actual modeling performances of these various kernels are tested and compared on a set of analytical and designrelated benchmarks with different characteristics and parameterizations.In the second part of the thesis, the possibility of extending the mixed continuous/discrete surrogate modeling toa context of Bayesian optimization is discussed. The theoretical feasibility of said extension in terms of objective/-constraint function modeling as well as acquisition function definition and optimization is shown. Different possiblealternatives are considered and described. Finally, the performance of the proposed optimization algorithm, withvarious kernels parameterizations and different initializations, is tested on a number of analytical and design relatedtest-cases and compared to reference algorithms.In the last part of this manuscript, two alternative ways of adapting the previously discussed mixed continuous/discrete Bayesian optimization algorithms in order to solve variable-size design space problems (i.e., problemscharacterized by a dynamically varying design space) are proposed. The first adaptation is based on the paralleloptimization of several sub-problems coupled with a computational budget allocation based on the informationprovided by the surrogate models. The second adaptation, instead, is based on the definition of a kernel allowingto compute the covariance between samples belonging to partially different search spaces based on the hierarchicalgrouping of design variables. Finally, the two alternatives are tested and compared on a set of analytical and designrelated benchmarks.Overall, it is shown that the proposed optimization methods allow to converge to the various constrained problemoptimum neighborhoods considerably faster when compared to the reference methods, thus representing apromising tool for the design of complex systems
APA, Harvard, Vancouver, ISO, and other styles
33

Bechara, Rami. "Methodology for the design of optimal processes : application to sugarcane conversion processes." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10229/document.

Full text
Abstract:
L'adoption d'une méthodologie est cruciale pour la conception de procédés chimiques optimaux. L'optimisation multi-objective de modèles rigoureux en est un exemple, jouissant d'une application extensive dans la littérature. Cette méthode retourne un ensemble de solutions, dit de Pareto, présentant un compromis optimal entre les fonctions objectives. Ceci est suivi par une étape de sélection d'une solution d'intérêt répondant à des critères définis. Cette méthodologie s'appliquait, dans le cadre de cette thèse, à deux procédés. Le premier consistait en une distillerie d'éthanol à partir de la canne à sucre, combinée à un système de cogénération et de combustion à partir de la biomasse de canne à sucre. Le deuxième contenait en plus un système d'hydrolyse enzymatique de cette biomasse. Notre première contribution traitait de la construction d'une procédure pour la modélisation, simulation, intégration thermique et évaluation du coût des équipements. La deuxième contribution traitait de l'analyse des résultats réalisée à travers un suivi de variables mesurées, une fragmentation de la courbe de Pareto, une hiérarchisation des variables de décision et une comparaison avec la littérature. La dernière contribution traitait de l'étape de sélection qui s'est réalisée à travers une évaluation économique des solutions, sous des scénarii différents, avec la Valeur Nette Présente comme critère de sélection. En conclusion, cette thèse constitue une première application intégrale de la méthodologie proposée. Elle représente, de par ses contributions, un tremplin pour des applications futures à des procédés chimiques ou biochimiques, plus spécialement pour la canne à sucre
The use of a systematic methodology is crucial for the design of optimal chemical processes, namely bio-processes. Multi-objective optimization of rigorous process models is therein a prime example, with extensive use in literature. This method yields a Pareto set of optimal compromise solutions, from which one optimal solution is chosen based on specific criteria. This methodology was applied, in the course of this thesis, to two studied processes. The first consisted in a distillery converting sugarcane to ethanol, combined with a sugarcane biomass combustion and power cogeneration system. The second contained an additional biomass hydrolysis system. Our first contribution deals with the construction of an organized procedure for the modeling, simulation, heat integration and equipment and capital cost estimation of chemical processes. The second contribution deals with the analysis of the optimization results through a tracking of measured variables, the fragmentation of the Pareto curve, an ordering of optimization variables, and a comparisons with literature results. The final realization deals with the selection step realized through an economic evaluation of optimal solutions for various scenarios, with the Net Present Value as the selection criterion. In conclusion, this thesis constitutes a first integral application of the said methodology. It sets, through its contributions, a stepping stone for future application in the field of chemical and biochemical processes, namely for sugarcane processes
APA, Harvard, Vancouver, ISO, and other styles
34

Abi, Lahoud Elie. "Composition dynamique de services : application à la conception et au développement de systèmes d'information dans un environnement distribué." Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00560489.

Full text
Abstract:
L'orientation service occupe de plus en plus une place importante dans la structuration des systèmes complexes. La conception et le développement d'applications évoluent progressivement d'un modèle traditionnel vers un modèle plus dynamique orienté services où la réutilisation et l'adaptabilité jouent un rôle important. Dans cette thèse, nous proposons une étude portant sur la conception et le développement d'applications par composition de services. Nous décrivons un environnement de partage de services : DyCoSe. Il consiste en un écosystème coopératif où les entreprises membres, organisées en communautés, partagent un consensus global représentant les fonctionnalités métier récurrentes et les propriétés non fonctionnelles communes. La composition d'applications dans DyCoSe repose sur une architecture à trois niveaux combinant à la fois une démarche descendante et une autre ascendante. La démarche descendante permet de décrire l'application à travers une interaction de composants haut niveau et de la raffiner en une ou plusieurs orchestrations de services. La démarche ascendante projette les caractéristiques de l'infrastructure réseau sous-jacente au niveau services. Un processus d'instanciation visant à réaliser une application composite est détaillé. Il formalise le choix des services, selon un ensemble de contraintes données, comme un problème d'optimisation de coûts. Deux solutions au problème d'instanciation sont étudiées. Une solution globale tient compte de l'ensemble des services disponibles dans l'écosystème et une solution locale favorise les services de certaines communautés. Un algorithme génétique est décrit comme implémentation de l'instanciation globale. Une simulation stochastique de l'environnement DyCoSe est proposée. Elle permet d'étudier les possibilités d'instanciation d'une application donnée dans un environnement où la disponibilité des services n'est pas garantie. Elle permet d'étudier aussi, le taux de réussite de l'exécution d'une instance d'une application donnée.
APA, Harvard, Vancouver, ISO, and other styles
35

Huc, Florian. "Conception de Réseaux Dynamiques Tolérants aux Pannes." Phd thesis, Université de Nice Sophia-Antipolis, 2008. http://tel.archives-ouvertes.fr/tel-00472781.

Full text
Abstract:
Cette thèse aborde différents aspects de la conception d'un réseau de télécommunications. Un tel réseau utilise des technologies hétérogènes : liens antennes-satellites, radio, fibres optiques ou bien encore réseaux embarqués dans un satellite. Les problématiques varient en fonction de la partie du réseau considérée, du type de requêtes et de l'objectif. Le cas des requêtes de type paquets est abordé dans le cadre des réseaux en forme de grille, mais le thème principal est le routage de requêtes de type connections (unicast et multicast). Les objectifs considérés sont : la conception d'un réseau embarqué dans un satellite de télécommunication, de taille minimum et tolérant des pannes de composants; le dimensionnement des liens d'un réseau afin qu'il supporte des pannes corrélées ou qu'il offre une bonne qualité de service, ou s'il autorise des connections {\em multicast}; le dimensionnement de la taille des buffers d'un réseau d'accés radio; et l'optimisation de l'utilisation des ressources d'un réseau dynamique orienté connections. Dans tous ces cas la problématique du routage de connections est centrale. Mon approche consiste à utiliser la complémentarité de techniques algorithmique et d'optimisation combinatoire ainsi que d'outils issus de la théorie des graphes tels la pathwidth et des notions reliées -process number, jeux de captures et treewidth-, différents types de coloration -impropre et pondérée, proportionnelle, directed star colouring-, les graphes d'expansion et des techniques de partitions telle la quasi partition.
APA, Harvard, Vancouver, ISO, and other styles
36

Laurent, Johann. "Estimation de la consommation dans la conception système des applications embarquées temps réel." Lorient, 2002. https://tel.archives-ouvertes.fr/tel-00077293.

Full text
Abstract:
Cette thèse a donc pour objet de développer un modèle d'estimation permettant la modélisation de différents types de processeurs (processeurs généraux ou spécialisés). Ce type de cibles architecturales est encore très utilisé puisqu'elles permettent de conserver une flexibilité d'utilisation du fait de l'exécution d'un code logiciel. Le deuxième objectif de ces travaux est de développer un outil automatique permettant une estimation rapide et précise de la consommation de puissance et d'énergie quelle que soit la complexité du code utilisé sur la cible. Notre méthode ne nécessite qu'un nombre limité d'informations concernant la cible puisqu'un schéma bloc de l'architecture est suffisant pour pouvoir appliquer la FLPA. La méthode d'estimation, que nous avons développée, peut être appliquée soit au niveau assembleur soit au niveau C. Les résultats obtenus sur différentes applications de TNS montrent que notre erreur maximale d'estimation est de 8% au niveau C et de 4% au niveau assembleur.
APA, Harvard, Vancouver, ISO, and other styles
37

Socoliuc, Michel. "Introduction et analyse des schémas de cotation en avance de phase." Phd thesis, Ecole Centrale Paris, 2010. http://tel.archives-ouvertes.fr/tel-00534810.

Full text
Abstract:
Il y a peu, j'ai pu lire « qu'on pouvait considérer que les ponts romains de l'Antiquité, pouvaient être considérés comme inefficaces, au regard des standards actuels : ils utilisaient trop de pierre et énormément de travail était nécessaire à leur construction. Au fil des années, pour répondre à une problématique équivalente, nous avons appris à utiliser moins de matériaux et à réduire la charge de travail ». Ces problématiques nous les retrouvons aussi en conception mécanique où l'on essaye en continu de proposer des systèmes de plus en plus performants mais devant être conçus en moins de temps, étant moins cher à produire et fournissant des prestations au moins équivalentes à ce qui a déjà été conçu.Au cours d'un processus de conception classique, les concepteurs définissent une géométrie ne présentant aucun défaut puis, étant donné que les moyens de production ne permettent pas d'obtenir de telles pièces finales, ils spécifient les schémas de cotation définissant les écarts acceptables garantissant le bon fonctionnement du système. Seulement, cela est fait après avoir produit les dessins détaillés, c'est à dire trop tard. Pour répondre à cette problématique, je présenterai l'intégration, très tôt dans le cycle de vie de conception, d'un processus de validation optimisé, basé sur une maquette numérique directement en lien avec sa représentation fonctionnelle (maquette fonctionnelle), et permettant de valider des schémas de cotation 3D standardisés.Je décrirai d'abord ce que l'on entend par « maquette fonctionnelle » et surtout ce que cette nouvelle définition apporte en plus de la définition numérique. Une fois ce point abordé, je détaillerai les liens qui permettent d'avoir une unicité de l'information au sein de l'environnement de travail, tout comme les processus qui permettent de lier les représentations fonctionnelles et numériques.Ensuite, je détaillerai les processus basés sur ces concepts, et qui ont pour but de valider les choix qui sont effectués en avance de phase au niveau des schémas de cotation. Pour ce faire, je commencerai par présenter l'analyse au pire des cas (utilisant les modèles de domaines écarts notamment), permettant de garantir le bon fonctionnement de l'ensemble mécanique, dans le cas ou touts les écarts se retrouvent à l'intérieur des zones respectives (définies par les tolérances).Enfin, je finirai par introduire ce qu'une couche statistique, couplée à l'analyse au pire des cas utilisant les enveloppes convexes, peut amener dans le contexte industriel et notamment sous la contrainte temporelle.
APA, Harvard, Vancouver, ISO, and other styles
38

Hebbal, Ali. "Deep gaussian processes for the analysis and optimization of complex systems : application to aerospace system design." Thesis, Lille, 2021. http://www.theses.fr/2021LILUI016.

Full text
Abstract:
En ingénierie, la conception de systèmes complexes, tels que les lanceurs aérospatiaux, implique l'analyse et l'optimisation de problèmes présentant diverses problématiques. En effet, le concepteur doit prendre en compte différents aspects dans la conception de systèmes complexes, tels que la présence de fonctions coûteuses en temps de calcul et en boîte noire , la non-stationnarité des performances optimisées, les multiples objectifs et contraintes impliqués, le traitement de multiples sources d’information dans le cadre de la multi-fidélité, et les incertitudes épistémiques et aléatoires affectant les modèles physiques. Un large éventail de méthodes d'apprentissage automatique est utilisé pour relever ces différents défis. Dans le cadre de ces approches, les processus Gaussiens, bénéficiant de leur formulation Bayésienne et non paramétrique, sont populaires dans la littérature et divers algorithmes d'état de l'art pour la conception de systèmes complexes sont basés sur ces modèles.Les processus Gaussiens, bien qu'ils soient largement utilisés pour l'analyse et l'optimisation de systèmes complexes, présentent encore certaines limites. Pour l'optimisation de fonctions coûteuses en temps de calcul et en boite noire, les processus Gaussiens sont utilisés dans le cadre de l'optimisation Bayésienne comme modèles de régression. Cependant, pour l'optimisation de problèmes non stationnaires, les processus Gaussiens ne sont pas adaptés en raison de l'utilisation d'une fonction de covariance stationnaire. En outre, dans l'optimisation Bayésienne multi-objectif, un processus Gaussien est utilisé pour chaque objectif indépendamment des autres objectifs, ce qui empêche de prendre en considération une corrélation potentielle entre les objectifs. Une autre limitation existe dans l'analyse multi-fidélité où des modèles basés sur les processus Gaussiens sont utilisés pour améliorer les modèles haute fidélité en utilisant l'information basse fidélité, cependant, ces modèles supposent généralement que les différents espaces d'entrée de fidélité sont définis de manière identique, ce qui n'est pas le cas dans certains problèmes de conception.Dans cette thèse, des approches sont développées pour dépasser les limites des processus Gaussiens dans l'analyse et l'optimisation de systèmes complexes. Ces approches sont basées sur les processus Gaussiens profonds, la généralisation hiérarchique des processus Gaussiens.Pour gérer la non-stationnarité dans l'optimisation bayésienne, un algorithme est développé qui couple l'optimisation bayésienne avec les processus Gaussiens profonds. Les couches internes permettent une projection Bayésienne non paramétrique de l'espace d'entrée pour mieux représenter les fonctions non stationnaires. Pour l'optimisation Bayésienne multiobjectif, un modèle de processus Gaussien profond multiobjectif est développé. Chaque couche de ce modèle correspond à un objectif et les différentes couches sont reliées par des arrêtes non orientés pour coder la corrélation potentielle entre objectifs. De plus, une approche de calcul de l'expected hyper-volume improvement est proposée pour prendre également en compte cette corrélation au niveau du critère d'ajout de point. Enfin, pour aborder l'analyse multi-fidélité pour différentes définitions d'espace d'entrée, un modèle de processus gaussien profond à deux niveaux est développé. Ce modèle permet une optimisation conjointe du modèle multi-fidélité et du mapping entre les espaces d'entrée des différentes fidélités.Les différentes approches développées sont évaluées sur des problèmes analytiques ainsi que sur des problèmes de conception de véhicules aérospatiaux et comparées aux approches de l'état de l'art
In engineering, the design of complex systems, such as aerospace launch vehicles, involves the analysis and optimization of problems presenting diverse challenges. Actually, the designer has to take into account different aspects in the design of complex systems, such as the presence of black-box computationally expensive functions, the complex behavior of the optimized performance (e.g., abrupt change of a physical property here referred as non-stationarity), the multiple objectives and constraints involved, the multi-source information handling in a multi-fidelity framework, and the epistemic and aleatory uncertainties affecting the physical models. A wide range of machine learning methods are used to address these various challenges. Among these approaches, Gaussian Processes (GPs), benefiting from their Bayesian and non-parametric formulation, are popular in the literature and diverse state-of-the-art algorithms for the design of complex systems are based on these models.Despite being widely used for the analysis and optimization of complex systems, GPs, still present some limitations. For the optimization of computationally expensive functions, GPs are used within the Bayesian optimization framework as regression models. However, for the optimization of non-stationary problems, they are not suitable due to the use of a prior stationary covariance function. Furthermore, in Bayesian optimization of multiple objectives, a GP is used for each involved objective independently, which prevents the exhibition of a potential correlation between the objectives. Another limitation occurs in multi-fidelity analysis where GP-based models are used to improve high-fidelity models using low-fidelity information. However, these models usually assume that the different fidelity input spaces are identically defined, which is not the case in some design problems.In this thesis, approaches are developed to overcome the limits of GPs in the analysis and optimization of complex systems. These approaches are based on Deep Gaussian Processes (DGPs), the hierarchical generalization of Gaussian processes.To handle non-stationarity in Bayesian optimization, a framework is developed that couples Bayesian optimization with DGPs. The inner layers allow a non-parametric Bayesian mapping of the input space to better represent non-stationary functions. For multi-objective Bayesian optimization, a multi-objective DGP model is developed. Each layer of this model corresponds to an objective and the different layers are connected with undirected edges to encode the potential correlation between objectives. Moreover, a computational approach for the expected hyper-volume improvement is proposed to take into account this correlation at the infill criterion level as well. Finally, to address multi-fidelity analysis for different input space definitions, a two-level DGP model is developed. This model allows a joint optimization of the multi-fidelity model and the input space mapping between fidelities.The different approaches developed are assessed on analytical problems as well as on representative aerospace vehicle design problems with respect to state-of-the-art approaches
APA, Harvard, Vancouver, ISO, and other styles
39

Binois, Mickaël. "Uncertainty quantification on pareto fronts and high-dimensional strategies in bayesian optimization, with applications in multi-objective automotive design." Thesis, Saint-Etienne, EMSE, 2015. http://www.theses.fr/2015EMSE0805/document.

Full text
Abstract:
Cette thèse traite de l’optimisation multiobjectif de fonctions coûteuses, aboutissant à laconstruction d’un front de Pareto représentant l’ensemble des compromis optimaux. En conception automobile, le budget d’évaluations est fortement limité par les temps de simulation numérique des phénomènes physiques considérés. Dans ce contexte, il est courant d’avoir recours à des « métamodèles » (ou modèles de modèles) des simulateurs numériques, en se basant notamment sur des processus gaussiens. Ils permettent d’ajouter séquentiellement des observations en conciliant recherche locale et exploration. En complément des critères d’optimisation existants tels que des versions multiobjectifs du critère d’amélioration espérée, nous proposons d’estimer la position de l’ensemble du front de Pareto avec une quantification de l’incertitude associée, à partir de simulations conditionnelles de processus gaussiens. Une deuxième contribution reprend ce problème à partir de copules. Pour pouvoir traiter le cas d’un grand nombre de variables d’entrées, nous nous basons sur l’algorithme REMBO. Par un tirage aléatoire directionnel, défini par une matrice, il permet de trouver un optimum rapidement lorsque seules quelques variables sont réellement influentes (mais inconnues). Plusieurs améliorations sont proposées, elles comprennent un noyau de covariance dédié, une sélection du domaine de petite dimension et des directions aléatoires mais aussi l’extension au casmultiobjectif. Enfin, un cas d’application industriel en crash a permis d’obtenir des gainssignificatifs en performance et en nombre de calculs requis, ainsi que de tester le package R GPareto développé dans le cadre de cette thèse
This dissertation deals with optimizing expensive or time-consuming black-box functionsto obtain the set of all optimal compromise solutions, i.e. the Pareto front. In automotivedesign, the evaluation budget is severely limited by numerical simulation times of the considered physical phenomena. In this context, it is common to resort to “metamodels” (models of models) of the numerical simulators, especially using Gaussian processes. They enable adding sequentially new observations while balancing local search and exploration. Complementing existing multi-objective Expected Improvement criteria, we propose to estimate the position of the whole Pareto front along with a quantification of the associated uncertainty, from conditional simulations of Gaussian processes. A second contribution addresses this problem from a different angle, using copulas to model the multi-variate cumulative distribution function. To cope with a possibly high number of variables, we adopt the REMBO algorithm. From a randomly selected direction, defined by a matrix, it allows a fast optimization when only a few number of variables are actually influential, but unknown. Several improvements are proposed, such as a dedicated covariance kernel, a selection procedure for the low dimensional domain and of the random directions, as well as an extension to the multi-objective setup. Finally, an industrial application in car crash-worthiness demonstrates significant benefits in terms of performance and number of simulations required. It has also been used to test the R package GPareto developed during this thesis
APA, Harvard, Vancouver, ISO, and other styles
40

Rivier, Michel. "Analyse et optimisation multicritères d’un procédé de transfert thermique et de séchage pour une application en Afrique de l’Ouest." Thesis, Montpellier, SupAgro, 2017. http://www.theses.fr/2017NSAM0003.

Full text
Abstract:
Le renforcement du secteur de la transformation agroalimentaire est reconnu comme un élément moteur de développement des pays d’Afrique subsaharienne, face à une importante croissance démographique accompagnée d’un fort taux d’urbanisation. Si les entreprises agroalimentaires créent localement de la valeur ajoutée et dynamisent la production agricole, elles éprouvent des difficultés pour se doter d’équipements efficients et assurer leur fourniture énergétique.Les méthodes de conception et d’optimisation des procédés agroalimentaires sont encore peu développées, du fait de la complexité de ces systèmes (composition et propriétés de l’aliment, variabilité et évolution de sa qualité, ...) dont la modélisation n’est pas aisée car elle requiert des connaissances pluridisciplinaires.Ce travail se propose de mettre en œuvre une méthode intégrée, déjà éprouvée dans d’autres domaines industriels, la méthode « Observation-Interprétation-Agrégation (O.I.A.) », et de l’appliquer à un procédé couplant une unité de conversion biomasse énergie à un séchoir de produits céréaliers. L’apport de bioénergie pour le séchage, opération très pratiquée en Afrique de l’Ouest mais énergivore constitue un enjeu pour les entreprises. La conception de ce procédé prend en compte des objectifs variés comme la qualité du produit séché, la fabrication locale et l’efficacité énergétique des équipements et ce, pour en garantir une meilleure durabilité.Dans une première partie, les modèles de transfert de chaleur et de perte de pression associés à un turbulateur elliptique innovant sont créés. Cet élément s’insère dans les tubes d’un échangeur de chaleur et améliore nettement le transfert thermique. Dans un deuxième temps, les variables de conception et d’observation du procédé sont définies et justifiées. Les modèles de représentation des différentes opérations unitaires sont développés et assemblés dans un simulateur afin de prédire les performances du procédé. Dans une dernière partie, le simulateur est intégré dans un environnement d’optimisation multicritère apte à formaliser, interpréter puis agréger les préférences des utilisateurs finaux. Ce processus s’appuie sur un algorithme génétique. La pertinence des solutions de conception du procédé performantes produites révèle tout l’intérêt et la performance de la méthode O.I.A. Le concepteur dispose ainsi d’éléments objectifs pour faire des choix et aller vers la réalisation d’installations de séchage durables en Afrique de l’Ouest
The reinforcement of the food processing sector is recognized as a driving factor for the development of sub-Saharan African countries, faced with considerable major demographic growth accompanied by a high rate of urbanization. While the agribusiness companies generate added value locally and boost agricultural production, they find difficulties in obtaining efficient equipment and securing their energy supply.Agribusiness process design and optimization methods are still underdeveloped, due to the complexity of these systems (food composition and properties, variable and changing quality, etc.), modelling of which is not easy since it requires multidisciplinary knowledge.This work proposes to implement an integrated method, already proven in other industrial fields, the “Observation-Interpretation-Aggregation” method (OIA), and apply it to a process coupling a biomass energy conversion unit to a cereal products dryer. The bioenergy supply for drying, a very common practice in West Africa despite being energy-intensive, represents a challenge for the companies. The design of this process takes into account the various objectives such as quality of the dried product, local manufacture and the energy efficiency of the equipment, in order to guarantee better sustainability.First of all, the models for heat transfer and pressure loss associated with an innovative elliptic turbulator are created. This component is inserted into the tubes of a heat exchanger, and significantly improves heat transfer. Secondly, the process design and observation variables are defined and justified. The representation models of the various unit operations are developed and brought together in a simulator, in order to predict the process performances. Finally, the simulator is integrated into a multicriteria optimization environment able to formalize, interpret and then aggregate end user preferences. This procedure is based on a genetic algorithm. The relevance of the high-performance design solutions produced reveals the full benefit and performance of the OIA method. In this way, the designer obtains objective information on which to base their choices, and develop sustainable drying facilities for West Africa
APA, Harvard, Vancouver, ISO, and other styles
41

Drouin, Christophe. "Contribution à une conception appropriée de robots médicaux : vers une démarche mécatronique." Phd thesis, Université d'Orléans, 2013. http://tel.archives-ouvertes.fr/tel-00977814.

Full text
Abstract:
Dans cette thèse, nous apportons la contribution à la conception de robots médicaux, en proposant une démarche de conception simultanée de la structure mécanique du robot. Par opposition à une vision séquentielle naturelle de la conception, la formalisation du processus créatif permet une simultanéité, ouvrant la voie à des structures innovantes dédiées : en robotique médicale, faible masse et faible compacité de la structure mécanique sont souvent recherchées. A partir d'un descriptif de démarches existantes, nous effectuons la conception d'un robot de télé-échographie et d'un robot de chirurgie mini-invasive. Pour les deux applications, de fortes contraintes sont présentes. En télé-échographie, la portabilité est très recherchée, requérant une faible compacité. Pour la chirurgie mini-invasive, les moto-réducteurs du robot in vivo doivent être dimensionnés au plus juste. Ici, nous avons formalisé l'amélioration de la compacité d'une structure parallèle pour la télé-échographie. Les résultats montrent une amélioration de la compacité de l'ordre de 5%. Dans le même esprit, nous avons formalisé la synthèse dimensionnelle de deux robots 2R-R-R de chirurgie mini-invasive in vivo. Nous réalisons l'optimisation simultanée entre le dimensionnement des moto-réducteurs et des longueurs des corps pour tendre vers une simultanéité totale du processus créatif, ce qui nous permet d'améliorer les performances en termes de force et vitesse à l'effecteur. Ces expériences de conception montrent les limites à une simultanéité stricte. Nous indiquons le besoin d'adapter outils et méthodes de conception mécatronique pour une simultanéité en conception robotique tenant compte de l'aspect imparfait du processus créatif.
APA, Harvard, Vancouver, ISO, and other styles
42

Bousbia-Salah, Ryad. "Optimisation dynamique en temps-réel d’un procédé de polymérisation par greffage." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0242/document.

Full text
Abstract:
D'une manière schématique, l'optimisation dynamique de procédés consiste en trois étapes de base : (i) la modélisation, dans laquelle un modèle (phénoménologique) du procédé est construit, (ii) la formulation du problème, dans laquelle le critère de performance, les contraintes et les variables de décision sont définis, (iii) et la résolution, dans laquelle les profils optimaux des variables de décision sont déterminés. Il est important de souligner que ces profils optimaux garantissent l'optimalité pour le modèle mathématique utilisé. Lorsqu'ils sont appliqués au procédé, ces profils ne sont optimaux que lorsque le modèle décrit parfaitement le comportement du procédé, ce qui est très rarement le cas dans la pratique. En effet, les incertitudes sur les paramètres du modèle, les perturbations du procédé, et les erreurs structurelles du modèle font que les profils optimaux des variables de décision basés sur le modèle ne seront probablement pas optimaux pour le procédé. L'application de ces profils au procédé conduit généralement à la violation de certaines contraintes et/ou à des performances sous-optimales. Pour faire face à ces problèmes, l'optimisation dynamique en temps-réel constitue une approche tout à fait intéressante. L'idée générale de cette approche est d'utiliser les mesures expérimentales associées au modèle du procédé pour améliorer les profils des variables de décision de sorte que les conditions d'optimalité soient vérifiées sur le procédé (maximisation des performances et satisfaction des contraintes). En effet, pour un problème d'optimisation sous contraintes, les conditions d'optimalité possèdent deux parties : la faisabilité et la sensibilité. Ces deux parties nécessitent différents types de mesures expérimentales, à savoir les valeurs du critère et des contraintes, et les gradients du critère et des contraintes par rapport aux variables de décision. L'objectif de cette thèse est de développer une stratégie conceptuelle d'utilisation de ces mesures expérimentales en ligne de sorte que le procédé vérifie non seulement les conditions nécessaires, mais également les conditions suffisantes d'optimalité. Ce développement conceptuel va notamment s'appuyer sur les récents progrès en optimisation déterministe (les méthodes stochastiques ne seront pas abordées dans ce travail) de procédés basés principalement sur l'estimation des variables d'état non mesurées à l'aide d'un observateur à horizon glissant. Une méthodologie d'optimisation dynamique en temps réel (D-RTO) a été développée et appliquée à un réacteur batch dans lequel une réaction de polymérisation par greffage a lieu. L'objectif est de déterminer le profil temporel de température du réacteur qui minimise le temps opératoire tout en respectant des contraintes terminales sur le taux de conversion et l'efficacité de greffage
In a schematic way, process optimization consists of three basic steps: (i) modeling, in which a (phenomenological) model of the process is developed, (ii) problem formulation, in which the criterion of Performance, constraints and decision variables are defined, (iii) the resolution of the optimal problem, in which the optimal profiles of the decision variables are determined. It is important to emphasize that these optimal profiles guarantee the optimality for the model used. When applied to the process, these profiles are optimal only when the model perfectly describes the behavior of the process, which is very rarely the case in practice. Indeed, uncertainties about model parameters, process disturbances, and structural model errors mean that the optimal profiles of the model-based decision variables will probably not be optimal for the process. The objective of this thesis is to develop a conceptual strategy for using experimental measurements online so that the process not only satisfies the necessary conditions, but also the optimal conditions. This conceptual development will in particular be based on recent advances in deterministic optimization (the stochastic methods will not be dealt with in this work) of processes based on the estimation of the state variables that are not measured by a moving horizon observer. A dynamic real-time optimization (D-RTO) methodology has been developed and applied to a batch reactor where polymer grafting reactions take place. The objective is to determine the on-line reactor temperature profile that minimizes the batch time while meeting terminal constraints on the overall conversion rate and grafting efficiency
APA, Harvard, Vancouver, ISO, and other styles
43

Ma, Qiuming. "Etude de faisabilité d'un module plan intégrant distillation membranaire et collecteur solaire pour le dessalement autonome et décentralisé d'eau de mer : conception, modélisation et optimisation pour une application aux petites communautés isolées." Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0006.

Full text
Abstract:
Les petites unités de dessalement au point d’usage sont une alternative pour l’accès à l'eau potable des communautés isolées de zones côtières ou insulaires. Dans cette thèse, la distillation membranaire (MD) est le procédé de choix pour l’application visée. De plus, les lieux d’implantation ciblés souffrent souvent d’un manque d’accès à l’énergie, mais la plupart d’entre eux sont exposés à des niveaux élevés de radiation solaire. Afin de réduire les pertes de chaleur du système et d'intensifier le procédé, un module intégrant des membranes planes de MD sous vide (VMD) et un collecteur solaire à plaque plane (FPC) apparaît comme une technologie possible. Cette étude a pour objectifs d’étudier la faisabilité de ce concept et de déterminer les paramètres de l’équipement et les conditions opératoires les plus favorables pour l’application visée en cherchant à réduire la consommation d’électricité (par des panneaux photovoltaïques PV) et améliorer simultanément l’efficacité énergétique et la production d’eau dans l’ensemble du module VMD-FPC. Les analyses de sensibilité et les optimisations multi-objectifs sont effectuées à partir de séries de simulations. La productivité quotidienne peut atteindre 96 L pour une surface de module de 3 m2. Un coût énergétique quasi-constant d’une puissance PV de 4,2 à 5,0 W L-1 est observé, permettant d’ajuster la capacité du système. Pour une puissance PV limitée à 130 W (installation mobile), plus de 30 L de distillat peuvent être obtenus avec une surface de 0,83 m2 par une belle journée d'été à Toulouse, en tenant compte des paramètres de fonctionnement optimisés et des matériaux réels
Small-scale desalination at the point of use offers a potential access to drinking water to communities living in remote coastal areas or isolated islands. In this dissertation, Membrane Distillation (MD) is the applied technology for the aforementioned application scenario. Moreover, the target places are also often in the lack of stable and centralized heat and power supply, while most of them benefit from high solar radiations. In order to further reduce the system heat loss and to intensify the process, the integration in the same module of flat-sheet distillation membranes for Vacuum MD (VMD) and direct solar heating by flat-plate collector (FPC) appears as a possible option. This study aims to explore the feasibility of this concept and to determine the more favorable design and operating conditions for the target application. The main task in this regard is to reduce electricity consumption (provided by photovoltaic PV panels) and simultaneously improve the energy efficiency and water production throughout the VMD-FPC module. The sensitivity analyses and multi-objective optimizations are conducted based on series of simulations. Results show that the potential daily productivity of the system can reach up to 96 L for a module surface area of 3 m2. A quasi-constant power cost of PV of 4.2 - 5.0 W L-1 is observed, permitting a flexible adjustment of the system capacity. Under a limitation of an average PV power of 130 W, more than 30 L of distillate can be obtained with a surface area of 0.83 m2 on a sunny summer-day in Toulouse, taking the optimized operating parameters and real-world material properties into account
APA, Harvard, Vancouver, ISO, and other styles
44

Halouani, Ali. "Modélisation et optimisation des préformes du procédé de forgeage par Approche Pseudo Inverse." Thesis, Reims, 2013. http://www.theses.fr/2013REIMS051.

Full text
Abstract:
Une nouvelle approche appelée “Approche Pseudo Inverse” (API) est développée pour la modélisation du procédé de forgeage à froid des pièces axisymétriques. L'API est basée sur la connaissance de la forme de la pièce finale. Certaines configurations intermédiaires « réalistes » ont été introduites dans l'API pour considérer le chemin de déformations. Elles sont créées géométriquement sans traitement de contact et ensuite corrigées par la méthode de surface libre afin de respecter l'équilibre, les conditions aux limites et la condition d'incompressibilité. Un nouvel algorithme direct de plasticité est développé, conduisant à une méthode d'intégration plastique très rapide, précise et robuste même dans le cas de très grands incréments de déformations. Un modèle d'endommagement en déformation, est couplé à la plasticité et implémenté dans l'API. Les validations numériques montrent que l'API donne des résultats très proches des résultats de l'approche incrémentale mais en utilisant beaucoup moins de temps de calcul.L'API est adoptée comme solveur du forgeage pour la conception et l'optimisation des préformes du forgeage multi-passes. La rapidité et la robustesse de l'API rendent la procédure d'optimisation très performante. Une nouvelle technique est développée pour générer automatiquement le contour initial d'un outil de préforme pour la procédure d'optimisation. Les variables de conception sont les positions verticales des points de contrôle des courbes B-spline définissant les formes des outils de préforme. Notre optimisation multi-objectif consiste à minimiser la variation de la déformation plastique équivalente dans la pièce finale et la force du poinçon au cours du forgeage. Un algorithme génétique et un algorithme de recuit simulé sont utilisés pour trouver les points d'optimum de Pareto. Pour réduire le nombre de simulations de forgeage, un méta-modèle de substitution basé sur la méthode de krigeage est adopté pour établir une surface de réponse approximative. Les résultats obtenus par l'API en utilisant les outils de préforme optimaux issues de l'optimisation sont comparés à ceux obtenus par les approches incrémentales classiques pour montrer l'efficacité et les limites de l'API. La procédure d'optimisation combinée avec l'API peut être un outil numérique rapide et performant pour la conception et l'optimisation des outillages de préforme
A new method called “Pseudo Inverse Approach” (PIA) is developed for the axi-symmetrical cold forging modelling. The PIA is based on the knowledge of the final part shape. Some « realistic » intermediate configurations are introduced in the PIA to consider the deformation path. They are created geometrically without contact treatment, and then corrected by using a free surface method in order to satisfy the equilibrium, the boundary conditions and the metal incompressibility. A new direct algorithm of plasticity is proposed, leading to a very fast, accurate and robust plastic integration method even in the case of very large strain increments. An isotropic damage model in deformation is coupled with the plasticity and implemented in the PIA. Numerical tests have shown that the Pseudo Inverse Approach gives very close results to those obtained by the incremental approach, but using much less calculation time.The PIA is adopted as forging solver for the design and optimization of preform tools in the multi-stage forging process. The rapidity and robustness of the PIA make the optimization procedure very powerful. A new method is developed to automatically generate the initial preform tool shape for the optimization procedure. The design variables are the vertical positions of the control points of B-spline curves describing the preform tool shape. Our multi-objective optimization is to minimize the equivalent plastic strain in the final part and the punch force during the forging process. The Genetic algorithm and Simulated Annealing algorithm are used to find optimal Pareto points. To reduce the number of forging simulations, a surrogate meta-model based on the kriging method is adopted to build an approximate response surface. The results obtained by the PIA using the optimal preform tools issued from the optimization procedure are compared to those obtained by using the classical incremental approaches to show the effectiveness and limitations of the PIA. The optimization procedure combined with the PIA can be a rapid and powerful tool for the design and optimization of the preform tools
APA, Harvard, Vancouver, ISO, and other styles
45

Guschinskaya, Olga. "Outils d'aide à la décision pour la conception en avant-projet des systèmes d'usinage à boîtiers multibroches." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2007. http://tel.archives-ouvertes.fr/tel-00783240.

Full text
Abstract:
Les travaux de recherche effectués dans le cadre de cette thèse concernent essentiellement la conception en avant-projet de systèmes d'usinage dédiés à la production en grande série. Lors de cette phase de conception, l'objectif principal est de trouver, pour une pièce donnée, une configuration du système d'usinage qui satisfaisait, à coût minimal, les contraintes technologiques, techniques et économiques existantes. Plusieurs problèmes combinatoires posés par cet objectif sont étudiés dans la thèse. Plus concrètement, nous nous sommes intéressés aux problèmes d'optimisation de la configuration des trois types de systèmes d'usinage suivants : machines de transfert, machines à table mobile et machines à table circulaire pivotante. Pour chacun de ces systèmes, nous avons proposé, dans un premier temps, différents modèles mathématiques. Dans un deuxième temps, nous avons développé de nombreux outils d'optimisation dédiés à leur résolution, tels que des algorithmes de calcul des bornes inférieures, des procédures de pré-traitement, des algorithmes de résolution exacte et approchée, et des approches mixtes utilisant plusieurs de ces algorithmes. Ces travaux ont permis de concevoir un prototype de logiciel destiné à supporter les différentes étapes de conception en avant projet d'un système d'usinage. Ce logiciel a été testé avec succès sur plusieurs cas industriels.
APA, Harvard, Vancouver, ISO, and other styles
46

Haddou, Benderbal Hichem. "Développement d’une nouvelle famille d’indicateurs de performance pour la conception d’un système manufacturier reconfigurable (RMS) : approches évolutionnaires multicritères." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0112/document.

Full text
Abstract:
L'environnement manufacturier moderne est face à un bouleversement de paradigmes nécessitant plus de changeabilité au niveau physique et logique. Un système manufacturier Changeable est défini comme un système de production ayant les capacités de faciliter les changements adéquats, permettant d'ajuster ses structures et ses processus en réponse aux différents besoins. Dans ce contexte, les systèmes manufacturiers doivent se doter d’un très haut niveau de reconfigurabilité, qui est considérée comme l’un des facteurs majeurs du concept de changeabilité. En effet, dans la vision de l'Usine du Futur, la reconfigurabilité est essentielle pour s'adapter efficacement à la complexité croissante des environnements manufacturiers. Elle assure une adaptation rapide, efficace et facile de ces systèmes tout en étant réactif, robuste et économiquement compétitif. L’objectif est de répondre aux nouvelles contraintes internes et externes telles que la globalisation, la variété des produits, la personnalisation de masse ou le raccourcissement des délais. À travers cette thèse, nous étudions la problématique de conception des systèmes manufacturiers reconfigurables (Reconfigurable Manufacturing System – RMS). L’objectif consiste à concevoir des systèmes réactifs en se basant sur leurs capacités en matière de reconfigurabilité. Nous avons étudié ce problème sur trois niveaux : (i) le niveau des composantes, relatif aux modules des machines reconfigurables, (ii) le niveau des machines et leurs interactions, ainsi que l’impact de ces interactions sur le système et (iii) le niveau de l'atelier, composé de l'ensemble des machines reconfigurables. Nous avons développé pour chaque niveau, des indicateurs de performance afin d’assurer les meilleures performances du système conçu, tels que l’indicateur de modularité, l’indicateur de flexibilité, l’indicateur de robustesse et l’effort d'évolution d'un système reconfigurable. Pour l'ensemble des problèmes étudiés, nous avons développé des modèles d’optimisation multicritère, résolus à travers des heuristiques ou des métaheuristiques multicritères (comme le recuit simulé multicritère (AMOSA) et les algorithmes génétiques multicritère (NSGA-II)). De nombreuses expériences numériques et analyses ont été réalisées afin de démontrer l’applicabilité de nos approches
The modern manufacturing environment is facing a paradigm shift that require more changeability at physical and logical levels. A Changeable Manufacturing System is defined as a production system that has the ability to facilitate the right changes, allowing the adjustment of its structures and processes in response to the different needs. In this context, manufacturing systems must have a very high level of reconfigurability, which is considered to be one of the major enablers of changeability. From the perspective of the “Factory of the future”, the reconfigurability is essential to effectively adapt to the ever-increasing complexity of manufacturing environments. It allows a rapid, efficient and easy adaptation of these systems while being responsive, robust and economically competitive. The objective is to respond to new internal and external constraints in terms of globalization, variety of products, mass customization, and shorter lead times. Through this thesis, we study the problem of design of reconfigurable manufacturing systems (RMS) that meets these requirements. The goal is to design responsive systems based on their key features of reconfigurability. We have studied the RMS design problem on three levels: (i) the level of the components, relating to the modules of the reconfigurable machines, (ii) the machine level and their interactions, as well as the impact of these interactions on the system and (iii) the workshop level composed of all the reconfigurable machines. We have developed for each level, performance indicators to ensure a better responsiveness and a high performance of the designed system, like the modularity index, the flexibility index, the robustness index and the layout evolution effort of a reconfigurable system. For each of the studied problems, we developed multicriteria optimization models, solved through heuristics or multicriteria metaheuristics (such as archived multi-objective simulated annealing (AMOSA) and multi-objective genetic algorithms (NSGA-II)). Numerous numerical experiments and analyzes have been performed to demonstrate the applicability of our approaches
APA, Harvard, Vancouver, ISO, and other styles
47

Ploé, Patrick. "Surrogate-based optimization of hydrofoil shapes using RANS simulations." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0012/document.

Full text
Abstract:
Cette thèse présente un framework d’optimisation pour la conception hydrodynamique de forme d’hydrofoils. L’optimisation d’hydrofoil par simulation implique des objectifs d’optimisation divergents et impose des compromis contraignants en raison du coût des simulations numériques et des budgets limités généralement alloués à la conception des navires. Le framework fait appel à l’échantillonnage séquentiel et aux modèles de substitution. Un modèle prédictif est construit en utilisant la Régression par Processus Gaussien (RPG) à partir des données issues de simulations fluides effectuées sur différentes géométries d’hydrofoils. Le modèle est ensuite combiné à d’autres critères dans une fonction d’acquisition qui est évaluée sur l’espace de conception afin de définir une nouvelle géométrie qui est testée et dont les paramètres et la réponse sont ajoutés au jeu de données, améliorant ainsi le modèle. Une nouvelle fonction d’acquisition a été développée, basée sur la variance RPG et la validation croisée des données. Un modeleur géométrique a également été développé afin de créer automatiquement les géométries d’hydrofoil a partir des paramètres déterminés par l’optimiseur. Pour compléter la boucle d’optimisation,FINE/Marine, un solveur fluide RANS, a été intégré dans le framework pour exécuter les simulations fluides. Les capacités d’optimisation ont été testées sur des cas tests analytiques montrant que la nouvelle fonction d’acquisition offre plus de robustesse que d’autres fonctions d’acquisition existantes. L’ensemble du framework a ensuite été testé sur des optimisations de sections 2Dd’hydrofoil ainsi que d’hydrofoil 3D avec surface libre. Dans les deux cas, le processus d’optimisation fonctionne, permettant d’optimiser les géométries d’hydrofoils et confirmant les performances obtenues sur les cas test analytiques. Les optima semblent cependant être assez sensibles aux conditions opérationnelles
This thesis presents a practical hydrodynamic optimization framework for hydrofoil shape design. Automated simulation based optimization of hydrofoil is a challenging process. It may involve conflicting optimization objectives, but also impose a trade-off between the cost of numerical simulations and the limited budgets available for ship design. The optimization frameworkis based on sequential sampling and surrogate modeling. Gaussian Process Regression (GPR) is used to build a predictive model based on data issued from fluid simulations of selected hydrofoil geometries. The GPR model is then combined with other criteria into an acquisition function that isevaluated over the design space, to define new querypoints that are added to the data set in order to improve the model. A custom acquisition function is developed, based on GPR variance and cross validation of the data.A hydrofoil geometric modeler is also developed to automatically create the hydrofoil shapes based on the parameters determined by the optimizer. To complete the optimization loop, FINE/Marine, a RANS flow solver, is embedded into the framework to perform the fluid simulations. Optimization capabilities are tested on analytical test cases. The results show that the custom function is more robust than other existing acquisition functions when tested on difficult functions. The entire optimization framework is then tested on 2D hydrofoil sections and 3D hydrofoil optimization cases with free surface. In both cases, the optimization process performs well, resulting in optimized hydrofoil shapes and confirming the results obtained from the analytical test cases. However, the optimum is shown to be sensitive to operating conditions
APA, Harvard, Vancouver, ISO, and other styles
48

Djilani, Zouhir. "Donner une autre vie à vos besoins fonctionnels : une approche dirigée par l'entreposage et l'analyse en ligne." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0012/document.

Full text
Abstract:
Les besoins fonctionnels et non fonctionnels représentent la première brique pour la conception de toute application, logiciel, système, etc. L'ensemble des traitements associés aux besoins est établi dans le cadre de l'ingénierie des Besoins (IB). Le processus de l'IB comporte plusieurs étapes consistant à découvrir, analyser, valider et faire évoluer l'ensemble des besoins relatifs aux fonctionnalités du système. La maturité de la communauté de l'IB lui a permis d'établir un cycle de vie bien déterminé pour le processus de besoins qui comprend les phases suivantes :l'élicitation, la modélisation, la spécification, la validation et la gestion des besoins. Une fois ces besoins validés, ils sont archivés ou stockés dans des référentiels ou des dépôts au sein des entreprises. Avec l'archivage continu des besoins, ces entreprises disposent d'une mine d'informations qu'il faudra analyser afin de reproduire les expériences cumulées et le savoir-faire acquis en réutilisant et en exploitant ces besoins pour des nouveaux projets. Proposer à ces entreprises un entrepôt dans lequel l'ensemble de besoins est stocké représente une excellente opportunité pour les analyser à des fins décisionnelles et les fouiller pour reproduire des anciennes expériences. Récemment, la communauté des processus (BPM) a émis le même besoin pour les processus. Dans cette thèse, nous souhaitons exploiter le succès des entrepôts de données pour le reproduire sur les besoins fonctionnels. Les problèmes rencontrés lors de la conception des entrepôts de données se retrouvent presque à l'identique dans le cas des besoins fonctionnels.Ces derniers sont souvent hétérogènes, surtout dans le cas d'entreprises de grande taille comme Airbus, où chaque partenaire a la liberté d'utiliser ses propres vocabulaire et formalisme pour décrire ses besoins. Pour réduire cette hétérogénéité, l'appel aux ontologies est nécessaire. Afin d'assurer l'autonomie de chaque source, nous supposons que chaque source a sa propre ontologie.Cela nécessite des efforts de matching entre les ontologies afin d'assurer l' intégration des besoins fonctionnels. Une particularité importante liée à l'entreposage de besoins réside dans le fait que ces derniers sont souvent exprimés à l'aide des formalismes semi-formels comme les use cases d'UML avec une partie textuelle importante. Afin de nous rapprocher le plus possible de ce que nous avons fait dans le cadre de l'entreposage de données, nous proposons un modèle pivot permettant de factoriser trois semi-formalismes répandus utilisés par les sources de besoins avec une description précise de ces derniers. Ce modèle pivot permettra de définir le modèle multidimensionnel del' entrepôt de besoins, qui sera ensuite alimenté par les besoins des sources en utilisant un algorithme ETL (Extract, Transform, Load). À l'aide des mécanismes de raisonnement offerts par les ontologies et des métriques de matching, nous avons nettoyé notre entrepôt de besoins. Une fois l'entrepôt déployé, il est exploité par des outils d'analyse OLAP.Notre méthodologie est supportée par un outil couvrant l'ensemble des phases de conception et d'exploitation d'un entrepôt de besoins
Functiona] and non-functional requirements represent the first step for the design of any application, software, system, etc. Ail the issues associated to requirements are analyzed in the Requirements Engineering (RE) field. The RE process consists of several steps consisting of discovering, analyzing, validating and evolving the requirements related to the functionalities of the system. The RE community proposed a well-defined life-cycle for the requirements process that includes the following phases: elicitation, modeling, specification, validation and management. Once the requirements are validated, they are archived or stored in repositories in companies. With the continuous storage of requirements, companies accumulate an important amount of requirements information that needs to be analyzed in order to reproduce the previous experiences and the know-how acquired by reusing and exploiting these requirements for new projects. Proposing to these companies a warehouse in which all requirements are stored represents an excellent opportunity to analyze them for decision-making purposes. Recently, the Business Process Management Community (BPM) emitted the same needs for processes. In this thesis, we want to exploit the success of data warehouses and to replicate it for functional requirements. The issues encountered in the design of data warehouses are almost identical in the case of functional requirements. Requirements are often heterogeneous, especially in the case of large companies such Airbus, where each panner bas the freedom to use its own vocabulary and formalism to describe the requirements. To reduce this heterogeneity, using ontologies is necessary. In order to ensure the autonomy of each partner, we assume that each source bas its own ontology. This requires matching efforts between ontologies to ensure the integration of functional requirements. An important feature related to the storage of requirements is that they are often expressed using semi-forma! formalisms such as use cases of UML with an important textual part. In order to get as close as possible to our contributions in data warehousing,we proposed a pivot model factorizing three well-known semi-formalisms. This pivot model is used to define the multidimensional model of the requirements warehouse, which is then alimented by the sources requirements using an ETL algorithm (Extract,Transform, Load).Using reasoning mechanisms otfered by ontologies and matching metrics, we cleaned up our requirements warehouse. Once the warehouse is deployed, it is exploited using OLAP analysis tools. Our methodology is supported by a tool covering all design phases of the requirements warehouse
APA, Harvard, Vancouver, ISO, and other styles
49

Morales, Mendoza Luis Fernando. "Écoconception de procédés : approche systémique couplant modélisation globale, analyse du cycle de vie et optimisation multiobjectif." Thesis, Toulouse, INPT, 2013. http://www.theses.fr/2013INPT0106/document.

Full text
Abstract:
L’objectif de ce travail est de développer un cadre méthodologique et générique d’éco-conception de procédés chimiques couplant des outils de modélisation et de simulation traditionnels de procédés (HYSYS, COCO, ProSimPlus et Ariane), d’Analyse du Cycle de Vie (ACV), d’optimisation multiobjectif basée sur des Algorithmes Génétiques et enfin des outils d’aide à la décision multicritère (ELECTRE, PROMETHEE, M-TOPSIS). Il s’agit de généraliser, d’automatiser et d’optimiser l’évaluation des impacts environnementaux au stade préliminaire de la conception d’un procédé chimique. L’approche comprend trois étapes principales. Les deux premières correspondent d’une part aux phases d’analyse de l’inventaire par calcul des bilans de matière et d’énergie et d’autre part à l’évaluation environnementale par ACV. Le problème du manque d’information ou de l’imprécision dans les bases de données classiques en ACV pour la production d’énergie notamment sous forme de vapeur largement utilisée dans les procédés a reçu une attention particulière. Une solution proposée consiste à utiliser un simulateur de procédés de production d’utilités (Ariane, ProSim SA) pour contribuer à alimenter la base de données environnementale en tenant compte de variations sur les conditions opératoires ou sur les technologies utilisées. Des sous-modules « énergie » sont ainsi proposés pour calculer les émissions relatives aux impacts liés à l’utilisation de l’énergie dans les procédés. La troisième étape réalise l’interaction entre les deux premières phases et l’optimisation multi-objectif qui met en jeu des critères économiques et environnementaux. Elle conduit à des solutions de compromis le long du front de Pareto à partir desquelles les meilleures sont choisies à l’aide de méthodes d’aide à la décision. L’approche est appliquée à des procédés de production continus : production de benzène par hydrodéalkylation du toluène HDA et production de biodiesel à partir d’huiles végétales. Une stratégie à plusieurs niveaux est mise en oeuvre pour l'analyse de l'optimisation multi-objectif. Elle est utilisée dans les deux cas d'étude afin d'analyser les comportements antagonistes des critères
The objective of this work is to propose an integrated and generic framework for eco-design coupling traditional modelling and flowsheeting simulation tools (HYSYS, COCO, ProSimPlus and Ariane), Life Cycle Assessment, multi-objective optimization based on Genetic Algorithms and multiple criteria decision-making methods MCDM (Multiple Choice Decision Making, such as ELECTRE, PROMETHEE, M-TOPSIS) that generalizes, automates and optimizes the evaluation of the environmental criteria at earlier design stage. The approach consists of three main stages. The first two steps correspond respectively to process inventory analysis based on mass and energy balances and impact assessment phases of LCA methodology. Specific attention is paid to the main issues that can be encountered with database and impact assessment i.e. incomplete or missing information, or approximate information that does not match exactly the real situation that may introduce a bias in the environmental impact estimation. A process simulation tool dedicated to production utilities, Ariane, ProSim SA is used to fill environmental database gap, by the design of specific energy sub modules, so that the life cycle energy related emissions for any given process can be computed. The third stage of the methodology is based on the interaction of the previous steps with process simulation for environmental impact assessment and cost estimation through a computational framework. The use of multi-objective optimization methods generally leads to a set of efficient solutions, the so-called Pareto front. The next step consists in identifying the best ones through MCDM methods. The approach is applied to two processes operating in continuous mode. The capabilities of the methodology are highlighted through these case studies (benzene production by HDA process and biodiesel production from vegetable oils). A multi-level assessment for multi-objective optimization is implemented for both cases, the explored pathways depending on the analysis and antagonist behaviour of the criteria
APA, Harvard, Vancouver, ISO, and other styles
50

Raffray, Guilhem. "Outils d'aide à la décision pour la conception de procédés agroalimentaires au Sud : application au procédé combiné de séchage, cuisson et fumage de produits carnés." Thesis, Montpellier, SupAgro, 2014. http://www.theses.fr/2014NSAM0066/document.

Full text
Abstract:
La conception de procédé agroalimentaire est une activité complexe, caractérisée par la grande diversité des produits et des procédés étudiés, ainsi que par la disparité des contextes de production (artisanale ou industrielle). La conception de systèmes de transformation alimentaire adaptés est animée par d'importants enjeux humains, sanitaires, économiques, environnementaux et même culturels. Dans le cas des Pays du Sud, l'explosion démographique et l'urbanisation croissante impliquent de développer un système de production industriel capable de valoriser des produits issus de savoir-faire traditionnels, tout en répondant à des contraintes de coût et de productivité.Pour prévenir toute perte de temps causée par des analyses de type « essai-erreur », et afin d'éviter des coûts de développement superflus, il existe des outils spécifiques à l'analyse décisionnelle multicritères (MCDA) pouvant être déployé dès les phases préliminaires de la conception. En particulier, il est possible d'analyser le potentiel et les limites technologiques d'un concept défini dans un contexte donné, par l'analyse de l'ensemble de solutions les plus performantes, dites Pareto-optimales. Ces solutions se distinguent par les valeurs de leurs variables de conception, qui sont autant de degrés de liberté pour le dimensionnement du concept (géométrie, matériaux, conditions opératoires).Notre cas d'étude concerne l'évaluation d'un concept de fumage à chaud à plaques radiantes, pour la production de poisson fumé, traditionnellement consommé en Afrique Centrale et de l'Ouest. En effet, avant de prétendre à la diffusion de cette technologie déjà brevetée, il faut s'assurer que le procédé puisse satisfaire des objectifs de production et de performances énergétiques, tout en maintenant une qualité du produit satisfaisante. Ainsi, un outil d'optimisation multiobjectif spécifique a été développé en se basant sur la modélisation du comportement du procédé. Une première étude expérimentale a permis de construire un modèle de séchage du poisson dans des conditions d'air variables (température, vitesse et humidité), qui représente à la fois les flux d'évaporation et les flux liés aux écoulements gravitaires de graisses et d'eau. Dans un second temps, un outil de simulation existant a été amélioré afin de représenter des phénomènes ayant un impact significatif sur les performances du procédé, tels que l'aéraulique des fumées, le recyclage de l'air et la régulation thermique. Ainsi, un modèle d'observation a été établi. Il permet de prédire le comportement de différentes solutions possibles, définies par huit variables de conception, et d'évaluer leurs performances sur la base de six variables d'observation.Dans un dernier volet, la formalisation des préférences et de la connaissance experte du procédé permet d'interpréter les performances en termes de désirabilités (satisfaction), qui sont agrégées en un indice de satisfaction global (fonction objectif) par un principe de précaution. Un algorithme génétique permet alors de trouver une solution optimale qui maximise cette fonction objectif, en explorant l'espace des solutions possibles de manière combinatoire. Cette démarche de conception a été fructueuse car elle a permis de proposer un dimensionnement permettant d'obtenir des performances très satisfaisantes. Il a aussi été possible de proposer des améliorations ciblées pour redéfinir le concept actuel du fumoir à plaques. Par ailleurs, il est à noter que le modèle de comportement peut facilement être réadapté pour d'autre type de produits. Dans la perspective d'étendre l'utilisation de cette démarche à d'autres cas d'étude, un effort devra être mené pour la collecte de données fonctionnelles issues de l'expertise
Food process design is a complex activity, given the wide diversity of existing product and processes, and the plurality of production contexts. Designer must meet the requirements derived from the critical stakes from human, sanitarian, economic, environmental and cultural point of views. In southern countries, the rapid growth of population drives the need of more industrial processes able to valorize traditional products.The savings of development time and extra-expenses are mainly determined by the quality of design choices from the early stage of the designing process, called embodiment design. Multiple criteria decision analysis (MCDA) techniques are used in this purpose, which enable to evaluate and criticize any technological concept. In a specific context, it is possible to generate the Pareto-set of a concept, which is composed of the most efficient possible alternatives. Indeed, every design alternative is defined by some design (or decision) variables which are the degree of freedom for the dimensioning of the system considered. Our case study focuses on a technological innovation to perform hot-smoking using radiant plates (for sanitarian purpose). It is aimed to be developed for the production of traditional hot-smoked catfish widely consumed in West and Central Africa. This is a multicriteria design problem since many objectives have to be satisfied, and concern the product quality, production and energetic performances.In a first work, the mass reduction of catfish dried in hot air conditions was modeled from empirical measurements. In particular, this model takes into account the influence of the drying air conditions (Temperature, Velocity and Relative Humidity) on the calculation of the mass fluxes of evaporation and drips. After that, a global simulation model of the radiant plate hot-smoking process was developed from a previous work. Some key phenomena were described (pressure losses, air recycling, thermal regulation) as they could strongly impact the process performances. The resulting observation model allows predicting the performances of any design alternative defined by a set of 8 design variables.In a final work, expert knowledge and preference were mathematically introduced in a multiobjective optimization tool, meaning some desirability functions. Therefore, every performance variable is converted into desirability indices (traducing the level of satisfaction) and then aggregated into a single global desirability index (thus defining a global objective function). The optimal design of the concept is found using a genetic algorithm.This multiobjective optimization method enabled to find very satisfactory design solution for the radiant plate hot smoking process. More to the point, the analysis of a wide range of Pareto-optimal solutions enabled to better understand what were the strengths and weaknesses, so it was possible to suggest some targeted improvement to the current radiant plate smoking technology. Also, it is noticeable that the current simulation model can be easily adapted to other products. For the purpose of a generalization of the use of such multiobjective methods for the design of food processes, it has been pointed out that efforts should be made to gather expert criteria other relevant functional data
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography