Дисертації з теми "Analyse multi-objectifs"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Analyse multi-objectifs.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-16 дисертацій для дослідження на тему "Analyse multi-objectifs".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Khabzaoui, Mohammed. "Modélisation et résolution multi-objectifs des règles d'association : application à l'analyse de données biopuces." Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/f2b2a8a7-87c4-44d0-bbe9-90531207f151.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La technologie haut débit des puces à ADN permet de visualiser simultanément le niveau d'expression de plusieurs milliers de gènes ou groupe de gènes dans des conditions différentes Cette technologie haut débit génère une grande diversité de données qui implique un important travail d'analyse. Une de ces problématiques, concerne la recherche de règles d'associations qui consiste à extraire un ensemble de formules logiques conditionnelles permettant de déduire la valeur d'un attribut but à partir des valeurs d'autres attributs. La recherche de règles d'association peut être vue comme un problème d'optimisation puisque l'on recherche les règles optimisant un certain critère. La combinatoire associée au problème est très importante. Ceci ne permet pas d'utiliser pour des problèmes de grandes tailles (comme c'est le cas ici) des algorithmes exactes d'énumération. Il est donc nécessaire d'avoir recours à des heuristiques telles que par exemple les métaheuristiques. Le contexte de la thèse étant la résolution d'un problème d'optimisation combinatoire multi-objectif pour l'analyse de données obtenues à l'aide de la technologie des puces à ADN, nous nous focalisons sur la modélisation et la résolution multi-objectif du problème de recherche de règles d'association. Puis nous nous intéressons à l'apport des méthodes d'optimisation approchées, à savoir les algorithmes génétiques (AG) Nous avons proposé un algorithme génétique permettant de traiter des bases de données relatives à des expérimentations sur puces à ADN. Cet algorithme possède un codage et des opérateurs adaptés à la recherche de règles d'association et des mécanismes multi-objectif ont été implémentés. Nous avons mis en place un mécanisme adaptatif pour pouvoir appliquer plusieurs mutations selon l'évolution de l'algorithme et adapter leur taux d'application en fonction de l'amélioration apportée par chacun d'eux. Nous avons proposé une approche parallèle développée pour le problème de recherche de règles, dans laquelle différents algorithmes génétiques coopèrent. Plusieurs approches coopératives ont été proposées. Nous avons montré à la fois l'apport du parallélisme et l'apport de la coopération entre méthodes de différents types.
2

Sattar, Abdul. "Optimisation hybride mono et multi-objectifs de modèles actifs d'apparence 2,5D pour l'analyse de visage." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00491328.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'équipe SCEE de Supélec travaille dans le domaine de la radio logicielle et intelligente, encore appelée Radio Cognitive (CR - Cognitive Radio). Dans cette thèse, nous avons présenté une solution pour l'analyse de visage temps réel dans un équipement de radio cognitive. Dans ce cadre particulier, nous proposons des solutions d'analyse de visage, à savoir "l'estimation de la pose et des caractéristiques faciale d'un visage inconnu orienté ". Nous proposons deux systèmes d'alignement de visages. 1) Le premier exploite un AAM 2.5D et une seule caméra. La phase d'optimisation de cet AAM est hybride: elle mixe un algorithme génétique et une descente de gradient. Notre contribution tient dans l'opérateur de descente de gradient qui travaille de concert avec l'opérateur classique de mutation : de cette manière sa présence ne pénalise pas la vitesse d'exécution du système. 2) Le second met en œuvre un AAM 2.5D mais exploite plusieurs caméras. La recherche de la meilleure solution découle également d'une approche hybride qui mixe une optimisation multi-objectifs : le NSGA-II, avec une descente de gradient. Notre contribution tient dans la proposition d'une méthode efficace pour extraire des informations concernant la pertinence de chacune des vues, ces informations sont ensuite exploitées par la descente de gradient. Des comparaisons quantitatives et qualitatives avec d'autres approches mono et multi-objectifs montrent l'intérêt de notre méthode lorsqu'il s'agit d'évaluer la pose et les traits caractéristiques d'un visage inconnu.
3

Delmond, Fabien. "Alternatives à la synthèse multi-objectifs : forme standard de passage et ajustements de loi de commande." Toulouse, ENSAE, 2005. http://www.theses.fr/2005ESAE0017.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le contexte général dans lequel s'inscrivent ces travaux de thèse est celui de l'ajustement de lois de commande. Cette problématique récente est née de la confrontation des techniques modernes de synthèses de lois de commande sur des applications réalistes dans un contexte industriel, et regroupe les techniques permettant de réduire le fossé entre : la "quête de l'idéal" qui motive l'automaticien. C'est-à-dire la recherche de techniques permettant de fournir la loi de commande optimale directement à partir de l'énoncé du modèle et des spécifications. ; et la réalité industrielle où les contraintes pratiques et économiques, le savoir-faire et la culture d'entreprise conduisent toujours à favoriser la démarche qui vise à adapter aux nouveaux problèmes rencontrés la solution qui "marchait jusqu’à présent". Le dénominateur commun des techniques présentées dans ce mémoire est donc la disponibilité d’un correcteur pré-existant qui satisfait une partie du cahier des charges, mais qu’il faut adapter pour satisfaire des spécifications complémentaires ou prendre en compte une évolution du modèle et/ou du cahier des charges. Deux techniques sont exposées dans ce mémoire. La première utilise un outil de synthèse multi-objectifs : la Forme Standard de Passage, qui est définie comme une solution des problèmes inverses de commande optimale H₂ et H∞ ; c'est-à-dire un problème standard de commande dont l'unique solution optimale au sens des normes H₂ et H∞ coïncide avec le correcteur préexistant. La seconde se base sur l'identification bayésienne et permet de mettre à profit des considérations de robustesse paramétrique pour l’ajustement des lois de commande, principalement la direction de robustesse maximale dans l’espace paramétrique, constitué des paramètres dynamiques à ajuster en boucle fermée, augmenté des paramètres de réglage du correcteur. Ces deux techniques sont appliquées sur des exemples réalistes empruntés au domaine aéronautique ; domaine caractérisé par l'utilisation de modèles de grandes dimensions, des cahiers des charges très complets et qui a donc motivé ces recherches.
4

Delort, Charles. "Algorithmes d'énumération implicite pour l'optimisation multi-objectifs exacte : exploitation d'ensembles bornant et application aux problèmes de sac à dos et d'affectation." Paris 6, 2011. http://www.theses.fr/2011PA066269.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Peaucelle, Dimitri. "Formulation générique de problèmes en analyse et commande robuste par les fonctions de Lyapunov dependant des paramètres." Phd thesis, Université Paul Sabatier - Toulouse III, 2000. http://tel.archives-ouvertes.fr/tel-00131516.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la commande robuste des systèmes. La robustesse caractérise l'invariance de propriétés de stabilité et de performance vis à vis des inévitables incertitudes affectant le modèle. Le problème de commande est d'améliorer et/ou de garantir les propriétés robustes. Les modèles considérés sont linéaires à temps invariant. Les incertitudes sont paramétriques réelles structurées et interviennent sous forme rationnelle. Les classes d'incertitudes polytopiques et dissipatives sont plus particulièrement prises en compte. Les propriétés étudiées sont principalement la stabilité robuste, le rejet des perturbations (coût garanti robuste) et le comportement transitoire (localisation des pôles). Pour ces propriétés nous proposons dans un premier temps des méthodes d'analyse puis des méthodes de synthèse de correcteurs. Les outils théoriques utilisés sont issus de la théorie de Lyapunov et de la séparation topologique. De manière à garantir les performances avec le moins de pessimisme possible, nous proposons de faire appel à des fonctions de Lyapunov dépendant des paramètres. Comme on attache une importance à la mise en oeuvre numérique, des méthodes issues du cadre de la stabilité quadratique, plus pessimistes mais moins demandeuses en capacité de calcul sont également proposées. La formulation volontairement unifiée des différents problèmes met en évidence les sources de pessimisme. Toutes les méthodes proposées sont formulées en termes d'Inégalités Matricielles Linéaires (LMI) dont la mise en oeuvre numérique est désormais classique. Les résultats de recherche sont illustrés sur des exemples.
6

Bouzarour-Amokrane, Yasmina. "Structuration des processus d'aide à la décision par analyse bipolaire." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2322/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de recherche présenté dans ce mémoire s'inscrit dans le champ de l'aide à la décision multicritère. Ce champ aborde la décision dans un contexte où un groupe d'alternatives est évalué à travers un ensemble de critères (souvent contradictoires) afin d'estimer le potentiel de chacune à atteindre les objectifs fixés par un certain nombre de décideurs. La contribution de cette thèse concerne la structuration des problèmes d'aide à la décision par une approche bipolaire flexible qui permet d'évaluer les alternatives en distinguant leurs aspects positifs et négatifs vis-à-vis des objectifs à atteindre. Dans un premier temps, des modèles de structuration bipolaire sont proposés pour évaluer les problèmes de décision au niveau individuel. Les relations de synergie et les interactions potentielles entre les caractéristiques de la décision (attributs, alternatives, objectifs) sont modélisées dans un contexte bipolaire et intégrées à des approches de résolution tenant compte de l'environnement certain ou incertain dans lequel l'évaluation se déroule. Dans un deuxième temps, les décisions de groupe sont traitées en considérant l'impact du facteur humain (à travers les notions de peur, individualisme, influence, prudence, etc. ) sur la capacité décisionnelle aux niveaux individuel et collectif. Des modèles d'évaluation et des techniques d'atteinte de consensus sont proposées pour deux catégories de problèmes relativement indépendants ; les problèmes de choix social et les jeux stratégiques
The research presented in this thesis concerns the multi-criteria decision support field. This field aims at helping decision makers (DM) to face decisions involving several conflicting objectives. To deals with this, decision is addressed in a context where a group of alternatives is evaluated through a set of criteria (often contradictory) to estimate the potential of each to achieve the goals. The main concern of this research is to propose flexible structuring decision problem support for evaluating alternatives distinguishing between positive and negative aspects they present with regard to objectives achievement. Bipolar structure models are proposed first to evaluate the decision problems at the individual level. The synergistic relationships and potential interactions between the decision characteristics (attributes, alternative objectives) are modeled in a bipolar context and integrated into resolution approaches taking account the certain or uncertain environment in which the evaluation takes place. In a second part, group decision problems are discussed taking into account the impact of human behaviour (influence, individualism, fear, caution, etc. ) on decisional capacity at individual and collective levels. Valuation models and a consensus process are proposed in two relatively independent problem categories: social choice problems, and, strategic game problems
7

Aberkane, Samir. "Systèmes tolérant aux défauts : analyse et synthèse stochastiques." Phd thesis, Université Henri Poincaré - Nancy I, 2006. http://tel.archives-ouvertes.fr/tel-00151379.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous nous sommes intéressés aux contraintes résultants de l'intégration d'un module de diagnostic de pannes et d'un module de reconfiguration de lois de commandes. Contraintes pouvant conduire à une perte de performances, voir une instabilité, du système. La formalisation mathématique de cette problématique nous a amené à nous intéresser à une classe de systèmes hybrides stochastiques à sauts markoviens. La première partie du travail de thèse a été consacrée à la synthèse de lois de commande, par retour de sortie, stabilisant stochastiquement cette classe de systèmes à des bruits multiplicatifs. Les approches développées sont basées sur la théorie de Lyapunov et de Supermartingale. Les différentes conditions de synthèse sont données en termes d'inégalités matricielles non linéaires. Des algorithmes d'optimisation non convexe nt alors été proposés pour la résolution de ces différentes conditions. En deuxième partie de thèse, nous nous sommes intéressés au problème de commande multi-performances de cette classe de systèmes. Plus particulièrement, nous avons considéré des critères H_{infinity} et des critères H_{2}. Là aussi, nous avons proposé des conditions sous forme LMI, BMI et NLMI pour la résolution de ce problème. En dernière partie de thèse, nous nous sommes intéressés au cas des systèmes à temps discret. Nous avons là aussi considéré des problèmes de stabilisation stochastique et de commande multi-objectifs, pour lesquels des conditions sous forme LMI et NLMI ont été établies. Nous avons ensuite appliqué ces résultats à la problématique de commande de systèmes en réseaux sujets à des retards, des pertes de paquets et d'éventuels pannes.
8

Rivier, Michel. "Analyse et optimisation multicritères d’un procédé de transfert thermique et de séchage pour une application en Afrique de l’Ouest." Thesis, Montpellier, SupAgro, 2017. http://www.theses.fr/2017NSAM0003.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le renforcement du secteur de la transformation agroalimentaire est reconnu comme un élément moteur de développement des pays d’Afrique subsaharienne, face à une importante croissance démographique accompagnée d’un fort taux d’urbanisation. Si les entreprises agroalimentaires créent localement de la valeur ajoutée et dynamisent la production agricole, elles éprouvent des difficultés pour se doter d’équipements efficients et assurer leur fourniture énergétique.Les méthodes de conception et d’optimisation des procédés agroalimentaires sont encore peu développées, du fait de la complexité de ces systèmes (composition et propriétés de l’aliment, variabilité et évolution de sa qualité, ...) dont la modélisation n’est pas aisée car elle requiert des connaissances pluridisciplinaires.Ce travail se propose de mettre en œuvre une méthode intégrée, déjà éprouvée dans d’autres domaines industriels, la méthode « Observation-Interprétation-Agrégation (O.I.A.) », et de l’appliquer à un procédé couplant une unité de conversion biomasse énergie à un séchoir de produits céréaliers. L’apport de bioénergie pour le séchage, opération très pratiquée en Afrique de l’Ouest mais énergivore constitue un enjeu pour les entreprises. La conception de ce procédé prend en compte des objectifs variés comme la qualité du produit séché, la fabrication locale et l’efficacité énergétique des équipements et ce, pour en garantir une meilleure durabilité.Dans une première partie, les modèles de transfert de chaleur et de perte de pression associés à un turbulateur elliptique innovant sont créés. Cet élément s’insère dans les tubes d’un échangeur de chaleur et améliore nettement le transfert thermique. Dans un deuxième temps, les variables de conception et d’observation du procédé sont définies et justifiées. Les modèles de représentation des différentes opérations unitaires sont développés et assemblés dans un simulateur afin de prédire les performances du procédé. Dans une dernière partie, le simulateur est intégré dans un environnement d’optimisation multicritère apte à formaliser, interpréter puis agréger les préférences des utilisateurs finaux. Ce processus s’appuie sur un algorithme génétique. La pertinence des solutions de conception du procédé performantes produites révèle tout l’intérêt et la performance de la méthode O.I.A. Le concepteur dispose ainsi d’éléments objectifs pour faire des choix et aller vers la réalisation d’installations de séchage durables en Afrique de l’Ouest
The reinforcement of the food processing sector is recognized as a driving factor for the development of sub-Saharan African countries, faced with considerable major demographic growth accompanied by a high rate of urbanization. While the agribusiness companies generate added value locally and boost agricultural production, they find difficulties in obtaining efficient equipment and securing their energy supply.Agribusiness process design and optimization methods are still underdeveloped, due to the complexity of these systems (food composition and properties, variable and changing quality, etc.), modelling of which is not easy since it requires multidisciplinary knowledge.This work proposes to implement an integrated method, already proven in other industrial fields, the “Observation-Interpretation-Aggregation” method (OIA), and apply it to a process coupling a biomass energy conversion unit to a cereal products dryer. The bioenergy supply for drying, a very common practice in West Africa despite being energy-intensive, represents a challenge for the companies. The design of this process takes into account the various objectives such as quality of the dried product, local manufacture and the energy efficiency of the equipment, in order to guarantee better sustainability.First of all, the models for heat transfer and pressure loss associated with an innovative elliptic turbulator are created. This component is inserted into the tubes of a heat exchanger, and significantly improves heat transfer. Secondly, the process design and observation variables are defined and justified. The representation models of the various unit operations are developed and brought together in a simulator, in order to predict the process performances. Finally, the simulator is integrated into a multicriteria optimization environment able to formalize, interpret and then aggregate end user preferences. This procedure is based on a genetic algorithm. The relevance of the high-performance design solutions produced reveals the full benefit and performance of the OIA method. In this way, the designer obtains objective information on which to base their choices, and develop sustainable drying facilities for West Africa
9

Tian, Wenhui. "Transition énergétique et inégalité de carbone : une analyse prospective des feuilles de route technologique pour la Chine, la France et les États-Unis d’Amérique." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte du réchauffement climatique global, les institutions académiques et internationales comme GIEC et de nombreux pays ont proposé des objectifs de réduction des émissions de CO2. L'objectif de cette thèse est d'évaluer ces objectifs gouvernementaux en les comparants avec les objectifs globaux à l'aide de différentes méthodes d'allocations lesquelles correspondent à différents principes d'équité en matière d'émissions carbones.Afin d'évaluer les feuilles de route technologique permettant d'obtenir les réductions d'émission de CO2 nécessaires, un modèle qualifié de flexible est proposé à destination des décideurs. Notre modèle permet d'éviter les opérations informatiques complexes et peut être personnalisé en fonction de différents besoins. Les simulations sont réalisées jusqu'à l'horizon 2050 lequel est souvent considéré comme un pivot dans les habitudes de consommation d'énergies notamment. Dans cette thèse, des feuilles de route technologique pour les différents objectifs gouvernementaux en matières d'émissions de CO2 sont étudiées pour trois pays : la Chine, la France et les États-Unis. Le modèle couvre les principaux secteurs responsables des émissions de CO2 et étudie l'influence de différentes technologies sur le mix énergétique. Diverses méthodes et approches sont utilisées dans notre modélisation. L'identité IPAT est utilisée pour la décomposition des émissions dans les secteurs de l'énergie. Le modèle STIRPAT permet quant à lui d'évaluer l'évolution des émissions de CO2 dans les scénarios Business-as-Usual. Le modèle SVR est utilisé dans le cadre des projections de production d'électricité. Enfin, l'indice de Theil est employé pour mesurer les inégalités d'émissions de CO2 par tête. A la différence des modèles plus classiques en économie de l'énergie, notre modèle propose des feuilles de route technologiques selon différents critères, comme par exemple avec le développement « équilibré » de la technologie entre les secteurs, ou le critère de disponibilité des ressources énergétiques. Par ailleurs, l'équité carbone, avec la convergence des technologies dans les secteurs à long terme, peut être mise en œuvre dans notre modèle et joue, dans ce cas, comme une contrainte supplémentaire dans l'optimisation multi-objectifs.Nos résultats montrent que les objectifs gouvernementaux en France et aux États-Unis sont « très stricts » car, pour les atteindre, tous les secteurs doivent réaliser des efforts importants de réduction de CO2. En revanche, l'objectif gouvernemental de la Chine s'avère « plus facile » à réaliser car les progrès dans les technologies qui sont nécessaires sont moins exigeants.Plus précisément, si on prévoit que le mix énergétique reste inchangé en Chine et aux États-Unis, le CSC deviendra indispensable dans le secteur de l'énergie. Pour la France, 80% des voitures devront être remplacées par des véhicules électriques afin d'atteindre son objectif en matière de CO2.Toutefois, en considérant l'équité carbone entre secteurs, la combustion du charbon est censée être réduite de deux tiers en Chine et devra être pratiquement éliminée aux États-Unis. Par contre, le gaz peut être encouragé dans son utilisation dans le secteur de l'énergie en particulier aux États-Unis. Concernant le secteur du transport, plus de 60 % des véhicules doivent être remplacés par des véhicules électriques en Chine. Cette part serait d'environ 90 % en France et aux États-Unis.Enfin, la sensibilité des paramètres du modèle a été testée pour simulations, à chaque étape du travail, et pour toutes les roadmaps technologiques. Les résultats des tests de sensibilité montrent que la production d'électricité et l'intensité d'émissions sont les deux paramètres dont l'influence est la plus importante sur les émissions futures de CO2. Ainsi l'amélioration de l'efficacité de la combustion du charbon et de l'efficacité énergétique de l'électricité joueront un rôle central dans la réductions des émissions de CO2
In the context of global warming, academic institutes, international institutions such as the IPCC, and governments of numerous countries have proposed global objectives of reducing CO2 emissions and announced national targets. The purpose of this thesis is to assess the governmental targets in comparing with the global objectives of various allocation methods, which correspond to different carbon equity principles.In order to evaluate the technology roadmaps which are necessary to achieve these reductions of CO2 emissions, a flexible modeling framework is proposed for policy makers. Our sectoral model avoids the complex computing operations. It can be customized according to different requirements and situations. We simulate the model up to the horizon 2050, which is often seen as a turning point in energy use patterns worldwide – forced by the probable decline in hydrocarbons extraction.In the thesis, the technology roadmaps for the governmental targets on CO2 emissions are studied for three typical countries: China, France, and the United States. The model covers the sectors responsible for the greatest part of CO2 emissions: power, transport, residence and industry sector, in studying the impacts of the principle energy technologies, such as energy mix, Carbon Capture and Storage (CCS), electric vehicles and energy efficiency.Various methods and approaches are used in our modeling. IPAT identity - which assumes the environment Impact is the results of Population, Affluence and Technology - is employed in the power sector emission decomposition. Besides STIRPAT - for Stochastic Impacts by Regression on Population, Affluence and Technology - model is used for the projection of CO2 emissions in the Business-as-Usual scenario. Then SVR - for Support Vector Regression - is used to forecast electricity production. Finally, the Theil index is employed as the measurement of per capita CO2 emission inequality. Different from classic cost-effective energy system models, our model provides the technology pathways for different criteria, such as balanced development of energy technology across sectors, availability of energy resources, etc. Besides, the carbon equity is employed as one of the constraints in the multi-objective optimization, under the consideration of the convergence of technologies in sectors in the long-term.Our results show that the governmental targets in France and the United States prove very strict, as they require all sectors to make large efforts in reducing CO2 emissions. In contrast, the governmental target in China seems more easily achievable, as the necessary advances of technologies are less demanding. More precisely: if the energy mix is expected to be kept unchanged in China and in the United States of America, the CCS prove indispensable in the power sector. In France, 80% of automobiles are required to be changed into electric vehicles, in order to get the target of CO2 emissions.However, under the sectoral carbon equity consideration, coal combustion is projected to be reduced by two thirds in China, and it will have to be almost eliminated in the United States to achieve their CO2 reduction target. But gas is encouraged to be used in the power sector, especially in the United States. Regarding the transport sector, more than 60% of vehicles should be replaced to electric vehicles in China, and this share will be about up to 90% in France and the United States.Finally the sensitivity of parameters in the model is tested for a robust simulation, at each step of the work, and for all technology roadmaps. The results of the sensitivity tests show that electricity production and the emission intensity of production are the two parameters with the most important influence on CO2 emissions. Thus improving the efficiency of coal combustion and the energy efficiency of electricity will play an important role in the CO2 emission reductions
10

Millardet, Maël. "Amélioration de la quantification des images TEP à l'yttrium 90." Thesis, Ecole centrale de Nantes, 2022. https://tel.archives-ouvertes.fr/tel-03871632.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La popularité de l'imagerie TEP à l'yttrium 90 va grandissante. Cependant, la probabilité qu'une désintégration d'un noyau d'yttrium 90 mène à l'émission d'un positon n'est que de 3,2 × 10-5, et les images reconstruites sont par conséquent caractérisées par un niveau de bruit élevé, ainsi que par un biais positif dans les régions de faible activité. Pour corriger ces problèmes, les méthodes classiques consistent à utiliser des algorithmes pénalisés, ou autorisant des valeurs négatives dans l'image. Cependant, une étude comparant et combinant ces différentes méthodes dans le contexte spécifique de l'yttrium 90 manquait encore à l'appel au début de cette thèse. Cette dernière vise donc à combler ce manque. Malheureusement, les méthodes autorisant les valeurs négatives ne peuvent pas être utilisées directement dans le cadre d'une étude dosimétrique, et cette thèse commence donc par proposer une nouvelle méthode de posttraitement des images, visant à en supprimer les valeurs négatives en en conservant les valeurs moyennes le plus localement possible. Une analyse complète multi-objectifs de ces différentes méthodes est ensuite proposée. Cette thèse se termine en posant les prémices de ce qui pourra devenir un algorithme permettant de proposer un jeu d'hyperparamètres de reconstruction adéquats, à partir des seuls sinogrammes
Yttrium-90 PET imaging is becoming increasingly popular. However, the probability that decay of a yttrium-90 nucleus will lead to the emission of a positron is only 3.2 × 10-5, and the reconstructed images are therefore characterised by a high level of noise, as well as a positive bias in low activity regions. To correct these problems, classical methods use penalised algorithms or allow negative values in the image. However, a study comparing and combining these different methods in the specific context of yttrium-90 was still missing at the beginning of this thesis. This thesis, therefore, aims to fill this gap. Unfortunately, the methods allowing negative values cannot be used directly in a dosimetric study. Therefore, this thesis starts by proposing a new method of post-processing the images, aiming to remove the negative values while keeping the average values as locally as possible. A complete multi-objective analysis of these different methods is then proposed. This thesis ends by laying the foundations of what could become an algorithm providing a set of adequate reconstruction hyper parameters from sinograms alone
11

Strub, Guillaume. "Modeling, Identification and Control of a Guided Projectile in a Wind Tunnel." Thesis, Mulhouse, 2016. http://www.theses.fr/2016MULH8492/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente une méthodologie de conception et d’évaluation de lois de commande pour projectiles guidés, au moyen d’un prototype placé dans une soufflerie via un support autorisant plusieurs degrés de liberté en rotation. Ce dispositif procure un environnement permettant à la fois de caractériser expérimentalement le comportement de la munition et d’évaluer les performances des lois de commande dans des conditions réalistes, et est mis en œuvre pour l’étude d’autopilotes de tangage et de lacet, à vitesse fixe et à vitesse variable, pour un prototype de projectile empenné piloté par canards. La modélisation d’un tel système aboutit à un modèle non-linéaire dépendant de nombreuses conditions de vol telles que la vitesse et des angles d’incidence. Les méthodes de séquencement de gain basées sur des linéarisations d’un modèle non-linéaire sont couramment employées dans l’industrie pour la commande de ce type de systèmes. A cette fin, le système est représenté au moyen d’une famille de modèles linéaires dont les paramètres sont directement estimés à partir de données recueillies sur le dispositif expérimental. L’observation du comportement à différents points de vol permet de considérer la vitesse de l’air comme unique variable de séquencement. La synthèse des différents contrôleurs est réalisée au moyen d’une méthode H∞ multi-objectifs à ordre et structure fixes, afin de garantir la stabilité et la robustesse du système vis-à-vis d’incertitudes liées à la variation du point de fonctionnement. Ces lois de commande sont alors validées au moyen d’analyses de robustesse, puis par leur implémentation sur le dispositif expérimental. Les résultats obtenus lors d’essais en soufflerie correspondent aux simulations numériques et sont conformes aux spécifications attendues
This work presents a novel methodology for flight control law design and evaluation, using a functional prototype installed in a wind tunnel by the means of a support structure allowing multiple rotational degrees of freedom. This setup provides an environment allowing experimental characterization of the munition’s behavior, as well as for flight control law evaluation in realistic conditions. The design and validation of pitch and yaw autopilots for a fin-stabilized, canard-guided projectile is investigated, at fixed and variable airspeeds. Modeling such a system leads to a nonlinear model depending on numerous flight conditions such as the airspeed and incidence angles. Linearization-based gain scheduling techniques are widely employed in the industry for controlling this class of systems. To this end, the system is represented with a family of linear models whose parameters are directly estimated from experimentally collected data. Observation of the projectile’s behavior for different operating points indicates the airspeed can be considered as the only scheduling variable. Controller synthesis is performed using a multi-objective, fixed-order, fixed-structure H∞ technique in order to guarantee the stability and robustness of the closed-loop against operating point uncertainty. The obtained control laws are validated with robustness analysis techniques and are then implemented on the experimental setup, where wind-tunnel tests results correlate with numerical simulations and conform to the design specifications
12

Rojas, Jhojan Enrique. "Méthodologie d’analyse de fiabilité basée sur des techniques heuristiques d’optimisation et modèles sans maillage : applications aux systèmes mécaniques." Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0003/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les projets d'Ingénierie Structurale doivent s’adapter aux critères de performance, de sécurité, de fonctionnalité, de durabilité et autres, établis dans la phase d’avant-projet. Traditionnellement, les projets utilisent des informations de nature déterministe comme les dimensions, les propriétés des matériaux et les charges externes. Toutefois, la modélisation des systèmes structuraux complexes implique le traitement des différents types et niveaux d'incertitudes. Dans ce sens, la prévision du comportement doit être préférablement faite en termes de probabilités puisque l'estimation de la probabilité de succès d'un certain critère est une nécessité primaire dans l’Ingénierie Structurale. Ainsi, la fiabilité est la probabilité rapportée à la parfaite opération d'un système structural donné durant un certain temps en des conditions normales d'opération pour trouver le meilleur compromis entre coût et sécurité pour l’élaboration des projets. Visant à pallier les désavantagés des méthodes traditionnelles FORM et SORM (First and Second Order Reliability Method), cette thèse propose une méthode d’analyse de fiabilité basée sur des techniques d’optimisation heuristiques (HBRM, Heuristic-based Reliability Method). Les méthodes heuristiques d’optimisation utilisées par cette méthode sont : Algorithmes Génétiques (Genetic Algorithms), Optimisation par Essaims Particulaires (Particle Swarm Optimisation) et Optimisation par Colonie de Fourmis (Ant Colony Optimization). La méthode HBRM ne requiert aucune estimation initiale de la solution et opère selon le principe de la recherche multi-directionnelle, sans besoin de calculer les dérivées partielles de la fonction d’état limite par rapport aux variables aléatoires. L’évaluation des fonctions d’état limite est réalisée en utilisant modèles analytiques, semi analytiques et numériques. Dans ce but, la mise en oeuvre de la méthode de Ritz (via MATLAB®), la méthode des éléments finis (via MATLAB® et ANSYS®) et la méthode sans maillage de Galerkin (Element-free Galerkin sous MATLAB®) a été nécessaire. La combinaison d’analyse de fiabilité, des méthodes d’optimisation et méthodes de modélisation, ci-dessus mentionnées, configure la méthodologie de conception fiabiliste proposée dans ce mémoire. L’utilisation de différentes méthodes de modélisation et d’optimisation a eu pour objectif de mettre en évidence leurs avantages et désavantages pour des applications spécifiques, ainsi pour démontrer l’applicabilité et la robustesse de la méthodologie de conception fiabiliste en utilisant ces techniques numériques. Ce qui a été possible grâce aux bons résultats trouvés dans la plupart des applications. Dans ce sens, des applications uni, bi et tridimensionnelles en statique, stabilité et dynamique des structures explorent l’évaluation explicite et implicite des fonctions d’état limite de plusieurs variables aléatoires. Procédures de validation déterministe et analyses stochastiques, et la méthode de perturbation de Muscolino, donnent les bases de l’analyse de fiabilité des applications en problèmes d’interaction fluide-structure bi et tridimensionnelles. La méthodologie est particulièrement appliquée à une structure industrielle. Résultats de applications uni et bidimensionnelles aux matériaux composites stratifiés, modélisés par la méthode EFG sont comparés avec les obtenus par éléments finis. A la fin de la thèse, une extension de la méthodologie à l’optimisation fiabiliste est proposée à travers la méthode des facteurs optimaux de sûreté. Pour cela, sont présentes des applications pour la minimisation du poids, en exigent un indice de fiabilité cible, aux systèmes modélisés par la méthode de EF et par la méthode EFG
Structural Engineering designs must be adapted to satisfy performance criteria such as safety, functionality, durability and so on, generally established in pre-design phase. Traditionally, engineering designs use deterministic information about dimensions, material properties and external loads. However, the structural behaviour of the complex models needs to take into account different kinds and levels of uncertainties. In this sense, this analysis has to be made preferably in terms of probabilities since the estimate the probability of failure is crucial in Structural Engineering. Hence, reliability is the probability related to the perfect operation of a structural system throughout its functional lifetime; considering normal operation conditions. A major interest of reliability analysis is to find the best compromise between cost and safety. Aiming to eliminate main difficulties of traditional reliability methods such as First and Second Order Reliability Method (FORM and SORM, respectively) this work proposes the so-called Heuristic-based Reliability Method (HBRM). The heuristic optimization techniques used in this method are: Genetic Algorithms, Particle Swarm Optimization and Ant Colony Optimization. The HBRM does not require initial guess of design solution because it’s based on multidirectional research. Moreover, HBRM doesn’t need to compute the partial derivatives of the limit state function with respect to the random variables. The evaluation of these functions is carried out using analytical, semi analytical and numerical models. To this purpose were carried out the following approaches: Ritz method (using MATLAB®), finite element method (through MATLAB® and ANSYS®) and Element-free Galerkin method (via MATLAB®). The combination of these reliability analyses, optimization procedures and modelling methods configures the design based reliability methodology proposed in this work. The previously cited numerical tools were used to evaluate its advantages and disadvantages for specific applications and to demonstrate the applicability and robustness of this alternative approach. Good agreement was observed between the results of bi and three-dimensional applications in statics, stability and dynamics. These numerical examples explore explicit and implicit multi limit state functions for several random variables. Deterministic validation and stochastic analyses lied to Muscolino perturbation method give the bases for reliability analysis in 2-D and 3-D fluidstructure interaction problems. This methodology is applied to an industrial structure lied to a modal synthesis. The results of laminated composite plates modelled by the EFG method are compared with their counterparts obtained by finite elements. Finally, an extension in reliability based design optimization is proposed using the optimal safety factors method. Therefore, numerical applications that perform weight minimization while taking into account a target reliability index using mesh-based and meshless models are proposed
Os projectos de Engenharia Estrutural devem se adaptar a critérios de desempenho, segurança, funcionalidade, durabilidade e outros, estabelecidos na fase de anteprojeto. Tradicionalmente, os projectos utilizam informações de natureza deterministica nas dimensões, propriedades dos materiais e carregamentos externos. No entanto, a modelagem de sistemas complexos implica o tratamento de diferentes tipos e níveis de incertezas. Neste sentido, a previsão do comportamento deve preferivelmente ser realizada em termos de probabilidades dado que a estimativa da probabilidade de sucesso de um critério é uma necessidade primária na Engenharia Estrutural. Assim, a confiabilidade é a probabilidade relacionada à perfeita operação de um sistema estrutural durante um determinado tempo em condições normais de operação. O principal objetivo desta análise é encontrar o melhor compromisso entre custo e segurança. Visando a paliar as principais desvantagens dos métodos tradicionais FORM e SORM (First and Second Order Reliability Method), esta tese propõe um método de análise de confiabilidade baseado em técnicas de optimização heurísticas denominado HBRM (Heuristic-based Reliability Method). Os métodos heurísticos de otimização utilizados por este método são: Algoritmos Genéticos (Genetic Algorithms), Optimização por Bandos Particulares (Particle Swarm Optimisation) e Optimização por Colónia de Formigas (Ant Colony Optimization). O método HBRM não requer de uma estimativa inicial da solução e opera de acordo com o princípio de busca multidirecional, sem efetuar o cálculo de derivadas parciais da função de estado limite em relação às variáveis aleatórias. A avaliação das funções de estado limite é realizada utilizando modelos analíticos, semi analíticos e numéricos. Com este fim, a implementação do método de Ritz (via MATLAB®), o método dos elementos terminados (via MATLAB® e ANSYS®) e o método sem malha de Galerkin (Element-free Galerkin via MATLAB®) foi necessária. A combinação da análise de confiabilidade, os métodos de optimização e métodos de modelagem, acima mencionados, configura a metodologia de projeto proposta nesta tese. A utilização de diferentes métodos de modelagem e de otimização teve por objetivo destacar as suas vantagens e desvantagens em aplicações específicas, assim como demonstrar a aplicabilidade e a robustez da metodologia de análise de confiabilidade utilizando estas técnicas numéricas. Isto foi possível graças aos bons resultados encontrados na maior parte das aplicações. As aplicações foram uni, bi e tridimensionais em estática, estabilidade e dinâmica de estruturas, as quais exploram a avaliação explícita e implícita de funções de estado limite de várias variáveis aleatórias. Procedimentos de validação déterministica e de análises estocásticas, aplicando o método de perturbação de Muscolino, fornecem as bases da análise de confiabilidade nas aplicações de problemas de iteração fluído-estrutura bi e tridimensionais. A metodologia é testada com uma estrutura industrial. Resultados de aplicações bidimensionais em estratificados compostos, modelados pelo método EFG são comparados com os obtidos por elementos finitos. No fim da tese, uma extensão da metodologia à optimização baseada em confiabilidade é proposta aplicando o método dos factores óptimos de segurança. Finalmente são apresentadas as aplicações para a minimização do peso em sistemas modelados pelo método de EF e o método EFG que exigem um índice de confiabilidade alvo
13

Le, Trung-Dung. "Gestion de masses de données dans une fédération de nuages informatiques." Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les fédérations de nuages informatiques peuvent être considérées comme une avancée majeure dans l’informatique en nuage, en particulier dans le domaine médical. En effet, le partage de données médicales améliorerait la qualité des soins. La fédération de ressources permettrait d'accéder à toutes les informations, même sur une personne mobile, avec des données hospitalières distribuées sur plusieurs sites. En outre, cela permettrait d’envisager de plus grands volumes de données sur plus de patients et ainsi de fournir des statistiques plus fines. Les données médicales sont généralement conformes à la norme DICOM (Digital Imaging and Communications in Medicine). Les fichiers DICOM peuvent être stockés sur différentes plates-formes, telles qu’Amazon, Microsoft, Google Cloud, etc. La gestion des fichiers, y compris le partage et le traitement, sur ces plates-formes, suit un modèle de paiement à l’utilisation, selon des modèles de prix distincts et en s’appuyant sur divers systèmes de gestion de données (systèmes de gestion de données relationnelles ou SGBD ou systèmes NoSQL). En outre, les données DICOM peuvent être structurées en lignes ou colonnes ou selon une approche hybride (ligne-colonne). En conséquence, la gestion des données médicales dans des fédérations de nuages soulève des problèmes d’optimisation multi-objectifs (MOOP - Multi-Objective Optimization Problems) pour (1) le traitement des requêtes et (2) le stockage des données, selon les préférences des utilisateurs, telles que le temps de réponse, le coût monétaire, la qualités, etc. Ces problèmes sont complexes à traiter en raison de la variabilité de l’environnement (liée à la virtualisation, aux communications à grande échelle, etc.). Pour résoudre ces problèmes, nous proposons MIDAS (MedIcal system on clouD federAtionS), un système médical sur les fédérations de groupes. Premièrement, MIDAS étend IReS, une plate-forme open source pour la gestion de flux de travaux d’analyse sur des environnements avec différents systèmes de gestion de bases de données. Deuxièmement, nous proposons un algorithme d’estimation des valeurs de coût dans une fédération de nuages, appelé Algorithme de régression %multiple linéaire dynamique (DREAM). Cette approche permet de s’adapter à la variabilité de l'environnement en modifiant la taille des données à des fins de formation et de test, et d'éviter d'utiliser des informations expirées sur les systèmes. Troisièmement, l’algorithme génétique de tri non dominé à base de grilles (NSGA-G) est proposé pour résoudre des problèmes d’optimisation multi-crtières en présence d’espaces de candidats de grande taille. NSGA-G vise à trouver une solution optimale approximative, tout en améliorant la qualité du font de Pareto. En plus du traitement des requêtes, nous proposons d'utiliser NSGA-G pour trouver une solution optimale approximative à la configuration de données DICOM. Nous fournissons des évaluations expérimentales pour valider DREAM, NSGA-G avec divers problèmes de test et jeux de données. DREAM est comparé à d'autres algorithmes d'apprentissage automatique en fournissant des coûts estimés précis. La qualité de la NSGA-G est comparée à celle des autres algorithmes NSGA présentant de nombreux problèmes dans le cadre du MOEA. Un jeu de données DICOM est également expérimenté avec NSGA-G pour trouver des solutions optimales. Les résultats expérimentaux montrent les qualités de nos solutions en termes d'estimation et d'optimisation de problèmes multi-objectifs dans une fédération de nuages
Cloud federations can be seen as major progress in cloud computing, in particular in the medical domain. Indeed, sharing medical data would improve healthcare. Federating resources makes it possible to access any information even on a mobile person with distributed hospital data on several sites. Besides, it enables us to consider larger volumes of data on more patients and thus provide finer statistics. Medical data usually conform to the Digital Imaging and Communications in Medicine (DICOM) standard. DICOM files can be stored on different platforms, such as Amazon, Microsoft, Google Cloud, etc. The management of the files, including sharing and processing, on such platforms, follows the pay-as-you-go model, according to distinct pricing models and relying on various systems (Relational Data Management Systems or DBMSs or NoSQL systems). In addition, DICOM data can be structured following traditional (row or column) or hybrid (row-column) data storages. As a consequence, medical data management in cloud federations raises Multi-Objective Optimization Problems (MOOPs) for (1) query processing and (2) data storage, according to users preferences, related to various measures, such as response time, monetary cost, qualities, etc. These problems are complex to address because of heterogeneous database engines, the variability (due to virtualization, large-scale communications, etc.) and high computational complexity of a cloud federation. To solve these problems, we propose a MedIcal system on clouD federAtionS (MIDAS). First, MIDAS extends IReS, an open source platform for complex analytics workflows executed over multi-engine environments, to solve MOOP in the heterogeneous database engines. Second, we propose an algorithm for estimating of cost values in a cloud environment, called Dynamic REgression AlgorithM (DREAM). This approach adapts the variability of cloud environment by changing the size of data for training and testing process to avoid using the expire information of systems. Third, Non-dominated Sorting Genetic Algorithm based ob Grid partitioning (NSGA-G) is proposed to solve the problem of MOOP is that the candidate space is large. NSGA-G aims to find an approximate optimal solution, while improving the quality of the optimal Pareto set of MOOP. In addition to query processing, we propose to use NSGA-G to find an approximate optimal solution for DICOM data configuration. We provide experimental evaluations to validate DREAM, NSGA-G with various test problem and dataset. DREAM is compared with other machine learning algorithms in providing accurate estimated costs. The quality of NSGA-G is compared to other NSGAs with many problems in MOEA framework. The DICOM dataset is also experimented with NSGA-G to find optimal solutions. Experimental results show the good qualities of our solutions in estimating and optimizing Multi-Objective Problem in a cloud federation
14

Tinni, Amadou. "Modélisation multiphysique, reconception et optimisation d’une motopompe à rotor noyé." Thesis, Université de Lorraine, 2020. http://www.theses.fr/2020LORR0103.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Utilisées dans les domaines nucléaire et chimique, les motopompes à rotor noyé sont l'un des moyens les plus sûrs pour pomper des fluides dangereux (radioactifs ou toxiques), couteux et volatils. La motopompe à rotor noyé est une unité compacte intégrant une partie hydraulique et un moteur à induction avec un arbre commun. La particularité du moteur est que deux chemises amagnétiques sont insérées dans l'entrefer pour étanchéifier le rotor des enroulements statoriques. Le fluide pompé passe à travers l’entrefer pour refroidir le moteur et lubrifier les paliers. Les nouvelles normes européennes sur le rendement (normes IEC), l’augmentation de la durée de vie des centrales nucléaires, ainsi que l’augmentation de la sécurité des installations après la catastrophe de Fukushima font que la nouvelle génération des motopompes à rotor noyé doit avoir un meilleur rendement et une meilleure durée de vie tout en remplissant les fonctions de sureté. Le but de cette thèse est de développer un modèle multiphysique combinant les parties électrique et thermique du moteur afin de déterminer le rendement et la durée de vie des moteurs à rotor noyé. L’efficacité du modèle multi-physique et son respect des tendances d’évolution ont été mis en évidence grâce à la comparaison avec les résultats d’essais expérimentaux. Une large campagne d’essais a été effectuée sur différents moteurs prototypes instrumentées. Une analyse de l’influence des paramètres caractérisant les performances électrique et thermique du moteur à rotor noyé a été réalisée et des indications sur la reconception des motopompes à rotor noyé ont été formulées afin d’avoir un meilleur rendement et grande durée de vie
Canned motor pumps are one of the safest ways to pump dangerous (radioactive, toxic), expensive and volatile fluids in nuclear and chemical fields. The canned motor pump is a compact unit integrating a hydraulic part and an induction motor with a common shaft. The special feature of the motor is that two non-magnetic cylindrical tube called “the can” are inserted into the air gap to seal the rotor from the stator windings. The pumped fluid passes through the air gap to cool the motor and lubricates the bearings. The new European standards on the motor efficiency (IEC standards), the increase in the service life of nuclear power plants in France, as well as the increased safety of the nuclear power plant installations after the Fukushima catastrophe are the reasons why canned motor pumps have to be designed with better efficiency and service life while fulfilling safety functions. The purpose of this PhD thesis is to develop a multiphysical model combining the electrical and thermal parts of canned motor to determine the efficiency and service life of canned motor. The reliability of the established multi-physical model has been validated by a comparison with the experimental test results carried out on different instrumented prototype motors. An analysis of the influence of parameters that determine the electrical and thermal performances of the canned motor was carried out and indications on the redesign of canned motor pumps were formulated to have motors with better efficiency and longer service life
15

Bois, Jérémy. "Outil d’aide à la décision pour la conception de maisons solaires à énergie positive." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0679/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les enjeux énergétiques et environnementaux liés au réchauffement climatique amènent à généraliser la sobriété énergétique des bâtiments neufs ainsi que la production locale d’énergie à l’horizon 2020. Ce travail de thèse se concentre sur le secteur de la maison individuelle qui représente près de la moitié des logements neufs construits en France pour un volume d’environ 200000 unités par an.Le contexte de la maison individuelle à énergie positive 100 % solaire consiste à rechercher les compromis entre le niveau de performance du bâti qui détermine les besoins en énergie et la capacité des équipements à valoriser l’énergie solaire pour d’une part subvenir aux besoins en chaleur pour assurer le chauffage et la production d’eau chaude sanitaire, et d’autre part produire l’électricité nécessaire à l’éclairage et aux autres usages spécifiques (matériels électroménager, vidéo, etc.). Après un examen des différents concepts de bâtiments à énergie positive, une analyse a été menée pour identifier les solutions techniques de systèmes solaires combinés capables de fournir le double service de production d’eau chaude et de chauffage. Un modèle détaillé a été développé dans l’environnement Dymola et vérifié par inter-comparaison de modèles à l’échelle des composants. Un algorithme de contrôle original a été mis au point pour maximiser la performance globale du système.Une première étude paramétrique a montré que ce système est capable dans certaines conditions de couvrir près de 80 % des besoins en chaleur de la maison étudiée. Néanmoins, son dimensionnement demeure complexe et la recherche de compromis entre la sobriété de la maison et le dimensionnement des systèmes solaires thermiques et photovoltaïques doit s’appuyer sur un algorithme d’optimisation multi-objectifs adapté.Un chapitre est donc consacré à l’élaboration d’un algorithme d’optimisation multi- objectifs qui s’appuie sur la méthode des colonies d’abeilles virtuelles. Cette approche s’est avérée particulièrement pertinente vis à vis du problème (paramètres discrets, continus et qualitatifs) à caractère multiobjectifs(maximiser la valorisation du solaire thermique pour le chauffage d’une part et pour la production d’eau chaude d’autre part, minimiser la consommation d’énergie conventionnelle) et sous contrainte car seules les solutions à bilan d’énergie positif sur l’année seront retenues. L’algorithme d’optimisation développé ici a été confronté à une série de problèmes classiques et a démontré sa capacité à construire l’ensemble des solutions avec un nombre relativement faible d’évaluations du modèle.Le dernier chapitre présente deux applications de conception de maisons à énergie positive. La première se situe en région bordelaise alors que la seconde est située à proximité de Strasbourg. Ces deux conditions climatiques permettent de mettre en évidence la capacité de l’algorithme d’optimisation à proposer un éventail de solutions optimales présentant des compromis différents en termes de performance du bâti et de dimensionnement des équipements solaires. Enfin, un outil d’aide à la décision permet d’explorer les fronts optimaux pour dégager les solutions à retenir
With energy-related and environmental climate change challenges, energy sobriety and local energy production are yet to become a mainstream practice for new buildings construction by 2020. This works focuses on single-family houses which in France represent half of new buildings constructions with 200000 new units new units each year. Near zero energy single-family houses with 100 % solar energy consists on compromising between performance of building envelope which defines energy needs and the ability for equipments to value free solar energy. Hence solar energy must be able to cover space heating and domestic hot waterdemands but also provide enough energy for lightning and other specific uses such as domestic appliances.After a literature review of near zero energy house concepts, an analysis was undertaken to providea clear view of solar combi-systems technical solutions with the ability to provide enough energyfor both needs : space heating and domestic hot water. Using Dymola environment a detailed modelwas developed and its consistency was checked by inter-comparison at component scale. An innovative control algorithm has been worked out to maximize the solar system’s global performance. Afirst parametric study has shown that the system was able to cover close to 80 % of house heat requirement. However sizing of a solar combi-system is a complex task and requires to find compromises between building sobriety, solar thermal energy efficiency, and photovoltaics solar energy sizing. Because of the problem’s complexity, a decision aid tool with an appropriate multi-criteria optimizationalgorithm is required.To that end a chapter is dedicated to the development of a multi-criteria optimization algorithm based on artificial bee colony behavior. This approach has proved to be quite effective to solve the problem and to handle continuous, discrete and qualitative decision variables. Chosen solution was constrained to have a positive energy balance and must maximize solar space heating and domestic fraction in a view to reduce total energy consumption. A validation process has also been set up and the developed optimization algorithm has proved its ability to solve standard problems with a fairlyshort number of evaluations. Adopted methodology was illustrated by two applications of the design phase of a near zero energydetached house. First one is located at Bordeaux an second one in Strasbourg. Selected climate conditions emphasize the ability of the proposed approach to identify a wide range of optimal solutions showing differences within the building’s performance as well as the solar system sizing. Lastly a decision aid tool allows to explore optimal front in a convenient way to shape adapted solutions
16

Essaadi, Imane. "Conception de réseaux de distribution pour une personnalisation produit : une contextualisation à l'échelle du continent Africain." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100182/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face à la forte concurrence internationale, de nombreuses entreprises manufacturières orientent leurs investissements vers les marchés africains pour accroître leur part de marché et rester compétitives sur le marché mondial. Ces marchés sont effet en plein essor mais demandent des produits de grande diversité. En dépit de cette attractivité, les flux commerciaux en Afrique demeurent faibles en raison de la faible qualité des infrastructures et de l’absence d’écosystèmes logistiques régionaux connectant les pays africains de manière fiable et efficace.C’est pourquoi cette thèse de doctorat s’intéresse à la modélisation et à la résolution du problème de conception de réseaux de distribution hybrides en Afrique, intégrant des plateformes de distribution et de personnalisation finale des produits. Ces réseaux incluent, en amont, des hubs régionaux servant de porte d’entrée vers les marchés d’une région continentale. Le report de la personnalisation finale en aval du réseau logistique permet de réduire les délais de livraison aux marchés et le coût de distribution tout en maintenant une économie d’échelle. La méthodologie que nous proposons repose sur deux grands axes de recherche :▪ Le premier axe vise à définir la localisation des hubs logistiques régionaux, sur la base d’une analyse multicritères floue, version améliorée de TOPSIS floue et d'AHP ;▪ Le deuxième axe aborde conception de réseaux de distribution hybrides servant des marchés fortement diversifiés (exemple : marchés des engrais). Nous avons proposé deux nouveaux modèles d'optimisation multi-objectifs minimisant le coût total d’exploitation et d’investissement, maximisant la proximité des produits aux marchés et minimisant les dommages sur les produits finis durant leur distribution. Le premier modèle est déterministe tandis que le deuxième propose une conception flexible alignée sur la dynamique et l’incertitude de l’évolution des marchés africains
In the context of intense international competition, many manufacturing firms are directing their investments toward African markets to increase their market share and maintain their competitiveness in the global market. These markets are rapidly growing but require customized products. Despite their attractivity, trade flows in Africa remain low due to the poor quality of infrastructure and the lack of regional logistic ecosystems, connecting African countries through reliable and efficient services.This doctoral thesis therefore focuses on modelling and solving the problem of designing hybrid distribution networks in Africa, integrating distribution and final customization platforms. These networks incorporate, upstream, regional hubs that serve as gateways to regional markets. The postponement of final customization downstream of the logistics network reduces the delivery times and downstream distribution costs while maintaining upstream economies of scale.The methodology we suggest is based on two main areas of research:▪ The first axis aims to define the location of regional logistics hubs, based on a fuzzy multi-criteria analysis approach, which is an improved version of TOPSIS fuzzy and AHP;▪ The second axis focuses on the design of hybrid distribution networks serving highly diversified markets in Africa (for example: fertilizer markets). To this aim, we propose two new multi-objective optimization models minimizing total operating and investment costs, maximizing product proximity to markets and minimizing damage to finished products during their distribution. The first model is deterministic while the second one proposes a flexible design in response to the dynamics and uncertainty of the evolution of African markets

До бібліографії