To see the other types of publications on this topic, follow the link: Optimisation par essaim particulaires.

Dissertations / Theses on the topic 'Optimisation par essaim particulaires'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Optimisation par essaim particulaires.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cooren, Yann Siarry Patrick. "Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire application en génie médical et en électronique /." S. l. : Paris Est, 2008. http://doxa.scd.univ-paris12.fr:80/theses/th0494552.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Smairi, Nadia. "Optimisation par essaim particulaire : adaptation de tribes à l'optimisation multiobjectif." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00981558.

Full text
Abstract:
Dans le cadre de l'optimisation multiobjectif, les métaheuristiques sont reconnues pour être des méthodes performantes mais elles ne rencontrent qu'un succès modéré dans le monde de l'industrie. Dans un milieu où seule la performance compte, l'aspect stochastique des métaheuristiques semble encore être un obstacle difficile à franchir pour les décisionnaires. Il est donc important que les chercheurs de la communauté portent un effort tout particulier sur la facilité de prise en main des algorithmes. Plus les algorithmes seront faciles d'accès pour les utilisateurs novices, plus l'utilisation de ceux-ci pourra se répandre. Parmi les améliorations possibles, la réduction du nombre de paramètres des algorithmes apparaît comme un enjeu majeur. En effet, les métaheuristiques sont fortement dépendantes de leur jeu de paramètres. Dans ce cadre se situe l'apport majeur de TRIBES, un algorithme mono-objectif d'Optimisation par Essaim Particulaire (OEP) qui fonctionne automatiquement,sans paramètres. Il a été mis au point par Maurice Clerc. En fait, le fonctionnement de l'OEP nécessite la manipulation de plusieurs paramètres. De ce fait, TRIBES évite l'effort de les régler (taille de l'essaim, vitesse maximale, facteur d'inertie, etc.).Nous proposons dans cette thèse une adaptation de TRIBES à l'optimisation multiobjectif. L'objectif est d'obtenir un algorithme d'optimisation par essaim particulaire multiobjectif sans paramètres de contrôle. Nous reprenons les principaux mécanismes de TRIBES auxquels sont ajoutés de nouveaux mécanismes destinés à traiter des problèmes multiobjectif. Après les expérimentations, nous avons constaté, que TRIBES-Multiobjectif est moins compétitif par rapport aux algorithmes de référence dans la littérature. Ceci peut être expliqué par la stagnation prématurée de l'essaim. Pour remédier à ces problèmes, nous avons proposé l'hybridation entre TRIBES-Multiobjectif et un algorithme de recherche locale, à savoir le recuit simulé et la recherche tabou. L'idée était d'améliorer la capacité d'exploitation deTRIBES-Multiobjectif. Nos algorithmes ont été finalement appliqués sur des problèmes de dimensionnement des transistors dans les circuits analogiques
APA, Harvard, Vancouver, ISO, and other styles
3

Peng, Zhihao. "Optimisation par essaims particulaires pour la logistique urbaine." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA010/document.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la gestion des flux de marchandises en zone urbaine aussi appelée logistique du dernier kilomètre, et associée à divers enjeux d’actualité : économique, environnemental, et sociétal. Quatre principaux acteurs sont concernés par ces enjeux : chargeurs, clients, transporteurs et collectivités, ayant chacun des priorités différentes (amélioration de la qualité de service, minimisation de la distance parcourue, réduction des émissions de gaz à effet de serre, …). Face à ces défis dans la ville, un levier d’action possible consiste à optimiser les tournées effectuées pour la livraison et/ou la collecte des marchandises. Trois types de flux urbains sont considérés : en provenance ou à destination de la ville, et intra-urbains. Pour les flux sortants et entrants dans la ville, les marchandises sont d’abord regroupées dans un entrepôt situé en périphérie urbaine. S’il existe plusieurs entrepôts, le problème de planification associé est de type Location Routing Problem (LRP). Nous en étudions une de ses variantes appelée Capacitated Location Routing Problem (CLRP). Dans cette dernière, en respectant la contrainte de capacité imposée sur les véhicules et les dépôts, la localisation des dépôts et la planification des tournées sont considérées en même temps. L’objectif est de minimiser le coût total qui est constitué du coût d’ouverture des dépôts, du coût d’utilisation des véhicules, et du coût de la distance parcourue. Pour tous les flux, nous cherchons également à résoudre un problème de tournées de type Pickup and Delivery Problem (PDP), dans lequel une flotte de véhicules effectue simultanément des opérations de collecte et de livraison. Nous nous sommes focalisés sur deux de ses variantes : la variante sélective où toutes les demandes ne sont pas toujours satisfaites, dans un contexte de demandes appairées et de sites contraints par des horaires d’ouverture et fermeture (Selective Pickup and Delivery Problem with Time Windows and Paired Demands, ou SPDPTWPD). La seconde variante étudiée est l’extension de la première en ajoutant la possibilité d’effectuer les transports en plusieurs étapes par l’introduction d’opérations d’échanges des marchandises entre véhicules en des sites de transfert (Selective Pickup and Delivery with Transfers ou SPDPT). Les objectifs considérés pour ces deux variantes de PDP sont de maximiser le profit et de minimiser la distance. Chaque problème étudié fait l’objet d’une description formelle, d’une modélisation mathématique sous forme de programme linéaire, puis d’une résolution par des méthodes exactes, heuristiques et/ou métaheuristiques. En particulier nous avons développé des algorithmes basés sur une métaheuristique appelée Particle Swarm Optimization, que nous avons hybridée avec de la recherche locale. Les approches sont validées sur des instances de différentes tailles issues de la littérature et/ou que nous avons générées. Les résultats sont analysés de façon critique pour mettre en évidence les avantages et inconvénients de chaque méthode
In this thesis, we are interested in the management of goods flows in urban areas, also called last mile logistics, and associated with various current issues: economic, environmental, and societal. Four main stakeholders are involved by these challenges: shippers, customers, carriers and local authorities, each with different priorities (improving service quality, minimizing the travelling distance, reducing greenhouse gas emissions, etc.). Faced with these challenges in the city, one possible action lever is to optimize the routes for the pickup and/or delivery of goods. Three types of urban flows are considered: from or to the city, and intra-urban. For outgoing and incoming flows into the city, the goods are first grouped in a warehouse located on the suburban area of the city. If there are several warehouses, the associated planning problem is the Location Routing Problem (LRP). We are studying one of its variants called the Capacitated Location Routing Problem (CLRP). In this problem, by respecting the capacity constraint on vehicles and depots, the location of depots and route planning are considered at the same time. The objective is to minimize the total cost, which consists of the cost of opening depots, the cost of using vehicles, and the cost of the travelling distance. For all flows, we are also looking to solve a Pickup and Delivery Problem (PDP), in which a fleet of vehicles simultaneously carries out pickup and delivery operations. We focus on two of its variants: the selective variant where not all requests are satisfied, in a context of paired demands and time windows on sites (Selective Pickup and Delivery Problem with Time Windows and Paired Demands, or SPDPTWPD). The second studied variant is the extension of the first one by adding the possibility of carrying out transport in several stages by introducing operations for the exchange of goods between vehicles at transfer sites (Selective Pickup and Delivery with Transfers or SPDPT). The considered objectives for these two variants of PDP are to maximize profit and to minimize distance. Each studied problem is formally described, mathematically modelled as a linear program and then solved by exact, heuristic and/or metaheuristic methods. In particular, we have developed algorithms based on a metaheuristic called Particle Swarm Optimization, which we have hybridized with local search operators. The approaches are validated on instances of different sizes from the literature and/or on instances that we have generated. The results are critically analyzed to highlight the advantages and drawbacks of each method
APA, Harvard, Vancouver, ISO, and other styles
4

El, Dor Abbas. "Perfectionnement des algorithmes d'optimisation par essaim particulaire : applications en segmentation d'images et en électronique." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00788961.

Full text
Abstract:
La résolution satisfaisante d'un problème d'optimisation difficile, qui comporte un grand nombre de solutions sous-optimales, justifie souvent le recours à une métaheuristique puissante. La majorité des algorithmes utilisés pour résoudre ces problèmes d'optimisation sont les métaheuristiques à population. Parmi celles-ci, nous intéressons à l'Optimisation par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO s'inspire de la dynamique d'animaux se déplaçant en groupes compacts (essaims d'abeilles, vols groupés d'oiseaux, bancs de poissons). Les particules d'un même essaim communiquent entre elles tout au long de la recherche pour construire une solution au problème posé, et ce en s'appuyant sur leur expérience collective. L'algorithme PSO, qui est simple à comprendre, à programmer et à utiliser, se révèle particulièrement efficace pour les problèmes d'optimisation à variables continues. Cependant, comme toutes les métaheuristiques, PSO possède des inconvénients, qui rebutent encore certains utilisateurs. Le problème de convergence prématurée, qui peut conduire les algorithmes de ce type à stagner dans un optimum local, est un de ces inconvénients. L'objectif de cette thèse est de proposer des mécanismes, incorporables à PSO, qui permettent de remédier à cet inconvénient et d'améliorer les performances et l'efficacité de PSO. Nous proposons dans cette thèse deux algorithmes, nommés PSO-2S et DEPSO-2S, pour remédier au problème de la convergence prématurée. Ces algorithmes utilisent des idées innovantes et se caractérisent par de nouvelles stratégies d'initialisation dans plusieurs zones, afin d'assurer une bonne couverture de l'espace de recherche par les particules. Toujours dans le cadre de l'amélioration de PSO, nous avons élaboré une nouvelle topologie de voisinage, nommée Dcluster, qui organise le réseau de communication entre les particules. Les résultats obtenus sur un jeu de fonctions de test montrent l'efficacité des stratégies mises en oeuvre par les différents algorithmes proposés. Enfin, PSO-2S est appliqué à des problèmes pratiques, en segmentation d'images et en électronique
APA, Harvard, Vancouver, ISO, and other styles
5

Hassine, Hichem. "Modélisation, simulation et optimisation pour l'éco-fabrication." Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2015. http://www.theses.fr/2015ECAP0016/document.

Full text
Abstract:
Cette thèse se focalise sur la proposition et l’application des approches pour la modélisation de l’éco-fabrication. Ces approches permettent de préparer et simuler une démarche de fabrication des produits en assurant le couplage entre les objectifs écologiques et économiques.Les approches développées dans cette thèse sont basées sur les notions d’aide à la décision ainsi que l’optimisation multi objectifs. L’aide à la décision permet l’intervention en deux différents niveaux : le choix des impacts environnementaux à quantifier ainsi que le choix du scénario final de fabrication. Pour l’optimisation multi objectifs, elle assure le couplage entre les deux piliers principaux de l’éco-fabrication : l’écologie et l’économie. Au niveau de l’aide à la décision multi critères, les méthodes Evamix et Promethee ont été appliqués, tandis que les essaims particulaires ont été développés dans le cadre de l’optimisation multi objectifs.Ces approches ont été appliquées tout d’abord aux quelques opérations d’usinage : tournage et fraisage. Finalement, la chaîne de fabrication de l’acide phosphorique ainsi que celle d’acide sulfurique ont été le sujet de l’application des deux approches développées
This thesis focuses on the proposal and implementation of approaches for modeling sustainable manufacturing. These approaches are used to prepare and simulate a process of manufacturing products providing coupling between environmental and economic objectives.The approaches developed in this thesis are based on the concepts of decision support as well as multi-objective optimization. The decision support allows intervention in two different levels: the choice of indicator to quantify the environmental impacts and the choice of the final manufacturing scenario. For multi-objective optimization, it provides the coupling between the two main pillars of sustainable manufacturing: ecology and economy. In terms of multi criteria decision aid methods, Evamix and Promethee were applied, while particulate swarms were developed as part of the multi-objective optimization. These approaches have been applied initially to some machining operations: turning and milling. Finally, the production line of phosphoric acid and sulfuric acid were the subject of application of the two approaches developed
APA, Harvard, Vancouver, ISO, and other styles
6

Sun, Yanxia. "Improved particle swarm optimisation algorithms." Thesis, Paris Est, 2011. http://encore.tut.ac.za/iii/cpro/DigitalItemViewPage.external?sp=1000395.

Full text
Abstract:
D. Tech. Electrical Engineering.
Particle Swarm Optimisation (PSO) is based on a metaphor of social interaction such as birds flocking or fish schooling to search a space by adjusting the trajectories of individual vectors, called "particles" conceptualized as moving points in a multidimensional space. This thesis presents several algorithms/techniques to improve the PSO's global search ability. Simulation and analytical results confirm the efficiency of the proposed algorithms/techniques when compared to the other state of the art algorithms.
APA, Harvard, Vancouver, ISO, and other styles
7

Cooren, Yann. "Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire : application en génie médical et en électronique." Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00462106.

Full text
Abstract:
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque problème posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boîte noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critère d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques
APA, Harvard, Vancouver, ISO, and other styles
8

Mahanfar, Alireza. "Contribution au développement de méthodes d'optimisation avancées pour la conception électromagnétique de circuits et dispositifs microondes." Limoges, 2005. http://aurore.unilim.fr/theses/nxfile/default/fc1e3b95-dc2d-4ba7-9b7a-c8fa46ecb1c8/blobholder:0/2005LIMO0063.pdf.

Full text
Abstract:
Ce mémoire est dédié à l'amélioration des méthodes d'optimisation classiquement utilisées pour la conception électromagnétique des circuits et dispositifs micro-ondes. Les améliorations apportées par ce travail ont concerné deux axes : - L'utilisation de modèles électromagnétiques paramétrés permettant d'accélérer les procédures d'optimisation en court-circuitant les simulations numériques. Le travail est consacré à la paramétrisation de la géométrie et à son application à l'optimisation des dispositifs micro-ondes. Il est montré qu'en utilisant la paramétrisation géométrique, la boucle d'optimisation classique peut être fondamentalement modifiée, de sorte à limiter au strict minimum le nombre d'analyses électromagnétiques. La paramétrisation du maillage est une étape essentielle pour la paramétrisation géométrique efficace du modèle électromagnétique: plusieurs techniques sont alors présentées et illustrées avec quelques exemples. - L'utilisation de méthodes évolutionnaires efficaces comme stratégie d'optimisation pour réduire les risques de divergence ou d'optimum local traditionnellement rencontrés avec les stratégies de type gradient. Une nouvelle technique évolutionnaire, très récemment introduite dans le domaine de l'électromagnétisme est la méthode des « essaims particulaires » (particle Swarm Optimization - PSO). Les détails de la technique sont tout d'abord donnés puis appliqués à l'optimisation de circuits et dispositifs micro-ondes à travers plusieurs exemples
This dissertation deals with the improvement of the optimization methods classically used for the electromagnetic design of the microwave devices and circuits. The improvement are addressed mainly through two distinct approaches : - The use of parameterized electromagnetic models that enables accelerating the procedures of optimization by avoiding multiple calculations of the electromagnetic fields. The major attention is devoted to tbe parameterization of the geometry and its application to the optimization of the microwave devices. It is shown that by using geometrical parameterization, the traditionalloop of optimization can be basically modified, so that the number of required electromagnetic analyses will be minimal. The parameterization of mesh is essential for effective geometrical parameterization of an electromagnetic model: several techniques are then presented and illustrated with some examples. - The use of effective evolutionary methods to reduce the risks of divergence that happens when using gradient-based techniques. This is specifically important when there is no or a little knowledge about the initial structure dimensions and/or its topology. A new evolutionary technique, very lately introduced into the field ofelectromagnetism is the method of the Particle Swarm Optimization (PSO). The technique and its different variants are discussed in detail followed by several examples which deploys different potentials ofthis technique
APA, Harvard, Vancouver, ISO, and other styles
9

Boukef, Hela. "Sur l'ordonnancement d'ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires." Phd thesis, Ecole Centrale de Lille, 2009. http://tel.archives-ouvertes.fr/tel-00577101.

Full text
Abstract:
Pour la résolution de problèmes d'ordonnancement d'ateliers de type flow-shop en industries pharmaceutiques et d'ateliers de type job-shop flexible, deux méthodes d'optimisation ont été développées : une méthode utilisant les algorithmes génétiques dotés d'un nouveau codage proposé et une méthode d'optimisation par essaim particulaire modifiée pour être exploitée dans le cas discret. Les critères retenus dans le cas de lignes de conditionnement considérées sont la minimisation des coûts de production ainsi que des coûts de non utilisation des machines pour les problèmes multi-objectifs relatifs aux industries pharmaceutiques et la minimisation du Makespan pour les problèmes mono-objectif des ateliers job-shop flexibles.Ces méthodes ont été appliquées à divers exemples d'ateliers de complexités distinctes pour illustrer leur mise en œuvre. L'étude comparative des résultats ainsi obtenus a montré que la méthode basée sur l'optimisation par essaim particulaire est plus efficace que celle des algorithmes génétiques, en termes de rapidité de la convergence et de l'approche de la solution optimale
APA, Harvard, Vancouver, ISO, and other styles
10

Boukef, Hela. "Sur l’ordonnancement d’ateliers job-shop flexibles et flow-shop en industries pharmaceutiques : optimisation par algorithmes génétiques et essaims particulaires." Thesis, Ecole centrale de Lille, 2009. http://www.theses.fr/2009ECLI0007/document.

Full text
Abstract:
Pour la résolution de problèmes d’ordonnancement d’ateliers de type flow-shop en industries pharmaceutiques et d’ateliers de type job-shop flexible, deux méthodes d’optimisation ont été développées : une méthode utilisant les algorithmes génétiques dotés d’un nouveau codage proposé et une méthode d’optimisation par essaim particulaire modifiée pour être exploitée dans le cas discret. Les critères retenus dans le cas de lignes de conditionnement considérées sont la minimisation des coûts de production ainsi que des coûts de non utilisation des machines pour les problèmes multi-objectifs relatifs aux industries pharmaceutiques et la minimisation du Makespan pour les problèmes mono-objectif des ateliers job-shop flexibles.Ces méthodes ont été appliquées à divers exemples d’ateliers de complexités distinctes pour illustrer leur mise en œuvre. L’étude comparative des résultats ainsi obtenus a montré que la méthode basée sur l’optimisation par essaim particulaire est plus efficace que celle des algorithmes génétiques, en termes de rapidité de la convergence et de l’approche de la solution optimale
For flexible job-shop and pharmaceutical flow-shop scheduling problems resolution, two optimization methods are considered: a genetic algorithm one using a new proposed coding and a particle swarm optimization one modified in order to be used in discrete cases.The criteria retained for the considered packaging lines in pharmaceutical industries multi-objective problems are production cost minimization and total stopping cost minimization. For the flexible job-shop scheduling problems treated, the criterion taken into account is Makespan minimization.These two methods have been applied to various work-shops with distinct complexities to show their efficiency.After comparison of these methods, the obtained results allowed us to notice the efficiency of the based particle swarm optimization method in terms of convergence and reaching optimal solution
APA, Harvard, Vancouver, ISO, and other styles
11

Dubreil, Hervé. "Méthodes d'optimisation de contrôleurs de logique floue pour le paramétrage automatique des réseaux mobiles UMTS." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001822.

Full text
Abstract:
Les opérateurs pourraient améliorer la qualité de service et les performances des réseaux UMTS en adaptant judicieusement les paramètres de gestion de ressource radio (RRM). L'objectif de cette thèse est de développer des méthodes de paramétrage automatique des réseaux UMTS. Deux modes de fonctionnement ont été envisagés: le paramétrage off-line et l'adaptation on-line. Le premier mode permet à l'aide d'un simulateur de réseau mobile de déterminer le réglage des paramètres RRM le plus adapté pour une demande en trafic donnée. Le second mode ou ingénierie dynamique est un processus qui permettra d'ajuster dynamiquement certains paramètres contrôlant des algorithmes de RRM pour adapter le réseau mobile aux fluctuations de trafic. Le processus d'ingénierie automatique est basé sur une boucle de régulation qui est orchestrée par un contrôleur de logique floue. Ce contrôleur reçoit en entrées des indicateurs de qualité filtrés et produit en sortie un jeu de paramètres RRM modifiés. Pour améliorer les performances de ces contrôleurs, deux méthodes d'optimisation automatique ont été développées et testées numériquement à l'aide d'un simulateur de réseaux mobiles. La première est une méthode d'optimisation itérative stochastique: l'optimisation par essaim de particules. La seconde approche est fondée sur l'algorithme de Q-learning qui appartient à la famille des méthodes d'apprentissage par renforcement. Pour cela, il a été nécessaire de modéliser nos contrôleurs comme des systèmes d'inférence floue (SIF). Ces méthodes de contrôle ont été testées sur deux algorithmes RRM importants des réseaux UMTS: le contrôle d'admission et la macro-diversité. La méthode de contrôle automatique par SIF nous apparaît suffisamment générique pour pouvoir non seulement s'adapter aux autres algorithmes RRM, mais aussi à différents scénarii de gestion coordonnée des réseaux d'accès radio multi-systèmes.
APA, Harvard, Vancouver, ISO, and other styles
12

Yalaoui, Naïm. "Agencement et ordonnancement d'un atelier de l'industrie automobile et aéronautique." Troyes, 2010. http://www.theses.fr/2010TROY0021.

Full text
Abstract:
Dans cette thèse, nous avons étudié une problématique industrielle d’agencement et d’ordonnancement. Nous avons résolu le problème d’agencement en utilisant une approche nouvelle en 3 étapes. La première est un regroupement technologique des produits et des machines pour la minimisation des flux intercellulaires avec un algorithme génétique. Les machines sont ensuite affectées à des positions dans la deuxième étape avec la prise en compte de leurs appartenances aux familles. L’objectif est de minimiser les distances entre les machines en utilisant un algorithme à colonies de fourmis. La dernière étape est une évaluation par une agrégation pondérée des deux objectifs précédents. Nous nous sommes ensuite intéressés au niveau opérationnel avec la résolution d’un problème d’ordonnancement flow shop hybride avec pré affectation. L’objectif est la minimisation de la somme des retards. Une formulation mathématique a été proposée avec une résolution exacte. Un algorithme génétique et un algorithme d’essaim particulaire ont été développés. Ceux-ci ont été hybridés avec la logique floue afin de contrôler leurs paramètres. Une autre étude a été menée sur une autre problématique d’ordonnancement avec un aspect réentrant. Des métaheuristiques telles que l’algorithme génétique, l’algorithme à essaim particulaire ainsi que ces deux méthodes sous contrôleurs de logique floue ont été appliquées. Les résultats obtenus sur les différentes problématiques ont permit d’apporter des améliorations conséquentes comparées au cas industriel ainsi que l’implémentation d’applications informatiques
In this thesis, we studied an industrial layout and a scheduling problem. We solved the first one using a new approach. This is done on three steps. The first one is used to group ma-chines and products into families according to their production technology for the minimization of inter-cells flows using a genetic algorithm. The machines are then assigned to positions in the second stage with consideration of their memberships families. This step aims to minimize distances between machines using for its resolution an ant colony optimisation method. The last step is an assessment by a weighted aggregation of the two previous objectives. We further studied an hybrid flow shop problem with pre assigned orders. The objective is to minimize the total tardiness. A mathematical formulation was given with an exact resolution. A genetic algorithm and a particle swarm optimisation were developed. Both methods were associated with fuzzy logic to control their parameters. Improvement as well as the quality of solutions found is very interesting. Another study was conducted on another scheduling problem with re-entrant orders. Metaheuristics such as a genetic algorithm and particle swarm optimization were applied under fuzzy logic controller. The results obtained on different issues are very interesting compared to the industrial case. A computer application was also implemented on different topics
APA, Harvard, Vancouver, ISO, and other styles
13

Dubreil, Hervé. "Méthodes d'optimisation de contrôleurs de logique floue pour le paramétrage automatique des mobiles UMTS /." Paris : École nationale supérieure des télécommunications, 2006. http://catalogue.bnf.fr/ark:/12148/cb409496371.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Matriche, Yacine. "Détection et identification d’objets enfouis par sondage électromagnétique." Nantes, 2015. http://www.theses.fr/2015NANT2067.

Full text
Abstract:
La problématique de la thèse est liée à la recherche de solutions pouvant conduire à la détection et la localisation de mines antipersonnel en se basant sur des méthodes électromagnétiques. L'étude bibliographique a permis de s'orienter vers l'utilisation conjointe de deux techniques électromagnétiques complémentaires, à savoir le système de Radar à Pénétration de Sol (GPR) et le système à Induction Electro Magnétique (EMI). La modélisation par GPR est basée sur la méthode FDTD (Finite Difference Time Domain) tandis que celle utilisant l'EMI s'appuie sur la méthode des éléments finis (MEF). L'exploitation de l'un ou l'autre des systèmes GPR et EMI suit trois étapes complémentaires. La première étape consiste à localiser les objets suspects par détection de ruptures au niveau des données EMI et/ou GPR causées par la présence d'objets, et ce par l'emploi de la méthode KCD (Kernel Change Detection). La deuxième étape traite de la caractérisation de l'objet en exploitant la méthode PSO (Particle Swarm Optimization). Pour garantir la convergence vers un minimum global, et donc une solution unique, des éléments d'amélioration des performances de la méthode PSO sont introduits et concernent notamment l'exploration de l'espace de définition des particules, le suivi de leur comportement et la vitesse de convergence. L'association de la technique PSO aux deux méthodes FDTD et MEF a conduit à la localisation d'objets enfouis et la détermination de leurs caractéristiques géométriques et physiques. La dernière étape consiste à introduire les données géométriques et physiques issues de la deuxième étape dans un programme SVM (Support Vector Machine), et ce à des fins de classification de l'objet. La méthodologie est ensuite appliquée à la simulation de trois types de mines quant à leur identification et leur classification. Des données réelles issues d'une compagne de mesures ont conduit à la validation de la méthodologie
The thesis work is related to the search for solutions which may lead to the detection and location of landmines using electromagnetic methods. The bibliographical study allowed moving towards joint use of two complementary electromagnetic techniques, namely the Ground Penetration Radar (GPR) and the Electro Magnetic Induction (EMI) systems. GPR modeling is based on the Finite Difference Time Domain (FDTD), while that using the EMI is based on the Finite Element Method (FEM). The exploitation of one or other of the GPR and EMI follows three complementary steps. The first step is to locate suspicious objects by detecting ruptures at the EMI and/or GPR data caused by the presence of objects, using the KCD method (Kernel Change Detection). The second step deals with the characterization of the object by exploiting the Particle Swarm Optimization (PSO) technique. To guarantee convergence to a global minimum, and therefore a unique solution, improving performing elements are introduced into the PSO method, concerning in particular the exploration of the particles definition space, their behavior monitoring and the speed convergence. The association of the PSO technique to FDTD and MEF methods led to the location of buried objects and determination of their geometrical and physical characteristics. The last step is to introduce the geometrical and physical data provided from the second step, in a program SVM (Support Vector Machine), for the purpose of classification of the object. The methodology was then applied to the simulation of three types of mines for their identification and classification. Real data coming from measurements led to the methodology validation
APA, Harvard, Vancouver, ISO, and other styles
15

Kessentini, Sameh. "Modélisation et optimisation de nanostructures plasmoniques : applications biomédicales." Troyes, 2012. http://www.theses.fr/2012TROY0024.

Full text
Abstract:
Cette thèse porte sur la modélisation et l’optimisation des structures plasmoniques : les biocapteurs nanostructurés dédiés à un diagnostic précoce de maladie et les nanoparticules utilisées en thérapie photothermique. Le mode opératoire de ces structures se base sur l’interaction avec la lumière. Pour les modéliser, le problème de diffusion électromagnétique est résolu en utilisant la théorie de Mie ou l’approximation discrétisation de dipôles. Le modèle numérique a été développé pour décrire l’effet de plusieurs paramètres des biocapteurs. Ensuite, le modèle est validé par comparaison à des résultats expérimentaux. Pour l’optimisation de ce type de problèmes à variables continues, l’optimisation par essaims particulaires est choisie. Certaines faiblesses des algorithmes ont été décryptées en introduisant un jeu d’essai plasmonique et des développements algorithmiques ont été proposés et validées sur un jeu d’essai de référence et celui plasmonique. L’optimisation du biocapteur montre que sa sensibilité (donnée par le gain en spectroscopie Raman) peut être augmentée de six fois par rapport au meilleur résultat expérimental. L’optimisation des nanoparticules (maximisation de leur absorption de la lumière) donne aussi des résultats nettement meilleurs que ceux reportés en littérature. De plus ces nanoparticules optimisées sont comparées entre elles. Enfin, la tolérance de la conception des structures optimisées est discutée
The present work deals with the modelling and optimization of the plasmonic structures: nanostructured biosensor for early disease diagnosis, and gold nanoparticles for photothermal therapy. Both structures are based on interaction with light. For modelling, the electromagnetic scattering problem is therefore solved using Mie theory and discrete dipole approximation (DDA). The numerical model is extended to take into account many parameters of biosensors. Then, the validity of the model is checked through comparison to experimental results. To optimize such problems of continuous variables, the particle swarm optimisation (PSO) is chosen. A plasmonic benchmark is introduced to test a set of algorithms and reveals some limitations. For this, we introduce a new memetic adaptive PSO (AMPSO) algorithm. The AMPSO is tested on a set of reference benchmark as well as the plasmonic benchmark and demonstrates its ability to find the global optimum solution rapidly. The optimization of biosensor shows that its sensitivity (given by the surface enhanced Raman spectroscopy gain) can be improved six times compared with the best experimental results. The optimization of nanoparticules (maximization of light absorption) reveals, as well, improved results compared to previous studies. Moreover, the optimized nanoparticles are compared to each other. Finally, the design tolerance of these nanostructures is also discussed
APA, Harvard, Vancouver, ISO, and other styles
16

Gouda, Eid Abdelbaki Ahmed. "Transmission planétaire magnétique : étude, optimisation et réalisation." Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10024/document.

Full text
Abstract:
Le travail présenté dans ce mémoire porte sur l'étude, l'optimisation et la réalisation d'une transmission planétaire magnétique. Dans notre thèse nous essayons de répondre à quelques questions intéressantes sur la possibilité de remplacer un train planétaire mécanique par un train planétaire magnétique, est-ce que la formule de Willis reste valable pour le train planétaire magnétique et est-ce que les trains magnétiques ont des performances similaires à celles des trains mécaniques ? Donc nous étudions, le remplacement du train mécanique par une transmission magnétique. Nous montrons que le train magnétique a un volume moindre, des pertes inférieures et plusieurs autres avantages. Notre but dans cette thèse est d'obtenir un "design" optimal d'un train magnétique. Nous utilisons un logiciel de calcul par éléments finis pour l'étude électromagnétique et nous cherchons également à optimiser les dimensions de ce train. Pour cela nous utilisons la méthode d'optimisation par essaim de particules (OEP). Un prototype a été réalisé ce qui permet de confronter les résultats de simulation et expérimentaux
The work presented in this thesis deals with the study, the optimisation and the realisation of a magnetic planetary transmission. We try to answer some questions about the possibility of replacing the mechanical planetary gear used in industrial machines by a magnetic planetary gear; is the formula of Willis still valid for the magnetic planetary gear and are the magnetic planetary gear performances at least similar to ones of the mechanical gears? We study the replacement of the mechanical planetary gear by a magnetic one. We show that the magnetic one has a smaller volume, lower losses and many other benefits. The objective of this work is to obtain an optimum design of a magnetic planetary gear. We use a finite element software to study the magnetic behaviour of the device and we also perform the optimization of the dimensions of the magnetic planetary gear. The particle swarm optimization method (PSO) has been used. A prototype has been built so the computation results has been compared to the experimental ones
APA, Harvard, Vancouver, ISO, and other styles
17

Madiouni, Riadh. "Contribution à la synthèse et l’optimisation multi-objectif par essaims particulaires de lois de commande robuste RST de systèmes dynamiques." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1053/document.

Full text
Abstract:
Ces travaux de recherche portent sur la synthèse systématique et l’optimisation de correcteurs numériques à structure polynomiale RST par approches métaheuristiques. Les problèmes classiques de placement de pôles et de calibrage des fonctions de sensibilité de la boucle fermée RST sont formulés sous forme de problèmes d’optimisation multi-objectif sous contraintes pour lequel des algorithmes métaheuristiques de type NSGA-II, MODE, MOPSO et epsilon-MOPSO sont proposés et adaptés. Deux formulations du problème de synthèse RST ont été proposées. La première approche, formulée dans le domaine temporel, consiste à minimiser des indices de performance, de type ISE et MO, issus de la théorie de la commande optimale et liés essentiellement à la réponse indicielle du système corrigé. Ces critères sont optimisés sous des contraintes non analytiques définis par des gabarits temporels sur la dynamique de la boucle fermée. Dans la deuxième approche de synthèse RST, une formulation dans le domaine fréquentiel est retenue. La stratégie proposée consiste à définir et calculer une fonction de sensibilité de sortie désirée en satisfaisant des contraintes de robustesse de H∞. L’utilisation de parties fixes dans la fonction de sensibilité de sortie désirée assurera un placement partiel des pôles de la boucle fermée RST. L’inverse d’une telle fonction de sensibilité désirée définira le filtre de pondération H∞ associé. Un intérêt particulier est porté à l’approche d’optimisation par essaim particulière PSO pour la résolution des problèmes multi-objectif de commande reformulés. Un algorithme MOPSO à grille adaptative est proposé et puis perfectionné à base des concepts de l’epsilon-dominance. L’algorithme epsilon-MOPSO obtenu a montré, par comparaison avec les algorithmes MOPSO, NSGA-II et MODE, des performances supérieures en termes de diversité des solutions de Pareto et de rapidité en temps de convergence. Des métriques de type distance générationnelle, taux d’erreurs et espacement sont toutefois considérées pour l’analyse statistique des résultats de mise en œuvre obtenus. Une application à la commande en vitesse variable d’un moteur électrique DC est effectuée, également pour la commande en position d’un système de transmission flexible à charges variables. La mise en œuvre par simulations numériques sur les procédés considérés est également présentée dans le but de montrer la validité et l’efficacité de l’approche de commande optimale RST proposée
This research focuses on the systematic synthesis and optimization of digital RST structure based controllers thanks to global metaheuristics approaches. The classic and hard problems of closed-loop poles placement and sensitivity functions shaping of RST control are well formulated as constrained multi-objective problems to be solved with proposed metaheuristics algorithms NSGA-II, MODE, MOPSO and especially epsilon-MOPSO. Two formulations of the metaheuristics-tuned RST problem have been proposed. The first one, which is given in the time domain, deals with the minimization of several performance criteria like the Integral Square Error (ISE) and the Maximum Overshoot (MO) indices. These optimal criteria, related primarily to the step response of the controlled plant, are optimized under non-analytical constraints defined by temporal templates on the closed-loop dynamics. In the second approach, a formulation in the frequency domain is retained. The proposed strategy aims to optimize a desired output sensitivity function satisfying H∞ robustness constraints. The use of a suitable fixed part of the optimized output sensitivity function will provide partial pole placement of the closed-loop dynamics of the digital RST controller. The opposite of such desired sensitivity function will define the associated H∞ weighting filter. The Multi-Objective Particle Swarm Optimization (MOPSO) technique is particularly retained for the resolution of all formulated multi-objective RST control problems. An adaptive grid based MOPSO algorithm is firstly proposed and then improved based on the epsilon-dominance concepts. Such proposed epsilon-MOPSO algorithm, with a good diversity of the provided Pareto solutions and fast convergence time, showed a remarkable superiority compared to the standard MOPSO, NSGA-II and MODE algorithms. Performance metrics, such as generational distance, error rate and spacing, are presented for the statistical analysis of the achieved multi-optimization results. An application to the variable speed RST control of an electrical DC drive is performed, also for the RST position control of a flexible transmission plant with varying loads. Demonstrative simulations and comparisons are carried out in order to show the validity and the effectiveness of the proposed metaheuristics-based tuned RST control approach, which is formulated in the multi-objective optimization framework
APA, Harvard, Vancouver, ISO, and other styles
18

Yousef, Labib. "Contribution à la résolution des problèmes de placement en trois dimensions." Thesis, Amiens, 2017. http://www.theses.fr/2017AMIE0020/document.

Full text
Abstract:
Les problèmes de découpe/placement interviennent dans de nombreux domaines industriels tels que le transport, la logistique et la production. Ils apparaissent soit en tant que problème principal, soit en tant que sous-problèmes de problèmes plus complexes. Ce travail s'intéresse à la résolution approchée (heuristique et métaheuristique) de nombreuses variantes du problème de découpe/placement (Cutting & Packing, notée C&P). Le problème de placement de sphères dans un container parallélépipède ouvert représente la première variante du problème traitée dans cette thèse. Le placement de sphères dans un container parallélépipède fermé est la deuxième variante du problème traitée. Finalement, le placement de sphères dans un container sphérique, qui représente la troisième variante abordée dans cette thèse. Pour ces variantes, nous proposons quatre méthodes de résolution. La première méthode s'appuie sur une recherche dichotomique et une recherche arborescente par faisceaux. Le but est de minimiser la longueur du container ouvert tout en plaçant l'ensemble des sphères disponibles.La deuxième méthode peut être vue comme une amélioration de la première méthode pour résoudre la même variante du problème de placement. Elle s'appuie sur la recherche par faisceaux combinée à la recherche dichotomique et une nouvelle estimation de la borne inférieure pour ce problème. En effet, la notion d'estimation a été introduite afin d'explorer efficacement des espaces de recherche dans lesquelles la qualité des solutions est à privilégier. La troisième méthode s'appuie sur la recherche à voisinage large combinée à une méthode d'optimisation continue. Le but, étant de maximiser la densité du placement dans un container fermé. Cette approche démarre d'une configuration quelconque et converge vers une solution réalisable en s'appuyant sur une recherche par voisinage large pour la diversification et en appliquant une méthode d'optimisation continue. Finalement, nous proposons une méthode d'optimisation par essaims articulaires combinée avec une procédure d'optimisation continue pour résoudre le problème de placement de sphères identiques dans un container sphérique fermé ou un container de forme parallélépipède ouvert. La procédure d'optimisation continue est utilisée pour réparer les solutions non réalisables produites lors de la résolution
Cutting and Packing (C&P) problems are encountered in numerous industrial domains such as transportation, logistics, reliability, and production. They appear either as standalone problems or as subproblems of more complex problems. The goal of the thesis is to investigate the use of heuristics and meta-heuristics for solving variants of cutting and packing problems. Packing spheres into an open container represents the first variant of the problem. Packing spheres into a closed container is the second variant. Finally, packing spheres into a spherical container is the third variant studied in the thesis.These variants are solved by using four solution methods. The first approach is based upon a dichotomous search and a truncated tree search (beam search). The goal is to determine the minimum length of the open container that contains all spheres without overlapping between all items. The second approach can be viewed as a modified version of the first one, for solving the same variant of the problem, where a tree search (beam search) combined with the dichotomous search and the estimate of the lower bound is proposed. Herein, the lower bound is used in order to guide the search process more efficiently where primarily the quality of the solutions is preferred. The third method is based upon the large neighborhood search combined with a continuous optimization algorithm for solving the problem of packing spheres into a close container. Starting from any configuration, the goal of the continuous optimization is to converge to a feasible solution whereas the large neighborhood search offers a diversification of the search space to enable convergence toward the solutions of best qualities. Finally, the particle swarm optimization combined with a continuous optimization algorithm is proposed to tackling the (identical) sphere packing problem into different containers
APA, Harvard, Vancouver, ISO, and other styles
19

Tsafarakis, Stelios. "An integrated marketing system for the optimal product line design problem, in a competitive reaction context, based on the qualitative consumer behavior analysis." Paris 9, 2010. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2010PA090056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Leboucher, Cédric. "Optimisation of the weapon target assignment problem foir naval and ground command and control systems." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1093.

Full text
Abstract:
Ces travaux de recherche abordent un problème de défense anti-aérien, usuellement appelé problème d'allocation d'armes à des cibles dans la littérature. L'allocation d'armes à des cibles est un problème bien connu de la recherche opérationnelle militaire qui a rencontré un franc succès parmi la communauté des chercheurs, et qui aujourd'hui encore suscite un large engouement puisque sa propriété démontrée NP-difficile en fait un problème qui reste irrésolu. Que ce soit par des méthodes analytiques ou meta-heuristiques, le problème d'allocation d'armes à des cibles a fait l'objet de nombreuses propositions de résolution. Cependant, il est assez surprenant de voir que la modélisation proposée pour ce problème n'a guère évolué depuis qu'il est apparu pour la première fois dans la littérature en 1950. Cette modélisation peut être considérée comme obsolète aujourd'hui et ne répond plus aux exigences qui accompagnent les technologies modernes. En effet, en 60 ans le champ de bataille a complètement changé, et dans la littérature seulement un nombre limité d'études proposent de prendre en compte ces évolutions. L'étude menée dans cette thèse propose de s'intéresser aux systèmes de Commandes et Contrôles (C2) pour des applications anti-aériennes. Habituellement un système C2 est composé de senseurs, d'un centre d'opérations tactiques et d'un ou plusieurs lanceurs. Les senseurs alimentent le centre d'opérations tactiques à partir des informations qu'ils recueillent, puis, une fois ces informations reçues, le centre d'opérations tactiques va interpréter ces données afin de calculer l'atteignabilité des menaces. Enfin, un plan d'engagement qui comprend l'allocation des munitions disponibles aux cibles et une date de tir sont proposés à un opérateur humain qui aura pour mission de valider cette proposition en totalité ou partiellement, puis va procéder à l'engagement des menaces. Pour remplir cet objectif, une approche innovante et faisant l'objet d'un dépôt de brevet a été développée afin de répondre aux difficultés relatives aux problèmes d'optimisation multi-objectifs. Ensuite, un algorithme d'optimisation continue basé sur la combinaison de l'optimisation par essaim particulaires avec la théorie des jeux évolutionnaires est proposé pour optimiser les dates de tirs. L'allocation optimale, elle, est obtenue en adaptant cette méthode continue au cas discret. La preuve que l'algorithme développé est localement convergent est donnée dans cette thèse. D'autre part, l'aspect temps-réel a également fait l'objet d'une recherche attentive et l'algorithme précédemment cité a été hybridé avec les réseaux de neurones afin d'accélérer le temps de calcul des composants identifiés comme "lourds" en termes de charge de calcul. Enfin, cette étude ne se limite pas à une application de recherche opérationnelle militaire, mais inclut quelques concepts élémentaires de guidage et de navigation pour le calcul d'atteignabilité des menaces. Finalement, cette thèse permet d'identifier que les points suivants doivent faire l'objet d'une attention très particulière afin de développer un outil d'aide à la décision efficace. D'abord, la métrique d'évaluation d'un bon plan d'engagement doit être clairement analysée. Ensuite, le plan d'engagement proposé doit être stable et ne pas proposer de changements soudains qui pourraient perturber l'opérateur. Le troisième point concerne la robustesse de la solution proposée et sa capacité à faire face aux situations les plus compliquées. Quatrièmement, le temps et la charge de calcul sont des contraintes techniques qui ne peuvent pas être outrepassées. Finalement, les exigences posées lors de la préparation de mission et qui dépendent du contexte doivent faire l'objet d'une attention particulière. C'est pourquoi, l'outil d'aide à la décision proposé doit permettre un allègement significatif de la charge de travail de l'opérateur ainsi que la réduction considérable du stress lié à ce contexte
This research investigates a practical air defence problem, usually named Weapon Target Assignment (WTA) in the literature. The WTA problem is a well-known problem of military operation research that encountered a wide success in the research community, but still nowadays since it remains an unsolved problem because of its NP-hardness property. From analytical to heuristic methods, the WTA was deeply investigated and many attempts to solve this problem have been proposed. However, the proposed modelling of this problem is consistent with the 1950's technologies. Thus, the proposed modelling found in the literature can be considered as obsolete and cannot fit the requirement of the current technology advances. Indeed, the battle field dramatically changes over 60 years, and the recent literature proposes only few studies taking into account these amendments. The herein study proposes to investigate a Command & Control system (C2) in air defence applications. Usually a C2 system includes sensors, a Tactical Operation Centre (TOC) and one or more launchers. The sensors provide information about aerial tactical situation to the TOC. This TOC is in charge of evaluating the received information in order to compute the attainability of the targets, then an engagement plan that includes the assignment of the available weapons to the incoming targets and a date to fire for each assignment. This engagement plan is then proposed to one human operator in charge of accepting whole or part of this engagement plan and engage the targets following the received instructions. To achieve this goal, an innovative and patented approach to mitigate the issues related to multi-objective optimisation is proposed. Then, a continuous optimisation algorithm based on the combination of the Particle Swarm Optimisation and the Evolutionary Game Theory was proposed to determine the best dates to fire. The optimal assignment was obtained by adapting the aforementioned algorithm to the discrete case. This thesis also gives the proof that the designed algorithms are locally convergent and intensive benchmarking confirms the developed theory. In order to respect the real-time requirement, it was also devised to use the Neural Networks to lighten the identified burdensome parts of the algorithm and decrease computational time. Not limited to the military operation research field, the herein study reuse some basic concepts of missile guidance and navigation to compute the attainability of the targets. From this thesis, it can be identified that following aspects need to be carefully considered to provide an efficient decision making support to a human operator: First, clearly define what a good engagement plan is. Second, the engagement plan must be steady to avoid high rate changing in the assignments that could significantly disturb the operator. Third, the proposed engagement also must be reliable and robust to face any possible situations. Fourth, the computation time and computation load are technical constraints that cannot be overstepped. Finally, the operational constraints related to the mission context defined during a pre-mission stage must also be taken into account. Therefore, the proposed decision making support must help and significantly reduce the operator's work load in this situation of high stress and sensitive context
APA, Harvard, Vancouver, ISO, and other styles
21

Kemmoe, Tchomte Sylverin. "Métaheuristiques, modèles mathématiques, modèles d'évaluation de performances pour le problème d'ordonnancement de projets sous contraintes de ressources." Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21757.

Full text
Abstract:
Cette thèse s'inscrit dans le domaine scientifique appelé recherche opérationnelle, elle traite des problèmes d'ordonnancement de projets sous contraintes de ressources ainsi que les méthodes de résolution. Pour ce dernier, elle reprend les principales méthodes approchées et exactes publiées dans la littérature pour résoudre le problème classique du RCPSP (Resource-Constrained Scheduling Problem) ainsi que ses extensions. Dans cette thèse nous avons proposé deux extensions de la méthode d'opimisation à population appelée Optimisation par essaims particulaires ou OEP et une modélisation du problème de RCPSP basée sur les flots. L'OEP, issue de l'étude de l'organisation des groupes d'animaux a été introduite par un psychologue social et par un ingénieur électricien (Kennedy Eberhart, 1995). L'évolution d'une particule se souvient du meilleur point (le plus proche de l'objectif) par lequel il est passé au cours de ses évolutions et tend à y retourner ; chaque particule est informée du meilleur point connu au sein de la population et tend à s'y rendre. La première extension consiste à favoriser davantage le processus d'intensification par rapport au processus de diversification (notions présentées par Blum et Rolli, 2003). Ce qui a conduit à définir la notion d'attracteurs puissants. La deuxième extension porte sur l'adaptation du cadre général proposé par M. Clerc, 2004, aux problèmes d'optimisation combinatoire ayant des contraintes de précédence. Ce qui a amené à redéfinir différents opérateurs et concepts : position d'une particule, différence de deux positions, vitesse d'une particule, somme de deux vitesses, etc. Dans cette thèse, une modélisation du problème de RCPSP basée sur les flots a été proposée. Les concepts de graphe-support, graphe-problème et de graphe-solution ont été définis. Ce qui a conduit à mettre en oeuvre une métaheuristique avec les problèmes de voisinage suivants : le chemin critique, la permutation des activités de la séquence et la pénalisation de certains arcs du graphe. Elle s'est enfin intéressée à un problème industriel, celui des chantiers polyvalents de PSA PEUGEOT CITROEN. Problème industriel complexe dont il a fallu utiliser la méthodologie ASCI (Analyse Spécification Conception et Implantation) pour le décomposer en trois sous-systèmes (physique, logique et décisionnel) disjoints mais communicants. Des methodes approchées (heuristiques, métaheuristiques et simulation) et exactes (programmation linéaire et méthodes de décomposition) ont été utilisées pour résoudre ce problème industriel. Des tests numériques ont été réalisés et les résultats sont comparables et parfois meilleurs à ceux publiés dans la littérature
APA, Harvard, Vancouver, ISO, and other styles
22

Mazhoud, Issam. "Contribution à l'optimisation en conception préliminaire de produit." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI028/document.

Full text
Abstract:
L'optimisation en conception de produit constitue une activité à forte valeur ajoutée en entreprise. Ceci est d'autant plus important qu'elle est appliquée dans les premières phases du processus de conception. Les travaux dans cette thèse se placent dans ce contexte et proposent des outils adaptés d'aide à la décision en pré-dimensionnement de produits suivant deux critères: présence ou non de fonctionnelles dans le modèle, prise en compte ou non des incertitudes dans le modèle. Une méthode à base de calcul d'intervalles et de propagation de contraintes qui permet de faire de l'optimisation déterministe est introduite. Cette méthode permet de traiter les modèles d'optimisation sans fonctionnelles et sans prise en compte d'incertitudes. Une reformulation qui permet d'améliorer la convergence de l'algorithme est introduite. Une méthode d'optimisation stochastique à base d'essaims particulaires est présentée pour traiter les modèles de plus grande dimension. Un nouveau mécanisme de gestion de contraintes est introduit. Cet algorithme a aussi été étendu pour traiter les problèmes de conception en présence de contraintes du type équations différentielles. Afin de traiter les incertitudes dans les modèles, une méthode d'optimisation robuste est présentée. Elle combine un algorithme d'optimisation stochastique avec une méthode de propagation d'incertitude (PoV). Cette méthode de propagation d'incertitude est étendu aux modèles incluant des fonctionnelles
The optimization in product design is a high added-value activity. This is all the more important when it is performed at the early stages of the design process. The work presented in this thesis is placed in this context. It proposes adapted decision making tools in preliminary design following two criteria: whether or not the model contains functionals, and whether it takes into considerations the uncertainties. A method based on interval arithmetic and constraint propagation allowing to perform deterministic global optimization is introduced. This method allows handling optimization models without functionals and without considering uncertainties. A reformulation that permits to improve the algorithm convergence is introduced. A stochastic optimization method based on particular swarms is introduced in order to handle higher dimensional problems. A new constraint handling mechanism is introduced and tested on engineering problems. This algorithm has also been extended to design problems with ordinary differential equations constraints. In order to consider uncertainties, a robust optimization method is introduced. It combines a stochastic optimization method with an uncertainty propagation method called PoV. An extension of PoV to models involving functionals is introduced
APA, Harvard, Vancouver, ISO, and other styles
23

Fakhri, Eyman. "Contribution à l'optimisation de l'architecture de parcs d'hydroliennes." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC224.

Full text
Abstract:
Pour faire face au réchauffement climatique, une transition énergétique de grande ampleur est impérative. Pour les pays disposant de vastes zones maritimes, comme la France, les Energies Marines Renouvelables (EMRs) peuvent constituer une part significative d’énergie à bas carbone. Les EMRs peuvent être produites à partir de la houle, du vent, des gradients de salinité… Dans cette thèse, nous nous focalisons sur l’énergie des courants de marée et leur exploitation par les hydroliennes. Cette technologie est aujourd’hui en phase pré-industrielle.Dans ce travail de thèse, un outil d’aide à la décision destiné à l’optimisation de l’architecture des parcs d’hydroliennes est développé. Cet outil nommé OPTIFARM tient compte de l’hydrodynamique du site, des coûts d’investissement et des opérations de maintenance, des pertes d’énergie de production dues aux effets de sillage ainsi que des pertes d’énergies dans le réseau électrique. L’outil permet de déterminer de manière optimale le nombre et les positions des hydroliennes et des sous-stations électriques offshores ainsi que la topologie de raccordement électrique en AC. OPTIFARM est basé sur un algorithme génétique et un algorithme d’optimisation par essaim particulaire. La méthode d'optimisation développée est appliquée à deux sites hydroliens français : le Raz-Blanchard (situé entre l'île d'Aurigny et le Cap de la Hague) et le passage du Fromveur (situé en mer d'Iroise) qui représentent respectivement le premier et le deuxième plus grand gisement hydrolien en France. Les résultats montrent que le coût de production de l'énergie diffère considérablement d'un site à l'autre et qu'il dépend fortement de la taille du parc
Renewable Energies (MREs) can contribute significantly to the energy mix. MREs can be produced from different sources, among them tidal energy – the focus of this work – has aroused major interest from industrialists and decision-makers.In this thesis, a decision support tool for the optimization of the architecture of tidal farms is developed. The optimization tool, named OPTIFARM, takes into account the hydrodynamics of the site, the investment and maintenance costs, the loss of production caused by the wake effect and the energy loss in the electrical network. The tool allows determining the optimal number and positions of tidal turbines and offshore substations in the farm as well as the optimal AC electrical connection topology of the tidal farm network. The optimization tool relies on a genetic and a particle swarm optimization algorithms. OPTIFARM is applied to two French tidal energy sites: the Alderney Race located between the Alderney Island and Cap de la Hague, and the Fromveur Strait located in the sea of Iroise. Those sites represent respectively the first and the second greatest tidal potential in France. The results show that the energy production cost considerably differs from one site to another and it strongly depends on the size of the farm
APA, Harvard, Vancouver, ISO, and other styles
24

El-Hajj, Racha. "Vehicle routing problems with profits, exact and heuristic approaches." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2192.

Full text
Abstract:
Nous nous intéressons dans cette thèse à la résolution du problème de tournées sélectives (Team Orienteering Problem - TOP) et ses variantes. Ce problème est une extension du problème de tournées de véhicules en imposan tcertaines limitations de ressources. Nous proposons un algorithme de résolution exacte basé sur la programmation linéaire en nombres entiers (PLNE) en ajoutant plusieurs inégalités valides capables d’accélérer la résolution. D’autre part, en considérant des périodes de travail strictes pour chaque véhicule durant sa tournée, nous traitons une des variantes du TOP qui est le problème de tournées sélectives multipériodique (multiperiod TOP - mTOP) pour lequel nous développons une métaheuristique basée sur l’optimisation par essaim pour le résoudre. Un découpage optimal est proposé pour extraire la solution optimale de chaque particule en considérant les tournées saturées et pseudo saturées .Finalement, afin de prendre en considération la disponibilité des clients, une fenêtre de temps est associée à chacun d’entre eux, durant laquelle ils doivent être servis. La variante qui en résulte est le problème de tournées sélectives avec fenêtres de temps (TOP with Time Windows - TOPTW). Deux algorithmes exacts sont proposés pour résoudre ce problème. Le premier est basé sur la génération de colonnes et le deuxième sur la PLNE à laquelle nous ajoutons plusieurs coupes spécifiques à ce problème
We focus in this thesis on developing new algorithms to solve the Team Orienteering Problem (TOP) and two of its variants. This problem derives from the well-known vehicle routing problem by imposing some resource limitations .We propose an exact method based on Mixed Integer Linear Programming (MILP) to solve this problem by adding valid inequalities to speed up its solution process. Then, by considering strict working periods for each vehicle during its route, we treat one of the variants of TOP, which is the multi-period TOP (mTOP) for which we develop a metaheuristic based on the particle swarm optimization approach to solve it. An optimal split procedure is proposed to extract the optimal solution from each particle by considering saturated and pseudo-saturated routes. Finally, in order to take into consideration the availability of customers, a time window is associated with each of them, during which they must be served. The resulting variant is the TOP with Time Windows (TOPTW). Two exact algorithms are proposed to solve this problem. The first algorithm is based on column generation approach and the second one on the MILP to which we add additional cuts specific for this problem. The comparison between our exact and heuristic methods with the existing one in the literature shows the effectiveness of our approaches
APA, Harvard, Vancouver, ISO, and other styles
25

Amroun, Hamdi. "Modèles statistiques avancés pour la reconnaissance de l’activité physique dans un environnement non contrôlé en utilisant un réseau d’objets connectés." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS406/document.

Full text
Abstract:
Avec l’arrivée des objets connectés, la reconnaissance de l’activité physique connait une nouvelle ère. De nouvelles considérations sont à prendre en compte afin d’aboutir à un meilleur processus de traitement. Dans cette thèse, nous avons exploré le processus de traitement pour la reconnaissance de l’activité physique dans un environnement non contrôlé. Les activités physiques reconnues, avec seulement une centrale inertielle (accéléromètre, gyroscope et magnétomètre), sont dites élémentaires. Les autres types d’activités dépendantes d’un contexte sont dites « basés sur le contexte ». Nous avons extrait la transformée en cosinus discrète (DCT) comme principal descripteur pour la reconnaissance des activités élémentaires. Afin de reconnaitre les activités physiques basées sur le contexte, nous avons défini trois niveaux de granularité : un premier niveau dépendant des objets connectés embarqués (smartphone, smartwatch et samrt TV). Un deuxième niveau concerne l’étude des comportements des participants en interaction avec l’écran de la smart TV. Le troisième niveau concerne l’étude de l’attention des participants envers la TV. Nous avons pris en considération l’aspect imperfection des données en fusionnant les données multi capteurs avec le modèle de Dempster-Shafer. A ce titre, nous avons proposé différentes approches pour calculer et approximer les fonctions de masse. Afin d’éviter de calculer et sélectionner les différents descripteurs, nous avons proposé une approche basée sur l’utilisation d’algorithmes d’apprentissage en profondeur (DNN). Nous avons proposé deux modèles : un premier modèle consiste à reconnaitre les activités élémentaires en sélectionnant la DCT comme principal descripteur (DNN-DCT). Le deuxième modèle consiste à apprendre les données brutes des activités basées sur le contexte (CNN-brutes). L’inconvénient du modèle DNN-DCT est qu’il est rapide mais moins précis, alors que le modèle CNN-brutes est plus précis mais très lent. Nous avons proposé une étude empirique permettant de comparer les différentes méthodes pouvant accélérer l’apprentissage tout en gardant un niveau élevé de précision. Nous avons ainsi exploré la méthode d’optimisation par essaim particulaires (PSO). Les résultats sont très satisfaisants (97%) par rapport à l’apprentissage d’un réseau de neurones profond avec les méthodes d’optimisation classiques telles que la descente de Gradient Stochastique et l’optimisation par Gradient accéléré de Nesterov. Les résultats de nos travaux suggèrent le recours à de bons descripteurs dans le cas où le contexte n’importe peu, la prise en compte de l’imperfection des données capteurs quand le domaine sous-jacent l’exige, l’utilisation de l’apprentissage profond avec un optimiseur permettant d’avoir des modèles très précis et plus rapides
With the arrival of connected objects, the recognition of physical activity is experiencing a new era. New considerations need to be taken into account in order to achieve a better treatment process. In this thesis, we explored the treatment process for recognizing physical activity in an uncontrolled environment. The recognized physical activities, with only one inertial unit (accelerometer, gyroscope and magnetometer), are called elementary. Other types of context-dependent activities are called "context-based". We extracted the DCT as the main descriptor for the recognition of elementary activities. In order to recognize the physical activities based on the context, we defined three levels of granularity: a first level depending on embedded connected objects (smartphone, smartwatch and samrt TV . A second level concerns the study of participants' behaviors interacting with the smart TV screen. The third level concerns the study of participants' attention to TV. We took into consideration the imperfection aspect of the data by merging the multi sensor data with the Dempster-Shafer model. As such, we have proposed different approaches for calculating and approximating mass functions. In order to avoid calculating and selecting the different descriptors, we proposed an approach based on the use of deep learning algorithms (DNN). We proposed two models: a first model consisting of recognizing the elementary activities by selecting the DCT as the main descriptor (DNN-DCT). The second model is to learn raw data from context-based activities (CNN-raw). The disadvantage of the DNN-DCT model is that it is fast but less accurate, while the CNN-raw model is more accurate but very slow. We have proposed an empirical study to compare different methods that can accelerate learning while maintaining a high level of accuracy. We thus explored the method of optimization by particle swarm (PSO). The results are very satisfactory (97%) compared to deep neural network with stochastic gradients descent and Nesterov accelerated Gradient optimization. The results of our work suggest the use of good descriptors in the case where the context matters little, the taking into account of the imperfection of the sensor data requires that it be used and faster models
APA, Harvard, Vancouver, ISO, and other styles
26

Chen, Linjie. "Approche générique pour la prise de décisions multi-niveaux, contribution à la gestion des systèmes de production de soins en réseau." Thesis, Saint-Etienne, 2015. http://www.theses.fr/2015STET4006/document.

Full text
Abstract:
Le système de santé français est confronté au défi d’augmentation permanente de la demande en soins, sous une forte pression financière. Dans la stratégie nationale de santé, une des grandes orientations est de développer une base de coopération impliquant l’ensemble des acteurs et de leur engagement. Ces enjeux demandent au génie hospitalier de rechercher une efficience dans une échelle encore plus globale, ce qui demande d’intégrer les problèmes locaux et leurs outils d’optimisation qui présentent en général un haut degré de fragmentation, afin de contribuer à l’amélioration globale du système. Dans ce contexte-là, initialisé par un projet de conception du système de soins en réseau avec ressource de production mutualisée, nous proposons à travers ce mémoire de thèse une méthode générique pour résoudre le problème d’optimisation multi-niveaux dans lequel les décisions interdépendantes doivent être prises à différents niveaux dans une structure hiérarchique, ou aux étapes successives. Les décisions faites sont souvent corrélées, surtout pour une topologie de décisions enchaînées en hiérarchique que nous définissons sous le terme de « sous-structure optimale feedback ». La résolution de ce type de problème doit s’adapter pour prendre en compte autant que possible les implications liées aux décisions corrélées. La méthode proposée est basée sur la méta-heuristique PSO, elle utilise une procédure récursive pour définir le transfert des paramètres des sous-problèmes descendant et des évaluations ascendant à travers de multiples espaces de recherche, en assurant la cohérence de la convergence du problème global. Les applications et les analyses ont montrées que la méthode est assez générique et capable de produire la performance et la qualité de résolution proche de celles de la littérature
French healthcare system confronts the challenges of permanent increase in demand for healthcare, under heavy financial pressure. In the national healthcare strategy, a key focus is to develop a cooperation framework involving all organizations and units. These challenges require healthcare engineering to find efficiency in a more global scale, which means to integrate local optimization problems and decision tools that have generally a high degree of fragmentation in order to contribute to the overall improvement of the system. In this thesis, initiated by a shared unit-dose drug distribution system design project, a generic method was developed to solve the multi-level optimization problem in which interdependent decisions are made at different levels in a hierarchical structure, or at successive stages. The decisions made are often correlated, particularly for decisions in hierarchical topologies that we define by the term "optimal substructure with feedback". The resolution of this problem must be adapted to take into account all implications for correlated decisions. The proposed method is based on the meta-heuristic PSO, it uses a recursive procedure to define the top-down transfer of parameters and the bottom-up feedback of fitness through multiple search spaces, and ensures the consistency of global problem convergence. Our applications and analyzes have shown that this method is generic and is able to provide similar resolution performance and quality compared to the literature references
APA, Harvard, Vancouver, ISO, and other styles
27

Ilea, Dan. "Conception optimale des moteurs à réluctance variable à commutation électronique pour la traction des véhicules électriques légers." Phd thesis, Ecole Centrale de Lille, 2011. http://tel.archives-ouvertes.fr/tel-00794100.

Full text
Abstract:
Le domaine de la traction électrique a suscité un très grand intérêt dans les dernières années. La conception optimale de l'ensemble moteur électrique de traction - onduleur doit prendre en compte une variété de critères et contraintes. Étant donnée la liaison entre la géométrie du moteur et la stratégie de commande de l'onduleur, l'optimisation de l'ensemble de traction doit prendre en considération, en même temps, les deux composants.L'objectif de la thèse est la conception d'un outil d'optimisation appliqué à un système de traction électrique légère qu'emploie un moteur à réluctance variable alimenté (MRVCE) par un onduleur triphasé en pont complet. Le MRVCE est modélisé en utilisant la technique par réseau de perméances. En même temps, la technique de commande électronique peut être facilement intégrée dans le modèle pour effectuer l'analyse dynamique du fonctionnement du moteur. L'outil d'optimisation réalisé utilise l'algorithme par essaim de particules, modifié pour résoudre des problèmes multi-objectif. Les objectifs sont liés à la qualité des caractéristiques de fonctionnement du moteur, en temps que les variables d'optimisation concernent la géométrie du moteur aussi que la technique de commande. Les performances de l'algorithme sont comparées avec ceux de l'algorithme génétique (NSGA-II) et d'une implémentation classique de l'algorithme par essaim de particules multi-objectif.Finalement, un prototype de moteur à réluctance variable est construit et le fonctionnement du MRVCE alimenté depuis l'onduleur triphasé en pont complet est implémenté et les outils de modélisation et d'optimisation sont validés
APA, Harvard, Vancouver, ISO, and other styles
28

Ahmed, Bacha Adda Redouane. "Localisation multi-hypothèses pour l'aide à la conduite : conception d'un filtre "réactif-coopératif"." Thesis, Evry-Val d'Essonne, 2014. http://www.theses.fr/2014EVRY0051/document.

Full text
Abstract:
“ Lorsqu'on utilise des données provenant d'une seule source,C'est du plagiat;Lorsqu'on utilise plusieurs sources,C'est de la fusion de données ”Ces travaux présentent une approche de fusion de données collaborative innovante pour l'égo-localisation de véhicules routiers. Cette approche appelée filtre de Kalman optimisé à essaim de particules (Optimized Kalman Particle Swarm) est une méthode de fusion de données et de filtrage optimisé. La fusion de données est faite en utilisant les données d'un GPS à faible coût, une centrale inertielle, un compteur odométrique et un codeur d'angle au volant. Ce travail montre que cette approche est à la fois plus robuste et plus appropriée que les méthodes plus classiques d'égo-localisation aux situations de conduite urbaine. Cette constatation apparait clairement dans le cas de dégradations des signaux capteurs ou des situations à fortes non linéarités. Les méthodes d'égo-localisation de véhicules les plus utilisées sont les approches bayésiennes représentées par le filtre de Kalman étendu (Extended Kalman Filter) et ses variantes (UKF, DD1, DD2). Les méthodes bayésiennes souffrent de sensibilité aux bruits et d'instabilité pour les cas fortement non linéaires. Proposées pour couvrir les limitations des méthodes bayésiennes, les approches multi-hypothèses (à base de particules) sont aussi utilisées pour la localisation égo-véhiculaire. Inspiré des méthodes de simulation de Monte-Carlo, les performances du filtre à particules (Particle Filter) sont fortement dépendantes des ressources en matière de calcul. Tirant avantage des techniques de localisation existantes et en intégrant les avantages de l'optimisation méta heuristique, l'OKPS est conçu pour faire face aux bruits, aux fortes dynamiques, aux données non linéaires et aux besoins d'exécution en temps réel. Pour l'égo-localisation d'un véhicule, en particulier pour les manœuvres très dynamiques sur route, un filtre doit être robuste et réactif en même temps. Le filtre OKPS est conçu sur un nouvel algorithme de localisation coopérative-réactive et dynamique inspirée par l'Optimisation par Essaim de Particules (Particle Swarm Optimization) qui est une méthode méta heuristique. Cette nouvelle approche combine les avantages de la PSO et des deux autres filtres: Le filtre à particules (PF) et le filtre de Kalman étendu (EKF). L'OKPS est testé en utilisant des données réelles recueillies à l'aide d'un véhicule équipé de capteurs embarqués. Ses performances sont testées en comparaison avec l'EKF, le PF et le filtre par essaim de particules (Swarm Particle Filter). Le filtre SPF est un filtre à particules hybride intéressant combinant les avantages de la PSO et du filtrage à particules; Il représente la première étape de la conception de l'OKPS. Les résultats montrent l'efficacité de l'OKPS pour un scénario de conduite à dynamique élevée avec des données GPS endommagés et/ou de qualité faible
“ When we use information from one source,it's plagiarism;Wen we use information from many,it's information fusion ”This work presents an innovative collaborative data fusion approach for ego-vehicle localization. This approach called the Optimized Kalman Particle Swarm (OKPS) is a data fusion and an optimized filtering method. Data fusion is made using data from a low cost GPS, INS, Odometer and a Steering wheel angle encoder. This work proved that this approach is both more appropriate and more efficient for vehicle ego-localization in degraded sensors performance and highly nonlinear situations. The most widely used vehicle localization methods are the Bayesian approaches represented by the EKF and its variants (UKF, DD1, DD2). The Bayesian methods suffer from sensitivity to noises and instability for the highly non-linear cases. Proposed for covering the Bayesian methods limitations, the Multi-hypothesis (particle based) approaches are used for ego-vehicle localization. Inspired from monte-carlo simulation methods, the Particle Filter (PF) performances are strongly dependent on computational resources. Taking advantages of existing localization techniques and integrating metaheuristic optimization benefits, the OKPS is designed to deal with vehicles high nonlinear dynamic, data noises and real time requirement. For ego-vehicle localization, especially for highly dynamic on-road maneuvers, a filter needs to be robust and reactive at the same time. The OKPS filter is a new cooperative-reactive localization algorithm inspired by dynamic Particle Swarm Optimization (PSO) metaheuristic methods. It combines advantages of the PSO and two other filters: The Particle Filter (PF) and the Extended Kalman filter (EKF). The OKPS is tested using real data collected using a vehicle equipped with embedded sensors. Its performances are tested in comparison with the EKF, the PF and the Swarm Particle Filter (SPF). The SPF is an interesting particle based hybrid filter combining PSO and particle filtering advantages; It represents the first step of the OKPS development. The results show the efficiency of the OKPS for a high dynamic driving scenario with damaged and low quality GPS data
APA, Harvard, Vancouver, ISO, and other styles
29

Lazaar, Nouhaila. "Optimisation des alimentations électriques des Data Centers." Thesis, Normandie, 2021. http://www.theses.fr/2021NORMC206.

Full text
Abstract:
Les data centers, des usines abritant des milliers de serveurs informatiques, fonctionnent en permanence pour échanger, stocker, traiter des données et les rendre accessibles via l'internet. Avec le développement du secteur numérique, leur consommation énergétique, en grande partie d’origine fossile, n’a cessé de croitre au cours de la dernière décennie, représentant une réelle menace pour l’environnement. Le recours aux énergies renouvelables constitue un levier prometteur pour limiter l’empreinte écologique des data centers. Néanmoins, le caractère intermittent de ces sources freine leur intégration dans un système nécessitant un degré de fiabilité élevée. L’hybridation de plusieurs technologies pour la production d’électricité verte, couplée à des dispositifs de stockage est actuellement une solution efficace pour pallier ce problème. De ce fait, ce travail de recherche étudie un système multi-sources, intégrant des hydroliennes, des panneaux photovoltaïques, des batteries et un système de stockage d’hydrogène pour alimenter un data center à l’échelle du MW. L'objectif principal de cette thèse est l’optimisation de l'alimentation électrique d'un data center, aussi bien pour des sites isolés que des installations raccordées au réseau. Le premier axe de ce travail est la modélisation des différents composants du système à l’aide de la représentation énergétique macroscopique (REM). Une gestion d’énergie reposant sur le principe de séparation fréquentielle est adoptée dans un premier temps pour répartir l’énergie entre des organes de stockage présentant des caractéristiques dynamiques différentes. Le deuxième axe concerne le dimensionnement optimal du système proposé afin de trouver la meilleure configuration qui satisfasse les contraintes techniques imposées à un coût minimum, en utilisant l’optimisation par essaims particulaires (PSO) et l’algorithme génétique (AG). Ici, une technique de gestion d’énergie basée sur des règles simples est utilisée pour des raisons de simplicité et de réduction de temps de calcul. Le dernier axe se focalise sur l’optimisation de la gestion d’énergie via l’AG, en tenant compte des problèmes de dégradation des systèmes de stockage en vue de réduire leur coût d’exploitation et de prolonger leur durée de vie. Il est bien entendu que chaque axe précédemment abordé a fait l’objet d’une analyse de sensibilité spécifique, afin d’évaluer les performances du système hybride dans différentes conditions de fonctionnement
Data centers, factories housing thousands of computer servers that work permanently to exchange, store, process data and make it accessible via the Internet. With the digital sector development, their energy consumption, which is largely fossil fuel-based, has grown continuously over the last decade, posing a real threat to the environment. The use of renewable energy is a promising way to limit the ecological footprint of data centers. Nevertheless, the intermittent nature of these sources hinders their integration into a system requiring a high reliability degree. The hybridization of several technologies for green electricity production, coupled with storage devices, is currently an effective solution to this problem. As a result, this research work studies a multi-source system, integrating tidal turbines, photovoltaic panels, batteries and a hydrogen storage system to power an MW-scale data center. The main objective of this thesis is the optimization of a data center power supply, both for isolated sites and grid-connected ones. The first axis of this work is the modeling of the system components using the energetic macroscopic representation (EMR). Energy management strategy based on the frequency separation principle is first adopted to share power between storage devices with different dynamic characteristics. The second axis concerns the optimal sizing of the proposed system, in order to find the best configuration that meets the technical constraints imposed at minimum cost, using particle swarm optimization (PSO) and genetic algorithm (GA). Here, a rules-based energy management technique is used for simplicity and reduced computing time purposes. The last axis focuses on the energy management optimization through GA, taking into account the storage systems degradation in order to reduce their operating costs and extend their lifetime. It should be noted that each axis previously discussed has been the subject of a specific sensitivity analysis, which aims to evaluate the performance of the hybrid system under different operating conditions
APA, Harvard, Vancouver, ISO, and other styles
30

Hachimi, Hanaa. "Hybridations d'algorithmes métaheuristiques en optimisation globale et leurs applications." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00905604.

Full text
Abstract:
L'optimisation des structures est un processus essentiel dans la conception des systèmes mécaniques et électroniques. Cette thèse s'intéresse à la résolution des problèmes mono-objectifs et multi-objectifs des structures mécaniques et mécatroniques. En effet, les industriels ne sont pas seulement préoccupés à améliorer les performances mécaniques des pièces qu'ils conçoivent, mais ils cherchent aussi à optimiser leurs poids, leurs tailles, ainsi que leurs coûts de production. Pour résoudre ce type de problème, nous avons fait appel à des métaheuristiques robustes qui nous permettent de minimiser le coût de production de la structure mécanique et de maximiser le cycle de vie de la structure. Alors que des méthodes inappropriées de l'évolution sont plus difficiles à appliquer à des modèles mécaniques complexes en raison de temps calcul exponentiel. Il est connu que les algorithmes génétiques sont très efficaces pour les problèmes NP-difficiles, mais ils sont très lourds et trop gourmands quant au temps de calcul, d'où l'idée d'hybridation de notre algorithme génétique par l'algorithme d'optimisation par essaim de particules (PSO) qui est plus rapide par rapport à l'algorithme génétique (GA). Dans notre expérimentation, nous avons obtenu une amélioration de la fonction objectif et aussi une grande amélioration de la minimisation de temps de calcul. Cependant, notre hybridation est une idée originale, car elle est différente des travaux existants. Concernant l'avantage de l'hybridation, il s'agit généralement de trois méthodes : l'hybridation en série, l'hybridation en parallèle et l'hybridation par insertion. Nous avons opté pour l'hybridation par insertion par ce qu'elle est nouvelle et efficace. En effet, les algorithmes génétiques se composent de trois étapes principales : la sélection, le croisement et la mutation. Dans notre cas, nous remplaçons les opérateurs de mutation par l'optimisation par essaim de particules. Le but de cette hybridation est de réduire le temps de calcul ainsi que l'amélioration la solution optimale.
APA, Harvard, Vancouver, ISO, and other styles
31

Aubry, Judicaël. "Optimisation du dimensionnement d'une chaîne de conversion électrique directe incluant un système de lissage de production par supercondensateurs : application au houlogénérateur SEAREV." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00662488.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur l'étude du dimensionnement d'une chaine de conversion électrique en entrainement direct d'un système direct de récupération de l'énergie des vagues (searev). Cette chaine de conversion est composée d'une génératrice synchrone à aimants permanents solidaire d'un volant pendulaire, d'un convertisseur électronique composé de deux ponts triphasés à modulation de largeur d'impulsion, l'un contrôlant la génératrice, l'autre permettant d'injecter l'énergie électrique au réseau. En complément, un système de stockage de l'énergie (batterie de supercondensateurs) est destiné au lissage de la puissance produite. Le dimensionnement de tous ces éléments constitutifs nécessite une approche d'optimisation sur cycle, dans un contexte de fort couplage multi-physique notamment entre les parties hydrodynamique et électromécanique. Dans un premier temps, l'ensemble génératrice-convertisseur, dont le rôle est d'amortir le mouvement d'un volant pendulaire interne, est optimisé en vue de minimiser le coût de production de l'énergie (coût du kWh sur la durée d'usage). Cette optimisation sur cycle est réalisée en couplage fort avec le système houlogénérateur grâce à la prise en compte conjointe de variables d'optimisation relatives à l'ensemble convertisseur-machine mais aussi à la loi d'amortissement du volant pendulaire. L'intégration d'une stratégie de défluxage, intéressante pour assurer un fonctionnement en écrêtage de la puissance, permet, dès l'étape de dimensionnement, de traiter l'interaction convertisseur-machine. Dans un second temps, la capacité énergétique du système de stockage de l'énergie fait l'objet d'une optimisation en vue de la minimisation de son coût économique sur cycle de vie. Pour ce faire, nous définissons des critères de qualité de l'énergie injectée au réseau, dont un lié au flicker, et nous comparons des stratégies de gestion de l'état de charge tout en tenant compte du vieillissement en cyclage des supercondensateurs dû à la tension et à leur température. Dans un troisième temps, à partir de données d'états de mer sur une année entière, nous proposons des dimensionnements de chaines de conversion électrique qui présentent les meilleurs compromis en termes d'énergie totale récupérée et de coût d'investissement.
APA, Harvard, Vancouver, ISO, and other styles
32

Béjannin, Baptiste. "Optimisation du pilotage d’un parc diffus de ballons d'eau chaude pour la fourniture d’offres de flexibilités au réseau électrique." Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLM010.

Full text
Abstract:
En France, les chauffe-eau électriques à accumulation représentent un gisement important de flexibilité pour le réseau électrique. Cette thèse se situe dans le contexte du déploiement de solutions innovantes de télécommunication permettant d’envoyer rapidement et individuellement des ordres aux chauffe-eau électriques Joule ou thermodynamiques. Ce travail propose un modèle de chauffe-eau électrique suffisamment détaillé pour permettre une évaluation fine du confort mais assez simple pour maîtriser les ressources de calcul. Avec un temps de calcul unitaire faible et un paramétrage simple, il permet de représenter le parc français dans toute sa diversité à l’aide des bases de données de description du territoire français (données INSEE). En parallèle, un modèle de comportement des consommateurs a été élaboré pour permettre de simuler des puisages annuels d’eau chaude sur des pas de temps fins. Le modèle de comportement, ainsi que d’équipements, sont représentatifs du parc réel dans leur valeurs moyennes, mais aussi par leur diversité. Ce parc est ainsi adapté à l’optimisation de milliers de chauffe-eau électriques pour atteindre des objectifs de flexibilité. Dans un second temps, un processus d’optimisation reposant sur l’utilisation d’un algorithme métaheuristique par « essaim particulaire » est développé afin d’élaborer des stratégies d’optimisation du pilotage des chauffe-eau et proposer des flexibilités au réseau tout en prenant en compte l’inconfort des utilisateurs. Les configurations réalistes de pilotage promises par les innovations en matière de télécommunication sont testées au regard de la flexibilité qu’elles pourraient apporter aux opérateurs de réseau. Enfin, la robustesse des ordres de commande obtenus est évaluée avec différents scénarios de soutirage. L’ensemble des modèles et des algorithmes sont intégrés dans Smart-E, l’outil de simulation énergétique des territoires du CES
In France, electric water heaters represent an important source of flexibility for the grid. This thesis stands within the scope of the deployment of innovative telecommunication solutions which aim to quickly and individually address orders to Joule or thermodynamic electric water heaters. Therefore, the approach consists in proposing a model of an electric water heater sufficiently detailed to allow an evaluation of comfort while saving the calculation resources. The model has a low unit calculation time and can be configured easily to represent the French stock in all its diversity using the French territory description databases (INSEE data). In parallel, a consumer behavior model has been developed to simulate annual hot water draws over short time steps. The behavior model, as well as the equipment, is representative of the actual stock in average, but also in their diversity. This stock is adapted to the optimization of thousands of electric water heaters to achieve flexibility objectives. In a second step, an optimization process based on the use of a metaheuristic algorithm by "particulate swarm" is implemented in order to develop strategies for optimizing the control of water heaters and to propose flexibilities to the grid while taking into account the discomfort of users. The realistic control configurations promised by the telecommunication innovations are tested for the flexibility they could provide to grid operators. Finally, the robustness of the obtained control orders with different drop-off scenarios is evaluated. All models and algorithms are integrated into Smart-E, the energy simulation tool for territories at CES
APA, Harvard, Vancouver, ISO, and other styles
33

Aubry, Judicaël. "Optimisation du dimensionnement d’une chaîne de conversion électrique directe incluant un système de lissage de production par supercondensateurs : application au houlogénérateur SEAREV." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0042/document.

Full text
Abstract:
Le travail présenté dans cette thèse porte sur l'étude du dimensionnement d'une chaine de conversion électrique en entrainement direct d'un système direct de récupération de l'énergie des vagues (searev). Cette chaine de conversion est composée d'une génératrice synchrone à aimants permanents solidaire d'un volant pendulaire, d'un convertisseur électronique composé de deux ponts triphasés à modulation de largeur d'impulsion, l'un contrôlant la génératrice, l'autre permettant d'injecter l'énergie électrique au réseau. En complément, un système de stockage de l'énergie (batterie de supercondensateurs) est destiné au lissage de la puissance produite. Le dimensionnement de tous ces éléments constitutifs nécessite une approche d'optimisation sur cycle, dans un contexte de fort couplage multi-physique notamment entre les parties hydrodynamique et électromécanique. Dans un premier temps, l'ensemble génératrice-convertisseur, dont le rôle est d'amortir le mouvement d'un volant pendulaire interne, est optimisé en vue de minimiser le coût de production de l'énergie (coût du kWh sur la durée d'usage). Cette optimisation sur cycle est réalisée en couplage fort avec le système houlogénérateur grâce à la prise en compte conjointe de variables d'optimisation relatives à l'ensemble convertisseur-machine mais aussi à la loi d'amortissement du volant pendulaire. L'intégration d'une stratégie de défluxage, intéressante pour assurer un fonctionnement en écrêtage de la puissance, permet, dès l'étape de dimensionnement, de traiter l'interaction convertisseur-machine. Dans un second temps, la capacité énergétique du système de stockage de l'énergie fait l'objet d'une optimisation en vue de la minimisation de son coût économique sur cycle de vie. Pour ce faire, nous définissons des critères de qualité de l'énergie injectée au réseau, dont un lié au flicker, et nous comparons des stratégies de gestion de l'état de charge tout en tenant compte du vieillissement en cyclage des supercondensateurs dû à la tension et à leur température. Dans un troisième temps, à partir de données d'états de mer sur une année entière, nous proposons des dimensionnements de chaines de conversion électrique qui présentent les meilleurs compromis en termes d'énergie totale récupérée et de coût d'investissement
The work presented in this thesis sets forth the study of the sizing of a direct-drive electrical conversion chain for a direct wave energy converter (SEAREV). This electrical chain is made up of a permanent magnet synchronous generator attached to a pendular wheel and a power-electronic converter made up of two three-phase pulse width modulation bridge, one controlling the generator, the other allowing injecting electrical energy into the grid. In addition, an energy storage system (bank of supercapacitors) is intended to smooth the power output. The sizing of all these components needs an operating cycle optimization approach, in a system context with strong multi-physics coupling, more particularly between hydrodynamical and electromechanical parts. At first, the generator-converter set, whose role is to damp the pendular movement of an internal wheel, is optimized with a view to minimize the cost of energy (kWh production cost). This optimization, based on torque-speed operating profiles, is carried out considering a strong coupling with the wave energy converter thanks to the consideration as design variables, some relatives to the generator-converter sizing but also some relatives to the damping law of the pendular wheel. In addition, the consideration of a flux-weakening strategy, interesting to ensure a constant power operation (levelling), allows, as soon as the sizing step, to deal with the generator-converter interaction. In a second step, the rated energy capacity of the energy storage system is being optimized with a view of the minimization of its economical life-cycle cost. To do this, we define quality criteria of the power output, including one related to the flicker, and we compare three energy managment rules while taking into account the power cycling aging of the supercapacitors due to the voltage and their temperature. In a third step, from yearly sea-states data, we provide sizings of the direct-drive electrical conversion chain that are the best trades-offs in terms of total electrical produced energy and economical investment cost
APA, Harvard, Vancouver, ISO, and other styles
34

Zidi, Salah. "SARR : système d'aide à la régulation et la reconfiguration des réseaux de transport multimodal." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Zidi.pdf.

Full text
Abstract:
II est bien difficile, en temps réel, de suivre les horaires issus du processus de planification des réseaux de transport réalisée en temps anticipé. En effet, l'apparition de perturbations complexes et aléatoires nécessite un traitement rapide à travers un processus de régulation. Dans ce contexte, nous proposons un système d'Aide à la décision nommé SARR (Système d'Aide à la Régulation et la Reconfiguration), pour assister les exploitants dans ces tâches de gestion d'exploitation. Les premières contributions portent sur l'élaboration d'un module d'apprentissage et de classification utilisant la technique S. V. M (Séparateurs à Vaste Marge) pour le diagnostic et la régulation des cas familiers. Mais dans les cas de perturbations plus complexes, simultanées et difficiles à gérer, nous proposons alors une première approche à colonie de fourmis pour la reconfiguration spatiale nommé ACFRS (Algorithme à Colonie de Fourmis pour la Reconfiguration Spatiale). Un autre algorithme est développé pour la régulation horaire appelé ACFRH (Algorithme à Colonie de Fourmis pour la Régulation Horaire). Ces deux approches disposent de bonnes performances en termes de convergence et qualité de solutions, Ces dernières sont prouvées et montrés à travers des scénarii de simulation.
APA, Harvard, Vancouver, ISO, and other styles
35

Fontan, Maxime. "Identification de paramètres par analyse inverse à l’aide d’un algorithme méta-heuristique : applications à l’interaction sol structure, à la caractérisation de défauts et à l’optimisation de la métrologie." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14259/document.

Full text
Abstract:
Cette thèse s’inscrit dans la thématique d’évaluation des ouvrages par des méthodes nondestructives. Le double objectif est de développer un code permettant d’effectuer au choixl’identification de paramètres par analyse inverse en utilisant un algorithme méta heuristique, ou dedéfinir une métrologie optimale (nombre de capteurs, positions, qualité) sur une structure, en vued’une identification de paramètres. Nous avons développé un code permettant de répondre à cesdeux objectifs. Il intègre des mesures in situ, un modèle mécanique aux éléments finis de lastructure étudiée et un algorithme d’optimisation méta heuristique appelé algorithme d’optimisationpar essaim particulaire. Ce code a d’abord été utilisé afin de caractériser l’influence de la métrologiesur l’identification de paramètres par analyse inverse, puis, en phase expérimentale, nous avonstravaillé sur des problèmes d’interactions sol structure. Un travail a également été réalisé surl’identification et la caractérisation de défauts par sollicitations au marteau d’impact. Enfin unexemple d’optimisation de métrologie (nombre de capteurs, positions et qualité) a été réalisé enutilisant le code original adapté pour cette étude
This thesis deals with non-destructive evaluation in civil engineering. The objective is of two-fold:developing a code that will identify mechanical parameters by inverse analysis using a metaheuristicalgorithm, and developing another code to optimize the sensors placement (with respect tothe number and quality of the sensors) in order to identify mechanical parameters with the bestaccuracy. Our code integrates field data, a finite element model of the studying structure and aparticle swarm optimization algorithm to answer those two objectives. This code was firstly used tofocus on how the sensors placement, the number of used sensors, and their quality impact theaccuracy of parameters’ identification. Then, an application on a soil structure interaction wasconducted. Several tests to identify and characterize defaults using an impact hammer were alsocarried on. The last application focused on the optimization of the metrology in order to identifymechanical parameters with the best accuracy. This last work highlights the possibilities of theseresearches for structural health monitoring applications in civil engineering project
APA, Harvard, Vancouver, ISO, and other styles
36

Jandaud, Pierre-Olivier. "Étude et optimisation aérothermique d'un alterno-démarreur." Thesis, Valenciennes, 2013. http://www.theses.fr/2013VALE0018/document.

Full text
Abstract:
Cette thèse porte sur l’étude et l’optimisation aérothermique d’un alterno-démarreur utilisé dans les véhicules hybrides. Ces machines produisant beaucoup plus de puissance qu’un alternateur classique, leur refroidissement est donc critique. La machine est modélisée en utilisant la méthode nodale en régime permanent qui utilise des réseaux de conductances thermiques. Pour alimenter le modèle, on utilise des corrélations issues de la littérature pour modéliser les transferts convectifs et on effectue des calculs CFD de la machine complète pour obtenir la répartition des débits. Les résultats obtenus numériquement sont ensuite validés expérimentalement à l’aide d’essais par Vélocimétrie par Images de Particules et d’essais thermiques par mesure thermocouples. Dans un deuxième temps, on couple un algorithme d’optimisation au code pour obtenir une géométrie de la machine optimale d’un point de vue thermique. La méthode retenue est l’Optimisation par Essaim Particulaire (PSO). L’optimisation se fait sur la taille des têtes de bobines, la position des ventilateurs et la section des canaux rotoriques. On obtient des géométries différentes selon les objectifs que l’on cherche à atteindre. La dernière partie de la thèse porte sur l’optimisation multi-objectifs d’un dissipateur située sur la partie électronique à l’arrière de l’alternateur : le dissipateur doit refroidir le plus possible l’électronique sans pour autant perturber l’écoulement. On étudie aussi plusieurs formes d’ailettes pour atteindre ces objectifs
The goal of this thesis is the aero-thermal study and optimization of a starter-alternator used in hybrid cars. This kind of machines being more powerful than a regular alternator, their cooling is critical. The machine is modeled using lumped method in steady state which uses networks of thermal conductances. The inputs for the model are obtained using correlations from bibliography for the convective heat transfers and three dimensional CFD for the flow rates inside the machine. The numerical results are validated by experimental results with PIV for the fluid results and a machine fitted with thermocouples for the thermal part. In the second part, the thermal code is coupled with an optimization algorithm to obtain an optimal geometry of the machine from a thermal point of view. The method chosen is Particle Swarm Optimization (PSO). The parameters are the sizes of the end-windings, the positions of the fans and the cross section of the rotor channels. For different objectives, different optimal geometries are obtained. The last part of this work aims at the multi-objectives optimization of a heat sink located at the back of the machine. The heat sink has to be thermally efficient but should not affect the flow. Different shapes of fins are also studied
APA, Harvard, Vancouver, ISO, and other styles
37

Strubel, David. "Couverture d'un chemin planifié composé de points de passage à optimiser avec des algorithmes évolutionnaires." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK015/document.

Full text
Abstract:
L'objectif de cette thèse est d'optimiser la couverture visuelle d'une zone vaste et complexe de façon à ce que ses images puissent composer une mosaïque à partir d'un drone.Pour trouver les meilleurs points de passage, deux méthodes ont été étudiées : l'optimisation par essaims particulaires (PSO) et les algorithmes génétiques (GA).Notre étude a prouvé que le GA est la méthode offrant de meilleures performances en raison de ses performances et de sa capacité d'adaptation.Après avoir réalisé des expériences pour comparer les algorithmes, une hybridation de GA et PSO a été réalisée et étudiée.La méthode proposée peut être appliquée sur de grandes surfaces de formes irrégulières, comme les terrains agricoles, et fournit un nombre réduit de points de passage qui doivent être survolés par un véhicule aérien de type drone (UAV).Des essais ont été réalisés pour simuler le vol d'un drone dans un environnement intérieur, les images générées pendant la simulation sont utilisées pour représenter une image de la totalité de l'environnement sous la forme d'une mosaïque.La méthode proposée est également appliquée dans de vastes zones extérieures. Des images satellitaires sont utilisées pour visualiser la couverture du trajet qui a été planifié.Les expériences valident l'efficacité de la méthode proposée pour trouver le nombre et la position des points de passage
The goal of this paper is to optimize the coverage of a vast and complexarea such that its mosaic image can be created. To find the best waypoints, twomethods have been investigated: Particle Swarm Optimization (PSO) and GeneticAlgorithms (GA). Our investigation proved that GA is a better method due toits performance and adaptability. After having performed experiments to compare the algorithms, a hybridization of GA and PSO is investigated.The proposed method can be applied on large areas with irregular shapes, such as agricultural fields, and it provides a minimized number of waypoints that must be flown over by the Unmanned Aerial Vehicle (UAV). The experiments were made to simulate the flight of the UAV in an indoor environment, and the images generated during the simulated flight have been used to show the final mosaic. The proposed method is also applied in the vast outdoor area using satellite images to visualize the final result of the coverage path planning. The experiments validate the efficiency of the proposed method for finding the number and the poses of the waypoints. The solution proposed to approach the problem of coverage path planning is rather different than the stateof the art by dividing the Coverage Path Planning on independent sub-problems to optimize and then using GA and later on GAPSO
APA, Harvard, Vancouver, ISO, and other styles
38

Boudjelaba, Kamal. "Contribution à la conception des filtres bidimensionnels non récursifs en utilisant les techniques de l’intelligence artificielle : application au traitement d’images." Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2015/document.

Full text
Abstract:
La conception des filtres a réponse impulsionnelle finie (RIF) peut être formulée comme un problème d'optimisation non linéaire réputé pour être difficile sa résolution par les approches conventionnelles. Afin d'optimiser la conception des filtres RIF, nous explorons plusieurs méthodes stochastiques capables de traiter de grands espaces. Nous proposons un nouvel algorithme génétique dans lequel certains concepts innovants sont introduits pour améliorer la convergence et rendre son utilisation plus facile pour les praticiens. Le point clé de notre approche découle de la capacité de l'algorithme génétique (AG) pour adapter les opérateurs génétiques au cours de la vie génétique tout en restant simple et facile à mettre en oeuvre. Ensuite, l’optimisation par essaim de particules (PSO) est proposée pour la conception de filtres RIF. Finalement, un algorithme génétique hybride (HGA) est proposé pour la conception de filtres numériques. L'algorithme est composé d'un processus génétique pur et d’une approche locale dédiée. Notre contribution vise à relever le défi actuel de démocratisation de l'utilisation des AG’s pour les problèmes d’optimisation. Les expériences réalisées avec différents types de filtres mettent en évidence la contribution récurrente de l'hybridation dans l'amélioration des performances et montrent également les avantages de notre proposition par rapport à d'autres approches classiques de conception de filtres et d’autres AG’s de référence dans ce domaine d'application
The design of finite impulse response (FIR) filters can be formulated as a non-linear optimization problem reputed to be difficult for conventional approaches. In order to optimize the design of FIR filters, we explore several stochastic methodologies capable of handling large spaces. We propose a new genetic algorithm in which some innovative concepts are introduced to improve the convergence and make its use easier for practitioners. The key point of our approach stems from the capacity of the genetic algorithm (GA) to adapt the genetic operators during the genetic life while remaining simple and easy to implement. Then, the Particle Swarm Optimization (PSO) is proposed for FIR filter design. Finally, a hybrid genetic algorithm (HGA) is proposed for the design of digital filters. The algorithm is composed of a pure genetic process and a dedicated local approach. Our contribution seeks to address the current challenge of democratizing the use of GAs for real optimization problems. Experiments performed with various types of filters highlight the recurrent contribution of hybridization in improving performance. The experiments also reveal the advantages of our proposal compared to more conventional filter design approaches and some reference GAs in this field of application
APA, Harvard, Vancouver, ISO, and other styles
39

Ismail, Boussaad. "Contribution à la conception robuste de réseaux électriques de grande dimension au moyen des métaheuristiques d’optimisation." Thesis, Paris Est, 2014. http://www.theses.fr/2014PEST1024.

Full text
Abstract:
Comme beaucoup de systèmes, un réseau électrique doit faire face à des pannes qui, compte tenu de sa grande connectivité, peuvent s'étendre à des régions entières : on parle alors de blackout (phénomène d'avalanche), c'est-à-dire ayant des conséquences à grande échelle. La taille des réseaux électriques et leur complexité rendent difficile la compréhension de ces phénomènes qui émergent localement. Un certain nombre de travaux existe et se fond sur un usage intensif des outils de physique statistique. L'adaptation de méthodes de percolation et les systèmes critiques auto-organisés sont autant d'outils de choix pour décrire les propriétés statistiques et topologiques d'un réseau. Les outils d'optimisation par métaheuristiques, plus particulièrement l'optimisation par essaim de particules (OEP, ou PSO en anglais) et les algorithmes génétiques (AGs), se sont révélés être la pierre angulaire de ce travail et ont permis de définir des structures opérationnelles. Les travaux développés dans ce domaine sont encore émergents et cette thèse y amène une contribution à plusieurs titres. Nous avons mis tout d'abord à profit des techniques d'optimisation afin de mieux “ rigidifier ” un réseau électrique en couplant la topologie de ce dernier au maintien des tensions aux noeuds du réseau par implémentation de FACTS (Flexible Alternative Current Transmission System). Pour le placement optimal de FACTS, l'objectif est de déterminer la répartition optimale de la puissance réactive, en relation avec la localisation et le dimensionnement optimal de FACTS, afin d'améliorer les performances d'un réseau électrique. Quatre principales questions sont alors abordées: 1) Où placer des FACTS dans le réseau ? Combien de FACTS ? Quelle puissance attribuer à ces FACTS ? Quel(s) type(s) de FACTS ? A quel prix ? Dans cette thèse, toutes ces questions seront modélisées et abordées d'un point de vue électrique et optimal en appliquant, dans un premier temps, l'optimisation par essaim de particules OEP basique puis, dans un deuxième temps, en proposant un nouvel algorithme OEP (alpha-SLPSO) et une recherche locale (alpha-LLS) s'inspirant ainsi du concept de l'OEP basique et des lois de probabilité stables dites «alpha-stables de Lévy». Par ailleurs, l'ampleur du projet défini par l'équipe @RiskTeam d'Alstom Grid oblige l'utilisation de plusieurs techniques (tirées de la physique, des statistiques, etc.) destinées à des fins particulières dont l'estimation des paramètres des lois alpha-stable de Lévy. Face à l'échec des techniques déjà existantes pour l'estimation des lois alpha −stable de paramètre alpha < 0.6 , nous proposons un nouvel estimateur semi-paramétrique de cette famille de probabilité utilisant les métaheuristiques pour résoudre le problème d'optimisation sous-jacent. Enfin, en annexe de cette thèse, un outil d'aide à la décision destiné à une équipe interne d'Alstom Grid qui consiste en l'optimisation de la topologie interne d'un parc éolien est détaillé dans le dernier chapitre
Like many systems, an electrical power grid must contend with faillures which, given its higth connectivity, could spread to entire regions: this is referred to blackout (avalanche phenomena), ie. with large-scale consequences. The size of power grids and their complexity make difficult to grasp these locally emergent phenomena. There is a number of existing works that were based on extensive use of statistical physics tools. The adaptation of percolation's methods and the Self-Organized-Criticality systems provide practical tools to describe the statistical and topological properties of a network. Optimization tools by metaheuristics particularly, particle swarm optimization (PSO) and genetic algorithms (GA) have proved to be the cornerstone of this work and helped to define operational structures. Works developed in this area are still emerging. This thesis brings a contribution in several ways. First of all, we have taken advantage in optimization technics to better "stiffen" a power grid by coupling its topology with maintaining voltages at the nodes of the network using FACTS (Flexible Alternative Current Transmission System). In the optimal location FACTS problem, the objective is to determine the optimal allocation of reactive power, in relation to the location and optimal sizing of FACTS, in order to improve the performance of the power grid. Four main issues are then discussed: 1) Where to place FACTS in the network? How many FACTS? What power attributed to these FACTS? What type(s) attributed to these FACTS? At what prices ? In this thesis, all these questions will be modeled and discussed from the point of view of optimal power by applying, firstly, the strandard particle swarm optimization and by proposing a novel particle swarm optimization (alpha-SLPOS) and a local search (alpha-LLS). These two algorithms are inspired by the basic concept of PSO and the stable distributions (alpha-stable laws). Moreover, the scope of the project defined by the team @RiskTeam Alstom Grid requires the use of several techniques (from physics, statistics, etc) for particular purposes including the alpha-stable parametere estimation problem. Facing the failure of the existing methods for estimating the parameters of alpha-stable laws for alpha<0.6, we propose a novel semi-parametric estimator for such of probability distribution familly using metaheuristic to solve the underlying problem of optimization. Finally, in the end of the thesis, a decision support tool is designed for an internal team of Alstom Grid to optimize the internal topology of a wind farm
APA, Harvard, Vancouver, ISO, and other styles
40

Bracikowski, Nicolas. "Modélisation multi-physique par modèles à constantes localisées ; application à une machine synchrone à aimants permanents en vue de son dimensionnement." Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00905641.

Full text
Abstract:
Afin de définir une conception optimale d'un système électromécanique, celui-ci doit intégrer des contraintes toujours plus drastiques et de nombreux phénomènes physiques issus de : l'électromagnétique, l'aérothermique, l'électronique, la mécanique et l'acoustique. L'originalité de cette thèse est de proposer une modélisation multi-physique pour la conception reposant sur des modèles à constantes localisées : solution intermédiaire entre la modélisation analytique et numérique. Ces différents modèles permettront l'étude et la conception sous contraintes d'une machine synchrone à aimants permanents dédiée pour la traction ferroviaire. Les résultats de simulations seront comparés à des résultats éléments finis mais aussi à des essais expérimentaux. Ce modèle multi-physique est entièrement paramétré afin d'être associé à des outils d'optimisation. On utilisera ici une optimisation par essaim de particules pour chercher des compromis entre différents objectifs sous forme de Front de Pareto. Dans ce papier, nous ciblerons les objectifs suivants : le couple d'origine électromagnétique et le bruit d'origine électromagnétique. Finalement une étude de sensibilité valide la robustesse de la conception retenue quand celle-ci est soumise aux contraintes de fabrication. L'objectif étant de poser les bases d'un outil d'aide à la décision pour le choix d'une machine électrique
APA, Harvard, Vancouver, ISO, and other styles
41

Aupetit, Sébastien. "Contributions aux Modèles de Markov Cachés : métaheuristiques d'apprentissage, nouveaux modèles et visualisation de dissimilarité." Phd thesis, Université François Rabelais - Tours, 2005. http://tel.archives-ouvertes.fr/tel-00168392.

Full text
Abstract:
Dans ce travail de thèse, nous présentons plusieurs contributions visant à améliorer l'utilisation des modèles de Markov cachés (MMC) dans les systèmes d'intelligence artificielle. Nous nous sommes concentrés sur trois objectifs : l'amélioration de l'apprentissage de MMC, l'expérimentation d'un nouveau type de MMC et la visualisation de dissimilarité pour mieux comprendre les interactions entre MMC. Dans la première partie, nous proposons, évaluons et comparons plusieurs nouvelles applications
de métaheuristiques biomimétiques classiques (les algorithmes génétiques, l'algorithme de fourmis artificielles API et l'optimisation par essaim particulaire) au problème de l'apprentissage de MMC. Dans la
deuxième partie, nous proposons un nouveau type de modèle de Markov caché, appelé modèle Markov caché à substitutions de symboles (MMCSS). Un MMCSS permet d'incorporer des connaissances a priori dans le processus d'apprentissage et de reconnaissance. Les premières expérimentations de ces modèles sur des images démontrent leur intérêt. Dans la troisième partie, nous proposons une nouvelle méthode de représentation de dissimilarité appelée matrice de scatterplots pseudo-euclidienne (MSPE), permettant de mieux comprendre les interactions entre des MMC. Cette MSPE est construite à partir
d'une technique que nous nommons analyse en composantes principales à noyau indéfini (ACPNI). Nous terminons par la présentation de la bibliothèque HMMTK, développée au cours de ce travail. Cette dernière intègre des mécanismes de parallélisation et les algorithmes développés au cours de la thèse.
APA, Harvard, Vancouver, ISO, and other styles
42

Lu, Yanping. "Optimisation par essaim de particules application au clustering des données de grandes dimensions." Thèse, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/5112.

Full text
Abstract:
Clustering high-dimensional data is an important but difficult task in various data mining applications. A fundamental starting point for data mining is the assumption that a data object, such as text document, can be represented as a high-dimensional feature vector. Traditional clustering algorithms struggle with high-dimensional data because the quality of results deteriorates due to the curse of dimensionality. As the number of features increases, data becomes very sparse and distance measures in the whole feature space become meaningless. Usually, in a high-dimensional data set, some features may be irrelevant or redundant for clusters and different sets of features may be relevant for different clusters. Thus, clusters can often be found in different feature subsets rather than the whole feature space. Clustering for such data sets is called subspace clustering or projected clustering, aimed at finding clusters from different feature subspaces. On the other hand, the performance of many subspace/projected clustering algorithms drops quickly with the size of the subspaces in which the clusters are found. Also, many of them require domain knowledge provided by the user to help select and tune their settings, like the maximum distance between dimensional values, the threshold of input parameters and the minimum density, which are difficult to set. Developing effective particle swarm optimization (PSO) for clustering high-dimensional data is the main focus of this thesis. First, in order to improve the performance of the conventional PSO algorithm, we analyze the main causes of the premature convergence and propose a novel PSO algorithm, call InformPSO, based on principles of adaptive diffusion and hybrid mutation. Inspired by the physics of information diffusion, we design a function to achieve a better particle diversity, by taking into account their distribution and the number of evolutionary generations and by adjusting their"social cognitive" abilities. Based on genetic self-organization and chaos evolution, we build clonal selection into InformPSO to implement local evolution of the best particle candidate, gBest, and make use of a Logistic sequence to control the random drift of gBest. These techniques greatly contribute to breaking away from local optima. The global convergence of the algorithm is proved using the theorem of Markov chain. Experiments on optimization of unimodal and multimodal benchmark functions show that, comparing with some other PSO variants, InformPSO converges faster, results in better optima, is more robust, and prevents more effectively the premature convergence. Then, special treatments of objective functions and encoding schemes are proposed to tailor PSO for two problems commonly encountered in studies related to high-dimensional data clustering. The first problem is the variable weighting problem in soft projected clustering with known the number of clusters k . With presetting the number of clusters k, the problem aims at finding a set of variable weights for each cluster and is formulated as a nonlinear continuous optimization problem subjected to bound. constraints. A new algorithm, called PSOVW, is proposed to achieve optimal variable weights for clusters. In PSOVW, we design a suitable k -means objective weighting function, in which a change of variable weights is exponentially reflected. We also transform the original constrained variable weighting problem into a problem with bound constraints, using a non-normalized representation of variable weights, and we utilize a particle swarm optimizer to minimize the objective function in order to obtain global optima to the variable weighting problem in clustering. Our experimental results on both synthetic and real data show that the proposed algorithm greatly improves cluster quality. In addition, the results of the new algorithm are much less dependent on the initial cluster centroids. The latter problem aims at automatically determining the number of clusters k as well as identifying clusters. Also, it is formulated as a nonlinear optimization problem with bound constraints. For the problem of automatical determination of k , which is troublesome to most clustering algorithms, a PSO algorithm called autoPSO is proposed. A special coding of particles is introduced into autoPSO to represent partitions with different numbers of clusters in the same population. The DB index is employed as the objective function to measure the quality of partitions with similar or different numbers of clusters. autoPSO is carried out on both synthetic high-dimensional datasets and handcrafted low-dimensional datasets and its performance is compared to other selected clustering techniques. Experimental results indicate that the promising potential pertaining to autoPSO applicability to clustering high-dimensional data without the preset number of clusters k.
APA, Harvard, Vancouver, ISO, and other styles
43

Amzal, Billy. "Optimisation bayésienne de décisions et de plans d'expériences par algorithmes particulaires." Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Amer, Motaz. "Power consumption optimization based on controlled demand for smart home structure." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4354.

Full text
Abstract:
Cette thèse propose un concept d'optimisation de la consommation d'énergie dans les maisons intelligentes basées sur la gestion de la demande qui repose sur l'utilisation de système d e gestion de l'énergie à la maison (HEMS) qui est en mesure de contrôler les appareils ménagers. L'avantage de ce concept est l'optimisation de la consommation d'énergie sans réduire les utilisateurs vivant confort. Un mécanisme adaptatif pour une croissance intelligente système de gestion de l'énergie de la maison qui a composé des algorithmes qui régissent l'utilisation des différents types de charges par ordre de priorité pré-sélectionné dans la maison intelligente est proposé. En outre, une méthode pourl'optimisation de la puissance générée à partir d'un hybride de systèmes d'énergie renouvelables (HRES) afin d'obtenir la demande de charge. particules technique d'optimisation essaim (PSO) est utilisé comme l'optimisation algorithme de recherche en raison de ses avantages par rapport à d'autres techniques pour réduire le coût moyen actualisé de l'énergie (LCE) avec une plage acceptable de la production en tenant compte des pertes entre la production et la demande. Le problème est défini et la fonction objective est introduite en tenant compte des valeurs de remise en forme de sensibilité dans le processus d’essaim de particules. La structure de l'algorithme a été construite en utilisant un logiciel MATLAB et Arduino 1.0.5 du logiciel.Ce travail atteint le but de réduire la charge de l'électricité et la coupure du rapport pic-moyenne (PAR)
This thesis proposes a concept of power consumption optimization in smart homes based on demand side management that reposes on using Home Energy Management System (HEMS) that is able to control home appliances. The advantage of the concept is optimizing power consumption without reducing the users living comfort. An adaptive mechanism for smart home energy management system which composed of algorithms that govern the use of different types of loads in order of pre-selected priority in smart home is proposed. In addition a method for the optimization of the power generated from a Hybrid Renewable Energy Systems (HRES) in order to achieve the load demand. Particle Swarm Optimization Technique (PSO) is used as optimization searching algorithm due to its advantages over other techniques for reducing the Levelized Cost of Energy (LCE) with an acceptable range of the production taking into consideration the losses between production and demand sides. The problem is defined and the objective function is introduced taking into consideration fitness values sensitivity in particle swarm process. The algorithm structure was built using MATLAB software and Arduino 1.0.5 Software. This work achieves the purpose of reducing electricity expense and clipping the Peak-toAverage Ratio (PAR). The experimental setup for the smart meter implementing HEMS is built relying on the Arduino Mega 2560 board as a main controller and a web application of URL http://www.smarthome-em.com to interface with the proposed smart meter using the Arduino WIFI Shield
APA, Harvard, Vancouver, ISO, and other styles
45

Mnasri, Sami. "Contributions to the optimized deployment of connected sensors on the Internet of Things collection networks." Thesis, Toulouse 2, 2018. http://www.theses.fr/2018TOU20046/document.

Full text
Abstract:
Les réseaux de collecte de l’IoT soulèvent de nombreux problèmes d'optimisation, à cause des capacités limitées des capteurs en énergie, en traitement et en mémoire. Dans l'optique d’améliorer la performance du réseau, nous nous intéressons à une contribution liée à l'optimisation du déploiement 3D d’intérieur des nœuds sur les réseaux de capteurs sans fil en utilisant des méta-heuristiques hybrides se basant sur des modèles mathématiques multi-objectif. L’objectif principal est donc de proposer des hybridations et modifications des algorithmes d’optimisation dans le but de réaliser le positionnement 3D adéquat des nœuds dans les réseaux de capteurs sans fil avec satisfaction d’un ensemble de contraintes et objectifs qui sont souvent antagonistes. Nous proposons d'axer notre contribution sur les méta-heuristiques hybrides et combinés avec des procédures de réduction de dimentionalité et d’incorporation de préférences des utilisateurs. Ces schémas d’hybridation sont tous validés par des résultats numériques de test. Ensuite, des simulations complétées par; et confrontées à ; des expérimentations sur des testbeds réelles
IoT collection networks raise many optimization problems; in particular because the sensors have limited capacity in energy, processing and memory. In order to improve the performance of the network, we are interested in a contribution related to the optimization of the 3D indoor deployment of nodes using multi-objective mathematics models relying on hybrid meta-heuristics. Therefore, our main objective is to propose hybridizations and modifications of the optimization algorithms to achieve the appropriate 3D positioning of the nodes in the wireless sensor networks with satisfaction of a set of constraints and objectives that are often antagonistic. We propose to focus our contribution on meta-heuristics hybridized and combined with procedures to reduce dimensionality and to incorporate user preferences. These hybridization schemes are all validated by numerical tests. Then, we proposed simulations that are completed by, and confronted with experiments on real testbeds
APA, Harvard, Vancouver, ISO, and other styles
46

Zemzami, Maria. "Variations sur PSO : approches parallèles, jeux de voisinages et applications Application d’un modèle parallèle de la méthode PSO au problème de transport d’électricité A modified Particle Swarm Optimization algorithm linking dynamic neighborhood topology to parallel computation An evolutionary hybrid algorithm for complex optimization problems Interoperability optimization using a modified PSO algorithm A comparative study of three new parallel models based on the PSO algorithm Optimization in collaborative information systems for an enhanced interoperability network." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMIR11.

Full text
Abstract:
Reconnue depuis de nombreuses années comme une méthode efficace pour la résolution de problèmes difficiles, la méta-heuristique d’optimisation par essaim de particules PSO (Particle Swarm Optimization) présente toutefois des inconvénients dont les plus étudiés sont le temps de calcul élevé et la convergence prématurée. Cette thèse met en exergue quelques variantes de la méthode PSO visant à échapper à ces deux inconvénients de la méthode. Ces variantes combinent deux approches : la parallélisation de la méthode de calcul et l’organisation de voisinages appropriés pour les particules. L’évaluation de la performance des modèles proposés a été effectuée sur la base d'une expérimentation sur une série de fonctions tests. A la lumière de l’analyse des résultats expérimentaux obtenus, nous observons que les différents modèles proposés donnent des résultats meilleurs que ceux du PSO classique en termes de qualité de la solution et du temps de calcul. Un modèle basé PSO a été retenu et développé en vue d'une expérimentation sur le problème du transport d’électricité. Une variante hybride de ce modèle avec la méthode du recuit simulé SA (Simulated Annealing) a été considérée et expérimentée sur la problématique des réseaux de collaboration
Known for many years as a stochastic metaheuristic effective in the resolution of difficult optimization problems, the Particle Swarm Optimization (PSO) method, however, shows some drawbacks, the most studied: high running time and premature convergence. In this thesis we consider some variants of the PSO method to escape these two disadvantages. These variants combine two approaches: the parallelization of the calculation and the organization of appropriate neighborhoods for the particles. To prove the performance of the proposed models, we performed an experiment on a series of test functions. By analyzing the obtained experimental results, we observe that the proposed models based on the PSO algorithm performed much better than basic PSO in terms of computing time and solution quality. A model based on the PSO algorithm was selected and developed for an experiment on the problem of electricity transmission. A hybrid variant of this model with Simulated Annealing (SA) algorithm has been considered and tested on the problem of collaborative networks
APA, Harvard, Vancouver, ISO, and other styles
47

Farges, Olivier. "Conception optimale de centrales solaires à concentration : application aux centrales à tour et aux installations "beam down"." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2014. http://www.theses.fr/2014EMAC0006/document.

Full text
Abstract:
Depuis les années quarante, la consommation énergétique mondiale n'a cessé d'augmenter. Cette énergie étant majoritairement d'origine fossile, il en résulte une augmentation globale de température terrestre. De ce fait, il est devenu urgent de réduire les émissions de gaz à effet de serre pour stopper le changement climatique. Dans ce contexte, le développement de la production d'électricité à partir d'énergie solaire concentrée par voie thermodynamique est une solution prometteuse. Les efforts de recherche visent à rendre cette technologie plus efficace et plus compétitive économiquement. Dans ce but, ce manuscrit présente une méthode de conception optimale pour les centrales solaires à récepteur central. Elle tire parti des méthodes développées depuis de nombreuses années par le groupe de recherche StaRWest, regroupant notamment des chercheurs des laboratoires RAPSODEE (Albi), LAPLACE (Toulouse) et PROMES (Odeillo). Couplant des algorithmes de Monte Carlo à hautes performances et des algorithmes stochastiques d'optimisation, le code de calcul implémentant cette méthode permet la conception et l'optimisation d'installations solaires. Il est utilisé pour mettre en évidence les potentialités d'un type de centrales à récepteur central peu répandu : les centrales à réflecteur secondaire, également appelées centrales de type "beam down"
Since the early 40's, world energy consumption has grown steadly. While this energy mainly came from fossil fuel, its use has included an increase in temperatures. It has become urgent to reduce greenhouse gas emissions to halt climate change. In this context, the development of concentrated solar power (CSP) is a promising solution. The scientific community related to this topic has to focus on efficiency enhancement and economic competitiveness of CSP technologies. To this end, this thesis aims at providing an optimal design method applied to central receiver power plants. It takes advantage of methods developed over many years by the research group StaRWest. Both RAPSODEE (Albi), LAPLACE (Toulouse) and PROMES (Odeillo) researchers take an active part in this group. Coupling high performance Monte Carlo algorithms and stochastic optimization methods, the code we developed allows an optimal design of concentrated solar systems. This code is used to highlight the potential of an uncommon type of central receiver plants: reflective towers, also called "beam down" central receiver systems
APA, Harvard, Vancouver, ISO, and other styles
48

Klement, Nathalie. "Planification et affectation de ressources dans les réseaux de soin : analogie avec le problème du bin packing, proposition de méthodes approchées." Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22517/document.

Full text
Abstract:
Les travaux de thèse présentés s’intéressent à l’optimisation des systèmes hospitaliers. Une solution existante est la mutualisation de ressources au sein d’un même territoire. Cela peut passer par différentes formes de coopération dont la Communauté Hospitalière de Territoire. Différents problèmes sont définis en fonction du niveau de décision : stratégique, tactique ou opérationnel ; et du niveau de modélisation : macroscopique, mesoscopique et microscopique. Des problèmes de dimensionnement, de planification et d’ordonnancement peuvent être considérés. Nous définissons notamment le problème de planification d’activités avec affectation de ressources. Plusieurs cas sont dissociés : soit les ressources humaines sont à capacité infinie, soit elles sont à capacité limitée et leur affectation sur site est une donnée, soit elles sont à capacité limitée et leur affectation sur site est une variable. Ces problèmes sont spécifiés et formalisés mathématiquement. Tous ces problèmes sont comparés à un problème de bin packing : le problème du bin packing de base pour le problème où les ressources humaines sont à capacité infinie, le problème du bin packing avec interdépendances dans les deux autres cas. Le problème du bin packing avec incompatibilités est ainsi défini. De nombreuses méthodes de résolution ont déjà été proposées pour le problème du bin packing. Nous faisons plusieurs propositions dont un couplage hiérarchique entre une heuristique et une métaheuristique. Des métaheuristiques basées individu et une métaheuristique basée population, l’optimisation par essaim particulaire, sont utilisées. Cette proposition nécessite un nouveau codage inspiré des problèmes de permutation d’ordonnancement. Cette méthode donne de très bons résultats sur les instances du problème du bin packing. Elle est simple à appliquer : elle couple des méthodes déjà connues. Grâce au couplage proposé, les nouvelles contraintes à considérer nécessitent d’être intégrées uniquement au niveau de l’heuristique. Le fonctionnement de la métaheuristique reste le même. Ainsi, notre méthode est facilement adaptable au problème de planification d’activités avec affectation de ressources. Pour les instances de grande taille, le solveur utilisé comme référence ne donne qu’un intervalle de solutions. Les résultats de notre méthode sont une fois encore très prometteurs : les solutions obtenues sont meilleures que la borne supérieure retournée par le solveur. Il est envisageable d’adapter notre méthode sur d’autres problèmes plus complexes par intégration dans l’heuristique des nouvelles contraintes à considérer. Il serait notamment intéressant de tester ces méthodes sur de réelles instances hospitalières afin d’évaluer leur portée
The presented work is about optimization of the hospital system. An existing solution is the pooling of resources within the same territory. This may involve different forms of cooperation between several hospitals. Various problems are defined at the decision level : strategic, tactical or operational ; and at the modeling level : macroscopic, mesoscopic and microscopic. Problems of sizing, planning and scheduling may be considered. We define the problem of activities planning with resource allocation. Several cases are dissociated : either human resources are under infinite capacity, or they are under limited capacity and their assignment on a place is given, or they are under limited capacity and their assignment is a variable. These problems are specified and mathematically formalized. All thes problems are compared to a bin packing problem : the classical problem of bin packing is used for the problem where human resources are under infinite capacity, the bin packing problem with interdependencies is used in the two other cases. The bin packing problem with incompatibilities is defined. Many resolution methods have been proposed for the bin packing problem. We make several propositions including a hierarchical coupling between heuristic and metaheuristic. Single based metaheuristics and a population based metaheuristic, the particle swarm optimization, are used. This proposition requires a new encoding inspired by permutation problems. This method gives very good results to solve instances of the bin packing problem. It is easy to apply : it combines already known methods. With the proposed coupling, the new constraints to be considered need to be integrated only on the heuristic level. The running of the metaheuristic is the same. Thus, our method is easily adaptable to the problem of activities planning with resource allocation. For big instances, the solver used as a reference returns only an interval of solutions. The results of our method are once again very promising : the obtained solutions are better than the upper limit returned by the solver. It is possible to adapt our method on more complex issues through integration into the heuristic of the new constraints to consider. It would be particularly interesting to test these methods on real hospital authorities to assess their significance
APA, Harvard, Vancouver, ISO, and other styles
49

Servais, Etienne. "Trajectory planning and control of collaborative systems : Application to trirotor UAVS." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112188/document.

Full text
Abstract:
L'objet de cette thèse est de proposer un cadre complet, du haut niveau au bas niveau, de génération de trajectoires pour un groupe de systèmes dynamiques indépendants. Ce cadre, basé sur la résolution de l'équation de Burgers pour la génération de trajectoires, est appliqué à un modèle original de drone trirotor et utilise la platitude des deux systèmes différentiels considérés. La première partie du manuscrit est consacrée à la génération de trajectoires. Celle-ci est effectuée en créant formellement, par le biais de la platitude du système considéré, des solutions à l'équation de la chaleur. Ces solutions sont transformées en solution de l'équation de Burgers par la transformation de Hopf-Cole pour correspondre aux formations voulues. Elles sont optimisées pour répondre à des contraintes spécifiques. Plusieurs exemples de trajectoires sont donnés.La deuxième partie est consacrée au suivi autonome de trajectoire par un drone trirotor. Ce drone est totalement actionné et un contrôleur en boucle fermée non-linéaire est proposé. Celui-ci est testé en suivant, en roulant, des trajectoires au sol et en vol. Un modèle est présenté et une démarche pour le contrôle est proposée pour transporter une charge pendulaire
This thesis is dedicated to the creation of a complete framework, from high-level to low-level, of trajectory generation for a group of independent dynamical systems. This framework, based for the trajectory generation, on the resolution of Burgers equation, is applied to a novel model of trirotor UAV and uses the flatness of the two levels of dynamical systems.The first part of this thesis is dedicated to the generation of trajectories. Formal solutions to the heat equation are created using the differential flatness of this equation. These solutions are transformed into solutions to Burgers' equation through Hopf-Cole transformation to match the desired formations. They are optimized to match specific requirements. Several examples of trajectories are given.The second part is dedicated to the autonomous trajectory tracking by a trirotor UAV. This UAV is totally actuated and a nonlinear closed-loop controller is suggested. This controller is tested on the ground and in flight by tracking, rolling or flying, a trajectory. A model is presented and a control approach is suggested to transport a pendulum load
APA, Harvard, Vancouver, ISO, and other styles
50

Bouffanais, Yann. "Bayesian inference for compact binary sources of gravitational waves." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC197/document.

Full text
Abstract:
La première détection des ondes gravitationnelles en 2015 a ouvert un nouveau plan d'étude pour l'astrophysique des étoiles binaires compactes. En utilisant les données des détections faites par les détecteurs terrestres advanced LIGO et advanced Virgo, il est possible de contraindre les paramètres physiques de ces systèmes avec une analyse Bayésienne et ainsi approfondir notre connaissance physique des étoiles binaires compactes. Cependant, pour pouvoir être en mesure d'obtenir de tels résultats, il est essentiel d’avoir des algorithmes performants à la fois pour trouver les signaux de ces ondes gravitationnelles et pour l'estimation de paramètres. Le travail de cette thèse a ainsi été centré autour du développement d’algorithmes performants et adaptées au problème physique à la fois de la détection et de l'estimation des paramètres pour les ondes gravitationnelles. La plus grande partie de ce travail de thèse a ainsi été dédiée à l'implémentation d’un algorithme de type Hamiltonian Monte Carlo adapté à l'estimation de paramètres pour les signaux d’ondes gravitationnelles émises par des binaires compactes formées de deux étoiles à neutrons. L'algorithme développé a été testé sur une sélection de sources et a été capable de fournir de meilleures performances que d'autres algorithmes de type MCMC comme l'algorithme de Metropolis-Hasting et l'algorithme à évolution différentielle. L'implémentation d'un tel algorithme dans les pipelines d’analyse de données de la collaboration pourrait augmenter grandement l'efficacité de l'estimation de paramètres. De plus, il permettrait également de réduire drastiquement le temps de calcul nécessaire, ce qui est un facteur essentiel pour le futur où de nombreuses détections sont attendues. Un autre aspect de ce travail de thèse a été dédié à l'implémentation d'un algorithme de recherche de signaux gravitationnelles pour les binaires compactes monochromatiques qui seront observées par la future mission spatiale LISA. L'algorithme est une mixture de plusieurs algorithmes évolutionnistes, avec notamment l'inclusion d'un algorithme de Particle Swarm Optimisation. Cette algorithme a été testé dans plusieurs cas tests et a été capable de trouver toutes les sources gravitationnelles comprises dans un signal donné. De plus, l'algorithme a également été capable d'identifier des sources sur une bande de fréquence aussi grande que 1 mHz, ce qui n'avait pas été réalisé au moment de cette étude de thèse
The first detection of gravitational waves in 2015 has opened a new window for the study of the astrophysics of compact binaries. Thanks to the data taken by the ground-based detectors advanced LIGO and advanced Virgo, it is now possible to constrain the physical parameters of compact binaries using a full Bayesian analysis in order to increase our physical knowledge on compact binaries. However, in order to be able to perform such analysis, it is essential to have efficient algorithms both to search for the signals and for parameter estimation. The main part of this thesis has been dedicated to the implementation of a Hamiltonian Monte Carlo algorithm suited for the parameter estimation of gravitational waves emitted by compact binaries composed of neutron stars. The algorithm has been tested on a selection of sources and has been able to produce better performances than other types of MCMC methods such as Metropolis-Hastings and Differential Evolution Monte Carlo. The implementation of the HMC algorithm in the data analysis pipelines of the Ligo/Virgo collaboration could greatly increase the efficiency of parameter estimation. In addition, it could also drastically reduce the computation time associated to the parameter estimation of such sources of gravitational waves, which will be of particular interest in the near future when there will many detections by the ground-based network of gravitational wave detectors. Another aspect of this work was dedicated to the implementation of a search algorithm for gravitational wave signals emitted by monochromatic compact binaries as observed by the space-based detector LISA. The developed algorithm is a mixture of several evolutionary algorithms, including Particle Swarm Optimisation. This algorithm has been tested on several test cases and has been able to find all the sources buried in a signal. Furthermore, the algorithm has been able to find the sources on a band of frequency as large as 1 mHz which wasn’t done at the time of this thesis study
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography