To see the other types of publications on this topic, follow the link: Commande basé sur optimisation.

Dissertations / Theses on the topic 'Commande basé sur optimisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Commande basé sur optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Olaru, Sorin. "La commande des systèmes dynamiques sous contraintes Interaction optimisation-géométrie-commande." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00641658.

Full text
Abstract:
Dans ce mémoire d'Habilitation à Diriger les Recherches, seront présentées les recherches menées ces cinq dernières années sur des sujets liés à la commande sous contraintes, à la commande basée sur l'optimisation temps-réel et aux méthodes géométriques en Automatique. La première partie du mémoire d'écrit le parcours académique permettant de recadrer les résultats de recherche dans un parcours scientifique avec toutes ses dimensions la formation, l'enseignement, la recherche, le développement et la participation à la vie de la communauté. Dans la deuxième partie, nous retraçons le chemin de la commande optimale à la commande basée sur l'optimisation. Avec ce panorama historique nous montrerons que les recherches dans ce domaine ont toujours été partagées entre les travaux théoriques et les applications à visée industrielle. Ce panorama sera suivi d'une revue de méthodes géométriques utilisées en automatique, qui identifie une direction dans laquelle s'inscrit notre recherche. Nous insisterons sur les contributions dans le domaine avant d'établir un projet de recherche à court, moyen et long terme. La troisième partie contient une synthèse des travaux de recherche publiés récemment sur les sujets mentionnés précédemment afin d'offrir une image des directions explorées et des concepts clés qui ont guidé nos recherches dans les cinq dernières années. L'analyse des polyèdres paramétrés est présentée comme un problème de géométrie avec des implications multiples dans la commande prédictive sous contraintes dans le cas linéaire et hybride. Spécifiquement pour la commande prédictive des systèmes hybrides, des approches alternatives basées sur l'adaptation du modèle de prédiction en vue de l'exploitation des routines d'optimisation évoluées (algorithmes génétiques, etc.) ont été développées. Les outils géométriques sont utilisés aussi dans des problèmes plus éloignés de la commande prédictive comme le cas de la modélisation des systèmes affectés par un retard variable. Ici, les techni-ques géométriques permettent la description des modèles linéaires polytopiques qui peuvent être utilisés par la suite dans une procédure de synthèse de lois de commande robuste (et prédictive accessoirement). Finalement, dans un tout autre domaine, celui de la commande des systèmes multi-capteurs, on montre que les méthodes ensemblistes peuvent apporter des réponses pour les défis de détection et isolation des défauts. Quant à la commande prédictive, elle offre le cadre approprié pour la reconfiguration, l'autre aspect majeur de ce qu'on appelle communément " la conception d'un système de commande tolérant aux défauts ".
APA, Harvard, Vancouver, ISO, and other styles
2

Zima, Alexis. "Élaboration d’un outil de suivi et d’optimisation du fonctionnement énergétique d’un bâtiment tertiaire basé sur un modèle thermique analytique simplifié." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC101/document.

Full text
Abstract:
Le secteur du bâtiment, responsable de plus de 40% de consommation d’énergie globale et un tiers des émissions de gaz à effet de serre mondial, est un des centres de préoccupations autour des sujets liés au changement climatique et l’indépendance énergétique. Le travail de recherche a exigé l’apport de connaissances supplémentaires et la création d’outils spécifiques orientés sur l’optimisation globale du management énergétique des bâtiments de type tertiaire. Une problématique industrielle est associée à ces enjeux de transitions énergétique et écologique, à savoir le frein observé à la mise en place de plans d’actions de rénovation. En effet, pour des opérations d’optimisation ou de rénovation de petites-moyennes envergures, les coûts initiaux d’études et de métrologie représentent plus de 50% de leur coût global. Cette mise de fonds induit un retour sur investissement très long. Face à ce paramètre financier prohibitif, beaucoup d’entreprises sont réticentes à mettre en place ce type d’action. L’objectif opérationnel a donc été de proposer une solution permettant de réduire drastiquement ces coûts préliminaires.Les aspects abordés dans la thèse sont : l’état de l’art du fonctionnement du bâtiment et des enjeux associés, la création d’un outil de collecte et de remontée des données de fonctionnement et de performance du bâtiment grâce à un réseau de mesure in-situ dédié, concomitant à l’élaboration d’un modèle thermique simplifié adjoint facilitant la compréhension de son comportement, puis l’identification de ses paramètres "observables" de conception et de fonctionnement par méthode inverse, et enfin le calcul de sa consommation énergétique optimale grâce à une méthode d’optimisation. Plus spécifiquement, l’approche sera orientée vers le développement d’outils pour promouvoir un accès facilité à la réduction des consommations unitaires auprès des entreprises au niveau national et l’intégration d’une intelligence pour l’optimisation énergétique des éléments climatiques du bâtiment ou son usage, ou encore une interface ergonomique homme-machine permettant un management efficace de son fonctionnement. Dans les faits, le problème observé est holistique et ne peut pas être pris en compte de manière sectorielle. Il est impératif d’y intégrer tous les processus impliqués dans le bâtiment et son usage (aspect comportemental des usagers). L’approche utilisée a été orientée afin de prendre en compte ultérieurement des paramètres autres que strictement énergétique, tel que les coûts ou le confort
The building field is responsible of about 40% of global energy consumption and a third of world greenhouse gas emissions. It is a main concern subject in climate change issues and fossil fuel independency. The aim of the PhD work is to bring more knowledge about thermal modeling and to create specific tools which are capable of globally optimize the office building energy management. The industrial purpose is associated with its area of expertise, which is advice in energy and ecologic transition. It concerns the difficulty to implement a retrofit action planning. Indeed, for small or middle retrofit actions, the initial study and metrology costs represent over 50% of the overall cost. This down payment induces a long return of investment. Faced with this prohibitive financial parameter, a lot of companies are reluctant to implement this type of actions. The proposed purpose is a solution that drastically reduces preliminary costs. The aspects addressed in this thesis are: the building operation state of art and its associated issues, the creation of reporting and collecting data tool of building operation and performance thanks to a dedicated in-situ measurement network, concomitant with the development of a simplified adjoin thermal model. It facilitates the understanding of its behavior. Then the final aspect are the two steps of optimization. The first is the observable building design and operation parameters with an inverse method, the second is the calculation of optimal energy consumptions. The approach is specifically oriented through the development of tools allowing a facilitated access to energy reduction action for national companies. This should assist the integration of an intelligence for energy optimization for building climatics and thermal equipments or usage. The result could be a new ergonomic man-machine interface for stock building effective management. In the facts, the problem is holistic and cannot be handle sectorally. It is imperative to integrate all the process involved in the building and its use (user behavior). The approach have been oriented to take later into account other parameters than strictly energy, as costs of comfort
APA, Harvard, Vancouver, ISO, and other styles
3

Attemene, N'guessan Stéphane. "Optimisation temps réel des flux énergétiques au sein d'un système multi-sources multi-charges basé sur les énergies d'origine renouvelable." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD044.

Full text
Abstract:
Ce travail est axé sur le contrôle optimal en temps réel d’un système autonome constitué d’un générateur photovoltaïque, d’une pile à combustible de technologie PEM, d’un électrolyseur alcalin, d’une batterie et d’un pack de supercondensateurs pour une application stationnaire. Le couplage de ces différentes sources a pour but d’améliorer les performances, la disponibilité du réseau électrique résultant, la fourniture d’électricité sur des périodes beaucoup plus longues, et surtout la satisfaction de la charge en utilisant chaque source de façon raisonnée.D’abord, une étude approfondie sur la faisabilité du système du point de vue technique, énergétique, économique et environnemental est effectué. En conséquence une méthode de dimensionnement optimal est proposée. Une analyse de sensibilité permettant d’évaluer l’influence du coût et de la taille des sous-systèmes respectivement sur le coût énergétique global et l’équivalent CO2 émis par le système est également effectuée. Ensuite un modèle permettant une mise à l’échelle aisée des composants afin d’atteindre la capacité requise pour le système est développé. Le modèle global du système est obtenu en exploitant la modularité de la REM (représentation énergétique macroscopique), qui est le formalisme utilisé pour la modélisation. Finalement Une méthode de gestion énergétique basé sur l’« Energy consumption Minimization Strategy » (ECMS) est proposée. La stratégie proposée est validée par étude comparative des résultats avec ceux de la programmation dynamique
This work is focused on the real-time optimal control of a stand-alone system consisting of a photovoltaic generator, a PEM fuel cell, an alkaline electrolyzer, a battery and supercapacitor pack for a stationary application. The coupling of these different sources aims to improve performance, the availability of the resulting electrical grid, the supply of electricity over much longer periods, and especially the satisfaction of the load by using each source in a controlled way.First, a thorough study of the feasibility of the system from a technical, energetic, economic and environmental point of view is carried out. As a result, an optimal sizing method is proposed. A sensitivity analysis to evaluate the influence of subsystems cost and the size respectively on the overall energy cost and the equivalent CO2 emitted by the system is also discussed. Then, a model enabling easy scaling of components to achieve the capacity required for the system is developped. The global model of the system is obtained by exploiting the modularity of the formalism used for modeling (the Energetic Macroscopic Representation). Finally, an energy management method based on Energy consumption Minimization Strategy (ECMS) is proposed. A comparative study of the results obtained by the ECMS and those obtained by dynamic programming has enabled the validation of the optimal control strategy developed
APA, Harvard, Vancouver, ISO, and other styles
4

Beraud, Benoît. "Méthodologie d’optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Montpellier 2, 2009. http://www.theses.fr/2009MON20049.

Full text
Abstract:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc. ). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement
The work presented in this thesis concerns the development of an optimization methodology for control laws of wastewater treatment plants. This work is based on the use of WWTP process models in order to simulate their operation. These simulations are used by a multi-objective genetic algorithm, NSGA-II. This optimization algorithm allows the search of optimal solutions when multiple objectives are considered (e. G. The effluent quality, energy consumption, etc. ). It also enables the visualisation of compromises arising between various control laws as well as their respective best domains of application. In a first part of this work, the optimization methodology in developed around four main axes: the conception of a robust simulation procedure, the choice of input datasets for the simulations, the choice of objectives and constraints to consider and the evaluation of long term performances and robustness of control laws. This methodology is then applied on the literature case study of BSM1. In a second part of the work, the methodology is applied on the real case study of Cambrai wastewater treatment plant. This application includes the development of new aspects like the generation of dynamic input datasets out of daily monitoring measurements of the wastewater treatment plant, as well as the simulation of control laws based on oxydo-reduction potential measurements. This application allowed to analyze the compromises between the control law currently tested on the wastewater treatment plant and a new control law foreseen. The benefits of this modification could hence be clearly observed
APA, Harvard, Vancouver, ISO, and other styles
5

Bahri, Nesrine. "Une commande neuronale adaptative basée sur des émulateurs neuronal et multimodèle pour les systèmes non linéaires MIMO et SIMO." Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0024/document.

Full text
Abstract:
La porosité d'une plaque composite carbone / époxy de type RTM est connue par tomographie X. Une méthode de détermination de cette porosité par mesure de l'atténuation des ondes longitudinales à travers l'épaisseur de cette plaque est proposée. Ces mesures sont effectuées sur des surfaces de dimensions variables (quelques cm2 à quelques mm2) et permettent l’obtention de cartographies. Une correspondance porosité (tomo X) – atténuation (onde US) est déduite et analysée en fonction de la structure du matériau composite. Dans chaque cas, on estime la qualité des relations obtenues et on en déduit les limites de validité de la correspondance porosité-atténuation. Des premiers résultats de tomographie acoustiques sont obtenus
The porosity of a composite plate in carbon / epoxy of type RTM is known by used of tomography X. A method of determination of this porosity by measure of the mitigation of the longitudinal waves through the thickness of this kind of plate is proposed. These measures are made on surfaces of different sizes (from some cm2 to some mm2) and allow the obtaining of cartographies. A correspondence porosity (tomo X) - Mitigation (US wave) is deducted and analyzed according to the structure of the composite material. In every case, we estimate the quality of the obtained relations and we deduct the limits of validity of the correspondence between porosity and mitigation. First results of acoustic tomography are obtained
APA, Harvard, Vancouver, ISO, and other styles
6

Moussa, Kaouther. "Estimation de domaines d'attraction et contrôle basé sur l'optimisation : application à des modèles de croissance tumorale." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT078.

Full text
Abstract:
L’objectif de cette thèse consiste à proposer des algorithmes ainsi que des approches, basés sur des méthodes avancées de l’automatique, afin de guider la synthèse des traitements de cancer. Cette thèse a également pour but de relever l’importance de la considération des différentes incertitudes stochastiques qui peuvent affecter ce genre de systèmes.Le phénomène de croissance tumorale et ses différentes dynamiques sont encore à nosjours un sujet de recherche ouvert. La complexité de ce type de systèmes vient de leur nature incertaine ainsi que de la méconnaissance de leurs comportements. Par ailleurs, ces systèmes sont souvent décrits par des dynamiques non-linéaires complexes et requièrent la prise en compte de différentes contraintes liées à la physiologie ainsi que la biologie de l’être humain.Ce sujet regroupe plusieurs ingrédients de complexité en termes de synthèse de contrôle, tels que les dynamiques non-linéaires, la prise en considération des contraintes ainsi que des problèmes d’optimalité. Pour cela, nous proposons dans cette thèse d’utiliser une méthode récente de contrôle optimal basée sur l’optimisation par les moments. Cette approche a pour avantage de considérer les différentes variables d’état et de contrôle comme étant des densités de probabilité, rendant la prise en considération d’incertitudes décrites par des distributions de probabilité directe dans le problème de contrôle optimal. Nous utilisons cette méthodologie dans la Partie II afin de synthétiser des contrôles optimauxet robustes, représentant des profils d’injection de médicaments.Le second problème qu’on considère dans la Partie III consiste en l’estimation derégions d’attraction pour des modèles dynamiques de cancer. Ce problème est intéressant dans le contexte de traitements de cancer, car ces régions caractérisent l’ensemble des conditions initiales (volume tumoral et indicateurs de santé), qui peuvent être amenées à une région saine, où le patient est considéré comme guéri. Par ailleurs, on analyse des méthodologies permettant de prendre en considération des modèles dynamiques présentant des incertitudes paramétriques
The main objective of this thesis is to propose frameworks and algorithms that are based on advanced control approaches, in order to guide cancer treatments scheduling. It also aims at pointing out the importance of taking into account the problem of stochastic uncertainties handling in the drug scheduling design, since cancer dynamical systems are considered to be highly uncertain phenomena.Cancer dynamical interactions are still an open research topic which is not fully understood yet. The complexity of such dynamics comes from their partially unknown behavior and their uncertain nature. Additionally, they are often described by nonlinear complex dynamics and require taking into consideration many constraints related to physiology as well as biology.In terms of control design, this topic gathers many complexity ingredients such asnonlinear dynamics, constraints handling and optimality issues. Therefore, in this thesis, we propose to use a recent optimal control approach that is based on moment optimization. This framework has the advantage of considering all the state and input variables as probability densities, allowing therefore to explicitly consider parametric as well as initial state uncertainties in the optimal control problem. We use this framework in Part II, in order to design robust optimal control schedules that represent cancer drugs injection profiles.The second problem that we address in Part III consists in the estimation of regionsof attraction for cancer interactions models. This problem is interesting in the context of cancer treatment design, since it provides the set of all possible initial conditions (tumor and patient health indicators), that can be driven to a desired targeted safe region, where the patient is considered to be healed. Furthermore, we focus on the assessment of methodologies that take into consideration the parametric uncertainties that can affect the dynamical model
APA, Harvard, Vancouver, ISO, and other styles
7

Beraud, Benoit. "Méthodologie d'optimisation du contrôle/commande des usines de traitement des eaux résiduaires urbaines basée sur la modélisation et les algorithmes génétiques multi-objectifs." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00457236.

Full text
Abstract:
Le travail présenté dans cet ouvrage concerne le développement d'une méthodologie d'optimisation des lois de contrôle/commande des stations d'épuration des eaux usées urbaines. Ce travail est basé sur l'utilisation des modèles des procédés de traitement afin de réaliser la simulation de leur fonctionnement. Ces simulations sont utilisées par un algorithme d'optimisation multi-objectifs, NSGA-II. Cet algorithme d'optimisation permet la recherche des solutions optimales en fonction des différents objectifs considérés (qualité de l'effluent, consommation énergétique, etc.). Il permet également la visualisation claire des compromis entre diverses lois de contrôle ainsi que la détermination de leurs domaines d'application respectifs. Dans une première partie de cet ouvrage, la méthodologie est développée autour de quatre axes principaux : la conception d'une méthode de simulation fiable et robuste, le choix des jeux de données d'entrée à utiliser en simulation, le choix des objectifs et contraintes à considérer et enfin l'évaluation des performances et de la robustesse à long terme des lois de contrôles. L'application de cette méthodologie sur le cas d'école du BSM1 est réalisée dans cette première partie. Dans une seconde partie, la méthodologie développée est appliquée sur le cas réel de l'usine de dépollution de Cambrai. Cette application a nécessité le développement de nouveaux aspects que sont la génération de données d'entrée dynamiques à partir des données d'auto-surveillance de la station d'épuration et la simulation des lois de contrôles basées sur une mesure du potentiel redox. Cette application a permis de visualiser les compromis entre la loi de contrôle actuellement utilisée sur site et une nouvelle loi envisagée. Il a ainsi été possible d'évaluer le gain de performances à attendre de ce changement.
APA, Harvard, Vancouver, ISO, and other styles
8

Benmouna, Amel. "Gestion énergétique reconfigurable d'un véhicule électrique basée sur l'identification en ligne des sources embarquées." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCA020.

Full text
Abstract:
Ce sujet de thèse porte sur l’étude de la gestion énergétique reconfigurable d’un véhicule électrique basée sur l’identification en ligne des sources embarquées. Ces dernières années, la gestion d’énergie d’un système hybride pour les applications automobiles a fait l’objet d’un grand nombre de travaux de recherche. Dans cette étude, la chaine énergétique considérée se constitue d’une pile à combustible comme source principale, de sources de stockage à savoir les batteries et/ou les supercondensateurs, de convertisseurs pour chaque source et enfin d’une charge émulant la demande en puissance. En effet, le problème qui se pose dans les systèmes hybrides est de trouver une stratégie permettant une meilleure répartition de la puissance électrique entre les différentes sources embarquées, ce qui constitue l’apport de ce travail de recherche. Ainsi que de définir des lois de gestion énergétique en considérant des mesures faites en temps réel dans le but d’augmenter la durée de vie et la fiabilité des sources d’une part, et la disponibilité du véhicule électrique d’autre part. Dans ce travail de thèse, le contrôle non linéaire nommé IDA-PBC (Interconnection and Damping assignment-Passivity Based Control) est utilisé avec la structure PCH (Port Controlled Hamiltonian) qui permet de présenter des propriétés structurelles du système à savoir l'énergie totale du système, l'amortissement et les interconnexions d'états. La méthode IDA-PBC est une technique non linéaire puissante, elle est considérée comme un moyen général pour stabiliser une grande classe de systèmes physiques. Dans une seconde partie de ce travail, une stratégie de gestion de l'énergie optimale est proposée pour le système hybride étudié qui est la combinaison entre l’IDA-PBC et la méthode d’Hamiltonian Jacobi Bellman. La preuve de stabilité est donnée et l'efficacité de la stratégie proposée est démontrée. Plusieurs validations expérimentales valident ce travail
This thesis deals with the study of the reconfigurable energy management of an electric vehicle based on the online identification of embedded sources. In recent years, the energy management of a hybrid system for automotive applications has been the subject of a great number of research. In this study, the energy chain considered consists of a fuel cell as the main source, storage sources such as batteries and/or supercapacitors, converters for each source and finally a load emulating the power demand. Indeed, the problem in hybrid systems is to find a strategy for a better distribution of electrical power between the different embedded sources, which is the added value of this research work. As well as defining energy management laws by considering real-time measurements in order to increase the lifespan and reliability of sources on the one hand, and the availability of the electric vehicle on the other hand. In this thesis, the nonlinear control called IDA-PBC (Interconnection and Damping assignment-Passivity Based Control) is used with the PCH (Port Controlled Hamiltonian) structure which allows to present structural properties of the system namely total system energy, damping and state interconnections. The IDA-PBC method is a powerful nonlinear technique, it is considered as a general means to stabilize a large class of physical systems. In a second part of this work, an optimal energy management strategy is proposed for the hybrid system under study, which is the combination of IDA-PBC and Hamiltonian's Jacobi Bellman method. Proof of stability is provided and the effectiveness of the proposed strategy is demonstrated. Several experimental validations are presented
APA, Harvard, Vancouver, ISO, and other styles
9

Ramírez, Restrepo Laura María. "Optimisation basée sur l'étude des trajectoires dans un environnement aléatoire : application au pilotage de systèmes de production." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0222/document.

Full text
Abstract:
Dans le contexte international actuel, les entreprises doivent être capables de développer des stratégies leur permettant d’augmenter leurs performances et d'être plus compétitives. Cet environnement très évolutif introduit de nombreuses incertitudes et contraintes qui rendent beaucoup plus difficile la détermination de la meilleure stratégie à adopter selon les objectifs fixés. Le travail développé dans cette thèse, s’inscrit dans ce cadre et nous nous intéressons plus précisément à l'optimisation du pilotage de systèmes de production soumis à aléas (comme les pannes des machines) de façon à minimiser les coûts globaux. Pour la modélisation, le modèle à flux continus est choisi afin de représenter le flux de matières transitant dans le système. Ce modèle, nous permet également d'intégrer les délais de transfert et de transport entre les différents éléments qui composent le système.La méthode de résolution analytique utilisée est issue des méthodes d’analyse de sensibilité et correspond à la méthode d’analyse des perturbations infinitésimales (IPA). Cette méthode nous permet de déduire à partir d'une étude de trajectoires, un gradient du coût global pour chacune des études menées. Nous prouvons alors que ces gradients ne sont pas biaisés. Cela nous permet de les utiliser dans des simulations numériques. Ces simulations nous permettent de déterminer les variables de décision des stratégies de pilotage du système considéré. Le pilotage intègre la maintenance à la production. Pour le pilotage des systèmes considérés, nous considérons également des contraintes liées aux trois piliers du développement durable. Ces contraintes sont intégrées à nos modèles sous forme de coûts. Ainsi, les coûts globaux peuvent comporter en plus de coûts purement économiques, des coûts environnementaux et sociaux. Nous montrons donc que l'approche de résolution proposée peut être utilisée pour optimiser d'autres objectifs dans un cadre de durabilité
In the current international context, companies need to be able to develop strategies to increase their performance and become more competitive. This rapidly changing environment introduces many uncertainties and constraints, making much more difficult to determine the best strategy according to the objectives set. The work developed in this thesis falls within this context and, more precisely, we are interested in the optimization of the control of production systems subject to uncertainties (such as machine failures) in order to minimize the overall costs. For modeling, the continuous-flow model is chosen to represent the material flow moving through the system. This model allows us to integrate transfer and transportation delays between the different components of the system. The analytical resolution method used is based on the sensitivity analysis methods and corresponds to the infinitesimal perturbation analysis method (IPA). This method allows us to deduce, based on learning from sample-paths, a gradient of the overall cost for each of the studies conducted. We prove that these gradients are unbiased, which allows us to use them in numerical simulations. The simulations allow us to determine the decision variables of control strategies of the studied systems. The control integrates the maintenance to the production. For the control of the considered systems, we also take into account constraints linked to the three pillars of sustainable development. These constraints are integrated into our models in terms of costs. Thus, the overall costs may not only include purely economic costs, but also environmental and social costs. We show that the proposed resolution approach may be used to optimize other objectives within a sustainability framework
APA, Harvard, Vancouver, ISO, and other styles
10

Da, Silva De Aguiar Raquel Stella. "Optimization-based design of structured LTI controllers for uncertain and infinite-dimensional systems." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0020/document.

Full text
Abstract:
Les techniques d’optimisation non-lisse permettent de résoudre des problèmes difficiles de l’ingénieur automaticien qui étaient inaccessibles avec les techniques classiques. Il s’agit en particulier de problèmes de commande ou de filtrage impliquant de multiples modèles ou faisant intervenir des contraintes de structure pour la réduction des couts et de la complexité. Il en résulte que ces techniques sont plus à même de fournir des solutions réalistes dans des problématiques pratiques difficiles. Les industriels européens de l’aéronautique et de l’espace ont récemment porté un intérêt tout particulier à ces nouvelles techniques. Ces dernières font parfois partie du "process" industriel (THALES, AIRBUS DS Satellite, DASSAULT A) ou sont utilisées dans les bureaux d’étude: (SAGEM, AIRBUS Transport). Des études sont également en cours comme celle concernant le pilotage atmosphérique des futurs lanceurs tels d’Ariane VI. L’objectif de cette thèse concerne l'exploration, la spécialisation et le développement des techniques et outils de l'optimisation non-lisse pour des problématiques d'ingénierie non résolues de façon satisfaisante - incertitudes de différente nature - optimisation de l'observabilité et de la contrôlabilité - conception simultanée système et commande Il s’agit aussi d’évaluer le potentiel de ces techniques par rapport à l’existant avec comme domaines applicatifs l’aéronautique, le spatial ou les systèmes de puissance de grande dimension qui fournissent un cadre d’étude particulièrement exigeant
Non-smooth optimization techniques help solving difficult engineering problems that would be unsolvable otherwise. Among them, control problems with multiple models or with constraints regarding the structure of the controller. The thesis objectives consist in the exploitation, specialization and development of non smooth optmization techniques and tools for solving engineering problems that are not satisfactorily solved to the present
APA, Harvard, Vancouver, ISO, and other styles
11

Hamze, Sandra. "Optimisation multi-objectifs inter-systèmes des groupes motopropulseurs." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT055.

Full text
Abstract:
L’optimisation des systèmes de groupes motopropulseurs (GMP) dans les automobiles modernes repose sur l’ingénierie des systèmes basée sur des modèles pour faire face à la complexité des systèmes automobiles et aux exigences de conception des commandes. Deux prérequis à l’optimisation du GMP sont le simulateur de GMP et la conception des commandes, assurant un fonctionnement satisfaisant du GMP pendant les cycles de conduite. Cette thèse s’articule autour de ces prérequis et fait partie de la phase model-in-the-loop du cycle de développement du contrôle. Elle vise d’abord à identifier des modèles linéaires boîtes noires de systèmes de GMP, car ils présentent des avantages d’accessibilité à la conception de la commande linéaire et de facilité d’intégration des modifications dans la définition technique du GMP. Elle vise également à identifier et à contrôler les systèmes de GMP à retard de transport car l’intégration du retard est cruciale pour la précision du modèle et l’optimalité de son contrôle. Sur ces bases, nous abordons le GMP du point de vue de la chaîne d’air d’un moteur essence. Nous identifions d’abord un modèle linéaire boîte noire state-space (SS), via un algorithme d’identification basé sur les méthodes subspace. Différents ordres de modèles et paramètres d’algorithmes sont testés et ceux donnant les meilleurs résultats d’identification et de validation sont indiqués, conduisant à un gain de temps de 85% pour des identifications futures similaires. Bien que cette partie considère l’ensemble de la chaîne d’air, le reste s’adresse aux certains de ses composants, notamment le papillon électrique, l’échangeur de chaleur et la recirculation des gaz d’échappement (EGR). Concernant le papillon électrique, nous nous inspirons des lois physiques régissant son fonctionnement pour construire un modèle mathématique linéaire à paramètres variables (LPV) SS, qui définit la structure vectorielle de régression du modèle LPV boîte noire ARX qui représente un banc d’essais du papillon et reflète ses nonlinéarités et discontinuités en variant entres ses zones fonctionnelles. Pour traiter les délais de transport de chaleur et de masse dans la chaîne d’air, nous nous référons respectivement à l’échangeur de chaleur et à l’EGR. La refonte des équations aux dérivées partielles (EDP) hyperboliques à dimensions infinies décrivant ces phénomènes de transport sous la forme d’un système à retard facilite l’identification du système et la conception du contrôle. Pour ce faire, le moyennage spatiale et la méthode des caractéristiques sont utilisés pour découpler les EDP hyperboliques décrivant les flux advectifs dans un échangeur de chaleur et pour les reformuler en un système à retard temporel. La méthode à descente de gradient cherche à réduire l’erreur entre la température de sortie du modèle et celle d’un banc d’essai d’échangeur de chaleur, pour identifier les paramètres du système à retard, qui dépasse les EDP en termes de précision d’identification et de temps de calcul. D’autre part, les EDP décrivant le transport de masse dans une EGR sont refondus en un système SS soumis à un retard de sortie. Pour réguler le rapport de gaz brûlé dans le gaz d’admission, la quantité de gaz recirculé est contrôlée à l’aide de deux approches de contrôle optimale indirecte, qui prennent en compte la nature infinie du modèle et qui sont accompagnées des méthodes du Lagrangien Augmenté et d’Uzawa pour respecter des contraintes d’entrée et d’état, permettant ainsi d’obtenir un contrôleur plus performant que le PID initialement existant. En générale, cette thèse se situe à mi-chemin entre les secteurs académique et industriel. En évaluant l’éligibilité de l’intégration des théories existants d’identification et de contrôle des systèmes dans des applications automobiles réelles, elle indique les avantages et les inconvénients de ces théories et ouvre de nouvelles perspectives dans l’optimisation des systèmes du GMP basée sur les modèles
Powertrain systems optimization in modern automobiles relies on model-based systems engineering to cope with the complex automotive systems and challenging control design requirements. Two prerequisites for model-based powertrain optimization are the powertrain simulator and the control design, which ensures a desirable powertrain operation during driving cycles. This thesis revolves around these prerequisites and belongs to the model-in-the-loop phase of the control development lifecycle. It first aims at identifying control-oriented powertrain systems models, particularly linear black-box models because of the merits they present in terms of accessibility to linear control design and facility of integrating changes in the powertrain system technical definition. It also aims at identifying and controlling powertrain systems featuring transport time delay because integrating the delay in the model and control design is crucial on the former’s system representability and on the latter’s optimality. Based on these premises, we address the powertrain from the engine air-path perspective. We first identify a linear black-box state-space (SS) model of a gasoline engine air-path, using an identification algorithm based on subspace methods. Different model orders and algorithm parameters are tested and those yielding the best identification and validation results are made clear, which leads to an 85% time gain in future similar identifications. While this part considers the air-path as a whole, the rest of the work focuses on specific air-path components, notably the electric throttle (ET), the heat-exchanger, and the exhaust gas recirculation (EGR). Regarding the ET, we inspire from the physical laws governing the throttle functioning to construct a linear-parameter-varying (LPV) mathematical SS model, which serves to set the regression vector structure of the LPV black-box ARX model, which is representative of an ET test bench and reflects its nonlinearities and discontinuities as it varies from one functioning zone to another. To address the questions of heat and mass transport time delays in the engine air-path, we refer to the heat exchanger and the EGR respectively. Recasting the infinite-dimensional hyperbolic partial differential equations (PDEs) describing these transport phenomena as a time-delay system facilitates the adjoint system identification and control design. To that end, a space-averaging technique and the method of characteristics are used to decouple the hyperbolic PDEs describing the advective flows in a heat exchanger, and to reformulate them as a time-delay system. Reducing the error between the output temperature of the model and that of a heat exchanger test-bench is what seeks the gradient-descent method used to identify the parameters of the time-delay system, which surpasses the PDEs in terms of identification accuracy and computational efficiency. On the other hand, the EGR is addressed from a control-oriented perspective, and the PDEs describing the mass transport phenomenon in its tubular structure are recast as a SS system subject to output delay. To regulate the burned gas ratio in the intake gas, the amount of recirculated gas is controlled using two indirect optimal control approaches, taking into account the model’s infinite-dimensional nature and accompanied with the Augmented Lagrangian Uzawa method to guarantee the respect of the input and state constraints, thus resulting in a controller of superior performance than the initially existing PID. In general, this thesis is located half-way between the academic and the industrial sectors. By evaluating the eligibility of integrating existing system identification and control theories in real automotive applications, it highlights the merits and demerits of these theories and opens up new prospects in the domain of model-based powertrain systems optimization
APA, Harvard, Vancouver, ISO, and other styles
12

Bahri, Imen. "Contribution des systèmes sur puce basés sur FPGA pour les applications embarquées d’entraînement électrique." Thesis, Cergy-Pontoise, 2011. http://www.theses.fr/2011CERG0529/document.

Full text
Abstract:
La conception des systèmes de contrôle embarqués devient de plus en plus complexe en raison des algorithmes utilisés, de l'augmentation des besoins industriels et de la nature des domaines d'applications. Une façon de gérer cette complexité est de concevoir les contrôleurs correspondant en se basant sur des plateformes numériques puissantes et ouvertes. Plus précisément, cette thèse s'intéresse à l'utilisation des plateformes FPGA System-on-Chip (SoC) pour la mise en œuvre des algorithmes d'entraînement électrique pour des applications avioniques. Ces dernières sont caractérisées par des difficultés techniques telles que leur environnement de travail (pression, température élevée) et les exigences de performance (le haut degré d'intégration, la flexibilité). Durant cette thèse, l'auteur a contribué à concevoir et à tester un contrôleur numérique pour un variateur de vitesse synchrone qui doit fonctionner à 200 °C de température ambiante. Il s'agit d'une commande par flux orienté (FOC) pour une Machine Synchrone à Aimants Permanents (MSAP) associée à un capteur de type résolveur. Une méthode de conception et de validation a été proposée et testée en utilisant une carte FPGA ProAsicPlus de la société Actel/Microsemi. L'impact de la température sur la fréquence de fonctionnement a également été analysé. Un état de l'art des technologies basées sur les SoC sur FPGA a été également présenté. Une description détaillée des plateformes numériques récentes et les contraintes en lien avec les applications embarquées a été également fourni. Ainsi, l'intérêt d'une approche basée sur SoC pour des applications d'entrainements électriques a été démontré. D'un autre coté et pour profiter pleinement des avantages offertes par les SoC, une méthodologie de Co-conception matériel-logiciel (hardware-software (HW-SW)) pour le contrôle d'entraînement électrique a été proposée. Cette méthode couvre l'ensemble des étapes de développement de l'application de contrôle à partir des spécifications jusqu'à la validation expérimentale. Une des principales étapes de cette méthode est le partitionnement HW-SW. Le but est de trouver une combinaison optimale entre les modules à mettre en œuvre dans la partie logiciel et celles qui doivent être mis en œuvre dans la partie matériel. Ce problème d'optimisation multi-objectif a été réalisé en utilisant l'algorithme de génétique, Non-Dominated Sorting Genetic Algorithm (NSGA-II). Ainsi, un Front de Pareto des solutions optimales peut être déduit. L'illustration de la méthodologie proposée a été effectuée en se basant sur l'exemple du régulateur de vitesse sans capteur utilisant le filtre de Kalman étendu (EKF). Le choix de cet exemple correspond à une tendance majeure dans le domaine des contrôleurs embraqués pour entrainements électriques. Par ailleurs, la gestion de l'architecture du contrôleur embarqué basée sur une approche SoC a été effectuée en utilisant un système d'exploitation temps réel. Afin d'accélérer les services de ce système d'exploitation, une unité temps réel a été développée en VHDL et associée au système d'exploitation. Il s'agit de placer les services d'ordonnanceur et des processus de communication du système d'exploitation logiciel au matériel. Ceci a permis une accélération significative du traitement. La validation expérimentale d'un contrôleur du courant a été effectuée en utilisant un banc de test du laboratoire. Les résultats obtenus prouvent l'intérêt de l'approche proposée
Designing embedded control systems becomes increasingly complex due to the growing of algorithm complexity, the rising of industrials requirements and the nature of application domains. One way to handle with this complexity is to design the corresponding controllers on performing powerful and open digital platforms. More specifically, this PhD deals with the use of FPGA System-on-Chip (SoC) platforms for the implementation of complex AC drive controllers for avionic applications. These latters are characterized by stringent technical issues such as environment conditions (pressure, high temperature) and high performance requirements (high integration, flexibility and efficiency). During this thesis, the author has contributed to design and to test a digital controller for a high temperature synchronous drive that must operate at 200°C ambient. It consists on the Flux Oriented Controller (FOC) for a Permanent Magnet Synchronous Machine (PMSM) associated with a Resolver sensor. A design and validation method has been proposed and tested using a FPGA ProAsicPlus board from Actel-Microsemi Company. The impact of the temperature on the operating frequency has been also analyzed. A state of the art FPGA SoC technology has been also presented. A detailed description of the recent digital platforms and constraints in link with embedded applications was investigated. Thus, the interest of a SoC-based approach for AC drives applications was also established. Additionally and to have full advantages of a SoC based approach, an appropriate HW-SW Co-design methodology for electrical AC drive has been proposed. This method covers the whole development steps of the control application from the specifications to the final experimental validation. One of the main important steps of this method is the HW-SW partitioning. The goal is to find an optimal combination between modules to be implemented in software and those to be implemented in hardware. This multi-objective optimization problem was performed with the Non-Dominated Sorting Genetic Algorithm (NSGA-II). Thus, the Pareto-Front of optimal solution can be deduced. The illustration of the proposed Co-design methodology was made based on the sensorless speed controller using the Extended Kalman Filter (EKF). The choice of this benchmark corresponds to a major trend in embedded control of AC drives. Besides, the management of SoC-based architecture of the embedded controller was allowed using an efficient Real-Time Operating System (RTOS). To accelerate the services of this operating system, a Real-Time Unit (RTU) was developed in VHDL and associated to the RTOS. It consists in hardware operating system that moves the scheduling and communication process from software RTOS to hardware. Thus, a significant acceleration has been achieved. The experimentation tests based on digital current controller were also carried out using a laboratory set-up. The obtained results prove the interest of the proposed approach
APA, Harvard, Vancouver, ISO, and other styles
13

Dousteyssier, Buvat Hélène. "Sur des techniques déterministes et stochastiques appliquées aux problèmes d'identification." Université Joseph Fourier (Grenoble), 1995. http://tel.archives-ouvertes.fr/tel-00346058.

Full text
Abstract:
Ce travail porte sur les aspects numériques de la résolution de problèmes inverses non linéaires gouvernés par des équations aux dérivées partielles, à l'aide des techniques du contrôle optimal. Nous nous sommes limités dans cette thèse à l'étude de deux problèmes: identification du coefficient de diffusion de la chaleur, identification de sources non linéaires dans des e. D. P. Elliptiques. Ces deux problèmes sont résolus numériquement à l'aide d'une approche lagrangienne, les fonctions sont identifiées par leurs coefficients dans une base de B-splines cubiques. Ces problèmes étant mal posés, on étudie des techniques de choix du paramètre de régularisation de Tikhonov, comme les méthodes de validation croisée. On résout ensuite ces deux problèmes dans une base d'ondelettes, ce qui nous permet, par le biais d'un changement de base approprié, de réduire le caractère mal posé de ces problèmes, et de mener à bien l'identification sans terme de régularisation. Dans les problèmes réels, la solution exacte étant généralement inconnue, lorsqu'on dispose d'un estimateur, il n'est a priori pas possible de savoir s'il s'agit d'un «bon» estimateur. On peut remédier à ce problème à l'aide des courbures de la surface des réponses, qui nous permettent de quantifier le degré de non linéarité de la surface au voisinage de l'estimateur obtenu et de justifier l'usage des méthodes séquentielles quadratiques utilisées pour l'identification
APA, Harvard, Vancouver, ISO, and other styles
14

Thiesse, Jean-Marc. "Codage vidéo flexible par association d'un décodeur intelligent et d'un encodeur basé optimisation débit-distorsion." Nice, 2012. http://www.theses.fr/2012NICE4058.

Full text
Abstract:
Cette thèse est dédiée à l’amélioration des performances de compression vidéo. Deux types d’approches, conventionnelle et en rupture, sont explorées afin de proposer des méthodes efficaces de codage Intra et Inter pour les futurs standards de compression. Deux outils sont étudiés pour la première approche. Tout d’abord, des indices de signalisations sont habilement traités par une technique issue du tatouage permettant de les masquer dans les résiduels de luminance et de chrominance de façon optimale selon le compromis débit-distorsion. La forte redondance dans le mouvement est ensuite exploitée pour améliorer le codage des vecteurs de mouvement. Après observation des précédents vecteurs utilisés, un fin pronostic permet de déterminer les vecteurs résiduels à privilégier lors d’une troisième étape de modification de la distribution des résiduels. 90% des vecteurs codés sont ainsi pronostiqués, ce qui permet une nette réduction de leur coût. L’approche en rupture vient de la constatation que H. 264/AVC et son successeur HEVC sont basés sur un schéma prédictif multipliant les choix de codage, les améliorations passent alors par un meilleur codage de la texture à l’aide d’une compétition accrue. De tels schémas étant bornés par la signalisation engendrée, il est alors nécessaire de transférer des décisions au niveau du décodeur. Une approche basée sur la détermination conjointe au codeur et au décodeur de paramètres de codage à l’aide de partitions causales et ainsi proposée et appliquée aux modes de prédiction Intra et à la théorie émergente de l’échantillonnage compressé. Des performances encourageantes sont reportées et confirment l’intérêt d’une telle solution innovante
This Ph. D. Thesis deals with the improvement of video compression efficiency. Both conventional and breakthrough approaches are investigated in order to propose efficient methods for Intra and Inter coding dedicated to next generations video coding standards. Two tools are studied for the conventional approach. First, syntax elements are cleverly transmitted using a data hiding based method which allows embedding indices into the luminance and chrominance residuals in an optimal way, rate-distortion wise. Secondly, the large motion redundancies are exploited to improve the motion vectors coding. After a statistical analysis of the previously used vectors, an accurate forecast is performed to favor some vector residuals during a last step which modifies the original residual distribution. 90% of the coded vectors are efficiently forecasted by this method which helps to significantly reduce their coding cost. The breakthrough approach comes from the observation of the H. 264/AVC standard and its successor HEVC which are based on a predictive scheme with multiple coding choices, consequently future improvements shall improve texture by extensively using the competition between many coding modes. However, such schemes are bounded by the cost generated by the signaling flags and therefore it is required to transfer some decisions to the decoder side. A framework based on the determination of encoding parameters at both encoder and decoder side is consequently proposed and applied to Intra prediction modes on the one hand, and to the emerging theory of compressed sensing on the other hand. Promising results are reported and confirm the potential of such an innovative solution
APA, Harvard, Vancouver, ISO, and other styles
15

Urbain, Loi͏̈c. "Analyse structurée d'un contrôleur temps réel de robot basé sur une génération en ligne des trajectoires." Toulouse, INSA, 1996. http://www.theses.fr/1996ISAT0002.

Full text
Abstract:
Afin de repondre a un besoin de robotique de manipulation fortement contraint, la societe sinters a du, dans les annees 90, acquerir la maitrise de la structure de controle des bras manipulateurs basee sur une generation en ligne des trajectoires. Ce memoire presente la synthese des travaux effectues sur ce sujet. Deux aspects sont notamment precisees: une analyse des generateurs de trajectoires montre que la technique de generation par mise en sequence de motifs elementaires constitue actuellement le moyen le plus adapte pour generer en ligne les trajectoires de robots. La methode sart presentee ensuite et empruntee au genie logiciel constitue une alternative interessante pour specifier les systemes temps reel tels que les controleurs de robots. Appliquee a la structure a trois niveaux hierarchiques proposee (asservissement des axes, generation de la trajectoire, planification de la trajectoire), elle nous permet d'obtenir un modele coherent directement utilisable pour concevoir le systeme. Les performances du controleur presentees a la fin du memoire montre la reactivite et l'amelioration de l'autonomie de la structure ainsi realisee
APA, Harvard, Vancouver, ISO, and other styles
16

Kendoul, Farid. "Modélisation et commande de véhicules aériens autonomes, et développement d'un pilote automatique basé sur la vision." Compiègne, 2007. http://www.theses.fr/2007COMP1694.

Full text
Abstract:
Ce travail de thèse porte sur le développement de petites machines volantes autonomes. La thèse se comporte de deux grandes parties : d'une part la modélisation et la commande de bas niveau, d'autre part la conception d'autopilotes, basés sur le flux optique, pour le pilotage et le guidage de minidrones à voilures tournantes. Trois configurations d'appareils à multiples rotors ont été étudiées, modélisées et testées en vols réels. Les avantages des stratégies de commande proposées résident dans leur simplicité pour l'implémentation et leur capacité à prendre en compte les limitations des actionneurs tout en garantissant des bonnes performances de vol. Une des contributions majeures de cette thèse est aussi le développement d'un pilote automatique basé sur la vision. Ce pilote est inspiré des insectes et il est composé d'un module de vision pour la localisation et la détection des obstacles en temps réel, et un système de contrôle adaptatif pour la navigation et le suivi de trajectoire
In this thesis, we address the 3D flight control problem for small unmanned aerial vehicles. The first step in achieving such UA V autonomy is basic stability. In doing so, we investigate control techniques which would allow a small rotorcraft UA V to perform autonomously basic tasks such as take-off, hovering and landing. The proposed flight controllers consider actuator saturation and guarantee system stability and good flight performance. One of the main contributions of this thesis is also the development of a vision-based autopilot for self localization, obstacles detection and control of small autonomous helicopters using optic flow and inertial data. The proposed autopilot is inspired by insects and represents a major step toward our goal of designing autonomous small flying machines capable of navigating within urban and unknown environments. It is composed of a vision module for localization and perception, and an adaptive control system for navigation and trajectory tracking
APA, Harvard, Vancouver, ISO, and other styles
17

Chevobbe, Stéphane. "Unité de commande pour systèmes parallèles : contrôleur basé sur la mise en oeuvre dynamique de réseaux de Pétri." Rennes 1, 2005. http://www.theses.fr/2005REN1S173.

Full text
Abstract:
Les progrès des technologies de fabrication et des méthodologies de conception ont contribué à l'apparition de nouveaux composants de type SoC (System on Chip). Cette technique permet d'intégrer rapidement et efficacement un fort potentiel de puissance de calcul. Cependant, les modèles d'exécution des unités de contrôle nécessaire pour gérer cette puissance de calcul sont souvent inadaptés. Ce travail de thèse présente l'étude, la validation et la mise en œuvre d'une unité de contrôle pour des systèmes parallèles hétérogènes multi cœurs appelé RAC. Elle est basée sur l'implantation de réseaux de Pétri simples interprétés non temporisés. Il s'agit d'une architecture asynchrone auto-adaptable dynamiquement implantant directement des réseaux de Pétri. Elle permet de gérer efficacement le parallélisme de tâche inhérent aux architectures multi cœurs hétérogènes. Sa surface est d'environ 1 mm² avec sa mémoire de programme dans une technologie 130 nm.
APA, Harvard, Vancouver, ISO, and other styles
18

Picarelli, Athena. "Sur des problèmes de contrôle stochastique avec contraintes sur l'état." Palaiseau, École nationale supérieure de techniques avancées, 2015. http://www.theses.fr/2015ESTA0013.

Full text
Abstract:
Cette thèse concerne l'approche Hamilton-Jacobi-Bellman (HJB) pour des problèmes de contrôle stochastique en présence de contraintes sur l'état du système. Cette classe de problèmes se pose dans de nombreuses applications importantes, et une grande littérature les a déjà analysé sous des conditions de compatibilité fortes. La principale contribution de cette thèse est de fournir de nouvelles façons de affronter la présence de contraintes sans hypothèse de contrôlabilité. La première contribution de cette thèse est obtenue en exploitant le lien existant entre l'atteignabilité des systèmes stochastiques et des problèmes de contrôle optimal. Il est montré que en considérant un problème approprié auxiliaire de la commande optimale sans contraintes sur l'état, l'approche level-set peut être étendure pour caractériser les ensembles atteignables sous contrainte sur l'état. D'autre part l'épigraphe de la fonction valeur associée à un problème général de commande optimale stochastique sous contraintes d'état peut être caractérisée par un ensemble atteignable d'un système dynamique augmenté. Ce résultat permet l'application de la méthode level-set pour gérer la présence des contraintes sur l'état sans faire d'hypothèse de contrôlabilité. Ce lien entre les problèmes de contrôle optimal et les level-set a conduit à l'analyse théorique et numérique des équations HJB avec conditions aux limites de derivé obliques et de problèmes avec contrôles non bornés. Les estimations d'erreur d'approximation de type Chaine de Markov représentent une autre contribution de ce manuscrit. En outre, les propriétés de contrôlabilité asymptotique d'un système stochastique ont également été analysées. Une généralisation de la méthode de Zubov aux systèmes stochastiques contraints est étudiée dans le manuscrit. La dernière partie de la thèse est dédié à l'étude de problèmes de contrôle optimal ergodiques en présence de contraintes sur l'état
This thesis deals with Hamilton-Jacobi-Bellman (HJB) approach for some stochastic control problems in presence of state-constraints. This class of problems arises in many challenging applications, and a wide literature has already analysed such problems under some strong compatibility conditions. The main features of the present thesis is to provide new ways to face the presence of constraints without assuming any controllability condition. The first contribution of the thesis in this direction is obtained by exploiting the existing link between backward reachability and optimal control problems. It is shown that by considering a suitable auxiliary unconstrained optimal control problem, the level set approach can be extended to characterize the backward reachable sets under state-constrained. On the other hand the value function associated with a general state constrained stochastic optimal control problem is characterized by means of a state constrained backward reachable set, enabling the application of the level set method for handling the presence of the state constraints. This link between optimal control problems and reachability sets led to the theoretical and numerical analysis of HJB equations with oblique derivative boundary conditions and problems with unbounded controls. Error estimates for Markov-chain approximation represent another contribution of this manuscript. Furthermore, the properties of asymptotic controllability of a stochastic system have also been studied. A generalization of the Zubov method to state constrained stochastic systems is presented. In the last part of the thesis an ergodic optimal control problems in presence of state-constraints are considered
APA, Harvard, Vancouver, ISO, and other styles
19

Kachroudi, Sofiene. "Commande et optimisation pour la régulation du trafic urbain mutimodale sur de grands réseaux urbains." Thesis, Evry-Val d'Essonne, 2010. http://www.theses.fr/2009EVRY0035/document.

Full text
Abstract:
La nécessité de la régulation du trafic général et de l'amélioration de la régularité des lignes de transport en commun de surface est un constat largement partagé dans la recherche et dans les milieux opérationnels. L'objectif de cette thèse est la conception d'une stratégie capable de satisfaire ces objectifs via les feux de signalisation sur de larges réseaux urbains. Les points abordés dans cette thèse sont : la modélisation des phénomènes du trafic : que ce soit pour les véhicules particuliers ou les véhicules de transport en commun. Pour les premiers, le modèle reprend les bases de modèles déjà développés avec des améliorations pour tenir compte de toutes les situations du trafic. Pour les transports en commun, deux modèles originaux ont été développés. la construction des critères : nous avons construits deux critères pour mesurer l'état du trafic. Le premier, pour les véhicules particuliers, est le même que celui utilisé dans d'autres systèmes de régulation du trafic. Le critère pour les transports en commun a été construit de manière originale pour permettre de mesurer la régularité des lignes. l'optimisation multi-objectif : la complexité des modèles, le caractère fortement non linéaire des critères et les contraintes de temps réel du problème nous ont guidé pour le choix d'une méta-heuristique particulièrement performante qui s'appelle l'optimisation par essaims particulaires. Nous avons implémenté deux versions et adapté la méthode pour le cas multi-objectif. La commande en boucle fermée : la stratégie conçue se devait de répondre en temps réel aux changements d'état du trafic. Nous avons adopté une architecture classique de la commande prédictive généralisée ainsi qu'une architecture faisant intervenir la commande prédictive et la commande linéaire quadratique. Cette dernière commande sert à initialiser et limiter les dimensions de l'espace de recherche pour l'algorithme d'optimisation. Les résultats numériques obtenus grâce à la simulation de la stratégie sur un réseau virtuel montrent que la stratégie améliore significativement le trafic général et la régularité des lignes de transport en commun
The need for traffic regulation and improving the transit regularity are facts widely shared within the research and operational environments. The objective of this thesis is to design a strategy to meet these goals through the traffic lights on large urban networks. Topics addressed in this thesis are: traffic modelling: whether it is for general or transit vehicles. For the former, the model reproduces the basic patterns already developed with improvements to accommodate all traffic situations. For transit vehicles, two original models were developed. Construction of criteria: we have constructed two criteria to measure the traffic state. The first, for cars, is the same as that used in other systems of traffic control. The criterion for transit vehicles has been built in an original way to measure the regularity of the vehicles. Multi-objective optimization: the models complexity, the highly non-linear criteria and the constraints of real-time environment have guided the choice of a meta-heuristic called Particle Swarm Optimization. We have implemented two versions and adapted the scheme to the multi-objective case. Closed loop control: the strategy had to respond in real time to changing trafic conditions. We have adopted a classic architecture of the Generalized Model Predictive control and an architecture involving predictive control and the linear quadratic control. This last one is used to initialize and limit the size of the search space for the optimization algorithm. The numerical results obtained by simulation on a virtual network show that the strategy significantly improves the overall traffic and regularity of the transit lines
APA, Harvard, Vancouver, ISO, and other styles
20

Pétrault, Christine. "Optimisation du fonctionnement d'une régulation de climatisation sur véhicule ferroviaire - application aux remorques de T. G. V." Poitiers, 1998. http://www.theses.fr/1998POIT2253.

Full text
Abstract:
L'objet de ce travail porte sur l'optimisation du fonctionnement d'une regulation de climatisation sur vehicule ferroviaire. La mise en place d'une vitesse de ventilation variable a engendre des modifications du comportement du systeme. Afin de prendre en considerations toutes ces modifications et utiliser la vitesse de ventilation dans de nouvelles syntheses de commande, nous avons dans un premier temps modeliser et identifier le comportement du systeme. Un modele a temps continu a permis de definir des parametres pseudo physiques. La methode du modele, faisant appel a un algorithme de programmation non-lineaire (methode de marquardt), a ete utilisee pour determiner les parametres des modeles retenus. Deux principes de commande ont ete etudies et appliques sur les deux systemes thermiques. Le premier principe porte sur la commande par modele interne utilisant une boucle supplementaire permettant de determiner la loi de variation de la vitesse de ventilation. La loi de variation ainsi obtenue, respecte le confort des passagers. De part la presence de non-linearite de type saturation, l'utilisation de la commande par modele interne avec gestion de saturation a ete appliquee. Une synthese standard d'optimisation h infini a permis de determiner la structure du correcteur c2, implante dans la c. M. I. G. S. La robustesse, en presence d'une erreur de modelisation et dans le cas d'une variation parametrique, a ete validee en simulation et sur l'unite pilote de laboratoire, pour la c. M. I. G. S. Le deuxieme principe de commande est la commande predictive generalisee en continu. L'utilisation des indices de performances a permis de specifier, independamment, les objectifs de regulation et de poursuite. Pour cette technique, des parametres de synthese sont necessaires pour determiner la loi de commande. Le choix de ces parametres influence la stabilite et les performances du systeme en boucle fermee. Des criteres portant sur le choix de ceux-ci ont pu etre degages.
APA, Harvard, Vancouver, ISO, and other styles
21

Bourgault, Du Coudray Pierre. "Etude et mise en œuvre d'un système de régulation thermique de bâtiment basé sur le principe d'une commande optimale." Paris, ENMP, 1987. http://www.theses.fr/1987ENMP0154.

Full text
Abstract:
La théorie du contrôle optimal est appliquée a la conception d'une classe de contrôleurs pouvant être implantés dans des systèmes de gestion de l'énergie. Les systèmes de chauffage étudiés sont du type multi-énergétique, avec des effets d'inertie ou de stockage, des générateurs à rendement variable et des coûts d'énergie variable dans le temps. Pour pouvoir intégrer leurs commandes, il a été nécessaire de concevoir un environnement de logiciels et de matériels adaptés. Une expérience en grandeur réelle a montré par rapport au régulateur classique une réduction d'environ 30% des coûts et une amélioration des conditions de confort. (CSTB)
APA, Harvard, Vancouver, ISO, and other styles
22

Papastratos, Stylianos. "Modélisation, simulation dynamique et optimisation d'un procédé de fermentation éthanolique basé sur un bioréacteur à membrane : Saccharomyces cerevisiae." Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAP0539.

Full text
Abstract:
L'objectif de cette thèse est de démontrer aux biologistes que la simulation des procédés peut être un moyen pour l'aide à la conception et à la conduite des procédés de fermentation. La thèse explique et montre les étapes nécessaires et la façon dont ces étapes doivent être implantées pour aboutir à des solutions réalistes concernant un procédé de fermentation éthanolique basé sur la levure saccharomyces Cerevisiae. La modélisation couplée à une validation expérimentale rigoureuse constitue l'étape fondamentale pour toute étude d'optimisation quantitative. Une bonne formulation mathématique couplée à une maitrise au niveau physique du problème et à l'utilisation de méthodes d'analyse numériques performantes disponibles sous une forme intelligente et conviviale peut donner des solutions à des problèmes réels industriels. Le domaine de validité de plusieurs modèles cinétiques a été examiné. Nous proposons un nouveau modèle cinétique basé sur le modèle de Sonnleitner qui inclut de nouvelles variables différentielles, pour tenir compte du passage progressif entre les différentes voies métaboliques. Une méthodologie concernant l'optimisation statique d'un procédé continu mono-étage et bi-étage avec recyclage de cellules a été élaborée. Nous proposons aussi un algorithme pour la réalisation d'une optimisation dynamique concernant une fermentation discontinue
APA, Harvard, Vancouver, ISO, and other styles
23

Askri, Tarek. "Vers un contrat de leasing optimisé d’un système multi-machines basé sur l’intégration de la production et de la maintenance." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0376.

Full text
Abstract:
La minimisation des coûts et la maximisation de la satisfaction du client sont les facteurs majeurs dans le développement des activités d'une entreprise. Ceci pourrait être assuré par les bonnes pratiques de gestion et de prise de décision à travers un processus de planification hiérarchique bien déterminé: Stratégique, tactique et opérationnel. Dans la plupart des cas, les industries manufacturières ont tendance à planifier la production de façon à minimiser les coûts et remédier à la pénurie des produits. Ceci permet à l’entreprise d'avoir une vision stratégique permettant d'optimiser ses activités sur plusieurs plans (maintenance, approvisionnement, qualité...). Mais pour assurer une meilleure optimisation et assurer la continuité de l'entreprise, les managers doivent joindre la maintenance à la production et les considérer comme des systèmes interdépendants. Dans ce contexte, plusieurs travaux ont traité le cas de maintenance intégrée à la production et l'ont considéré comme outil d'optimisation afin de minimiser les coûts et assurer une certaine compétitivité. Des travaux ont aussi intégré la dégradation des machines pour planifier les actions de maintenance. Cependant, la production et la maintenance sont liées à diverses ressources physiques (ouvriers, machines etc..) que l'entreprise doit prendre en considération. Autrefois, les industries ont toujours tendance à se procurer toutes sortes de ressources physiques afin de satisfaire ses demandes. Ces ressources sont alors toujours disponibles, même si elles sont inutilisées pendant certaines périodes de production. Ayant conscience des pertes que peut causer ces ressources en cas de non utilisation, certaines entreprises choisissent de sous-traiter ou de louer quelques ressources pendant une période donné afin de satisfaire une demande bien déterminée. La particularité de notre travail consiste à trouver la quantité des ressources à louer afin de satisfaire la demande. En effet, en s'inspirant du modèle HMMS, qui étudie la planification de la production et des stocks en prenant en considération la variation de nombre de ressources humaines travaillant, on a eu l'idée de transformer le problème et de chercher alors le nombre optimal de machines à louer pendant chaque période. Ayant conscience aussi de l'importance de la planification de maintenance, celle-ci a été intégrée au plan de production afin de trouver la meilleure solution. Le nombre de machines à louer étant variable, on a considéré qu'il varie selon la demande des clients. Des stratégies de maintenance améliorées ainsi que de nouvelles contraintes ont été prises en considération lors la planification des plans de production et de maintenance du système étudié
Ameliorating the situation of an industry requires certainly reducing costs and maximizing the customer satisfaction. These two goals can't be achieved without a good management and a good knowledge of making decision tools. These decisions are generally associated, at least, with three levels of the hierarchical planning process: strategic, tactical and operational levels. Generally, manufacturing industries aims at determining the most adequate production planning which helps them to minimize costs and hedge against capacity shortages. Releasing such an efficient planning urges firms to have a global vision on their production process which may be looked upon as an inter-dependant set of sub systems performing various functions including ordering raw materials, assembling pieces, controlling quality, repairing machines, storage, etc. But, it is worth mentioning that to ensure the continuous productivity of a firm, managers have to focus especially on both production and maintenance sub-systems and consider them as strongly dependent systems. In this context, many researches were carried out in industrial field dealing with joint production and maintenance planning optimization as a solution to minimize costs and guard against important competitiveness. Such an optimization may be more efficient when considering the degradation of workstations over time while scheduling maintenance actions. Moreover, production and maintenance activities deal with diverse physical resources including mainly workforce and workstations. So, it is worth noting that, while making decisions and proposing planning, a special attention should be made on the manner of managing these resources which remain indispensable for the firm's sustainability. Previously, firms used to buy (and recruit) all physical resources required to fulfill orders. So, these resources are always available at the industry even if they are sometimes more and less needless and useless during some production periods. This may take place especially when the firm has to fulfill fluctuating demand causing consequently drastic costs. Aware about the superfluous costs of possessing, for a long period, resources which can be sometimes pointless, subcontracting and leasing have become very important for many manufacturing firms because of the advantage that these solutions can bring. So, nowadays, these industrial solutions are becoming more and more in vogue concerning mainly subcontracting workforce to perform some tasks (maintenance, supervision, audit,...) or leasing workstations in order to produce the required quantities. In the present work, we deal with a new concept, that no previous work has dealt with, consisting on leasing machines depending on the ordered quantities. In fact, inspired mainly from the HMMS model, carried out by a group of economists who studied the production, inventories and workforce planning considering variable number of human resources, we had the idea to transform the problem from a workforce planning problem to a workstations planning one. Also, aware about the drastic importance of managing the production and the maintenance planning simultaneously, we aim in the present work at suggesting a joint production and maintenance planning optimization under leasing constraint. Otherwise, in our work, dealing with many leased machines, we consider that the number of these used machines does not remain constant and may vary from a production period to another depending on a fluctuating demand over a finite time horizon. Moreover, in the present work we aim at performing a disturbance analysis and to study its contribution to the development of conjugated production and maintenance planning considering leasing constraint and taking into account used machines degradation. Improved maintenance strategy and related constraints are also studied in this work in order to obtain optimal production and maintenance schedules
APA, Harvard, Vancouver, ISO, and other styles
24

Boada, Bauxell Josep. "Sur la commande de satellites à entrées saturantes." Toulouse, ISAE, 2010. https://tel.archives-ouvertes.fr/tel-00564267.

Full text
Abstract:
La théorie de la commande a évolué de façon significative dan sle domaine de l'automatique non-linéaire. Cependant, les méthodes utilisées actuellement dans l'industrie aérospatiale sont le plus souvent basées sur des techniques de commande linéaire. Les spécifications, toujours plus exigeantes en termes de fiabilité et performance, imposent l'utilisation de techniques de plus en plus complexes. Ainsi, l'industrie cherche des solutions dans les nouvelles techniques de la théorie de la commande non-linéaire. En particulier, la limitation des actionneurs représente un phénomène non-linéaire commun dans la plupart des systèmes physiques. Des actionneurs saturés peuvent engendrer la dégradation de la performance, l'apparition de cycles limites ou d'états d'équilibre non désirés et même l'instabilité du système bouclé. Le but de cette thèse est d'adpter et de développer les techniques de synthèse anti-windup à la commande de haute précision des axes angulaires et linéaires de satellites. Dans le domaine spatial, cet objectif se retrouve dans les missions de commande en accélération et aussi du vol en formation. Ces missions utilisent des propulseurs de haute précision où leur capacité maximale est très basse. Ces systèmes propulsifs présentent une modélisation particulière. Des fonctions de répartition adaptées à la synthèse anti-windup ont été étudiées. De plus, en tenant compte de l'état de l'art de la synthèse anti-windup, il y a un vrai besoin d'utiliser des techniques de symétrisation pour la fonction saturation. Le but principal de ce travail consiste à utiliser les techniques développées sur une application aérospatiale. A titre d'exemple, une stratégie complète est proposée afin de contrôler l'attitude et la position relative d'une mission de vol en formation.
APA, Harvard, Vancouver, ISO, and other styles
25

Geveaux, Emmanuel. "Conception d'un environnement de développement des applications de contrôle de procédé basé sur le modèle formel GRAFCET et fondé sur un langage graphique flot de données." Poitiers, 1998. http://www.theses.fr/1998POIT2298.

Full text
Abstract:
Ce travail presente un environnement de developpement d'applications de controle/commande de procede, base sur le modele grafcet, et implemente grace a un langage graphique flot de donnees, labview. L'utilisation d'un langage flot de donnees a permis une programmation parallele simple et naturelle mais a necessite le developpement d'outils de cooperation entre diagrammes flots de donnees concurrents. Le choix du modele grafcet, outil de specification largement utilise dans le monde de l'automatisme, permet un passage aise vers l'implementation. Ce choix a demande la mise en place d'une methode de transformation de graphes cycliques en graphes acycliques afin de pouvoir utiliser l'editeur graphique de labview pour saisir un grafcet. Le developpement d'une application dans cet environnement se fait en deux phases : une phase d'edition du grafcet de commande puis une phase d'integration et d'execution ou le modele edite est compile afin de realiser le controle du systeme que l'on souhaite piloter. Cette phase d'integration et d'execution est realisee a partir de modules canevas offrant une architecture parallele d'application ou l'utilisation des outils de cooperations entre diagrammes flots de donnees concurrents s'est averee utile et efficace.
APA, Harvard, Vancouver, ISO, and other styles
26

Tik, Sovanna. "Contrôle d'un système intégré d'assainissement urbain basé sur la qualité de l'eau vers des stratégies tolérantes aux fautes." Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40351.

Full text
Abstract:
En matière de gestion des eaux usées urbaines, l’évolution de la réglementation vers une approche holistique amène les gestionnaires des réseaux d’égouts et des stations de récupération des ressources de l’eau (StaRRE) à considérer le système intégré d’assainissement urbain (SIAU) de manière globale. Ce changement de paradigme ouvre la porte à des collaborations entre les domaines, autrefois considérés comme distincts, que sont le drainage urbain et le traitement des eaux usées. Dans ce contexte d’innovation et d’intégration, la modélisation devient un outil clef, permettant d’appréhender la complexité des interactions entre les différentes composantes d’un SIAU. D’autre part, les gestionnaires de SIAU sont amenés à développer la résilience de leurs systèmes pour faire face aux impacts des changements climatiques, dont les effets à long terme sont difficilement quantifiables. Cependant, les experts s’accordent à dire que les évènements de pluie d’intensité extrême deviendront plus fréquents, et viendront tester les capacités opérationnelles des infrastructures actuelles. Afin que les ouvrages continuent à fournir une performance respectant les normes en vigueur, tout en respectant les contraintes budgétaires de leurs gestionnaires, les solutions flexibles, telles que l’implantation de systèmes de contrôle en temps réel (CTR), devraient être privilégiées. D’autant plus que, grâce aux récents développements technologiques, de nouveaux outils de mesure, de communication et d’analyse, de plus en plus fiables, sont mis en marché. L’objectif de cette thèse est de proposer et d’évaluer la pertinence d’une gestion intégrée du SIAU par CTR basé sur la qualité de l’eau, utilisant des mesures de turbidité, un indicateur de la pollution particulaire, pouvant également être mesurée en concentration de matières en suspension (MeS). Ces stratégies de contrôles innovantes visent à réduire le déversement global de polluants particulaires (et des polluants associés, tels que les métaux lourds, les pathogènes, etc.) dans le milieu naturel. Dans ce cadre, un modèle intégré – réseau d’égouts et StaRRE – a été développé pour évaluer ces stratégies. Une approche de modélisation utilisant la distribution de la vitesse de chute des particules (DVCP) a été proposée pour mieux décrire les phénomènes de décantation et de remise en suspension dans l’ensemble des ouvrages et permettre ainsi une meilleure prédiction de l’évolution de la pollution particulaire lors des événements pluvieux. D’autre part, les études expérimentales ont montré que les capteurs de turbidité installés dans le SIAU sont soumis à des conditions difficiles, menant à des fautes. La perte de performance des stratégies de contrôle basées sur la qualité des eaux en cas de fautes sur le signal du capteur de turbidité a donc été évaluée. Grâce aux méthodes de détection de fautes, un système d’alarme pourrait permettre aux gestionnaires de décider du mode de gestion à adopter ou pourrait initier un basculement automatique en mode de gestion dégradé. Ce mode dégradé est défini par une stratégie de contrôle n’utilisant plus le signal fautif. Les simulations de ces scénarios ont montré la possibilité de maintenir une partie des bénéfices obtenus par les stratégies de contrôle utilisant un capteur parfait. Ces bénéfices sont conservés lorsque la faute est détectée dans un délai raisonnable - dépendant de la dynamique du système.Les résultats de cette étude laissent ainsi présager un fort potentiel d’optimisation des opérations des ouvrages de transport et de traitement des eaux usées et pluviales, particulièrement lorsqu’on considère leur utilisation de manière intégrée, plutôt qu’en tant que systèmes autonomes et distincts. D’autre part, le modèle intégré pourrait être utilisé comme outil d’aide à la décision pour déterminer les modes de gestion (integrée) les plus adaptés. Mots-clefs : contrôle en temps réel (CTR); gestion du temps de pluie ; modélisation intégrée ;système intégré d’assainissement urbain (SIAU); traitement primaire physico-chimique.
Regulation concerning urban wastewater management is evolving towards a holistic approach which leads stakeholders to increasingly consider the integrated urban wastewater system(IUWS), including the sewer system and the water resource recovery facility (WRRF), as a whole. This change of paradigm opens doors to new collaborations between the traditionally separated fields of urban drainage and wastewater treatment operation and research. In this context of innovation and integration, modelling is going to be a key tool, granting a better understanding of the complexity of interactions between the different parts of the IUWS. At the same time, the IUWS has to become more resilient to face the impacts of climate change, the long-term effects of which are difficult to quantify. Still, climate change experts agree on the increasing probability of occurrence of high intensity rain events, reaching the limits of current wastewater infrastructure operational capacities. In order for these infrastructures to continue to provide adequate performance with respect to current norms and regulations, while limiting costs and budgetary needs, flexible solutions, such as implementing real-time control (RTC) systems, should be considered. Especially since recent technological developments bring new and more reliable tools to measure water quality, and also to analyse and manage large quantities of data.This study focuses on the behaviour of the particulate pollution in the IUWS, an important water quality indicator, commonly measured as the total suspended solids (TSS) concentrationand highly correlated with turbidity measurement. As turbidity sensors are readilyavailable with increasing reliability, their operational use can be envisioned. The objective of this thesis is to develop and assess water quality-based control strategies for the IUWS. An integrated - sewer and WRRF - model, using the particle settling velocity distribution (PSVD) approach, has been proposed. This approach improves the description of particle settling and resuspension in the whole system, allowing a better forecast of TSS concentration dynamics, especially during rain events. Based on this integrated model, innovative water quality-based control strategies, aiming at reducing overall discharge of particulate pollutants (and the heavy metals, pathogens, etc. that come with it) to the receiving water during wet weather, have been proposed and successfully tested. Experimental studies demonstrated that turbidity sensors installed in the IUWS are subject to harsh conditions, leading to faulty sensor signals. The performance loss due to the use of water quality-based control strategies affected by a faulty turbidity signal has been evaluatedin detail and this has demonstrated the need for fault detection tools. When a faulty signal is detected, alarms will allow operators to decide which operating mode should be used instead of the one using the now faulty sensor. Alternatively, automatic responses and changes could be implemented to counteract the effects of a faulty signal. This last option, called downgraded operating mode, which implies reverting to a control strategy that does not use the faulty signal, has been simulated and tested. If the fault is detected within reasonable time (which depends on the system dynamics), these simulations have shown that part of the increase of performance gained with the water quality-based strategy using the good signal, can be maintained. The results of this study thus present a strong case for optimizing wastewater infrastructure operations, especially when they are considered as an integrated system, instead of autonomous and mutually exclusive systems. Furthermore, the developed integrated model may be use as a decision support tool to help determine the best possible (integrated) controlstrategy. Keywords : chemically enhanced primary treatment (CEPT); integrated modelling; integratedurban wastewater system (IUWS); real-time control (RTC); stormwater management.
APA, Harvard, Vancouver, ISO, and other styles
27

Balaa, Karla. "Capteur à fibre optique basé sur le principe de Résonance de Plasmons de Surface : optimisation pour la détection d'espèces chimiques." Phd thesis, Université de Nantes, 2007. http://tel.archives-ouvertes.fr/tel-00291177.

Full text
Abstract:
Ce travail de thèse s'inscrit dans la recherche et le développement de capteurs chimiques. Il est motivé par un besoin toujours croissant d'outils de détection dans des domaines aussi variés que la santé, la sécurité et l'environnement. Nous présentons l'étude de capteurs basés sur le principe de résonance plasmons de surface - SPR. L'intérêt de ce type de capteurs est principalement lié à leur grande sensibilité, leur réponse rapide en temps réel et leur grande précision sans l'utilisation de marqueurs. L'originalité de notre approche est l'utilisation de fibres optiques. Celles-ci offrent de nouveaux attraits tels la simplification de l'instrumentation et sa miniaturisation.
Dans une première partie, nous présentons une revue théorique sur les plasmons de surface à l'interface métal – diélectrique. Nous présentons ensuite une étude expérimentale en deux parties : la première décrit la réalisation et la caractérisation des capteurs SPR à fibre optique, la seconde présente l'analyse de la réponse SPR des transducteurs ainsi réalisés. En particulier nous avons caractérisé par des études systématiques l'influence de paramètres physiques importants liés au métal, à la fibre optique et au traitement de surface de la partie sensible par le greffage d'une couche de thiols.
Enfin, nous proposons une étude numérique simulant la réponse du capteur en fonction de différents stimuli. Ce modèle, basée sur le calcul de la réflectance de la lumière à l'interface d'un ensemble multicouches nous a permis de valider l'étude expérimentale et d'étendre les recherches en prenant en compte différent type de molécules cibles. En particulier, nous présentons des résultats sur des molécules absorbants ou non absorbants, greffées ou non à la surface du transducteur. Une comparaison entre résultats expérimentaux et simulations numériques valide l'ensemble du travail et nous permet finalement de proposer une configuration optimisée du capteur, en fonction de la nature de la couche métallique et de la fibre optique, ainsi que des molécules cibles à détecter.
APA, Harvard, Vancouver, ISO, and other styles
28

Trad, Georges. "Développement et optimisation des diagnostiques des faisceaux du LHC et du SPS basé sur le suivi de la lumière synchrotron." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GRENY005/document.

Full text
Abstract:
La mesure de l’émittance transverse du faisceau est fondamentale pour tous les accélérateurs, et en particulier pour les collisionneurs, son évaluation precise étant essentielle pour maximiser la luminosité et ainsi la performance des faisceaux de collision.Le rayonnement synchrotron (SR) est un outil polyvalent pour le diagnostic non-destructif de faisceau, exploité au CERN pour mesurer la taille des faisceaux de protons des deux machines du complexe dont l’énergie est la plus élevée, le SPS et le LHC où l’intensité du faisceau ne permet plus les techniques invasives.Le travail de thèse documenté dans ce rapport s’est concentré sur la conception, le développement, la caractérisation et l’optimisation des moniteurs de taille de faisceau basés sur le SR. Cette étude est fondée sur un ensemble de calculs théoriques, de simulation numériques et d’expériences conduite au sein des laboratoires et accélérateurs du CERN. Un outil de simulation puissant a été développé, combinant des logiciels classiques de simulation de SR et de propagation optique, permettant ainsi la caractérisation complète d’un moniteur SR de la source jusqu’au détecteur.La source SR a pu être entièrement caractérisée par cette technique, puis les résultats validés par observation directe et par la calibration à basse énergie basée sur les mesures effectuées avec les wire-scanners (WS), qui sont la référence en terme de mesure de taille de faisceau, ou telles que la comparaison directe avec la taille des faisceaux obtenue par déconvolution de la luminosité instantanée du LHC.Avec l’augmentation de l’énergie dans le LHC (7TeV), le faisceau verra sa taille diminuer jusqu’à atteindre la limite de la technique d’imagerie du SR. Ainsi, plusieurs solutions ont été investiguées afin d’améliorer la performance du système: la sélection d’une des deux polarisations du SR, la réduction des effets liés à la profondeur de champ par l’utilisation de fentes optiques et l’utilisation d’une longueur d’onde réduite à 250 nm.En parallèle à l’effort de réduction de la diffraction optique, le miroir d’extraction du SR qui s’était avéré être la source principale des aberrations du système a été entièrement reconçu. En effet, la détérioration du miroir a été causée par son couplage EM avec les champs du faisceau, ce qui a conduit à une surchauffe du coating et à sa dégradation. Une nouvelle géométrie de miroir et de son support permettant une douce transition en termes de couplage d’impédance longitudinale dans le beam pipe a été définie et caractérisée par la technique dite du “streched wire”. Egalement, comme méthode alternative à l’imagerie directe, un nouveau moniteur basé sur la technique d’interférométrie à deux fentes du SR, non limité par la diffraction, a également été développé. Le principe de cette méthode est basé sur la relation directe entre la visibilité des franges d’interférence et la taille de faisceau.Comme l’emittance du faisceau est la donnée d’intérêt pour la performance du LHC, il est aussi important de caractériser avec précision l’optique du LHC à la source du SR. Dans ce but, la méthode “K-modulation” a été utilisée pour la première fois au LHC en IR4. Les β ont été mesurés à l’emplacement de tous les quadrupoles et ont été évalués via deux algorithmes de propagation différents au BSRT et au WS
Measuring the beam transverse emittance is fundamental in every accelerator, in particular for colliders, where its precise determination is essential to maximize the luminosity and thus the performance of the colliding beams. Synchrotron Radiation (SR) is a versatile tool for non-destructive beam diagnostics, since its characteristics are closely related to those of the source beam. At CERN, being the only available diagnostics at high beam intensity and energy, SR monitors are exploited as the proton beam size monitor of the two higher energy machines, the Super Proton Synchrotron (SPS) and the Large Hadron Collider (LHC). The thesis work documented in this report focused on the design, development, characterization and optimization of these beam size monitors. Such studies were based on a comprehensive set of theoretical calculations, numerical simulations and experiments.A powerful simulation tool has been developed combining conventional softwares for SR simulation and optics design, thus allowing the description of an SR monitor from its source up to the detector. The simulations were confirmed by direct observations, and a detailed performance studies of the operational SR imaging monitor in the LHC, where different techniques for experimentally validating the system were applied, such as cross-calibrations with the wire scanners at low intensity (that are considered as a reference) and direct comparison with beam sizes de-convoluted from the LHC luminosity measurements.In 2015, the beam sizes to be measured with the further increase of the LHC beam energy to 7 TeV will decrease down to ∼190 μm. In these conditions, the SR imaging technique was found at its limits of applicability since the error on the beam size determination is proportional to the ratio of the system resolution and the measured beam size. Therefore, various solutions were probed to improve the system’s performance such as the choice of one light polarization, the reduction of depth of field effect and the reduction of the imaging wavelength down to 250 nm.In parallel to reducing the diffraction contribution to the resolution broadening, the extraction mirror, found as the main sources of aberrations in the system was redesigned. Its failure was caused by the EM coupling with the beam’s fields that led to overheating and deterioration of the coating. A new system’s geometry featuring a smoother transition in the beam pipe was qualified in terms of longitudinal coupling impedance via the stretched wire technique. A comparison with the older system was carried out and resulted in a reduction of the total power dissipated in the extraction system by at least a factor of four.A new, non-diffraction limited, SR-based monitor based on double slit interferometry was designed as well as an alternative method to the direct imaging. Its principle is based on the direct relation between the interferogram fringes visibility and the beam size.Since the beam emittance is the physical quantity of interest in the performance analysis of the LHC, determining the optical functions at the SR monitors is as relevant as measuring the beam size. The “K-modulation” method for the optical function determination was applied for the first time in the LHC IR4, where most of the profile monitors sit. The βs at the quadrupoles were measured and via two different propagation algorithms the βs at the BSRT and the WS were obtained reducing significantly the uncertainty at the monitors location
APA, Harvard, Vancouver, ISO, and other styles
29

Guillet, François. "Développement et optimisation d’un système de stockage d’énergie et de production d’hydrogène basé sur l’électrochimie et la chimie du zinc." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAI029.

Full text
Abstract:
L’hydrogène est un vecteur énergétique qui peut être un atout pour nous aider à décarboner nos usages énergétiques. L’électrolyse de l’eau est un des moyens de production d’hydrogène qui présente un bon compromis pour obtenir un gaz en grande quantité tout en limitant le coût et l’impact environnemental. La compression est une des voies de stockage de l’hydrogène mais les électrolyseurs sont limités technologiquement pour atteindre des pressions de stockage satisfaisantes. Une des solutions pour pallier ce problème est l’électrolyse découplée. Il s’agit de séparer la production d’hydrogène et d’oxygène en deux étapes grâce à un intermédiaire oxydant/réducteur. La société Ergosup a développé le procédé ZHYNCELEC, un exemple de cette technologie qui utilise le zinc comme intermédiaire. La première étape est l’électrodéposition du zinc, ce qui acidifie la solution et permet la formation d’oxygène. Cette étape est inspirée de l’électrolyse industrielle du zinc. La deuxième étape est la réaction entre le dépôt et l’électrolyte produisant l’hydrogène et provoquant la dissolution du zinc en solution. Le sujet de cette étude est l’optimisation du procédé ZHYNCELEC.Ce travail peut être découpé en trois axes d’étude. Le premier axe concerne la sélection des différents matériaux d’électrode, choisi suivant leur performance électrochimique mais également suivant leur durabilité. Le deuxième axe a pour objectif d’optimiser la composition de l’électrolyte. Les éléments clés sont la concentration du zinc, la concentration de l’acide et la présence d’éventuels d’additifs en solution. Le troisième axe concerne l’aspect procédé et s’articule sur des conditions opératoires telles que la température, la densité de courant, la pression maximale en hydrogène ainsi que la géométrie du réacteur. Ces trois axes ne peuvent être étudiés séparément de par les interactions entre les différents paramètres, ce qui oblige à des compromis suivant l’application du procédé voulu
Hydrogen is an energy carrier and a potential asset for helping to lower carbon levels of energetic uses. Water electrolysis is a way of production and a good compromise to generate a large quantity of cheap and low-environmental-impact hydrogen. Compression is used to store hydrogen but electrolysers are technologically limited to reach high pressures. One solution to overcome this problem is decoupling electrolysis. It aims at separating the hydrogen and oxygen production in two steps through mediation oxydizer/reducer. Ergosup company has developed ZHYNCELEC process, using different technologies such as zinc as mediator. The first step is zinc electrodeposition which increases the acidity of solution and lead to an oxygen formation. This step is inspired by industrial zinc electro winning. The second step is the reaction between the metallic deposition and electrolyte producing hydrogen and making the dissolution of zinc. The purpose of this study is the optimisation of ZHYNCELEC process.This work can be divided in three axes of study. First, the selection of the different electrode materials. They are chosen by electrochemical performances and durability. Secondly, electrolyte composition optimization. The key factors are zinc concentration, acid concentration and the possibility of additives presences. The final axe concerns the processing aspect and the operative conditions like temperature, current density, maximal hydrogen pressure and reactor geometry. These three axes cannot be studied separately because of the interaction between the different parameters, which forces at compromising following the aim of the application of the process
APA, Harvard, Vancouver, ISO, and other styles
30

Koussa, Badreddin. "Optimisation des performances d'un système de transmission multimédia sans fil basé sur la réduction du PAPR dans des configurations réalistes." Thesis, Poitiers, 2014. http://www.theses.fr/2014POIT2260/document.

Full text
Abstract:
Ce travail de thèse s'intéresse à l'optimisation des performances de transmissions multimédias par une approche originale combinant des circuits radiofréquences, tel que l'am-plificateur de puissance et les distorsions du canal de transmission. Les signaux OFDM sont très sensibles aux non-linéarités de l'amplificateur à cause des fortes fluctuations du niveau du signal, caractérisées par le PAPR. Afin de réduire le PAPR, on propose tout d'abord d'améliorer la méthode TR en termes de rapidité de convergence et de réduction du PAPR, en comparant plusieurs algorithmes d'optimisation. On montre que l'algorithme du gradient con-jugué offre les meilleures performances tout en respectant les spécifications fréquentielles du standard IEEE 802.11a. Par la suite, la méthode TR est évaluée expérimentalement en pré-sence d'un amplificateur de puissance (SZP-2026Z) en utilisant un banc de mesures. On montre ainsi que la méthode TR permet une amélioration de la qualité de transmission. Cette amélioration peut être utilisée pour modifier le point de fonctionnement de l'amplificateur et per-mettre ainsi une réduction de 18 % de la puissance consommée. Les résultats expérimentaux ont conduit au choix d'un modèle réaliste d'amplificateur en considérant les effets mémoires. Ce dernier a été intégré dans une chaîne de simulation SISO comprenant également un modèle réaliste de canal de transmission. La chaîne décrite a permis d'évaluer les performances de la méthode TR dans des conditions de transmission réalistes. Enfin, on propose d'appliquer la méthode TR dans une chaîne MIMO-OFDM en boucle fermée dédiée à la transmission de contenus multimédias scalables dans un environnement réaliste, en utilisant le standard IEEE 802.11n. Cette étude présente une évaluation originale de l'impact de la méthode TR sur la qualité visuelle des images transmises, en prenant en compte le contenu multimédia, la non-linéarité de l'amplificateur et les distorsions apportées par le canal
In this thesis, we are interested on the performances optimization of multimedia transmissions systems with an original contribution combining RF circuits' imperfections presented by the power amplifier (PA) nonlinearities and the transmission channel distortions. The studied system uses the OFDM technique which is the most widespread multicarrier modulation in recent radio communications systems. However, its major drawback is the high PAPR value, which degrades the transmission quality due to the PA nonlinearities. To reduce the PAPR, we first propose to improve the TR method in terms of convergence speed and PAPR reduction, by studying several optimization algorithms. We show that the conjugate gradient algorithm provides the best performance while respecting the frequency specifica-tions of the IEEE 802.11a standard. Thereafter, TR method has been evaluated experimentally in the presence of a commercial PA (SZP-2026Z) and using a measurement bench. It is shown that the TR method improves the quality of service (QoS), with 18% reduction in PA power consumption. The experimental study has resulted to choosing a realistic PA model consider-ing memory effects. This PA model has been integrated into a SISO simulation chain includ-ing also a realistic channel model. This chain is used to evaluate the TR method performances under realistic transmission conditions. Finally, we propose to apply the TR method in a closed-loop MIMO-OFDM chain dedicated to the transmission of scalable multimedia con-tent in a realistic context with the IEEE 802.1n standard. This study presents a new contribu-tion of the TR method evaluation to improve the visual quality of the JPWL transmitted imag-es, considering in the same time the multimedia content, the PA nonlinearity and the channel transmission distortions
APA, Harvard, Vancouver, ISO, and other styles
31

Dupriez-Robin, Florian. "Dimensionnement d'une propulsion hybride de voilier, basé sur la modélisation par les flux de puissance." Phd thesis, Université de Nantes, 2010. http://tel.archives-ouvertes.fr/tel-00732070.

Full text
Abstract:
Ces dernières années se distinguent par la prise de conscience collective de la dimension écologique à tous les niveaux ; dans l'industrie pour la conception et la gestion de la fin de vie des produits manufacturiers, dans le domaine du bâtiment, et au niveau des transports. Dans ce dernier cas, le pétrole n'est plus vu comme la source incontournable d'énergie, et des solutions de propulsion électrique ou multi-sources, dénommée " hybride ", voient le jour. Si la propulsion hybride commence à entrer dans les mentalités dans le domaine automobile, elle est encore peu présente dans le domaine de la navigation de plaisance. Avec trois sources d'énergie potentiellement disponibles, carburant, électrique et vent, et un environnement d'évolution peu contraignant, les navires représentent au premier abord un champ d'application intéressant pour ces nouvelles technologies. C'est ce que nous nous proposons d'analyser dans ce mémoire. Pour mener à bien cette étude, une démarche de dimensionnement a du être mise en place. Si différentes méthodologies ont déjà été proposées depuis le milieu des années 90 dans le domaine automobile, elles s'appuient pour la plupart sur une base limitée d'organes constitutifs de la chaîne de propulsion recherchée. Nos hypothèses de travail sont différentes. Nous proposons dans ce mémoire une méthodologie de dimensionnement itérative, basée sur une modélisation multiphysique juste nécessaire, au point de i) considérer autant que possible les flux énergétiques au sein de l'architecture de propulsion à dimensionner et ne plus dissocier flux et effort au niveau de chaque organe, ii) de proposer des modèles génériques adimensionnels associés à chaque famille d'organes. Nous appuyant sur le bond-graph et les notions de lignes de puissance et de modulation, nous procédons, et c'est original, à une optimisation couplée du dimensionnement et de la commande. La méthode proposée est appliquée à deux cas d'études : le problème de dimensionnement d'un voilier de moyenne puissance et celui d'une voiture hybride.
APA, Harvard, Vancouver, ISO, and other styles
32

Künzle, Luis Allan. "Raisonnement temporel basé sur les réseaux de Petri pour les systèmes manipulant des ressources." Toulouse 3, 1997. http://www.theses.fr/1997TOU30150.

Full text
Abstract:
Ce travail se place dans le cadre de l'analyse des systèmes dynamiques à évènements discrets et concerne plus précisément l'élaboration de raisonnements temporels. Le modèle que nous utilisons est un modèle discret décrivant les changements d'état et prenant en compte le temps de façon explicite tout en tolérant une certaine imprécision et un certain flou (durée mal connue). Il s'agit de réseaux de petri temporels flous. Notre approche a pour but d'éviter l'explosion combinatoire et l'augmentation excessive de l'imprécision, inhérentes aux approches basées sur le graphe d'accessibilité, en ne travaillant que sur des scenarios particuliers du comportement. Un scenario correspond à un ensemble de trajectoires possibles du système entre deux états partiels. Un niveau logique, base sur la logique linéaire de girard, a été défini pour permettre la construction de ces scenarios. A ce niveau, nous traduisons le réseau de petri en une théorie logique et nous définissons des règles de déduction logique qui nous permettent de caractériser des scenarios de comportement indépendamment du marquage initial global. Ces déductions fournissent l'état minimal de départ du scenario, l'état final de son exécution, les évènements qui permettent de passer de l'un à l'autre et l'ordre partiel qui les relie. L'information temporelle explicite attachée à chaque évènement permet la validation temporelle du scenario. Une méthode est proposée pour réécrire un scenario afin d'obtenir un parallélisme maximal des évènements qui le composent. L'analyse temporelle est alors effectuée sur ce scenario optimise. Des dates floues peuvent être calculées de façon à délimiter des fenêtres temporelles pendant lesquelles certains évènements ont eu lieu dans le passe (ou auront lieu dans le futur). Il est alors possible de raisonner sur les intervalles de temps de permanence des jetons dans les places, qui correspondent au temps pendant lequel les propositions logiques associées sont valables.
APA, Harvard, Vancouver, ISO, and other styles
33

Barroso, Angel. "Optimisation des systèmes d'éclairage des bâtiments de l'Université Paul Sabatier basé sur un réseau novateur de type bus continu/basse tension." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30345/document.

Full text
Abstract:
Les diodes électroluminescentes (LEDs) constituent de nouvelles solutions pour créer des luminaires plus robustes, ayant un meilleur rendement de conversion et plus respectueuses de l'environnement. Malgré les avantages indiscutables déjà obtenus aujourd'hui, ce type de luminaire présente encore quelques optimisations possibles et offre des possibilités de fonctionnalités multiples. A travers plusieurs campagnes de tests, l'auteur montre sur des LEDs du commerce, que les points d'optimisation non encore exploités dans les luminaires commerciaux. Ces LEDs ont ainsi été testés sur de larges plages de fonctionnement du point de vue photométrique, électrique mais aussi thermique pour connaitre la reproductibilité des résultats obtenus. Ainsi les influences des conditions d'utilisation notamment en température de fonctionnement et niveaux de courant d'alimentation ont été étudiées. Pour dimensionner au mieux une alimentation électrique spécifique, une recherche de modèles de LED élémentaires a été effectuée. L'objectif est que les modèles tiennent compte des principaux paramètres mais soit suffisamment simple pour être inséré dans un environnement système afin de simuler le luminaire dans son environnement complet. Ainsi, l'étude comparative de plusieurs associations de LEDs a été effectuée permettant d'en déduire des compromis pour proposer de nouvelles solutions faibles consommatrices d'énergie à coût réduit incluant de nouveaux types d'alimentation
Light emitting diodes (LEDs) bring new possibilities to get luminaires more robust with an improved efficiency and more environmentally respectfull. Despite the benefits already achieved today, this type of luminaire still presents some possible optimizations and provides opportunities for multiple features. Through several tests, the author shows on LEDs in market that optimization points are not operated in commercial luminaires. These LEDs have been tested over a wide range of operation in photometric, electrical but also thermal to know the reproducibility of the results. Thus the influences of operating conditions including operating temperature and supply current levels were studied. To design a specific power supply for each LED type, a search of elementary LED models was performed. The objective is to take into account the main parameters of the models but also to be enough simple to be inserted into a system environment to simulate the luminaire in whole environment. Thus, the comparative study of several associations of LEDs was conducted to deduce the best compromise and propose new solutions to reduce energy consumptions and production costs, including new types of power supply
APA, Harvard, Vancouver, ISO, and other styles
34

Mondie, Solange. "Application des methodes de decomposition-coordination a l'optimisation de la tension sur le reseau electrique." Toulouse, INSA, 1989. http://www.theses.fr/1989ISAT0014.

Full text
Abstract:
Le probleme global d'optimisation en actif-reactif est formule, et la coherence entre structure de commande envisagee et reglages centralises preexistants est etudiee. Une presentation unifiee des principales methodes de decomposition-coordination est developpee. Elle a conduit au choix d'une combinaison des techniques de coordination par le modele et par les prix. Le logiciel d'optimisation decentralisee correspondant est decrit. Pratiquement la performance de l'algorithme est evaluee sur un reseau de 48 sommets, decompose en 4 zones
APA, Harvard, Vancouver, ISO, and other styles
35

Attia, Sid Ahmed. "Sur la commande des systèmes non linéaires à dynamique hybride." Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00082495.

Full text
Abstract:
This dissertation concerns the development of reduced complexity controllers for
hybrid switched systems. A diverse number of applications from automotive industry, fluid dyna-
mics and power systems are treated. Some general open loop optimal and predictive control schemes
are proposed. The main motivation behind each method is the reduction of the combinatorics. In
this thesis, two main contributions can be distinguished. The first one concerns the optimal control
of switched nonlinear systems where an algorithm based on strong variations is proposed and some
convergence results proven. The complexity of the scheme is linear in the number of locations, this
in conjunction with its simplicity makes it attractive for large scale systems. An example from
the automotive industry is treated to further illustrate the tractability of the scheme. The second
contribution concerns the development of a hierarchical approach for switched nonlinear systems.
At the lower level, feedback controllers are associated to each location and at the higher level a
predictive approach with a reduced order parametrization is in force. Based on this methodology,
two schemes are developed and successfully tested in respectively fluid stabilisation by actuator
switching and voltage stabilization in power systems.
APA, Harvard, Vancouver, ISO, and other styles
36

Chabot, Franck. "Contribution à la conception d'un entraînement basé sur une machine à aimants permanents fonctionnant sans capteur sur une large plage de vitesse : application au véhicule électrique." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT006H.

Full text
Abstract:
Dans la première partie du mémoire, l'auteur étudie les différentes stratégies de contrôle de la machine à aimants permanents, utilisables pour parvenir à un fonctionnement à couple imposé dans une large plage de vitesse. Il propose notamment des stratégies originales basées sur les techniques d'optimisation. Dans la deuxième partie, il étudie les problèmes induits par la simplification et/ou la suppression du capteur de position du rotor de la machine en considérant la charge particulière que constitue un véhicule automobile. Il présente et analyse différentes méthodes pour résoudre ce problème sur toute la plage de vitesse y compris le démarrage. L'étude est menée essentiellement par simulation mais certains aspects du problème font l'objet de validations expérimentales sur un dispositif existant. Il précise également le domaine de validité de ces différentes méthodes ainsi que leur adéquation aux moyens disponibles pour la mise en oeuvre. Dans la dernière partie, après avoir analysé le cahier des charges correspondant à la propulsion d'un véhicule automobile électrique, l'auteur propose une méthode systématique de dimensionnement des machines à aimants devant répondre à ce cahier des charges. Cette méthode, où interviennent notamment des caractérisations de la machine par schémas magnétiques équivalents et par calcul du champ, prend aussi en compte les éléments relatifs à la commande, issus des analyses des parties précédentes. La procédure est validée sur une machine existante et plusieurs autres solutions, qui se distinguent par le nombre de pôles où la structure électromagnétique sont proposées.
APA, Harvard, Vancouver, ISO, and other styles
37

Bernuau, Emmanuel. "Robustesse et stabilité des systèmes non-linéaires : un point de vue basé sur l’homogénéité." Thesis, Ecole centrale de Lille, 2013. http://www.theses.fr/2013ECLI0015/document.

Full text
Abstract:
L'objet de ce travail est l’étude des propriétés de stabilité et de robustesse des systèmes non-linéaires via des méthodes basées sur l'homogénéité. Dans un premier temps, nous rappelons le contexte usuel des systèmes homogènes ainsi que leurs caractéristiques principales. La suite du travail porte sur l'extension de l'homogénéisation des systèmes non-linéaires, déjà proposée dans le cadre de l'homogénéité à poids, au cadre plus général de l'homogénéité géométrique. Les principaux résultats d'approximation sont étendus. Nous développons ensuite un cadre théorique pour définir l'homogénéité de systèmes discontinus et/ou donnés par des inclusions différentielles. Nous montrons que les propriétés bien connues des systèmes homogènes restent vérifiées dans ce contexte. Ce travail se poursuit par l'étude de la robustesse des systèmes homogènes ou homogénéisables. Nous montrons que sous des hypothèses peu restrictives, ces systèmes sont input-to-state stable. Enfin, la dernière partie de ce travail consiste en l'étude du cas particulier du double intégrateur. Nous développons pour ce système un retour de sortie qui le stabilise en temps fini, et pour lequel nous prouvons des propriétés de robustesse par rapport à des perturbations ou à la discrétisation en exploitant les résultats développés précédemment. Des simulations viennent compléter l'étude théorique de ce système et illustrer son comportement
The purpose of this work is the study of stability and robustness properties of nonlinear systems using homogeneity-based methods. Firstly, we recall the usual context of homogeneous systems as well as their main features. The sequel of this work extends the homogenization of nonlinear systems, which was already defined in the framework of weighted homogeneity, to the more general setting of the geometric homogeneity. The main approximation results are extended. Then we develop a theoretical framework for defining homogeneity of discontinuous systems and/or systems given by a differential inclusion. We show that the well-known properties of homogeneous systems persist in this context. This work is continued by a study of the robustness properties of homogeneous or homogenizable systems. We show that under mild assumptions, these systems are input-to-state stable. Finally, the last part of this work consists in the study of the example of the double integrator system. We synthesize a finite-time stabilizing output feedback, which is shown to be robust with respect to perturbations or discretization by using techniques developed before. Simulations conclude the theoretical study of this system and illustrate its behavior
APA, Harvard, Vancouver, ISO, and other styles
38

Malaizé, Jérémy. "Sur certains problèmes de commande et d'observation pour des tables de postionnement de haute précision." Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1499.

Full text
Abstract:
On s'intéresse au positionnement haute précision des moteurs synchronessans balai dans l'industrie du semi-conducteur. On conçoit un algorithmed'initialisation et des correcteurs pour le rejet de perturbationsspécifiques. L'initialisation consiste à estimer la phase initiale du champ magnétique. Seules des mesures de déplacement sont accessibles. Les paramètres dumoteur (gain, charge et frottements) sont inconnus. On adopte un modèle àsecond membre discontinu dû aux frottements. La phase initiale s'obtient enfonction de l'amplitude des déplacements pendant l'initialisation. On sebase sur une classification des orbites périodiques du modèle à secondmembre discontinu. On compare expérimentalement cette méthode à une solution implémentabledans les mêmes conditions. On étudie alors le rejet de perturbations, périodiques en fonction de laposition, qui dégradent la précision du suivi de trajectoires. On formuledes conditions pour qu'un contrôleur linéaire rejette entièrement cesperturbations non linéaires. On assure la convergence asymptotique globalede l'erreur de suivi vers zéro grâce à une analyse de perturbationsrégulières basée sur les polynômes de Bell de seconde espèce. On construit un observateur linéaire basé sur des mesures de position pourle rejet de ces perturbations. Il est obtenu en évaluant les perturbationsle long des trajectoires de référence, et non le long de celles effectivesdu système. Les gains de l'observateur sont réglés par optimisations souscontraintes LMI, réalisées hors ligne, et peu de calculs sont nécessairesen ligne. On illustre expérimentalement notre méthode, via l'annulation ducogging et des erreurs d'interpolation
High-precision positioning of linear brushless synchronous motors used in the semiconductor industry is addressed. ﷡An initialization algorithm and controllers for disturbances rejection are designed. The initialization consists in estimating the initial value of the phase of the magnetic field. Only relative displacements measurements are provided. Motor's parameters (gain, load and friction) are assumed unknown. In presence of friction, the system is modeled by a discontinuous right-hand side differential equation. ﷡The initial phase is derived as a function of the displacements recorded during the initialization. This estimation scheme relies on an exhaustive classification of the periodic orbits of the considered disontinuous right-hand side system. This method is experimentally compared to a more classical one. We then move on to the cancellation of spatially periodic disturbances cancellation, namely cogging and interpolation errors. They significantly alter trajectory tracking performances. Conditions are derived for a linear controller to entirely reject these nonlinear perturbations. Thanks to a regular perturbation analysis based on the Bell polynomials of the second kind, the tracking error globally asymptotically vanishes. An observer fed by position measurements is designed by evaluating the pertubations along the reference trajectories rather than the actual ones. The gain tuning is performed offline through LMI optimization problems. Little computation is required online, and the efficiency of the method is exhibited via experimental results on production line motors
APA, Harvard, Vancouver, ISO, and other styles
39

Kanazy, Redouane. "Pronostic des événements de défaillance basé sur les réseaux de Petri Temporels labellisés." Thesis, Lyon, 2020. http://theses.insa-lyon.fr/publication/2020LYSEI132/these.pdf.

Full text
Abstract:
L’utilisation d’outils d’aide à la décision accroît l’efficacité d’agilité tout en réduisant les coûts relatifs au maintien du bon fonctionnement. Les arrêts accidentel ou intentionnel, provoquent des conséquences désastreuses et coûteuses. La communauté scientifique des systèmes à événements discrets (SED), s’est intéressée aux relations de causes à effets entre certains états nominaux et dysfonctionnels, pour proposer des solutions qui répond à cette problématique. Nos travaux s’insèrent dans le cadre d’un pilotage d’un système soumis à des événements de défaillance (EDef). Nous avons développé une approche de pronostic à base de modèle, qui prédit au plus tôt la date d’occurrence d’un EDef, permettant à l’opérateur de planifier les interventions de réparation sur des composants avant d’altérer le bon fonctionnement. Nous avons modélisé le système par des réseaux de Petri temporels labellisés (RdPTL), vu que l’analyse de son modèle comportemental est basée sur la séquentialité et la date d’occurrence des événements. Nous avons représenté ces dynamiques au travers d’une modélisation dans un contexte d’analyse de modes, limitée à 3 modes de fonctionnement (nominal, dégradé et critique). A partir de son graphe d’accessibilité, nous avons construit un pronostiqueur, qui permet de repérer l’ensemble des séquences d’événements qui se terminent par un Edef. Nous avons utilisé la notion de paramétrisation des états du système i.e. l’introduction d’une horloge et un système d’inéquation (SE) des horloges pour chaque état du système. Les états obtenus de la discrétisation du temps sont alors regroupés dans un seul état et le SE déterminera les valeurs des horloges. Le pronostic ne peut être toujours assuré. Nous avons alors établi la propriété de pronosticabilité, pour discerner les séquences qui sont pronosticables de celles qui ne le sont pas. Pour valider notre approche, nous avons choisi la cellule d’une batterie comme benchmark et l’outil INA pour générer le graphe d’accessibilité
The deployment of decision-support tools increases agility efficiency while reducing the cost of maintaining proper operation. Accidental or intentional shutdowns have disastrous and costly consequences. The scientific community of discrete event systems (DES), has been interested in the cause-effect relationships between certain nominal and dysfunctional states, to propose solutions responding to this problem. Our work is part of the framework of a steering of a system subject to failure events (FE). We have developed a model-based prognostic approach, which predicts the earliest date of occurrence of an FE, allowing the operator to plan repair interventions on components before altering the proper functioning. We modeled the system using labeled temporal Petri nets (RdPTL), since the analysis of its behavioral model is based on the sequentiality and date of occurrence of events. We have represented these dynamics through modeling in a context of mode analysis, limited to 3 modes of operation (nominal, degraded and critical). From its accessibility graph, we have built a prognosticator, which allows us to identify all the sequences of events ending with an FE. We used the notion of parameterization of the system states i.e. the introduction of a clock and a system of clock inequation (SE) for each state of the system. The states obtained from the discretization of time are then grouped in a single state and the SE will determine the values of the clocks. The prognosis cannot always be guaranteed. We then established the prognosticability property, to distinguish the sequences that are prognosticable from those that are not. To validate our approach, we chose a battery cell as a benchmark and the INA tool to generate the accessibility graph
APA, Harvard, Vancouver, ISO, and other styles
40

Arnoux, Caroline. "Optimisation d'un procédé d'impression 3D haute résolution à deux photons basé sur la fabrication en parallèle dans des résines photosensibles non-linéaires." Thesis, Lyon, 2021. http://www.theses.fr/2021LYSEN004.

Full text
Abstract:
La structuration sub-micrométrique de grandes surfaces avec une très bonne résolution spatiale pourrait ouvrir de nouvelles frontières dans de nombreux domaines, tels que le stockage de données optiques 3D, la biomédecine ou les micro-dispositifs mécaniques et optiques. Parmi les différentes techniques de fabrication additive, la polymérisation biphotonique a suscité un grand intérêt en raison de sa résolution spatiale, sous la limite de diffraction de la longueur d'onde considérée. Néanmoins, cette technique souffre d'une vitesse d'écriture limitée et d'un coût d'exploitation élevé qui ralentissent son entrée sur le marché. Le but de ce projet de thèse est d'accroitre la vitesse de fabrication par polymérisation biphotonique en fabriquant plusieurs structures en parallèle grâce à la combinaison d’une source laser appropriée et d’éléments optiques diffractifs (EOD) avec une résine à faible seuil de polymérisation. Dans ce cadre, deux nouveaux photoamorceurs biphotoniques ont été synthétisés et caractérisés finement au moyen de multiples techniques (spectroscopies linéaire et non-linéaire, spectroscopie de résonance paramagnétique électronique, voltampérométrie cyclique, microfabrication, spectroscopie Raman). Leur utilisation au sein d’un mélange de monomères acrylates choisis a permis de mettre en évidence le fort potentiel de ces nouveaux amorceurs, comparé à ceux de la littérature. Les seuils de polymérisation ainsi que les dimensions des structures fabriquées ont été déterminés et corrélés à un modèle mathématique. Une méthode de quantification des rendements quantiques de photoamorçage combinant l'actinométrie chimique et la spectroscopie RMN du fluor a été proposée. L’impression simultanée en parallèle de 121 structures a été réalisée, nous conduisant à soulever les problèmes liés aux effets de proximité dans de telles conditions de fabrication ainsi qu’à proposer des voies d’amélioration
The fast patterning of sub-micrometric structures with high three-dimensional (3D) spatial resolution over a large area could open new frontiers in many fields such as 3D optical data storage, biomedicine or mechanical and optical micro-devices. Among the various additive manufacturing techniques, two-photon polymerization (TPP) has attracted a high level of interest due to the spatial resolution it offers, below the diffraction limit of the wavelength used. Nevertheless, this technique suffers from a limited writing speed and a high operating cost which slow down its entry on the market.The goal of this thesis project is to increase the building speed of TPP by fabricating several structures in parallel thanks to the combination of an appropriate laser source and diffractive optical elements (DOE) with a low polymerization threshold resin. In this framework, two new two-photon photoinitiators were synthesized and finely characterized using multiple techniques (linear and nonlinear spectroscopies, electron paramagnetic resonance spectroscopy, cyclic voltammetry, TPP microfabrication, Raman spectroscopy), highlighting their strong potential compared to benchmarks. The polymerization thresholds and the dimensions of the manufactured structures were determined and correlated to a mathematical model. A method for quantifying photoinduced radical generation quantum efficiencies by combining chemical actinometry and 19F NMR spectroscopy has been proposed. Simultaneous parallel printing of 121 structures was performed, revealing issues related to the proximity effects under such fabrication conditions, which we partially solved
APA, Harvard, Vancouver, ISO, and other styles
41

Mihaita, Adriana. "Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT036/document.

Full text
Abstract:
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l’aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s’adapte aux événements arbitraires qui peuvent changer complètement l’évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu’à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l’état normal).Notre approche vise le développement d’un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l’énergie du système) pour la politiquede contrôle choisie. Nous proposons d’abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l’application ducontrôle.Un modèle analytique pour déterminer l’énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation
Hybrid systems are dynamical systems, characterized by a dual behaviour, a continuousinteraction between a discrete and a continuous functioning part. The center ofour work is represented by a particular class of hybrid systems, more specific by thestochastic switching systems which we model using continuous time Markov chains anddifferential equations.The random behaviour of such systems requires a special command which adapts tothe arbitrary events that can completely change the evolution of the system. We chose anevent-based control policy which is triggered only when it’s necessary (on an unforeseenevent - for example when a threshold that is reached), and until certain functioningconditions are met (the system returns in the normal state).Our approach aims to develop a probabilistic model that calculates a performancecriterion (in this case the energy of the system) for the proposed control policy. We startby proposing a discrete event simulation for the controlled stochastic switching system,which gives us the opportunity of applying a direct optimisation of the control command.It also allows us to compare the results with the ones obtained by the analytical modelswe have built when the event-based control is applied.An analytical model for computing the energy consumed by the system to apply thecontrol is designed by using the exit probabilities of the control region, respectively, thesojourn times of the Markov chain before and after reaching the control limits. The lastpart of this work presents the results we have obtained when comparing the analyticaland the simulation method
APA, Harvard, Vancouver, ISO, and other styles
42

Giftsun, Nirmal. "Handling uncertainty and variability in robot control." Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0028/document.

Full text
Abstract:
Parmi les nombreuses recherches en matière de planification et de contrôle des mouvements pour des applications robotiques, l'humanité n'a jamais atteint un point où les robots seraient parfaitement fonctionnels et autonomes dans des environnements dynamiques. Bien qu'il soit controversé de discuter de la nécessité de ces robots, il est très important d'aborder les problèmes qui nous empêchent de réaliser un tel niveau d'autonomie. Ce travail de recherche tente de résoudre ces problèmes qui séparent ces deux modes de fonctionnement avec un accent particulier sur les incertitudes. Les impossibilités pratiques de capacités de détection précises entraînent une variété d'incertitudes dans les scénarios où le robot est mobile ou l'environnement est dynamique. Ce travail se concentre sur le développement de stratégies intelligentes pour améliorer la capacité de gérer les incertitudes de manière robuste dans les robots humanoïdes et industriels. Premièrement, nous nous concentrerons sur un cadre dynamique d'évitement d'obstacles proposé pour les robots industriels équipés de capteurs de peau pour la réactivité. La planification des chemins et le contrôle des mouvements sont généralement formalisés en tant que problèmes distincts de la robotique, bien qu'ils traitent fondamentalement du même problème. Les espaces de configuration à grande dimension, l'environnement changeant et les incertitudes ne permettent pas la planification en temps réel de mouvement exécutable. L'incapacité fondamentale d'unifier ces deux problèmes nous a amené à gérer la trajectoire planifiée en présence de perturbations et d'obstacles imprévus à l'aide de différents mécanismes d'exécution et de déformation de trajectoire. Le cadre proposé utilise «Stack of Tasks», un contrôleur hiérarchique utilisant des informations de proximité, grâce à un planificateur de chemin réactif utilisant un nuage de points pour éviter les obstacles. Les expériences sont effectuées avec les robots PR2 et UR5 pour vérifier la validité du procédé à la fois en simulation et in-situ. Deuxièmement, nous nous concentrons sur une stratégie pour modéliser les incertitudes des paramètres inertiels d'un robot humanoïde dans des scénarios de tâches d'équilibre. Le contrôle basé modèles est devenu de plus en plus populaire dans la communauté des robots à jambes au cours des dix dernières années. L'idée clé est d'exploiter un modèle du système pour calculer les commandes précises du moteur qui entraînent le mouvement désiré. Cela permet d'améliorer la qualité du suivi du mouvement, tout en utilisant des gains de rétroaction plus faibles, ce qui conduit à une conformité plus élevée. Cependant, le principal défaut de cette approche est généralement le manque de robustesse aux erreurs de modélisation. Dans ce manuscrit, nous nous concentrons sur la robustesse du contrôle de la dynamique inverse à des paramètres inertiels erronés. Nous supposons que ces paramètres sont connus, mais seulement avec une certaine précision. Nous proposons ensuite un contrôleur basé optimisation, rapide d'exécution, qui assure l'équilibre du robot malgré ces incertitudes. Nous avons utilisé ce contrôleur en simulation pour effectuer différentes tâches d'atteinte avec le robot humanoïde HRP-2, en présence de diverses erreurs de modélisation. Les comparaisons avec un contrôleur de dynamique inverse classique à travers des centaines de simulations montrent la supériorité du contrôleur proposé pour assurer l'équilibre du robot
Amidst a lot of research in motion planning and control in concern with robotic applications, the mankind has never reached a point yet, where the robots are perfectly functional and autonomous in dynamic settings. Though it is controversial to discuss about the necessity of such robots, it is very important to address the issues that stop us from achieving such a level of autonomy. Industrial robots have evolved to be very reliable and highly productive with more than 1.5 million operational robots in a variety of industries. These robots work in static settings and they literally do what they are programmed for specific usecases, though the robots are flexible enough to be programmed for a variety of tasks. This research work makes an attempt to address these issues that separate both these settings in a profound way with special focus on uncertainties. Practical impossibilities of precise sensing abilities lead to a variety of uncertainties in scenarios where the robot is mobile or the environment is dynamic. This work focuses on developing smart strategies to improve the ability to handle uncertainties robustly in humanoid and industrial robots. First, we focus on a dynamical obstacle avoidance framework proposed for industrial robots equipped with skin sensors for reactivity. Path planning and motion control are usually formalized as separate problems in robotics. High dimensional configuration spaces, changing environment and uncertainties do not allow to plan real-time motion ahead of time requiring a controller to execute the planned trajectory. The fundamental inability to unify both these problems has led to handle the planned trajectory amidst perturbations and unforeseen obstacles using various trajectory execution and deformation mechanisms. The proposed framework uses ’Stack of Tasks’, a hierarchical controller using proximity information to avoid obstacles. Experiments are performed on a UR5 robot to check the validity of the framework and its potential use for collaborative robot applications. Second, we focus on a strategy to model inertial parameters uncertainties in a balance controller for legged robots. Model-based control has become more and more popular in the legged robots community in the last ten years. The key idea is to exploit a model of the system to compute precise motor commands that result in the desired motion. This allows to improve the quality of the motion tracking, while using lower feedback gains, leading so to higher compliance. However, the main flaw of this approach is typically its lack of robustness to modeling errors. In this paper we focus on the robustness of inverse-dynamics control to errors in the inertial parameters of the robot. We assume these parameters to be known, but only with a certain accuracy. We then propose a computationally-efficient optimization-based controller that ensures the balance of the robot despite these uncertainties. We used the proposed controller in simulation to perform different reaching tasks with the HRP-2 humanoid robot, in the presence of various modeling errors. Comparisons against a standard inverse-dynamics controller through hundreds of simulations show the superiority of the proposed controller in ensuring the robot balance
APA, Harvard, Vancouver, ISO, and other styles
43

Amri, Hedi. "Un nouveau protocole basé sur la réduction et l'agrandissement des images REPro (Reduction/Expansion Protocol) : appliccation : transmission et archivage pour le télédiagnostic médical." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2059.

Full text
Abstract:
L'échange des images médicales est l'un des obstacle majeurs dans une application de télémédecine vu le grand volume de ces images et la limitation des la bande passante allouée à cette application. Pour contourner ce problème, nous adoptons un nouveau protocole de transmission des images médicales qui consiste à réduire l'image avant de l'emettre et à l'agrandir lors de la réception (protocole " REPro": Réduction Expansion Protocole
The exchang of medical exchange is one of the major obstacles in a telemedicine
APA, Harvard, Vancouver, ISO, and other styles
44

Mihaita, Adriana, and Adriana Mihaita. "Approche probabiliste pour la commande orientée évènement des systèmes stochastiques à commutation." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00770325.

Full text
Abstract:
Les systèmes hybrides sont des systèmes dynamiques, caractérisés par un comportementdual, une interaction entre une partie discrète et une partie continue de fonctionnement.Dans le centre de notre travail se trouve une classe particulière de systèmeshybrides, plus spécifiquement les systèmes stochastiques à commutation que nous modélisonsà l'aide des Chaînes de Markov en temps continu et des équations différentielles.Le comportement aléatoire de ce type de système nécessite une commande spécialequi s'adapte aux événements arbitraires qui peuvent changer complètement l'évolutiondu système. Nous avons choisi une politique de contrôle basée sur les événements quiest déclenchée seulement quand il est nécessaire (sur un événement incontrôlable - parexemple un seuil qui est atteint), et jusqu'à ce que certaines conditions de fonctionnementsont remplies (le système revient dans l'état normal).Notre approche vise le développement d'un modèle probabiliste qui permet de calculerun critère de performance (en occurrence l'énergie du système) pour la politiquede contrôle choisie. Nous proposons d'abord une méthode de simulation à événementsdiscrets pour le système stochastique à commutation commandé, qui nous donne la possibilitéde réaliser une optimisation directe de la commande appliquée sur le système etaussi de valider les modèles analytiques que nous avons construit pour l'application ducontrôle.Un modèle analytique pour déterminer l'énergie consommée par le système a étéconçu en utilisant les probabilités de sortie de la région de contrôle, respectivement lestemps de séjour dans la chaîne de Markov avant et après avoir atteint les limites decontrôle. La dernière partie du travail présente la comparaison des résultats obtenusentre la méthode analytique et la simulation.
APA, Harvard, Vancouver, ISO, and other styles
45

Frasnedo, Sophie. "Optimisation des lois de commande d’un imageur sur critère optronique. Application à un imageur à deux étages de stabilisation." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC079/document.

Full text
Abstract:
Ces travaux sur la stabilisation de la Ligne de Visée d’un dispositif optronique s’inscrivent dans le contexte actuel de durcissement des exigences de stabilisation et de réduction du temps accordé à la synthèse des lois de commande.Ils incluent dans un premier temps l’amélioration de la performance intrinsèque de stabilisation du système. La solution proposée ici est l’ajout d’un étage de stabilisation supplémentaire à une structure de stabilisation existante. L’architecture de ce nouvel étage est définie. Les composants sont choisis parmi les technologies existantes puis caractérisés expérimentalement. Un modèle complet du système à deux étages de stabilisation est ensuite proposé.L’objectif de ces travaux comprend également la simplification des procédures d’élaboration des lois de commande par l’utilisation d’une fonction de coût F incluant notamment la Fonction de Transfert de Modulation (qui quantifie le flou introduit par l’erreur de stabilisation dans l’image) en lieu et place ducritère dérivé usuel qui nécessite des vérifications supplémentaires et qui peut s’avérer conservatif.L’évaluation de F étant coûteuse en temps de calcul, un algorithme d’optimisation bayésienne, adapté à l’optimisation des fonctions coûteuses, permet la synthèse des lois de commande du système dans un temps compatible avec les contraintes industrielles, à partir de la modélisation du système précédemment proposée
The presented work on the Line of Sight stabilization of an optronic device meets the heightened demands regarding stabilization performances that come with the reduction of the time allowed to controller tuning.It includes the intrinsinc improvement of the system stabilization. The proposed solution features a double stabilization stage built from a single stabilization stage existing system. The new architecture is specified and the new components are chosen among the existing technology and experimentally characterized. A complete double stabilization stage model is then proposed.The simplification of the controller tuning process is another goal. The designed cost function F includes a high-level optronic criterion, the Modulation Transfer Function (that quantifies the level of blur broughtinto the image by the residual motion of the platform) instead of the usual low-level and potentially conservative criterion.The function F is costly to evaluate. In order to tune the controller parameters within industrial time constraints, a Bayesian algorithm, adapted to optimization with a reduced budget of evaluations, is implemented.Controllers of both stabilization stages are simultaneously tuned thanks to the previously developped system model
APA, Harvard, Vancouver, ISO, and other styles
46

Kim, Yong Kyu. "Analyse de robustesse et ses applications sur l'optimisation H-infini d'un système électromécanique." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL070N.

Full text
Abstract:
Cette étude porte sur l'application pour un système électromécanique, du théorème de l'optimisation H-infini sous l'incertitude non-structurée du procédé. L’objet principal de cette étude consiste à synthétiser l'optimisation H-infini et à analyser le système régulé par la conception du problème de robustesse ; particulièrement, par la condition nécessaire et suffisante de performance robuste en cas d'incertitude multiplicative non-structurée. On développe une procédure pour ajuster les pondérations fréquentielles au cahier des charges précisant les performances désirées et pour satisfaire de manière directe les conditions de stabilité et de performance robustes. Diverses simulations ont été réalisées sur un mécanisme expérimental construit par le CRAN (Centre de Recherche en Automatique de Nancy) ; le but de la manipulation est de commander la vitesse en charge et d'assurer des performances raisonnables.
APA, Harvard, Vancouver, ISO, and other styles
47

Agrouaz, Younes. "Modélisation et simulation d’un système de rafraîchissement solaire basé sur la machine à absorption couplée aux chauffe-eaux solaires." Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3008.

Full text
Abstract:
Au cours des dernières années, l'utilisation des systèmes de climatisation classiques a connu une augmentation importante qui directement augmente la consommation d'électricité dans différents types de bâtiments.Par conséquent, le développement du système de climatisation solaire appliqué aux bâtiments est la nouvelle technologie qui pourrait remplacer le système conventionnel à compresseur. De cette façon, il est nécessaire de comprendre et d’évaluer cette solution alternative. À cet effet, notre Institut de recherche en énergie solaire et en énergies renouvelables (IRESEN) a financé un projet appelé «Refroidissement solaire au Maroc» basé sur la technologie d'absorption, afin de réaliser des études de faisabilité sur ce type de systèmes afin de les intégrer dans la nouvelle génération du bâtiment.Dans ce but, cette thèse a traité un système de refroidissement solaire en utilisant la machine à absorption comme la technologie de production de froid dans différentes conditions et climats. Tout d'abord, cette thèse commence par une étude bibliographique ou elle analyse et critique plusieurs travaux traitant les systèmes de refroidissement solaire, ainsi que les diffèrent technologie de capteur solaire. Deuxième point de cette thèse focalise sur la machine à absorption où elle présente un modèle mathématique d'une machine à absorption à simple effet, afin de comprendre le comportement dynamique de ce type de machine face à une variation des conditions extérieures telles que (rayonnement solaire, température extérieure, charges climatique internes). En plus, l'analyse du système de refroidissement solaire devrait prendre en compte une approche énergétique et financière qui permette de prévoir toutes les performances énergétiques (fraction solaire, coefficient de performance, efficacité thermique et efficacité exergétique…) et d'optimiser la taille des composants les plus importants, qui sont la surface du capteur solaire et le volume du ballon de stockage. Une évaluation détaillée de ces deux paramètres est examinée dans les six zones climatiques du Maroc, puis généralisée à neuf capitales africaines afin de fournir un outil numérique pour le dimensionnement et l'optimisation du système de refroidissement solaire non seulement au Maroc mais également dans l'ensemble des régions africaines
In the last few years, the use of conventional air conditioning system has known an important increase, which directly increase the electricity consumption in different type of building.Therefore, the development of solar cooling system applied to buildings is the new technology that could replace the conventional system of air conditioning. That way, there is a need to understand and evaluate this alternative solution. For that purpose, our Institute of Research in Solar energy and renewable energies (SPCM) has finance a project called Solar cooling in Morocco based on the absorption technology, in order to have a feasibility studies on this kind of systems, in the scope of implementing them in the new generation of buildings. Thus, this thesis treats the solar cooling system using an absorption chiller as the technology of cooling under different conditions and climates. Firstly, it presents a mathematical model of a single effect absorption chiller, in order to understand the dynamic behavior of this kind of machine when they are confronted to a variation in the external conditions such as (solar radiation, external temperature, cooling loads).Moreover, the analysis of the solar cooling system should take into account an energetic and a financial approach to predict all the energetic performances (solar fraction, coefficient of performance, thermal efficiency and exergetic efficiency…) and to optimize the size of the most important component which are the solar collector surface and the storage tank volume. A detailed assessment of these two parameters is investigated in the six climatic zones of Morocco and then it is generalized to nine African capitals in order to give a numerical tool to pre-sizing and optimizing the solar cooling system not only in Morocco but also in all Africa
APA, Harvard, Vancouver, ISO, and other styles
48

Mouelhi-Chibani, Wiem. "Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulation." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725259.

Full text
Abstract:
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
APA, Harvard, Vancouver, ISO, and other styles
49

Godineau, Kévin. "Optimisation du pilotage de chaînes opto-mécaniques pour l'exécution de trajectoires en fabrication additive par fusion laser sur lit de poudre." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN019.

Full text
Abstract:
En fabrication additive métallique par fusion laser sur lit de poudre, la géométrie et les caractéristiques mécaniques des pièces produites sont générées au cours de la fabrication. Ces deux aspects sont grandement influencés par les trajectoires du spot laser et par la maîtrise de l'énergie apportée à la poudre localement. La commande numérique dont le rôle est de générer les consignes à envoyer aux actionneurs a donc un impact conséquent sur la qualité des pièces produites.Ces travaux proposent d'étudier l'impact des traitements effectués dans la commande numérique sur les trajectoires réalisées et sur l'énergie apportée à la matière. Dans la littérature, peu de travaux traitent de ces aspects en fabrication additive. C'est pourquoi une plateforme expérimentale est mise en œuvre et utilisée afin d'analyser et de mieux comprendre les opérations actuellement implémentées dans les commandes numériques industrielles.Un modèle mathématique représentatif de la géométrie de la machine est d'abord établi. Ce modèle permet de convertir les trajectoires du spot laser en consigne pour les actionneurs. Le modèle développé est utilisé afin d'améliorer l'étape de calibration des machines. Une fois le système calibré, les consignes envoyées aux actionneurs sont étudiées. Les différents traitements effectués dans la commande numérique industrielle sont analysés, des limitations sont mises en évidence et plusieurs propositions d'améliorations sont implémentées. Tous ces développements sont ensuite utilisés afin de maîtriser finement l'énergie apportée à la matière dans le cas de certaines trajectoires adaptées au procédé. Les développements scientifiques proposés dans ces travaux sont tous validés expérimentalement sur une machine de fabrication additive ou sur le banc d'essai développé. Les travaux effectués permettent d'envisager de nombreuses perspectives concernant l'amélioration des traitements réalisés dans la commande numérique en fabrication additive
In metal additive manufacturing by laser powder bed fusion, the geometry and mechanical characteristics of the produced parts are generated during the manufacturing process. These two aspects are greatly influenced by the laser spot trajectories, and by the control of the energy provided to the powder locally. The numerical control system, whose purpose is to generate instructions to be sent to actuators, has therefore a significant impact on the quality of the parts produced.This work proposes to study the local impact of the operations carried out in the numerical control on both the trajectories executed and the energy provided to the material. In the literature, few studies have addressed these aspects in additive manufacturing. For this reason, an experimental platform is implemented and used to analyze and better understand the operations currently implemented in industrial numerical controls.First, a mathematical model representative of the machine geometry is established. This model converts the laser spot trajectories into instructions for actuators. The model developed is used to improve the calibration step of the machines. Once the system is calibrated, the instructions sent to the actuators are studied. The various processes carried out in the industrial numerical control are analysed, limitations are highlighted and several proposals for improvements are implemented. All these developments are then used to precisely control the energy supplied to the material in the case of certain trajectories adapted to the process. The scientific developments proposed in these works are all validated experimentally on an additive manufacturing machine or on the test bench developed. The work carried out makes it possible to envisage many perspectives concerning the improvement of the treatments carried out inside the numerical control in additive manufacturing
APA, Harvard, Vancouver, ISO, and other styles
50

Rekik, Mouna. "Routage géographique multi-chemin basé sur l’intelligence d’essaim pour réseaux de capteurs et d’actionneurs sans fil : application aux Smart Grids." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10059/document.

Full text
Abstract:
Le Smart Grid (SG) permet une gestion intelligente du réseau électrique en mettant en place une infrastructure de communication pour l'échange des données. A travers cette thèse, nous avons proposé un protocole de routage des données pour les réseaux de capteurs sans fil (WSN) appliqués au niveau distribution des SGs. Nous avons proposé GRACO, un nouveau protocole de routage géographique basé sur l'intelligence d'essaim pour les WSNs. GRACO utilise le routage géographique comme mécanisme principal de routage de données, et un processus de recouvrement basé sur l'optimisation par colonies de fourmis pour contourner les vides de communication. Les performances du protocole ont été validées à travers des simulations. En comparant les résultats à l'état de l'art, le protocole proposé permet d'améliorer les performances du réseau en termes de taux de livraison, temps de réception et coût de livraison. Ensuite, nous avons proposé GRACO pour les réseaux de voisinages(NAN) sans fil du SG. GRACO permet d'assurer tous les types de paradigme de communication, surtout la communication Point-à-Point tout en offrant une évolutivité et des capacités d'auto-guérison. La faisabilité de GRACO dans les NANs a été confirmée à travers des simulations en utilisant des paramètres définis par le NIST.Enfin, nous nous sommes concentrés sur les qualités de service (QoS) requises par les applications du NAN. Nous avons ajouté un modèle de QoS à GRACO pour tenir compte de ces exigences. Les performances du protocole ont été validées à travers des simulations. Les résultats ont montré que le protocole permet de satisfaire les exigences en termes de fiabilité et de délai de réception des données
The Smart Grid (SG) enables an intelligent management of the electrical grid. The implementation of SGs is conditional to the implementation of a communication infrastructure to exchange data between the entities connected to the grid. This thesis is positioned in the context of wireless sensor networks (WSN) in SGs. Through this work, we have proposed a data routing protocol for the communication network at the distribution level. First, we proposed GRACO, a new geographical routing protocol based on swarm intelligence for WSNs. GRACO uses the geographic routing as a main data routing mechanism, and a recovery process based on ant colony optimization to bypass communication voids. The protocol performances were validated through simulations. By comparing the results to the state of the art, the proposed protocol improves the network performances in terms of data delivery rate, end-to-end delay and delivery cost. Second, we proposed GRACO as the routing protocol for wireless neighborhood area networks (NANs) in SG. GRACO ensures all communication schemes, especially Point-to-Point communication while providing scalability and self-healing capabilities. The feasibility of the protocol in NANs was confirmed through simulations using parameters defined by NIST.Finally, we focused on the qualities of service (QoS) required by NAN's applications. We have added a QoS model to the proposed routing protocol to take account of NAN's communication requirements. The performances of the new protocol were validated through simulations. The results showed that the protocol can satisfy the most severe requirements in terms of reliability and end-to-end delay
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography