To see the other types of publications on this topic, follow the link: Stratégie navale – Modèles mathématiques.

Dissertations / Theses on the topic 'Stratégie navale – Modèles mathématiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 47 dissertations / theses for your research on the topic 'Stratégie navale – Modèles mathématiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cinq-Mars, Patrick. "Apprentissage d'une politique de gestion de ressources en temps réel : Application au combat maritime." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/26648/26648.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Qiang, Shijia. "Stratégie de localisation et identification d'objet à partir de quelques mesures tridimensionnelles." Vandoeuvre-les-Nancy, INPL, 1989. http://www.theses.fr/1989NAN10443.

Full text
Abstract:
L'objectif du présent travail est d'étudier la faisabilité d'un système de l'identification et la localisation de l'objet polyédrique à partir de quelques mesures tridimensionnelles. Notre travail se compose en trois étapes : calibration d'un système d'acquisition 3d, modélisation d'objet a partir de plusieurs vues de l'objet, identification et localisation de l'objet polyédrique a partir de données 3d éparses de la scène. Les paramètres de la calibration sont estimés par un processus d'optimisation. Pour construire le modèle d'objet, plusieurs vues de l'objet sont nécessaires. Pour chaque vue, une segmentation est effectuée pour obtenir une partition en région représentée par un graphe d'adjacence, le modèle complet de l'objet est obtenu par fusion des graphes correspondant aux différentes vues de l'objet. L'identification et localisation d'objet s'effectuent par la mise en correspondance des données acquises et le modèle. La principale difficulté se révèle dans le processus de mise en correspondance par l'absence des primitives invariant a la position et l'orientation de l'observateur. Avec des données éparses de la scène, il y aurait souvent plusieurs interprétations possibles qui sont toutes compatibles avec des données acquises, une stratégie de prise de vue supplémentaire est prise pour identifier l'interprétation correcte. Les fausses interprétations sont rejetées par vérification avec des données acquises supplémentaires
APA, Harvard, Vancouver, ISO, and other styles
3

Carrillo, Le Roux Galo. "Stratégie d'identification de modèles algébro-différentiels. Application aux systèmes réactionnels complexes." Toulouse, INPT, 1995. http://www.theses.fr/1995INPT010G.

Full text
Abstract:
L'identification de modeles pour les systemes reactionnels complexes est un defi ; la simulation de ces systemes, de type algebro-differentiel, requiert l'utilisation d'outils adaptes et l'estimation de parametres est souvent entravee par des problemes d'identifiabilite. Dans une premiere partie, nous introduisons les notions d'identifiabilite pratique et structurelle. Le probleme de la degenerescence des caracteristiques des estimateurs de maximum de vraisemblance est expose. Les principales issues a ce probleme sont presentees: la reduction du modele, l'utilisation de l'estimation conditionnelle et l'utilisation des estimateurs biaises dans un environnement non lineaire. Dans une deuxieme partie, nous presentons l'approche proposee pour l'estimation de parametres de tels systemes qui repose sur: l'optimiseur, specifiquement adapte au traitement des problemes non-identifiables ; l'evaluation des sensibilites des variables d'etat par rapport aux parametres, ce qui permet le diagnostic et le traitement des modeles non-identifiables ; enfin, un modele generique representant le fonctionnement de reacteurs homogenes et heterogenes parfaitement agites. Trois exemples didactiques sont traites dans le but d'effectuer une etude comparative des principales issues aux problemes d'identifiabilite. Cette etude montre l'interet de l'utilisation des estimateurs biaises et de la decomposition en composantes principales. Finalement la strategie proposee est appliquee a trois applications industrielles: un exemple soumis par la dow chemical company a la communaute scientifique et presentant des difficultes de simulation et d'identifiabilite ; une fermentation brassicole, ou deux modeles structurellement non-identifiables sont proposes pour decrire le systeme ; une hydrogenation catalytique qui illustre les capacites de la strategie proposee a traiter des problemes complexes sans necessiter la formulation d'hypotheses d'equilibre d'adsorption et d'etat quasi-stationnaire
APA, Harvard, Vancouver, ISO, and other styles
4

Sigrist, Jean-François. "Modélisation et simulation numérique d'un problème couplé fluide/structure non linéaire : application au dimensionnement de structures nucléaires de propulsion navale." Nantes, 2004. http://www.theses.fr/2004NANT2088.

Full text
Abstract:
Nous nous intéressons dans cette thèse à la modélisation et la simulation numérique d'un problème couplé fluide/structure non linéaire avec surface libre fluide. Nous définissons un cas générique d'étude pour lequel nous formulons un problème linéaire (problème aux valeurs propres du système couplé) et un problème non linéaire (problème d'évolution du système couplé, initialement au repos et soumis à une excitation dynamique). Le problème non linéaire est formulé en pression/déplacement avec les équations de la dynamique linéaire pour la structure et l'équation de Laplace pour le fluide. La résolution du problème aux valeurs propres est conduite avec une méthode de couplage fort éléments finis (structure) et éléments finis/équation intégrale (fluide). Les formulations du problème modal couplé sont écrites dans avec prise en compte ou non des modes de ballottement du fluide. Le problème aux valeurs propres ainsi obtenu est non symétrique : il est résolu avec l'algorithme de Lanczos non symétrique. Le problème non linéaire est formulé en pression-vitesse/déplacement avec les équations de la dynamique non linéaire pour la structure et les équations de Stokes pour le fluide. La résolution du problème d'évolution utilise une méthode de couplage faible. Le problème fluide est résolu avec une technique volumes finis, avec une représentation en maillage mobile, un algorithme temporel découplé en pression/vitesse et une méthode de capture d'interface pour la simulation de la surface libre. Le problème structure est résolu avec une technique éléments finis, un algorithme temporel mixte implicite/explicite. Le couplage des deux problèmes est détaillé pour les aspects de couplage en espace (gestion d'incompatibilité de maillage, projection des efforts et des déplacements, algorithme de remaillage du problème fluide) et en temps (approche explicite, gestion des oscillations numériques). Un travail de validation du code de calcul CFD utilisé pour l'étude est proposé en comparant les résultats de calcul pour deux problèmes fluides élémentaires avec les solutions analytiques correspondantes. Ce travail conduit à la définition d'un benchmark général de validation d'un code de calcul CFD. Une étude numérique est ensuite conduite et permet de mettre en évidence la physique des interactions fluide/structure sur ce cas d'étude (masse ajoutée, masse déplacée, couplage de modes, effets des non linéarités structure). Une application des techniques de calcul éléments finis/éléments finis à l'analyse modale de l'ensemble panier/cuve d'un réacteur nucléaire de propulsion navale permet de montrer l'importance des interactions fluide/structure dans le cas industriel.
APA, Harvard, Vancouver, ISO, and other styles
5

Geffroy, Anne-Gaëlle. "Modélisation numérique de la rupture de structures navales sous l'effet d'explosion au contact." Lorient, 2010. http://www.theses.fr/2010LORIS209.

Full text
Abstract:
Dans un contexte de vulnérabilité militaire des bâtiments de surface et sous-marins, cette étude, réalisée dans le cadre d'une thèse CIFRE DCNS-LIMATB, a pour objectif la prédiction numérique de la réponse de structures navales soumises à explosion au contact. Dans cette perspective, ce travail vise la description de l'endommagement et de la rupture dynamique de matériaux métalliques. Le matériau de l'étude est un acier doux ferrito-perlitique constitutif des coques de bâtiments de surface. Pour étudier les effets couplés du taux de triaxialité des contraintes, de la déformation, de la vitesse de déformation, et de la température, une vaste campagne expérimentale a été menée, incluant des tests mécaniques de laboratoire ainsi que des essais d'explosion en air libre. Les observations microstructurales d'éprouvettes et de plaques sollicitées ont parallèlement révélé la coexistence de deux mécanismes distincts d'endommagement : la croissance de cavités sphériques et une microfissuration. Les résultats expérimentaux et les constats micrographiques ont alors servi de support à une modélisation avancée du comportement élasto-thermo-viscoplastique du matériau de l'étude et ont permis de construire un formalisme original au travers d'un modèle multi-surfaces et multi-mécanismes rendant compte notamment des effets retardants de la vitesse et de la température sur la cinétique de l'endommagement ductile, ainsi que des conséquences de l'endommagement, isotrope (par croissance de cavités) et anisotrope (par microfissuration). Des modèles tridimensionnels ont finalement été implantés en tant que lois utilisateur dans le code industriel de calculs par éléments finis ABAQUS. Plusieurs configurations d'essais d'explosion en air libre ont été simulées en utilisant la carte CONWEP d' ABAQUS, destinée à reproduire l'interaction fluide/structure durant l'explosion et dont les limites ont été mises en évidence. Les performances des modèles sont jugées encourageantes et des pistes d'amélioration sont données
In the context of military vulnerability of ships and submarines, this work, supported by a DCNS-LIMATB CIFRE, deals with the numerical prediction of the response of ship structures submitted to contact explosion. The ship structure constitutive material at stake is ferritic-pearlitic, mild steel. In order to study the coupling effects of stress triaxiality, strain, strain rate and temperature, an important experimental campaign was carried out, including laboratory mechanical tests as well as air blast tests. The microstructural observations of post-mortem samples and plates revealed the co-existence of two different mechanisms of ductile damage: cavity growth and micro-cracking. In agreement with the experimental results and the micrographic observations, an advanced elastic-thermo/viscoplastic model was built and a more complete, original formalism is proposed through a multi-surface and multi-mechanism model, describing notably the delaying effects of strain rate and temperature on the damage kinetics and the consequences of both damage mechanisms, namely isotropic (cavity growth) and anisotropic (microcracking). Models were finally implemented as user materials in the engineering finite element computation code ABAQUS. Several configurations of air blast tests were simulated using the card CONWEP of ABAQUS, devoted to reproduce the fluid/structure interaction during the process of explosion and which limits were shown. The numerical results are encouraging and some improvements are suggested
APA, Harvard, Vancouver, ISO, and other styles
6

Colobert, Briac. "Relation entre stratégie posturale et stratégie de soulever de charge chez la personne âgée." Rennes 2, 2006. http://www.theses.fr/2006REN20029.

Full text
Abstract:
Ce travail présente plusieurs contributions originales dans la modélisation et dans le domaine de l'exercice physique chez la personne âgée. La force et l'équilibre sont des facteurs communs et importants à la posture et au soulever de charge. Il est possible de faire appel à des index de stratégies qui structurent ces activités afin d'évaluer les relations possibles entre le soulever de charge et la posture debout. Pour faciliter l'évaluation posturale ainsi que l'évaluation de soulever de charge, nous présentons deux modèles basés sur la cinétique inverse. Le premier modèle concerne l'évaluation des mouvements à la hanche et à la cheville lors de la posture debout et le second modèle permet d'identifier la stratégie employée lors d'un soulever de charge. Les deux modèles utilisent uniquement une plate-forme de forces. La dernière partie de ce document est consacrée à l'étude du niveau de pratique d'activité physique de la personne âgée et de ses conséquences sur la force et l'équilibre. Chez un groupe de personnes âgées ayant une activité physique intermédaire, nous observons une relation entre la stratégie par les jambes lors du soulever de charge et une stratégie à la hanche lors de l'évaluation posturale. La performance du système de contrôle de l'équilibre et celle du sytème moteur contribuent sans doute, à des niveaux différents, au choix de la stratégie posturale et de la stratégie de soulever de charge. Nos résultats soulignent qu'un exercice physique même léger a des influences positives sur plusieurs activités courantes de la personne âgée
This work presents severals new contributions in modelisation and in the field of physical activity in the elderly. Force and equilibrium are both involved in posture and lifting. It is possible to employ index of strategies which allow to quantify those activities, in order to evaluate the possible relation between lifting and posture. To make postural evaluation easier and to evaluate load lifting, we describe two new models based on inverse geometric augmented body. The first model is able to measure ankle and hip movement and the secund model is able to identify the strategy employed during lifting. Each model only requires force plate measurements. The last part of this thesis focus on the study of the level of physical activity in elderly and its consequences on equilibrium and force. We find a relation between postural strategy and lifting strategy in elderly with a physical activity between 2-4 hours per week. Performances of the equilibrium system and those of the motor system are perhaps involved in a different level in the choice of postural strategy and lifting strategy. Our results underline the fact that even a low level of physical activity positively influences daily activities of elderly
APA, Harvard, Vancouver, ISO, and other styles
7

Mbih, Boniface. "Essai sur la manipulation des procédures de choix collectif." Caen, 1987. http://www.theses.fr/1987CAEN0509.

Full text
Abstract:
Un des principaux problèmes de l'agrégation des préférences individuelles est celui de la possibilité de comportements stratégiques. Le resultat fondamental obtenu au debut des années soixante-dix par Gibbard et Satterthwaite établit que toute procédure de choix collectif non dictatoriale et sélectionnant une option unique est vulnérable aux comportements stratégiques individuels. Ce resultat repose sur le concept d'équilibre de Nash. Dans ce travail d'autres concepts d'équilibre sont étudiés, notamment le concept (plus realiste dans le contexte des jeux non coopératifs) d'équilibre en stratégies admissibles et une combinaison des concepts d'équilibre exact et d'équilibre de Nash admissible ; des résultats similaires a celui de Gibbard-Satterthwaite sont obtenus. On s'intéresse ensuite a l'évaluation de la fréquence des opportunités de choix stratégique pour une procédure particulière, la règle de la pluralité. De nouveau, plusieurs concepts d'équilibre sont étudiés et on fournit des formules permettant d'obtenir des résultats exacts en fonction du nombre d'agents participant au processus de décision collective, aussi bien dans le cadre coopératif que dans le cadre non coopératif
One important problem relating to preference aggregation is the possibility of strategic behaviour. The fundamental result obtained in the early seventies by Gibbard and Satterthwaite establishes that any non dictatorial collective choice procedure selecting a unique outcome is subject to individual manipulation. This result relies on the concept of nash equilibrium. In this work other equilibrium concepts are studied, e. G. The admissible-strategy equilibrium concept (which is more realistic in the context of noncooperative games) and a combination of the concepts of exact equilibrium and nash admissible equilibrium ; results similar to Gibbard-Satterthwaite's are obtained. Evaluation of the proportions of strategic voting opportunities is then explored, for a specific procedure, the plurality rule. For several concepts of equilibrium formulas allowing to obtain exact values with respect to the number of individuals in the society are provided. This is done both in the cases of noncooperative and cooperative games
APA, Harvard, Vancouver, ISO, and other styles
8

Mathurin, Joël. "Applications de la théorie des jeux coopératifs à l'analyse économique de la coopération internationale : illustrations par l'étude du cas de la politique agricole commune." Toulouse 1, 1997. http://www.theses.fr/1997TOU10081.

Full text
Abstract:
Cette thèse développe une analyse de la coopération entre états avec une attention particulière pour le phénomène coalitionnel. Dans un premier temps, nous présentons le cadre théorique à travers une revue de la littérature sur les jeux coopératifs et sur le concept de coalition. Dans un deuxième temps, nous analysons le problème de la stabilité d'une association entre les états de pays exportateurs souhaitant coordonner leurs politiques commerciales stratégiques. Nous montrons à l'aide d'un jeu coopératif entre états, que dès que le nombre de pays exportateurs est supérieur à quatre, la stabilité d'une unique association entre l'ensemble des états n'est pas assurée et dépend des hypothèses de réactions des états vis-à-vis du phénomène des passagers clandestins. Dans un troisième temps, afin d'analyser le jeu interne entre états membres d'une même organisation internationale dans la mise en place des instruments communs de la coopération et dans le partage du gain de la coopération nous traitons de l'exemple fameux de la politique agricole commune de l'Union européenne. Afin de rendre compte du jeu de négociations entre états, nous proposons un jeu de vote séquentiel avec un système de présidence tournante. Notre analyse suggère une justification rationnelle à la coexistence de deux procédures de prise de décision dans un cadre de régulation multi-produits : la méthode intergouvernementale et la délégation de pouvoir à une instance supranationale. Par ailleurs, cette analyse montre formellement comment les dispositions institutionnelles ad hoc facilitent la coopération intra-européenne. Enfin, une analyse de la coordination au sein de l'Union européenne concernant la reforme de l'organisation commune de marche vitivinicole est effectuée. Nous proposons une adaptation des concepts de partage équitables de la théorie des jeux coopératifs afin de déterminer une allocation des droits à produire non seulement entre états membres mais aussi entre régions à l'intérieur des états et enfin entre producteurs à l'intérieur des régions. De même, avec l'aide d'un modèle de simulation, nous quantifions un vecteur équitable de transferts compensatoires entre états qui faciliterait l'acceptation par les états d'une nouvelle instrumentation de l'OCM vitivinicole globalement plus efficace.
APA, Harvard, Vancouver, ISO, and other styles
9

Ziad, Abderrahmane. "Contributions à la théorie des jeux et à ses applications économiques." Caen, 1997. http://www.theses.fr/1997CAEN0570.

Full text
Abstract:
La these comporte deux volets. Le premier est une contribution a la theorie des jeux non-cooperatifs et le second represente une etude et un expose tres detaille de la mise en oeuvre des fonctions de choix social. Dans la premiere partie nous demontrons l'existence d'un equilibre de nash d'un jeu non-cooperatif lorsque les fonctions d'utilites sont semi-continues et fortement quasi-concaves. Dans la deuxieme partie nous avons propose une condition necessaire nouvelle a l'implementation d'une correspondance de choix social. Notre condition est plus forte que la monotonie de maskin
The first part of the thesis concerns game theory we prove the existence of nash equilibrium in pure strategies when the payoff functions are semi-continuous and satisfy strong quasi-concavity. The second part we prove a new condition for nash implementing a correspondance of social choice this condition is stronger than maskin monotonicity but it is a necessary condition
APA, Harvard, Vancouver, ISO, and other styles
10

Ben, Chaabane Mohamed Fadhel. "Intensification de la production d'éthanol biocarburant dans un bioréacteur bi-étagé avec recyclage cellulaire : modélisation et stratégie de conduite." Toulouse, INSA, 2006. http://www.theses.fr/2006ISAT0007.

Full text
Abstract:
L'objectif est l'intensification de la production d'éthanol biocarburant par Saccharomyces cerevisiae dans un Bioréacteur Bi-étagé avec Recyclage Cellulaire (BBRC) en mode continu. A cette fin, nous avons modélisé le fonctionnement du bioréacteur et le comportement dynamique de la levure. Le modèle développé associe les équations de bilans matière et les cinétiques microbiennes en distinguant la biomasse totale et viable en fonction des états physiologiques de la levure dans les deux étages. Le principe du BBRC est l'utilisation du potentiel de la levure à son niveau optimal ; il combine le découplage spatial croissance/production d'éthanol, l'obtention de hautes densités cellulaires et la gestion de l'activité cellulaire par le recyclage de la biomasse entre les deux étages. Des cultures ont permis la quantification du comportement de la levure dans chaque étage, en régimes transitoires et permanents, pour différentes conditions opératoires. La confrontation théorie-expérience est très satisfaisante. L'analyse numérique de l'influence des paramètres opératoires sur les performances du BBRC est présentée, en argumentant du comportement dynamique de la levure dans les deux étages. A l'aide du modèle utilisé comme outil prédictif, nous avons validé la pertinence du BBRC pour l'intensification de la production d'éthanol, à savoir en mode continu permanent, une productivité en éthanol de 40 g. L-1. H-1, un titre en éthanol de 8,3 °GL et une concentration en substrat résiduel nulle
This study aims to intensify the ethanol production with Saccharomyces cerevisiae in a continuous Two-stage Bioreactor with Cell Recycle (TBRC). For this purpose, the bioreactor process and the dynamic behaviour of the yeast were modelled, based on the mass balance and kinetic equations by distinguishing total and viable biomass. It takes into account the yeast physiological states which differ with the environment in the two stages. The TBRC aims to use optimally the yeast potentialities ; it combines the decoupling of growth and ethanol production in two different compartments, the gain of high cell density and the management of the cellular activity by the biomass recycling between the two stages. Cultures allowed the quantification of the yeast behaviour in each stage, in transient and steady states, for various operating conditions. Confrontation between theory and experiment is very satisfactory. The numerical analysis of the operational parameters influence on the TBRC performances and the yeast dynamic behaviour in the two stages are presented. Using the model as a predictive tool, we validated the relevance of the TBRC for the ethanol production intensification, in steady-state continuous mode, up to an ethanol productivity of 40 g. L-1. H-1, an ethanol title of 8,3 °GL and a null residual substrate concentration
APA, Harvard, Vancouver, ISO, and other styles
11

Barudio, Isabelle. "Développement d'une stratégie globale pour le contrôle d'un procédé de copolymérisation en émulsion." Lyon 1, 1997. http://www.theses.fr/1997LYO10046.

Full text
Abstract:
Les procedes de fabrication des polymeres en emulsion restent tributaires des limites de leur automatisation. Celles-ci resultent pour l'essentiel du manque de capteurs et de la complexite des mecanismes reactionnels mis en jeu. Afin de garantir la qualite des polymeres et d'operer dans des conditions de securite optimale, il est pourtant indispensable de controler la cinetique des reactions et, dans la mesure du possible, d'elaborer des lois de commande conduisant a la maitrise des proprietes finales des latex. La mesure en temps reel de l'avancement des reactions de polymerisation en emulsion fait donc l'objet de la premiere partie de ce travail. Trois techniques d'estimation en ligne de la conversion ont ete developpees et testees sur un reacteur pilote mis au point au laboratoire : la calorimetrie, la densimetrie et la mesure de la vitesse de propagation des ultrasons. La manipulation d'un agent de transfert de chaine de type mercaptan est ensuite envisagee comme variable d'entree pour le controle des distributions des masses molaires lors de la copolymerisation discontinue ou semi-continue du styrene et de l'acrylate de butyle. Un ensemble d'experiences difficiles a interpreter a permis d'elaborer une modelisation de l'action de ces thiols sur la cinetique des reactions et sur les proprietes macromoleculaires des latex. Enfin, un modele adaptatif simplifie a ete developpe en vue de predire les conversions globales et partielles, les tailles de particules et la distribution des temperatures de transition vitreuse au cours de la copolymerisation en emulsion styrene/acrylate de butyle. Une validation experimentale satisfaisante de ce modele permet d'envisager la synthese d'une strategie d'observation et de controle non lineaire de ce procede, reposant evidemment sur la mesure de la conversion globale proposee dans ce travail.
APA, Harvard, Vancouver, ISO, and other styles
12

Barthel, Patrick Bernard. "Principales dimensions d'une stratégie marketing orientée éthique-développement durable : essai de modélisation d'un marketing responsable." Metz, 2007. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2007/Barthel.Patrick.DMZ0702.pdf.

Full text
Abstract:
L'entreprise peut bénéficier d'un "avantage de marché" si elle est perçue comme "sociétalement responsable" par ses clients. Dans cette perspective, elle peut vouloir intégrer dans sa stratégie des valeurs éthiques ou de développement durable dont l'efficacité est toutefois tributaire de la capacité des "marketers" à traduire ces mêmes valeurs en bénéfices clients à travers un positionnement marketing adapté. L'objectif de cette recherche s'inscrit dans ce contexte et vise à définir les principales dimensions d’une stratégie marketing orientée "Ethique" ou "Développement Durable" au profit de l'image institutionnelle de l'entreprise et surtout de la Qualité Relationnelle Client. Un tel objectif a nécessité au préalable une réflexion sur le concept éthique conduisant à privilégier une "Ethique Compétence" dont la nature utilitariste et stratégique permet un meilleur ancrage dans les sciences de management. Il a également conduit à s'interroger sur les caractéristiques d’une approche intégrée d’un marketing dit éthique ou responsable focalisée autour de trois dimensions "P" (Produit), "R" (Relation) et "I" (Institution entreprise) et fortement imprégnée par les logiques complémentaires de la théorie des Parties Prenantes, de la théorie des Ressources et Compétences et enfin de la théorie de la Légitimité. Afin d'élaborer et conforter notre modèle d'interprétation, de nombreuses investigations empiriques sous forme d’enquêtes ou d’entretiens approfondis ont été réalisées à la fois auprès de responsables d'entreprise mais aussi de consommateurs pour cerner au mieux leurs représentations d'une organisation "sociétalement responsable"
The company can profit from a "market advantage" if it is perceived as "socially responsible" by its customers. From this point of view, it can aim to integrate ethics or sustainable development values in its strategy , even though efficiency then depends on the marketers' ability to turn those values into customer benefits through an adapted marketing policy. The goal of this research means to define the main dimensions of an ethics or sustainable development oriented marketing strategy in order to enhance the corporate institutional image as well as customer relational quality. Such a goal has required prior reflection on the ethic concept and has led to prefer a "competence ethic" whose utilitarian and strategic nature allows better anchoring in management sciences. It also led to a reflection on the integrated approach characteristics of ethic or responsible marketing. The approach is focused on three main features : Product (P), Relation (R) and Company Institution (I) and is highly impregnated with complementary logics of the Stakeholder theory, the Resource and Competence Theory and the Legitimacy Theory. In order to elaborate and back up our research, many empirical investigations like surveys, discussions, have been carried out among corporate managers as well as consumers, with a view to understanding their idea of a "socially responsible" organization
APA, Harvard, Vancouver, ISO, and other styles
13

Mariotti, Thomas. "Cohérence des choix dynamiques et interactions stratégiques." Toulouse 1, 1998. http://www.theses.fr/1998TOU10046.

Full text
Abstract:
Le propos de cette thèse est d'étudier la cohérence des choix dynamiques dans divers contextes d'interaction stratégique. Trois thèmes sont plus particulièrement abordés : la coordination des décisions, l'irréversibilité des choix et la valeur de l'information. La première partie de la thèse est consacrée à la coordination des stratégies des agents dans les jeux continus à information presque parfaite. Notre but est de montrer en quoi l'introduction de signaux publics est nécessaire pour garantir l'existence d'équilibres parfaits dans cette classe de jeux. Pour ce faire, nous développons une méthode d'analyse originale, reposant sur la notion de correspondance de continuation. La seconde partie de la thèse porte sur l'acquisition d'information dans le cadre de préférences dynamiquement incohérentes. Nous montrons qu'en l'absence d'engagement sur ses décisions futures, un agent doté de ce type de préférences peut être amené à restreindre volontairement l'information dont il dispose, afin de contraindre optimale ment ses choix présents et futurs. Ce comportement d'ignorance stratégique se révèle plus efficace que l'acquisition exhaustive de l'information. La dernière partie de la thèse est consacrée à la valeur d'option de l'information en présence de choix irréversibles. Deux modèles sont étudiés à cet effet. Dans le premier, nous analysons la dynamique de l'investissement sur un marché ou la demande fluctue de manière stochastique. Nous montrons qu'en monopole, les investissements sont systématiquement reportés par rapport à l'optimum social. En duopole, nous déterminons l'impact de la menace de préemption sur la valeur d'option de l'attente. Dans un second modèle, nous examinons comment des partis politiques opportunistes choisissent leurs candidats en fonction de l'information disponible à leur sujet. Nous caractérisons le type d'inefficacités auxquelles donne lieu le comportement stratégique des partis. Nous montrons enfin qu'une perspective dynamique modifie la stratégie de sélection des candidats au sein d'un parti, en augmentant les incitations à remplacer un candidat s'il ne donne pas satisfaction
The purpose of this work is to study the consistency of dynamic choices in various strategic contexts. We will focus mostly on three topics, namely the coordination of decisions, the irreversibility of choices and the value of information. The first part of this thesis studies coordination among players in continuous games of almost perfect information. Our aim is to give a clear justification to the fact that the introduction of public signals may be necessary to guarantee the existence of a perfect equilibrium in this class of games. To do this, we develop an alternative method, based on the notion of continuation correspondence. The second part of this thesis focuses on information gathering in a framework with time in, consistent preferences. We show that, in the absence of commitment, an agent endowed with such preferences may voluntarily restrict his acquisition of information, in order to constraint his current and future behaviour. This strategic ignorance conduct leads to unambiguous pareto improvements compared to the complete learning situation. The last part of the thesis is concerned with the option value of information in the context of irreversible choices. For this purpose, we consider two models. In the first one, we analyze the investment dynamics in an industry where demand fluctuates randomly across periods. We show that a monopoly systematically delays investments compared to the optimal path. In duopoly, we determine how the fear of preemption mitigates the real option effect of investment. In a second model, we examine how opportunistic political parties select their candidates, given the information they hold about them. We characterize the kind of inefficiencies to which the strategic behaviour of parties gives rise. Finally, we show that a far-sighted party who internalizes the option value of keeping or replacing a candidate is lead to replace its incumbent candidates more often than a myopic party
APA, Harvard, Vancouver, ISO, and other styles
14

Hess, Jonathan. "Modélisation de la qualité du biogaz produit par un fermenteur méthanogène et stratégie de régulation en vue de sa valorisation." Phd thesis, Université de Nice Sophia-Antipolis, 2007. http://tel.archives-ouvertes.fr/tel-00257347.

Full text
Abstract:
La digestion anaérobie implique un écosystème complexe qui dégrade progressivement la matière organique est la transforme en dioxyde de carbone et en (bio)méthane. Ce biogaz est une source d'énergie renouvelable dont l'utilisation s'inscrit dans une optique de développement durable. Le potentiel biogaz reste néanmoins sous-exploité à cause d'un manque d'outils adaptés pour garantir la pérennité des installations et mieux maîtriser la qualité du biogaz. Nous proposons des stratégies pour mieux valoriser les résidus organiques liquides, à travers deux approches. L'une propose des méthodes pour identifier un risque de déstabilisation et prévenir un mauvais fonctionnement du procédé, l'autre repose sur la régulation de la qualité du biogaz. Ces méthodes nécessitent des modèles dynamiques pour décrire avec précision l'évolution des variables du système. Nous proposons une modélisation fine des transferts liquide-gaz, qui conduit à un modèle où le coefficient de transfert (kLa) dépend du débit total de biogaz.
Ce lien implique une relation linéaire entre la qualité du biogaz et la concentration en CO2 dissous, qui sert à améliorer les modèles existants. Un indice de risque de déstabilisation du procédé est construit à partir d'une analyse de stabilité d'un modèle simplifié. Cette procédure, appliquée à un procédé pilote, peut détecter une éventuelle déstabilisation du fermenteur, plus tôt que les indicateurs usuels (pH, acides gras volatils). Enfin, nous introduisons une nouvelle stratégie de contrôle de la qualité du biogaz basée sur la régulation de l'alcalinité dans le digesteur. Différentes lois de commande sont proposées et validées expérimentalement sur un réacteur pilote.
APA, Harvard, Vancouver, ISO, and other styles
15

Argod, Jérôme. "Marqueurs corticaux et autonomiques des troubles respiratoires au cours du sommeil : analyse mathématique, conséquences physiologiques et stratégie diagnostique." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE19004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Hébrard, Olivier. "Stratégie de prévision des humidités de surface sur un bassin versant agricole en milieu méditerranéen." Montpellier 2, 2004. http://www.theses.fr/2004MON20076.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Salanne, Jean-Philippe. "Contrôle du point de fonctionnement des décharges électriques par l'intermédiaire de leur alimentation." Toulouse, INPT, 2005. http://ethesis.inp-toulouse.fr/archive/00000167/.

Full text
Abstract:
Le contrôle du point de fonctionnement des décharges électriques par leur alimentation est l'objet de cette étude. Les points de fonctionnement obtenus par le couplage de l'alimentation électrique et du dispositif de décharge peuvent être instables à cause du comportement dynamique de la décharge ou à cause d'une variation de sa longueur. Nous recherchons les différents couplages existant entre la décharge et les caractéristiques de son alimentation afin d'optimiser la conception et la commande de l'alimentation électrique pour favoriser le contrôle du point de fonctionnement. Dans cet objectif, on propose des modélisations analytiques et numériques du système qui permettent de simuler les couplages entre l'alimentation et la décharge. Cette approche est complétée par des investigations expérimentales qui permettent de considérer les cas de décharges pointe/pointe, des DBD et des décharges glissantes
The aims of this study is to control the operating point of electrical discharges. These points, resulting from the coupling between the power supply and its load, may be unstable because of the dynamic behaviour of the discharge or any change of its length. To optimize the design and the electronic control of the power supply, the couplings between the later and the discharge are prospected. Numerical and analytical models of the system are presented. These models can simulate the couplings between the power supply and a discharge and are used to achieve the design of the power supply and its control. This approach is completed by experimental investigations considering discharge between 2 points, glidarc and DBD
APA, Harvard, Vancouver, ISO, and other styles
18

Valeu, Aristide. "Contribution à l'analyse économique du comportement d'échange de votes." Caen, 2011. http://www.theses.fr/2011CAEN0671.

Full text
Abstract:
Dans cette thèse, nous utilisons les outils développés par la théorie du choix social pour examiner des aspects du comportement électoral, en particulier dans des comités. A la différence de nombreux travaux effectués à la suite de la contribution fondamentale d'Arrow, nous adoptons ici une approche résolument positive, par opposition à l'approche axiomatique fondée sur des mécanismes vérifiant un ensemble de jugements de valeur. Plus précisément, nous nous intéressons aux votes majoritaires successifs, et nous apportons des réponses sur la possibilité de phénomènes tels que le paradoxe d’Anscombe, le « logrolling », ou l'échange de votes. En particulier, nous expliquons les circonstances dans lesquelles ces phénomènes sont susceptibles de se produire, en fonction de la taille de la société, de la taille des coalitions d’agents, ou du quota pour qu'une motion l'emporte. Enfin, nous évaluons la fréquence de ces phénomènes
In this thesis, we use the tools developed by social choice theory to discuss aspects of voting behavior, particularly in committees. Unlike many studies following the fundamental contribution of Arrow, we adopt here a positive approach, as opposed to the axiomatic approach based on mechanisms satisfying a set of value judgments. Specifically, we focus on successive majority votes, and we provide answers about the possibility of such phenomena as Anscombe's paradox, logrolling, or voting trading. In particular, we explain the circumstances under which these phenomena are likely to occur, depending on the size of the society, the size of coalitions of agents, or the quota for a motion to be voted. Finally, we evaluate how frequently these phenomena are susceptible to occur
APA, Harvard, Vancouver, ISO, and other styles
19

Dupleix-Couderc, Chloé. "Sur une stratégie multi-échelle d'analyse des grands délaminages en dynamique transitoire." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0013/document.

Full text
Abstract:
Les matériaux composites sont largement utilisés dans les structures aéronautiques. Les travaux présentés ici visent à mettre en place une méthode de calcul permettant de prédire les délaminages dans ces structures stratifiées soumises à des chargements dynamiques tout en assurant des coûts de calculs compatibles dans un contexte industriel. Une méthode de décomposition de domaine en dynamique est d’abord utilisée, afin de coupler des modélisations et des pas de temps de calcul différents. Une modélisation fine est utilisée uniquement dans les zones en cours de dégradation. Une représentation macroscopique du stratifié par des éléments de coque 3D est développée et employée dans le reste de la structure. Les coûts de calcul sont ainsi réduits tout en assurant une bonne précision des résultats. Pour éviter un remaillage avec l’avancée du délaminage, une approche multi-échelle en temps et en espace est ensuite proposée. Un maillage global de coque 3D de l'ensemble de la structure est défini. Des maillages utilisant une représentation fine du matériau sont utilisés localement. Des pas de temps adaptés sont utilisés dans les deux types de maillage
The part of composite materials in aeronautic structures is increasing due to their specific properties and the mass reduction they enable. Accurate numerical simulations are thus needed in order to design these structures, particularly to verify if they could resist dynamic charges such as soft bodies impact. Nevertheless, using a refined model to represent phenomenon such as delamination leads to computing time and dofs number incompatible with an industrial context. The aim of the present work is to propose a multi-scale method in space and time to solve dynamic impact problems on laminate structures. A domain decomposition method for dynamic problems is first used to couple different kinds of models and time discretisations. A refined model for the laminate is used in the degradating areas only - elsewhere, a coarser representation using 3D-shell elements is used. This approach reduced the cost of the simulation giving accurate results. To avoid a remeshing due to delamination propagation within the structure, a multi-scale method is then proposed. A global 3D shell elements mesh for the whole structure is defined. Local meshes based on a refined representation of the laminates are used only if required. Coupling between global and local representation is done using velocity field
APA, Harvard, Vancouver, ISO, and other styles
20

Roulet, Vincent. "Stratégie multiparamétrique pour la simulation d’assemblages de structures stratifiées." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0050/document.

Full text
Abstract:
Les travaux de thèse s'inscrivent dans le cadre du projet de recherche européen MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing) et portent sur la simulation numérique de problèmes d'assemblages de composants en matériaux composites stratifiés. Ces assemblages sont sources de deux types de non-linéarités. D'une part, l'interface entre les pièce conduit au traitement de non-linéarités fortes (contact, frottement). D'autre part, dans les composants de l'assemblage, le comportement du matériau stratifié est complexe, du fait des nombreux phénomènes de dégradations interagissant entre eux. Ces deux aspects ont une influence forte sur la réponse globale de l'assemblage, ce qui implique la résolution de systèmes de très grandes tailles, nécessitant généralement l'utilisation de moyens de calcul parallèles.Le couplage entre ces deux problématiques nécessite donc l'utilisation d'algorithmes de calcul parallèle dédiés et robustes, à même de traiter de nombreuses non-linéarités très fortes. Pour cela, la méthode LATIN (pour LArge Time INcrement) présente de nombreux avantages, déjà mis en évidence dans le cas de calcul d'assemblages de pièces élastiques lors de travaux précédents. Le but de ces travaux est donc d'élargir le cadre de la méthode au cas des pièces au comportement endommageable et anélastique.Un dernier aspect, qui sera abordé au sein de ces travaux, traite des fortes variabilités des coefficients intervenant dans les lois non-linéaires. Par conséquent, il est nécessaire de pouvoir traiter un très grand nombre de problèmes affectés de valeurs de coefficients différents. Pour cela, la stratégie multiparamétrique, intimement liée à la méthode LATIN, doit être étendue au cas de comportements matériau non-linéaires. Elle sera alors appliquée au travers de plusieurs paramètres variables : coefficients de frottement, précharges des éléments de fixation, seuil d'endommagement des matériaux
The presented work, within the framework of the European research project MAAXIMUS (More Affordable Aircraft through eXtended, Integrated and Mature nUmerical Sizing), is dedicated to the numerical simulation of assemblies with components made of laminated composites. These assemblies involve two types of high non-linearities. First ones are linked to the interfaces between parts (unilateral contact and friction). Second ones are linked to the constitutive material behaviour, from its initial properties to the complex evolution of degradations. These two non-linearities have a strong influence on the response of the assembly, which involves solving systems with a high number of degrees of freedom and generally requires the use of parallel computing resources.The coupling between the two sources of non-linearities requires dedicated and robust algorithms, able to run on parallel architectures and to deal with many very strong non-linearities. The efficiency of the LATIN method (LArge Time INcrement) has already been highlighted in the case of assemblies with elastic components. A first aim of this work is thus to extend the method to the case of damageable and anelastic components' behaviour.A second aim is to deal with the variability of the coefficients involved in the non-linear laws. Each set of parameters (friction coefficients, preload of fasteners, damage threshold of material laws...) requiring a given calculation, the multiparametric strategy of the LATIN method must be extended to the case of non-linear materials in order to efficiently reduce the computation time
APA, Harvard, Vancouver, ISO, and other styles
21

Laurent, Luc. "Stratégie multiparamétrique et métamodèles pour l'optimisation multiniveaux de structures." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00972299.

Full text
Abstract:
Bien que de plus en plus employée au sein des bureaux d'études dans le cadre de la conception mécanique, l'optimisation reste à l'heure actuelle encore relativement peu utilisée dans le cadre des assemblages de structures. La résolution mécanique de ce type de problèmes nécessite la mise en oeuvre de méthodes numériques de résolution capables de prendre en compte des non-linéarités de type frottement et contact. Ces méthodes sont, en raison du temps de calcul, généralement incompatibles avec la recherche d'un optimum global nécessitant un nombre important de résolutions. C'est pour pallier à ce problème que ce travail propose l'emploi d'une approche d'optimisation bi-niveaux de modèles faisant intervenir deux outils: (1) la stratégie multiparamétrique, basée sur la méthode LaTIn, assure d'importantes réductions des temps de calcul associés aux multiples résolutions du problème mécanique et (2) un métamodèle de type cokrigeage construit à partir d'un nombre limité de réponses et gradients calculés par le solveur mécanique. Ce métamodèle est alors capable de fournir à coût extrêmement faible des réponses approchées de la fonction objectif. Une optimisation globale est ensuite réalisée sur ce dernier, assurant l'obtention d'un optimum global. Le métamodèle de cokrigeage est étudié en détail sur des exemples analytiques et mécaniques comportant divers nombres de paramètres. Par ailleurs, une étude complète de l'emploi de la stratégie multiparamétrique est proposée et de nombreux exemples d'assemblages sont considérés, permettant ainsi d'illustrer les performances significatives de la procédure d'optimisation proposée.
APA, Harvard, Vancouver, ISO, and other styles
22

Ramard, Constant. "Étude expérimentale et numérique du soudage multipasse : application à un acier de construction navale." Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS498/document.

Full text
Abstract:
Les travaux effectués au cours de cette thèse ont pour objectif d’étudier et de modéliser une opération de soudage multipasse d’un acier à haute limite d’élasticité utilisé en construction navale. Dans ce cadre il s’agit de prédire les conséquences métallurgiques et mécaniques du procédé et tout particulièrement la répartition et l’intensité des contraintes résiduelles post- soudage nécessaires pour analyser l’intégrité de la structure navale en service. Deux maquettes représentatives d’un joint d’angle en Té ont permis de caractériser l’évolution des cycles thermiques, de la microstructure et des contraintes résiduelles (estimées par les méthodes du contour et du trou profond) après chaque passe de soudage. La suite de l’étude concerne la caractérisation et la modélisation du comportement thermo-métallurgique et thermo- mécanique des différentes phases apparaissant au cours du soudage. La dernière partie porte sur l’implémentation des modèles retenus dans le code de calcul élément finis Abaqus à l’aide de sous-programmes spécifiques. Une étape de transition d’échelle a permis de décrire le comportement thermomécanique multiphasé de cet acier. Des calculs préliminaires ont été conduits pour valider l’implémentation des modèles sur des cas simples. Différents couplages ont été réalisés, soit une analyse thermique puis thermo-métallurgique, pour estimer la dureté après chaque passe et enfin métallurgique-mécanique pour prédire les contraintes résiduelles pour le procédé de soudage multipasse. Les résultats des calculs éléments finis ont été discutés et comparés aux résultats expérimentaux obtenus dans la première partie de cette étude
This thesis aims at studying and modeling a multipass welding operation of a high strength steel used in shipbuilding. In this framework, work focus on predicting the metallurgical and mechanical consequences of the process and, in particular, the residual stress distribution after welding. Since residual stresses can be detrimental to the performance of the welded product, their estimation is essential and numerical modelling is useful to predict them. Two welding mock-ups which are representative of a T- joint were used to characterize the evolution of thermal cycles, microstructure and residual stresses (measured by contour method and deep hole drilling) after each welding pass. Metallurgical and mechanical behaviors were thoroughly characterized in order to feed numerical models with reliable constitutive equations. The last part deals with the implementation of the models in the finite element calculation code Abaqus using specific subroutines. A scale transition procedure has been added to describe the thermomechanical multiphase behavior of the steel. Preliminary calculations were carried out for simple cases to validate the implementation of models. Different numerical couplings were made. First a thermal analysis then a thermo-metallurgical analysis, to estimate the hardness after each welding pass. Finally, a metallurgical-mechanical analysis is achieved for the prediction of residual stresses due to multipass welding. The results of the finite element calculations were discussed and compared with the experimental results obtained in the first part of this work
APA, Harvard, Vancouver, ISO, and other styles
23

Moussa, Hadiza. "Utilisation optimale de l'information privée et évolution stochastique des prix sur un marché financier." Nancy 1, 2002. http://www.theses.fr/2002NAN10009.

Full text
Abstract:
Nous étudions un problème d'asymétrie d'information sur un marché financier. Nous modélisons ce problème par des jeux répétés de deux personnes avec manque d'information sur un côté analogues au modèle introduit par Aumann et Maschler. Comme dans les travaux existant dans la littérature, nous analysons, dans un premier temps, la façon dont les joueurs utilisent stratégiquement la répartition asymétrique de l'information, puis nous montrons comment, à l'équilibre, l'information privée est progressivement intégrée dans les prix. Beaucoup de résultats connus font l'hypothèse de gaussianité des variables aléatoires intervenant dans les modèles et n'abordent que partiellement les comportements stratégiques des joueurs : seuls les agents informés y sont supposés stratégiques, le comportement des autres joueurs étant supposé soit aléatoire, soit non stratégique. La principale contribution de notre travail est l'analyse du comportement stratégique du joueur non informé. Cette étude nécessite l'introduction d'un modèle dual construit à partir du jeu initial. L'étude du comportement asymptotique nous révèle qu'en l'absence de facteur aléatoire extérieur au marché (facteurs démographiques ou technologiques, offres exogènes d'actif risqué,. . . ), les prix proposés à l'équilibre évoluent vers une martingale liée au mouvement brownien : l'aléa généré par l'évolution des prix provient essentiellement du comportement stratégique de l'agent le mieux informé qui utilise des stratégies mixtes pour préserver son avantage informationnel
In this dissertation we investigate a problem of asymmetry of information on a stock market. The models we consider are zero-sum repeated games with one-sided information as introduced by Aumann and Maschler. Our aim is to study at first the strategic use of private information on a stock market and then to explain how private information is gradually incorporate in the prices set during the trade. Our work focus particularly on the analysis of the strategic behaviour of the uninformed agent. We show that in the absence of external factors subject to unpredictable variations ( demographic and technological parameters, exogeneous offers,. . . ), the prices proposed at equilibrium tend asymptotically to a martingale related to the Brownian Motion : to limit a too strong revelation of his information, the well-informed agent randomizes slightly his actions generating in this way the stochastic evolution of the prices process
APA, Harvard, Vancouver, ISO, and other styles
24

Gant, Florent. "Stratégie de modélisation et de simulation des assemblages de structures aéronautiques en contexte incertain." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00675741.

Full text
Abstract:
Ce travail de recherche présente une stratégie de modélisation et de dimensionnement pour les assemblages boulonnés en milieu aéronautique. Dans le cas du dimensionnement de grandes structures, les bureaux d'étude se servent habituellement de techniques dites de " zoom structural ". Elles permettent de gérer les ressources numériques à disposition, avec des modèles simples et de grande taille à l'échelle globale, et des modèles plus complexes à l'échelle locale. Cette étude s'insère dans le cadre d'un processus de zoom structural dans lequel les structures étudiées présentent un très grand nombre de fixations. Un premier travail consiste à proposer une modélisation pertinente des fixations à l'échelle globale. Dans une seconde partie, les dispersions de comportement observées dans les fixations boulonnées sont prises en compte par l'utilisation de la théorie des méconnaissances. Une technique de recalage de la modélisation complète est ensuite proposée afin de tirer partie d'éventuels essais réels ou numériques. Enfin, la stratégie proposée est appliquée sur des cas d'assemblages boulonnés de type aéronautique. Les avantages, mais aussi les limites de l'utilisation d'une telle stratégie y sont discutés.
APA, Harvard, Vancouver, ISO, and other styles
25

Jarry, Vincent. "Etude pluridisciplinaire en écologie lagunaire (étang de Thau, France) : stratégie d'échantillonnage et organisation spatiale du phytoplancton." Montpellier 2, 1990. http://www.theses.fr/1990MON20204.

Full text
Abstract:
Une etude pluridisciplinaire sur l'ecologie de l'etang de thau a permis de recolter une quantite importante d'information, a quatre periodes differentes de l'annee (1986-1987), basee sur un reseau de 63 stations reparties selon un maillage carre de 1 km. Fort de cette information multivariee, nous proposons une methodologie pour selectionner un sous-ensemble de stations (20) permettant de reproduire la repartition spatiale d'une dizaine de variables environnementales. Apres cette premiere reflexion sur la strategie d'echantillonnage, nous abordons en deux etapes l'etude du phytoplancton de l'etang de thau. En premier lieu, en comparant la repartition spatiale de pigments chlorophylliens (chlorophylle a, chlorophylle b et chlorophylle c) avec celle des communautes phytoplanctoniques. Cette etude descriptive permet, en deuxieme lieu, de proposer un modele explicatif de la biomasse phytoplanctonique. Ce modele utilise des variables environnementales telles que la salinite, la filtration des coquillages, les elements nutritifs et l'hydrodynamisme. Il explique jusqu'a 70% de la biomasse phytoplanctonique et met en opposition le comportement des taxons d'origine marine et continentale. Finalement, grace a l'etude de la biomasse phytoplanctonique, nous abordons de nouveau la reflexion sur la strategie d'echantillonnage, mais cette fois-ci orientee sur la capacite d'un sous-echantillonnage (20 stations) de permettre une modelisation adequate de la biomasse phytoplanctonique
APA, Harvard, Vancouver, ISO, and other styles
26

Fouathia, Ouahab. "Stratégie de maintenance centrée sur la fiabilité dans les réseaux électriques de haute tension." Doctoral thesis, Universite Libre de Bruxelles, 2005. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211003.

Full text
Abstract:
Aujourd’hui les réseaux électriques sont exploités dans un marché dérégulé. Les gestionnaires des réseaux électriques sont tenus d’assurer un certain nombre de critères de fiabilité et de continuité du service, tout en minimisant le coût total consacré aux efforts effectués pour maintenir la fiabilité des installations. Il s’agit de trouver une stratégie, qui répond à plusieurs exigences, comme :le coût, les performances, la législation, les exigences du régulateur, etc. Cependant, le processus de prise de décision est subjectif, car chaque participant ramène sa contribution sur base de sa propre expérience. Bien que ce processus permette de trouver la « meilleure » stratégie, cette dernière n’est pas forcément la stratégie « optimale ». Ce compromis technico-économique a sensibilisé les gestionnaires des réseaux électriques à la nécessité d’un recours à des outils d’aide à la décision, qui doivent se baser sur des nouvelles approches quantitatives et une modélisation plus proches de la réalité physique.

Cette thèse rentre dans le cadre d’un projet de recherche lancé par ELIA, et dénommé COMPRIMa (Cost-Optimization Models for the Planning of the Renewal, Inspection, and Maintenance of Belgian power system facilities). Ce projet vise à développer une méthodologie qui permet de modéliser une partie du réseau électrique de transport (par les réseaux de Petri stochastiques) et de simuler son comportement dynamique sur un horizon donné (simulation de Monte Carlo). L’évaluation des indices de fiabilité permet de comparer les différents scénarios qui tentent d’améliorer les performances de l’installation. L’approche proposée est basée sur la stratégie RCM (Reliability-Centered Maintenance).

La méthodologie développée dans cette thèse permet une modélisation plus réaliste du réseau qui tient compte, entre autres, des aspects suivants :

- La corrélation quantitative entre le processus de maintenance et le processus de vieillissement des composants (par un modèle d’âge virtuel) ;

- Les dépendances liées à l’aspect multi-composant du système, qui tient compte des modes de défaillance spécifiques des systèmes de protection ;

- L’aspect économique lié à la stratégie de maintenance (inspection, entretien, réparation, remplacement), aux coupures (programmées et forcées) et aux événements à risque (refus disjoncteur, perte d’un client, perte d’un jeu de barres, perte d’une sous-station, etc.).
Doctorat en sciences appliquées
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
27

Bassompierre, Cindy. "Procédé à boues activées pour le traitement d'effluents papetiers : de la conception d'un pilote à la validation de modèles." Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00130907.

Full text
Abstract:
Le suivi des procédés à boues activées est délicat du fait de leur dynamique lente, de la complexité de leur comportement mais surtout du manque d'information sur leur état. Ce constat est d'autant plus vrai pour les procédés de traitement des effluents papetiers étant donné le peu de moyens disponibles pour leur instrumentation alors que la variabilité des effluents est beaucoup moins prévisible que sur les eaux urbaines. Les opérateurs humains sont en attente d'outils efficaces les aidant dans leur prise de décision afin d'améliorer la qualité du traitement. Nous avons donc défini une démarche en quatre étapes pour le développement d'un outil d'aide à la décision : modélisation, estimation, anticipation dynamique, proposition d'action. Les bases de cet outil ont été développées dans ce travail : un modèle papetier a été validé sur des données expérimentales papetières. Afin de s'affranchir des spécificités et des contraintes liées aux procédés industriels, un pilote modulable, semi-industriel et supervisé a été mis en place pour mener à bien différentes études expérimentales. La modélisation a été effectuée par réduction du modèle biologique ASM1 grâce au choix du schéma réactionnel. Il a été montré qu'il est nécessaire de développer un modèle spécifique aux effluents papetiers. La validation du modèle papetier a été menée à bien sur les données obtenues sur le pilote, celui-ci étant alimenté par un effluent papetier réel. Ces résultats étant tout à fait satisfaisant, le modèle peut donc être intégré aux autres étapes de l'outil d'aide à la décision, permettant alors une réelle maîtrise de la qualité des eaux issues du traitement biologique par boues activées d'effluents papetiers.
APA, Harvard, Vancouver, ISO, and other styles
28

Harroue, Benjamin. "Approche bayésienne pour la sélection de modèles : application à la restauration d’image." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0127.

Full text
Abstract:
L’inversion consiste à reconstruire des objets d’intérêt à partir de données acquises au travers d’un système d’observation. Dans ces travaux, nous nous penchons sur la déconvolution d’image. Les données observées constituent une version dégradée de l’objet, altéré par le système (flou et bruit). A cause de la perte d’informations engendrée, le problème devient alors mal conditionné. Une solution est de régulariser dans un cadre bayésien : en se basant sur des modèles, on introduit de l’information a priori sur les inconnues. Se posent alors les questions suivantes : comment comparer les modèles candidats et choisir le meilleur ? Sur quel critère faut-il s’appuyer ? A quelles caractéristiques ou quantités doit-on se fier ? Ces travaux présentent une méthode de comparaison et de sélection automatique de modèles, fondée sur la théorie de la décision bayésienne. La démarche consiste à sélectionner le modèle qui maximise la probabilité a posteriori. Pour calculer ces dernières, on a besoin de connaître une quantité primordiale : l’évidence. Elle s’obtient en marginalisant la loi jointe par rapport aux inconnus : l’image et les hyperparamètres. Les dépendances complexes entre les variables et la grande dimension de l’image rendent le calcul analytique de l’intégrale impossible. On a donc recours à des méthodes numériques. Dans cette première étude, on s’intéresse au cas gaussien circulant. Cela permet, d’une part, d’avoir une expression analytique de l’intégrale sur l’image, et d’autre part, de faciliter la manipulation des matrices de covariances. Plusieurs méthodes sont mises en œuvre comme l’algorithme du Chib couplé à une chaîne de Gibbs, les power posteriors, ou encore la moyenne harmonique. Les méthodes sont ensuite comparées pour déterminer lesquelles sont les plus adéquates au problème dela restauration d’image
Inversing main goal is about reconstructing objects from data. Here, we focus on the special case of image restauration in convolution problems. The data are acquired through a altering observation system and additionnaly distorted by errors. The problem becomes ill-posed due to the loss of information. One way to tackle it is to exploit Bayesian approach in order to regularize the problem. Introducing prior information about the unknown quantities osset the loss, and it relies on stochastic models. We have to test all the candidate models, in order to select the best one. But some questions remain : how do you choose the best model? Which features or quantities should we rely on ? In this work, we propose a method to automatically compare and choose the model, based on Bayesion decision theory : objectively compare the models based on their posterior probabilities. These probabilities directly depend on the marginal likelihood or “evidence” of the models. The evidence comes from the marginalization of the jointe law according to the unknow image and the unknow hyperparameters. This a difficult integral calculation because of the complex dependancies between the quantities and the high dimension of the image. That way, we have to work with computationnal methods and approximations. There are several methods on the test stand as Harmonic Mean, Laplace method, discrete integration, Chib from Gibbs approximation or the power posteriors. Comparing is those methods is significative step to determine which ones are the most competent in image restauration. As a first lead of research, we focus on the family of Gaussian models with circulant covariance matrices to lower some difficulties
APA, Harvard, Vancouver, ISO, and other styles
29

Lemaitre, Juliette. "Vers une simplification de la conception de comportements stratégiques pour les opposants dans les jeux vidéo de stratégie." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2343/document.

Full text
Abstract:
Cette thèse aborde la problématique de la création d’intelligences artificielles (IA) contrôlant la prise de décision haut-niveau dans les jeux de stratégie. Ce type de jeux propose des environnements complexes nécessitant de manipuler de nombreuses ressources en faisant des choix d’actions dépendant d’objectifs à long terme. La conception de ces IA n’est pas simple car il s’agit de fournir une expérience pour le joueur qui soit divertissante et intéressante à jouer. Ainsi, le but n’est pas d’obtenir des comportements d’IA imbattables, mais plutôt de refléter différents traits de personnalités permettant au joueur d’être confronté à des adversaires diversifiés. Leur conception fait intervenir des game designers qui vont définir les différentes stratégies en fonction de l’expérience qu’ils souhaitent créer pour le joueur, et des développeurs qui programment et intègrent ces stratégies au jeu. La collaboration entre eux nécessite de nombreux échanges et itérations de développement pour obtenir un résultat qui correspond aux attentes des designers. L’objectif de cette thèse est de proposer une solution de modélisation de stratégies accessible aux game designers en vue d’améliorer et de simplifier la création de comportements stratégiques. Notre proposition prend la forme d’un moteur stratégique choisissant des objectifs à long terme et vient se placer au dessus d’un module tactique qui gère l’application concrète de ces objectifs. La solution proposée n’impose pas de méthode pour résoudre ces objectifs et laisse libre le fonctionnement du module tactique. Le moteur est couplé à un modèle de stratégie permettant à l’utilisateur d’exprimer des règles permettant au moteur de choisir les objectifs et de leur allouer des ressources. Ces règles permettent d’exprimer le choix d’objectifs en fonction du contexte, mais également d’en choisir plusieurs en parallèle et de leur donner des importances relatives afin d’influencer la répartition des ressources. Pour améliorer l’intelligibilité nous utilisons un modèle graphique inspiré des machines à états finis et des behavior trees. Les stratégies créées à l’aide de notre modèle sont ensuite exécutées par le moteur de stratégie pour produire des directives qui sont données au module tactique. Ces directives se présentent sous la forme d’objectifs stratégiques et de ressources qui leur sont allouées en fonction de leurs besoins et de l’importance relative qui leur a été donnée. Le module stratégique permet donc de rendre accessible la conception du niveau stratégique d’une IA contrôlant un adversaire dans un jeu de stratégie
This PhD thesis addresses the topic of creating artificial intelligence (AI) to control high-level decision-making in strategy games. This kind of game offers complex environments that require the manipulation of a large number of resources by choosing actions depending on long-term goals. This AI design is not simple because it is about providing to the player a playful and interesting experience. Hence, the aim is not to create unbeatable behaviors, but rather to display several personality traits allowing the player to face diverse opponents. Its creation involves game designers who are responsible of defining several strategies according to the experience they want to provide to the player, and game developers who implement those strategies to put them into the game. The collaboration between them requires many exchanges and development iterations to obtain a result corresponding to game designers’ expectations. The objective of this PhD thesis is to improve and simplify the creation of strategical behaviors by proposing a strategy model intelligible to game designers and that can be interfaced easily with developers’ work. For game designers, a strategy model has been created to allow them to express rules guiding the choice of goals and their allocated resources. These rules make it possible for game designers to express which goal to choose according to the context but also to choose several of them and give them relative importance in order to influence the resource distribution. To improve intelligibility we use a graphical model inspired from finite state machines and behavior trees. Our proposition also includes a strategy engine which executes the strategies created with the model. This execution produces directives that are represented by a list of selected strategical goals and the resources that have been allocated according to the importance and needs of each goal. These directives are intended for a tactical module in charge of their application. The developers are then responsible for the implementation of this tactical module. Our solution enables game designers to directly design the strategical level of an AI and therefore facilitates their cooperation with game developers and simplifies the entire creation process of the AI
APA, Harvard, Vancouver, ISO, and other styles
30

Lautrou, Nicolas. "Amorçage de fissure de fatigue dans un joint soudé de type naval : étude expérimentale et numérique." Université de Bretagne occidentale, 2007. http://www.theses.fr/2007BRES2051.

Full text
Abstract:
Ce travail porte sur l'étude du comportement en fatigue d'assemblages soudés en acier S355NL, représentatifs d'éléments de structures navales. L'objectif est de développer une méthodologie pour estimer la durée de vie à l'amorçage d'une fissure de fatigue pour ce type de structures. L'approche proposée se décompose en deux étapes. Premièrement, un calcul de structure par éléments finis permet d'obtenir les cycles contraintedéformation stabilisés en tout point de l'assemblage soudé pour un chargement d'amplitude constante ou variable. Ce calcul prend en compte le comportement élastoplastique du métal de base, une variation de la limite d'élasticité dans la soudure basée sur des mesures de dureté, la géométrie locale du pied de cordon mesurée sur des photos de profil des éprouvettes, et éventuellement la présence de contraintes résiduelles. Deuxièmement, dans le cas où une adaptation élastique rapide se produit, un post-traitement permet de calculer la durée de vie à l'amorçage d'une fissure de fatigue, par l'utilisation d'un modèle d'endommagement à deux échelles basé sur les travaux de Lemaitre et al. . Les paramètres matériaux de ce modèle ont été identifiés à partir de courbes d'endurance établies pour le métal de base. Pour valider l'approche proposée, des essais de fatigue en flexion quatre points ont été réalisés sur des éprouvettes soudées réalisées par DCNS. Pour compléter l'analyse, des mesures de contraintes résiduelles présentes dans les éprouvettes soudées ont été réalisées par diffraction de rayons X. Les comparaisons entre les durées de vie expérimentales et les durées de vie calculées sont encourageantes pour la campagne d'essais réalisée.
APA, Harvard, Vancouver, ISO, and other styles
31

Demain, Boris. "Preuve de concept d'une stratégie thérapeutique avec des neuro-implants microstructurés dans un nouveau modèle de lésion cérébrale focale chez le marmouset." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30347/document.

Full text
Abstract:
Introduction : L'Accident Vasculaire Cérébral (AVC) est la 1ère cause de handicap acquis chez l'adulte, dans les pays industrialisés. 20% des patients décèdent dans le mois qui suit, 75% des survivants gardent des séquelles définitives, 33% deviennent dépendant à vie. Il n'existe pour l'heure aucune thérapie de récupération quand les déficits fonctionnels sont en place hormis la rééducation. Chez l'homme, 80% des AVC thrombotiques touchent l'artère cérébrale moyenne, qui irrigue le cortex moteur primaire (M1). M1 projette des axones jusque dans la moelle épinière et forme le Faisceau Cortico Spinal (FCS). Après une atteinte de M1, ce faisceau dégénère et cela induit des déficits fonctionnels de force et de dextérité. M1 est indispensable pour les mouvements volontaires dextres garants de l'indépendance du patient. Objectif : Mise au point d'un modèle de lésion cérébrale, chez un primate non humain, le marmouset, qui permette d'évaluer la récupération fonctionnelle motrice afin d'étudier l'effet de neuro-implants. Méthode : 14 marmousets ont servi à caractériser le nouveau modèle lésionnel induit par une injection stéréotaxique d'une toxine inhibant le métabolisme cellulaire. Des tests comportementaux, évaluant le score neurologique, la dextérité et la force de traction du membre supérieur, ont permis d'évaluer la récupération fonctionnelle en phase aiguë, subaiguë et chronique jusqu'à 6 mois après la lésion. Le suivi longitudinal structural et fonctionnel de la lésion et de la récupération a été réalisé par IRM (T1, T2, DTI). Le suivi de l'intégrité du FCS a été étudié, pour la première fois chez le marmouset, grâce à une technique (ME-MRI, manganese-enhanced-MRI) utilisant un agent de contraste injecté directement dans le cortex M1, capté par les neurones et traçant les voies neuronales. Une étude pilote sur 3 marmousets a testé l'effet de neuro-implants microstructurés dans la lésion cérébrale associés à l'injection de chondroïtinase ABC (enzyme de dégradation de la matrice extracellulaire)
Introduction: Stroke is the first leading cause of acquired handicap and disability in adults in industrialized countries. 20% of patients die in the following month, 75% of survivors remain with definitive sequelae, 33% become dependent for life. No therapy in the recovery phase exists today when functional deficits are installed except rehabilitation. In human, 80% of thrombotic stroke affect middle cerebral artery, which supplies the primary motor cortex (M1). M1 projects axons to the spinal cord and forms the CorticoSpinal Tract (CST). After an M1 insult, this tract degenerates and functional deficits of force and dexterity are induced. M1 is essential for voluntary dexterous movements that make patients independent. Objective: Setting up of a cerebral lesion model in a non-human primate, the marmoset, where the functional motor recovery can be assessed in order to study thereafter the effect of neuro-implant. Methods: 14 marmosets served to characterize the new lesion model induced by stereotaxic injection of a toxin inhibiting the cellular metabolism. Behavioral tests assessing the neurological score, dexterity and pulling strength of the upper limb, could assess the functional recovery in the acute, sub-acute and chronic phases until 6 months after the lesion. The longitudinal structural and functional follow-up after the lesion and during the recovery was done with MRI (T1, T2, EPI, DTI). The follow-up of the integrity of the CST was studied for the first time in the marmoset with a technic (ME-MRI, manganese-enhanced-MRI) using a contrast agent injected directly in the cortex M1, taken up by neurons and that traced neuronal tracts. A pilot study on 3 marmosets tested the effect of micro-patterned neuro-implants in the cerebral lesion associated with the injection of chondroïtinase ABC (enzyme of extracellular matrix degradation)
APA, Harvard, Vancouver, ISO, and other styles
32

Essaid, Mohand. "Modélisation et simulation de la connectivité des flux logistiques dans les réseaux manufacturiers." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2008. http://tel.archives-ouvertes.fr/tel-00783593.

Full text
Abstract:
La configuration des réseaux manufacturiers constitue de nos jours une problématique industrielle majeure, plus particulièrement dans un contexte " on demand production ", caractérisé par des relations logistiques à court terme en vue de répondre rapidement à des opportunités de marché. Les travaux de cette thèse s'inscrivent dans cette optique et ont pour objectif d'étudier la dynamique des flux de production et l'évaluation de la performance des chaînes logistiques constituées. On s'intéresse plus précisément au potentiel d'une entreprise à se connecter à un réseau manufacturier, que nous appelons aussi la connectivité des flux. Ce potentiel dépend en grande partie de la maturité organisationnelle des entreprises impliquées dans le réseau. Cette maturité organisationnelle peut être caractérisée par un certain nombre d'attributs décrivant le système opérant et le système de pilotage de l'entreprise. Ces attributs permettent de définir des profils types d'entreprise et de modéliser de façon générique des systèmes manufacturiers. Notre démarche de recherche consiste à évaluer la performance de chaînes logistiques constituées de différents profils d'entreprises, et ce en utilisant une simulation en laboratoire " in vitro ". L'objectif de cette démarche est le benchmark de différents scénarios logistiques et la détection de configurations peu performantes et la mise en oeuvre de mécanismes de coordination pour améliorer leur performance. A partir des résultats expérimentaux, il est alors possible de constituer un guide méthodologique permettant une aide à la décision, sans repasser par des simulations. A partir d'un état de l'art sur la configuration et la modélisation des chaînes logistiques, nous avons développé un modèle conceptuel d'entreprise en vue de son intégration dans un réseau manufacturier. Ce modèle est instancié selon le type de processus de production, le mode de pilotage des flux et le niveau de capabilité de l'entreprise. Ce dernier est défini en se basant sur le taux de rendement synthétique des process. Les profils d'entreprises obtenus à partir du modèle sont alors incorporés dans une chaîne logistique. Le modèle logistique est ensuite implémenté sous un outil de simulation à événements discrets. Nous avons réalisé des campagnes de simulation de chaînes logistiques en se focalisant sur les niveaux de capabilité des entreprises de la chaîne et leurs stratégies de réponse à la demande. Plus précisément, nous nous sommes intéressés une stratégie de production sur stock et une stratégie d'assemblage à la commande en amont de la chaîne. Les résultats de simulation nous ont permis de réaliser un benchmark de différentes configurations logistiques et de déduire quelques mécanismes de comportement de ces chaînes. Nous avons notamment montré l'impact de l'homogénéité des échelons, de la position de l'entreprise la moins performante sur la performance globale de la chaîne, ainsi que les gains potentiels d'une stratégie de production à la commande.
APA, Harvard, Vancouver, ISO, and other styles
33

Verrier, Brunilde. "Stratégie Lean and Green : roadmap d'analyse et de déploiement d'une politique de management alliant amélioration continue et développement durable en entreprise industrielle." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD017/document.

Full text
Abstract:
Ces travaux de thèse s’intéressent à l’association des performances industrielles et environnementales avec une démarche d’amélioration continue orientée vers le développement durable et ciblent l’élimination conjointe des « gaspillages » Lean et Green dans les processus de fabrication. La problématique majeure réside dans la mise en place des outils L&G au sein d’entreprises manufacturières possédant des processus et caractéristiques culturelles variés. Basés sur une analyse suivie de l’état de l’art et d’enquêtes de bonnes pratiques, les travaux de recherche incluent plusieurs évaluations et observations sur sites industriels. La mise au point d’une roadmap de déploiement adaptable, mettant en valeur les aspects sociaux par le biais de l’implication et de la valorisation des employés, est ainsi complétée par un modèle de sélection d’indicateurs environnementaux, une « Maison du L&G » et un modèle de maturité particularisé pour le niveau d’implémentation de la stratégie
This thesis addresses the association of industrial and environmental performances with a continuous improvement approach oriented toward sustainable development, and particularly seeks for the identification and elimination of Lean and Green “wastes” in manufacturing processes. The major issue lies in the deployment of L&G tools within manufacturing firms with various processes and cultural characteristics. Based upon a thorough state of the art and industrial surveys on best practices, the research includes several assessments and observations on manufacturing sites. The development of an adaptable roadmap of deployment highlighting social concerns through the involvement of employees in improvements is therefore completed with a selection model of environmental indicators, a “L&G House” and a maturity model for the strategy’s implementation
APA, Harvard, Vancouver, ISO, and other styles
34

Kamel, Boumediene. "Gestion de trafic : controle d'accès et limitation dynamique de la vitesse." Thesis, Artois, 2011. http://www.theses.fr/2011ARTO0204/document.

Full text
Abstract:
La congestion des autoroutes est un problème qui apparait de façon récurrente et qui a un large impact économique, environnemental et social. Ce problème peut être résolu en augmentant la capacité des autoroutes ou en diminuant la demande de trafic. Ces solutions sont longues à mettre en oeuvre et sont très coûteuses. Une solution accessible à plus court terme consiste à mettre en oeuvre un système de gestion du trafic. Dans cette optique, plusieurs actions et mesures de contrôle ont été développées pour améliorer l’efficacité des autoroutes. Parmi ces actions, on peut citer le contrôle d’accès et la limitation dynamique de la vitesse. Le contrôle d’accès consiste en une régulation du flux de véhicules désirant entrer sur une autoroute à partir d’une rampe. Nous avons développé la stratégie DFC (Différence de Flux Caractérisée par une densité désirée). Elle vise à maintenir sur la chaussée principale, au niveau de la rampe d’entrée,une densité inférieure à une cible déterminée au préalable à l’aide de simulations. Cette nouvelle stratégie a été comparée aux stratégies existantes telles que ALINEA et PI-ALINEA. La stratégie DFC présente l’intérêt de ne pas générer de phénomènes oscillatoires dans les trajectoires du flux et de ne pas nécessiter de paramètres à régler. La limitation dynamique de la vitesse impose sur plusieurs tronçons de la chaussée principale une limitation de vitesse qui dépend des conditions de circulation. L’objectif est d’éviter la congestion au niveau d’un goulot d’étranglement qui se trouve en aval. Nous avons proposé plusieurs stratégies de limitation dynamique de la vitesse. Elles utilisent toutes le modèle de trafic METANET. Deux des méthodes proposées exploitent le terme d’anticipation du modèle METANET et la troisième est basée sur le flux. Enfin, les différentes stratégies de limitation dynamique de la vitesse ont été utilisées en coordinationavec le contrôle d’accès DFC. La coordination permet d’obtenir des résultats meilleurs qu’un contrôle d’accès utilisé seul ou une limitation dynamique de la vitesse utilisée seule
The highways congestion is a problem which appears in a recurring way and which has a wide economic, environmental and social impact. This problem can be resolved by increasing the highways capacity or by decreasing the traffic demand. These solutions are long to operate and are very expensive. An accessible solution in the shorter run consists in implementing a traffic management system.In this optics, several actions and control measures were developed to improve the efficiency of highways. Among these actions, we can quote the ramp metering control and the dynamic speed limits.The ramp metering consists of a regulation of the vehicles flow wishing to enter on a highway from an on-ramp. We developed the DFC strategy (Différence de Flux Characterisée par une densité désirée). It aims at maintaining on the main road, at the vicinity of the on-ramp, a density lower than a target beforehand determined by means of simulations. This new strategy was compared with the existing strategies such as ALINEA and PI-ALINEA. The DFC strategy presents the interest not to generate oscillatory phenomena in the trajectories of flow and not to require parameters to be adjusted. The dynamic speed limits imposes on several sections of the main road a speed limit which depends on traffic conditions. The objective is to avoid the congestion at a downstream bottleneck. We proposed several strategies of dynamic speed limits. They use quite the METANET model of traffic. Two of the proposed methods exploit the model METANET anticipation term and the third is based on the flow. Finally, the various strategies of dynamic speed limits were used in coordination with the DFC ramp metering. The coordination allows to obtain the results better than ramp metering used only or dynamic speed limits used only
APA, Harvard, Vancouver, ISO, and other styles
35

Collet, Simon. "Algorithmic game theory applied to networks and populations." Thesis, Université de Paris (2019-....), 2019. http://www.theses.fr/2019UNIP7160.

Full text
Abstract:
Cette thèse se propose d’étudier sous l’angle de la théorie algorithmique des jeux divers jeux inspirés de situations réelles rencontrées dans les domaines des réseaux informatiques et de la biologie. Ces jeux se caractérisent par un grand nombre de joueurs disposant chacun d’une information incomplète à propos des autres joueurs. Dans la théorie classique, ces jeux rentrent dans la catégorie des jeux extensifs à information imparfaite et sont modélisés à l'aide d'arbres. Ils restent toutefois très difficiles à analyser en détail, à cause de leur inhérente complexité, liée notamment à une profondeur d’arbre potentiellement infinie. Nous avons relevé le défi de cette tâche en diversifiant les méthodes de résolution et en mettant l’accent sur son aspect interdisciplinaire.Cette thèse, outre l’introduction et la conclusion, se divise en trois parties. Dans la première, nous adoptons le point de vue de la théorie des jeux classique. Nous proposons un modèle de jeu qui correspond à une large classe de problèmes rencontrés dans la théorie du calcul distribué. Les principales contributions de cette partie sont, d’une part, de montrer comment passer d’un point de vue purement algorithmique du problème à un point de vue correspondant à la théorie des jeux, et, d’autre part, de prouver l’existence d’équilibres satisfaisants pour la classe de jeux obtenue. Ce deuxième point est essentiel et garantit que la théorie des jeux est adaptée à l’étude de tels jeux distribués, malgré leur complexité.La seconde partie est consacrée à l’étude d’un jeu omniprésent au sein des systèmes biologiques que l’on nomme jeu de la dispersion. Il modélise la situation dans laquelle un groupe d’animaux doit se partager une certaine quantité de ressources répartie entre différents sites géographiques. La difficulté du jeu provient du fait que certains sites contiennent plus de ressources que d’autres, mais risquent également d’attirer plus de joueurs. Le partage est alors difficile. Nous proposons une règle de répartition des ressources qui permet de maximiser les ressources exploitées par l’ensemble du groupe. Cette partie est aussi l’occasion de revisiter les liens étroits entre le concept de distribution libre idéale, très présente dans la théorie du fourrageage, et le concept de stratégie évolutionnairement stable, concept clé de la théorie des jeux évolutionnaires.La troisième partie se concentre sur l’étude du comportement d’une certaine espèce de petites chauve-souris vivant au Mexique, dans le désert de Sonora, et se nourrissant la nuit du nectar des cactus géant de l’espèce protégée Saguaro. Après la présentation des résultats expérimentaux obtenus sur le terrain, nous proposons une simulation informatique de leur comportement. Les résultats de ces simulations permettent de formuler des hypothèses intéressantes à propos du fonctionnement cérébral de ces petits mammifères. Nous étudions ensuite un modèle théorique de jeu inspiré de cette situation réelle. L’étude de ce modèle abstrait nous permet de distinguer les caractéristiques fondamentales du jeu, et de renforcer notre approche de théorisation du comportement de fourrageage. Cette étude ouvre également la voie à l’application de ce type de modèle à d’autres situations, impliquant un comportement animal ou humain
The aim of this thesis is to use algorithmic game theory tools to study various games inspired from real world problems in the fields of information networks and biology. These games are characterized by a large number of players, each with incomplete information about other players. In classical game theory, these games fall into the category of extensive games with imperfect information, which are modeled using trees. However, these games remain very difficult to analyze in details, because of their intrinsic complexity, which is linked with their possibly infinite tree depth. Nevertheless, we have taken up the challenge of this task, while diversifying the methods of resolution, and emphasizing its interdisciplinary aspect.Besides the introduction and the conclusion, the thesis is divided into three parts. In the first part, we adopt the point of view of classical game theory. We propose a game that corresponds to a wide class of problems encountered in the theory of distributed computing. The main contributions of this part are, on the one hand, to show how to transform a purely algorithmic problem into a game, and, on the other hand, to prove the existence of satisfactory equilibria for the resulting class of games. This second point is essential, as it guarantees that game theory is adapted to the study of distributed games, despite their complexity. The second part is dedicated to the study of a game omnipresent within biological systems, that we call dispersion game. This game models the situation in which a group of animals must share a certain amount of resources scattered among different geographical sites. The difficulty of the game comes from the fact that some sites contain more resources than others, but may also attract more players. We propose a rule for the distribution of resources which makes it possible to maximize the resources exploited by the whole group. This part of the thesis is also an opportunity to revisit the close links between the concept of ideal free distribution, very present in the theory of foraging, and the concept of evolutionarily stable strategy, a key concept of evolutionary game theory. The third part focuses on the study of the behavior of a specific species of small bats living in Mexico, in the Sonoran Desert, and feeding at night from the nectar of the giant Saguaro cacti, a protected species. After the presentation of the experimental results obtained in the field, we propose a computer simulation of their behavior. The results of these simulations make it possible to formulate interesting hypotheses about the cerebral activities of these small mammals. We then study a theoretical model of game inspired by this real situation. The study of this abstract model allows us to distinguish the fundamental characteristics of the game, and to reinforce our approach of theorizing foraging behavior. This study also opens the way to applying this type of model to other situations, involving animal or human behavior
APA, Harvard, Vancouver, ISO, and other styles
36

Gryspeirt, Aiko. "Impact des plantes Bt sur la biologie de Plodia interpunctella: évaluation de l'efficacité de la stratégie agricole "Haute dose - refuge" pour la gestion de la résistance des insectes ravageurs aux plantes Bt." Doctoral thesis, Universite Libre de Bruxelles, 2008. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210542.

Full text
Abstract:
Commercialisées depuis 1996, les plantes génétiquement modifiées produisant une toxine insecticide (toxine Cry) dérivée de Bacillus thuringiensis et appelées plantes Bt ciblent certains Lépidoptères ou Coléoptères ravageurs. Au fil des ans, les surfaces cultivées en plantes Bt sont de plus en plus importantes et contrôlent de larges populations d'insectes. Pour limiter le risque de développement de populations résistantes, une stratégie agricole appelée 'Haute Dose / Zone Refuge' est actuellement recommandée aux Etats-Unis par l'Environmental Protection Agency. Cette stratégie préventive nécessite la plantation d'une 'zone refuge' composée de plantes non-Bt utilisables par le ravageur ciblé et plantée à proximité de la 'zone Bt' qui synthétise une haute dose de toxine Cry.

Mon projet de recherche s’inscrit dans le cadre de l’évaluation de l'efficacité de cette stratégie et s’articule en deux phases :une phase expérimentale et une phase théorique. La première se concentre sur la caractérisation en laboratoire de l'impact des toxines Cry sur la biologie d'un ravageur. Cette phase constitue un support au volet théorique :la mise au point d’un modèle mathématique évaluant l'efficacité de la stratégie HD/R. L'originalité de ce projet repose entre autre sur l'interactivité entre ces deux volets.

Volet expérimental. Impact des toxines Cry sur la biologie de Plodia interpunctella. Nous évaluons séparément l'impact d'une gamme de concentrations de deux toxines Cry (CryXX et CryYY) sur une série de paramètres comportementaux et biologiques d'un insecte commun des denrées stockées: Plodia interpunctella (Hübner) (Lepidoptera :Pyralidae). Ces paramètres sont sélectionnés car leur variation pourrait avoir un impact sur l'efficacité de la stratégie HD/R dans le contrôle de la résistance. Il est donc pertinent de les quantifier pour intégrer dans le modèle des ordres de grandeur réalistes et générer des résultats qui ne sont pas uniquement basés sur des spéculations théoriques.

Volet théorique A. Efficacité de la stratégie HD/R pour des plantes Bt synthétisant une ou deux toxines simultanément. La stratégie 'HD/R' a été développée pour prévenir la résistance envers les plantes Bt synthétisant une seule toxine. Or, depuis 2003, de nouvelles variétés de coton Bt synthétisant simultanément deux toxines Cry sont commercialisées (BollgardII® et WidestrikeTM). Nous évaluons, grâce au modèle que nous avons développé, l'efficacité de cette stratégie lors d'une utilisation exclusive de plantes Bt synthétisant une ou deux toxines.

Volet théorique B. Impact du ralentissement du développement des insectes sur les plantes Bt sur l'efficacité de la stratégie HD/R. Le volet expérimental met en évidence un allongement de la durée du développement des larves se nourrissant sur une diète contaminée en toxine Cry. Ce ralentissement induit une séparation temporelle entre l'émergence des adultes de la zone Bt et de la zone refuge et perturbe une hypothèse principale de la stratégie HD/R: le croisement aléatoire entre adultes, indépendamment du génotype et de la zone d'origine. Dans ce troisième chapitre, nous étudions l'impact de la perturbation du croisement aléatoire sur l'efficacité de la stratégie HD/R. Nous testons également deux options pour optimiser la stratégie en cas d'asynchronie: l'utilisation de plantes Bt synthétisant une faible concentration en toxine (atténuant le décalage entre l'émergence des adultes) ou l'augmentation de la taille de la zone refuge (favorisant la survie des individus porteurs d'allèle de sensibilité et donc optimisant la dilution de la résistance à la génération suivante).

Ce travail s'intègre dans une problématique actuelle et utilise des outils de biologie théorique (théories de la dynamique et de la génétique des populations) ainsi que le développement d'un modèle mathématique. Il apporte des éléments de réponse et de réflexion sur l'optimisation de la gestion de la résistance des insectes mais c'est aussi une illustration de la complémentarité entre la biologie expérimentale et théorique.

/

On the market since 1996, genetically modified plants synthesizing an insecticidal toxin (Cry toxin) stemmed from Bacillus thuringiensis, called Bt plants, target several insect pests (Lepidoptera or Coleoptera). Bt crops cover increasingly larger areas and control important pest populations The Insect Resistance Management Strategy (IRM) strategy currently recommended in the U.S.A. to limit the development of resistant populations is the High Dose / Refuge zone (HD/R) strategy. This pre-emptive strategy requires a refuge zone composed by non-Bt plants, usable by the target insect and in close proximity of the Bt zone synthesizing a high toxin concentration.

My research project contributes to the effectiveness assessment of this HD/R strategy. It is structured on two main parts: an experimental, and a theoretical section. The first part characterizes the impact of Cry toxins on the biology of an insect pest. It is the basis of the theoretical part: the implementation of a mathematical model, which evaluates the effectiveness of the HD/R strategy.

The originality of this project is based on the interactivity of these two components.

Experimental section. Impact of the Cry toxins on the biology of Plodia interpunctella. We assess the impact of a range of concentrations of two Cry toxins (CryXX et CryYY) on several behavioural and biological parameters of a common pest of stored products: Plodia interpunctella (Hübner) (Lepidoptera :Pyralidae). These parameters are selected because their variation could influence the effectiveness of a HD/R strategy. So, it is important to quantify these parameters so that realistic values can be integrated in our model. The results of the model are thus not based on theoretical assumptions alone.

Theoretical section A. Effectiveness of a HD/R strategy with Bt plants synthesizing one or two toxins. Initially, the HD/R strategy has been developed to limit the resistance towards Bt plants synthesizing one toxin. However, since 2003, new Bt cotton varieties synthesize two toxins simultaneously (BollgardII® et WidestrikeTM). We assess, with our model, the effectiveness of this strategy for Bt plants synthesizing one or two toxins.

Theoretical section B. Impact of the slowing down of the insect development reared on Bt plants on the effectiveness of the HD/R strategy. The experimental part demonstrates that larvae reared on a Bt diet have a protracted development duration. The consequence of this is a temporal separation between adult emergence in the two zones (Bt zone and refuge zone). This could affect the main assumption of the HD/R strategy, i. e. random mating independently of the genotype and of the native zone. In this third chapter, we study the impact of random mating disruption on the effectiveness of a HD/R strategy. We test two options to optimise the strategy in case of asynchrony: the use of Bt plants synthesizing a lower toxin concentration (limiting emergence asynchrony) or increasing the refuge zone size (favouring the survival of insect carrying one or two susceptible allele and thus optimising the dilution of resistance at the next generation).

This work is applied to a current issue. It uses some of the tools of theoretical biology (theories of population dynamics and population genetics) and develops a mathematical model. It provides some responses and some elements of thought about insect resistance management. It is also an illustration of the complementarity between experimental and theoretical biology.


Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
37

Prato, Giulia. "Stratégie d'échantillonnage et modélisation trophique : des outils de gestion pour évaluer le fonctionnement des écosystèmes et le statut des prédateurs de haut niveau trophique dans les aires marines protégées méditerranéennes." Thesis, Nice, 2016. http://www.theses.fr/2016NICE4000/document.

Full text
Abstract:
La surexploitation des prédateurs de haut niveau trophique (HTLP) peut déclencher des cascades trophiques qui souvent conduisent à une simplification des réseaux trophiques marins en réduisant leur résistance aux impacts humains. Les aires marines protégées (AMP) peuvent favoriser des augmentations d’abondance et biomasse des HTLP, mais la complète restauration des interactions trophiques, lorsque cela est possible, nécessite des délais importants. Cette thèse vise à proposer des outils intégrés de gestion pour évaluer le retour des HTLP et la restauration des interactions trophiques dans les AMP méditerranéennes, et à évaluer l’efficacité de ces outils pour estimer les impacts de la pêche sur les HTLP et le réseau trophique associé. Deux approches souvent éloignées ont été combinées : les suivis de terrain et la modélisation des réseaux trophiques. Pour échantillonner la communauté de poissons, nous avons proposé d'améliorer la technique traditionnelle de recensement visuel sous-marin en recourant à des transects de taille variable, adaptée à la mobilité des poissons. Cette méthode a alors permis d'augmenter la précision des estimations de densité et de biomasse des HTLP dans les trois AMP méditerranéennes suivies. Ensuite, nous avons évalué l'apport de la modélisation trophique avec les approches EwE et EcoTroph comme outil de gestion écosystémique pour les AMP méditerranéennes. Une structure standard de modèle a été proposée comme étant le meilleur compromis entre la complexité du modèle, la faisabilité de sa construction et la fiabilité de ses sorties
The overexploitation of high trophic level predators (HTLP) may trigger trophic cascades, often leading to a simplification of marine food-webs and reducing their resilience to human impacts. Marine protected areas (MPAs) can foster increases of HTLP abundance and biomass, but long time frames are needed to observe a recovery, when possible, of lost trophic interactions. This PhD aimed to propose integrated management-tools to monitor HTLP recovery and the restoration of trophic interactions in Mediterranean MPAs, and to evaluate the effectiveness of these tools at assessing fishing impacts upon HTLP and the associated food-web. Two often distant approaches were combined: field monitoring and food-web modelling. First, to survey the fish assemblage, we proposed to improve the traditional underwater visual census technique of one size-transects with variable size transects adapted to fish mobility. This improvement increased the accuracy of density and biomass estimates of HTLP at three Mediterranean MPAs. We then evaluated the potential of food-web modelling with the Ecopath with Ecosim and Ecotroph approach as a tool to inform ecosystem-based management in Mediterranean MPAs. We proposed a standard model structure as the best compromise between model complexity, feasibility of model construction in terms of data collection, and reliability of model outputs. Key functional groups for which local accurate biomass data should be collected in priority in order to get reliable model outputs were identified
APA, Harvard, Vancouver, ISO, and other styles
38

Jebrane, Aissam. "Modélisation du mouvement d'une foule via la théorie de la dynamique non régulière des solides." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1062.

Full text
Abstract:
Ce travail concerne la modélisation du mouvement des piétons via l’approche non régulière du contact dynamique des solides rigides et déformables. Une reformulation de cette approche est proposée en accord avec le formalisme de M.Frémond et celui de J.J.Moreau. L’approche proposée est basée sur la notion de percussion qui est l’intégrale de la force de contact au cours de la durée de la collision. Contrairement aux modèles classiques d’éléments discrets, il est supposé que les percussions ne peuvent être exprimées qu’en fonction de la vitesse avant l’impact. Cette hypothèse est vérifiée pour des lois de comportement classiques de la collision. Les équations de mouvement sont ensuite reformulées en tenant compte de multiples collisions simultanées. L’existence et l’unicité de la solution du nouveau modèle sont discutées en fonction de la régularité des forces (densité de Lebesgue apparaissant au cours de l’évolution régulière du système) et la régularité des percussions (Dirac-densité décrivant la collision). A la lumière des principes de la thermodynamique, une condition sur la percussion interne assurant que la collision est thermodynamiquement admissible, est établi. L’application aux collisions de disques rigides et à l’écoulement dans un sablier en forme d'entonnoir est présentée. L’approche est étendue au mouvement de la foule, en effet ; la circulation des piétons à travers les goulets d’étranglement est étudiée. Une analyse de sensibilité est effectuée pour étudier l’effet des paramètres d’un modèle de mouvement de foule discret 2D sur la nature des collisions et des temps d’évacuation des piétons. Nous avons identifié les paramètres qui régissent une collision de type piéton-piéton et étudié leurs effets sur le temps d'évacuation. Puis une expérience d’évacuation d’une salle avec une sortie de goulot d’étranglement est introduite et sa configuration est utilisée pour les simulations numériques. La question de l’estimation des forces de contact et de la pression générée dans une foule en mouvement est abordée à la fois d’un point de vue discret (un piéton est assimilé à un disque rigide) et continue (la foule est considérée comme un solide déformable). Une comparaison entre le modèle microscopique du second ordre (modèle discret 2D) et l’approche continue est présentée. Les forces de contact sont rigoureusement définies en tenant compte des contacts multiples et simultanés et le non chevauchement entre piétons. Nous montrons que pour une foule dense les percussions (saut de la quantité de mouvement correspondant au contact instantané) deviennent des forces de contact. Pour l’approche continue, la pression est calculée en fonction des contraintes volumiques et surfaciques. Et tenant compte les interactions non locales entre les piétons. Afin de rendre l’approche plus efficace, nous avons modélisé chaque piéton par un solide déformable, le cas unidimensionnel est étudié, une comparaison avec le cas discret est présentée pour un exemple d’écrasement d’une chaîne de piétons dans un obstacle fixe. La solution analytique des équations de contact est développée ce qui permet une calibration de paramètres du modèle et une étude asymptotique des solutions. La théorie non-régulière de la dynamique de solides déformables permet de calculer la vitesse réelle de la foule en tant qu’un milieu continu en tenant compte des interactions avec l’environnement et de la vitesse souhaitée. Une représentation macroscopique donnée par un problème couplé d’équations hyperbolique et elliptique. Une équation hyperbolique décrivant l’évolution de la densité de la foule dont la vitesse est calculée une équation elliptique, celle de l’évolution d’un solide déformable. Un résultat d’existence et unicité est développé concernant l’existence et l’unicité de la solution du problème couplé et la stabilité par rapport à la condition initiale et les conditions aux limites
This work concerns the modeling of pedestrian movement inspired by the non-smooth dynamics approach for the rigid and deformable solids. Firstly, a reformulation of the non-smooth approaches of M.Frémond and J.J.Moreau for rigid body dynamics is developed. The proposed theory relies on the notion of percussion which is the integral of the contact force during the duration of the collision. Contrary to classical discrete element models, it is here assumed that percussions can be only expressed as a function of the velocity before the impact. This assumption is checked for the usual mechanical constitutive laws for collisions. Motion equations are then reformulated taking into account simultaneous collisions of solids. The existence and uniqueness of the solution of the proposed model are discussed according to the regularity of both the forces (Lebesgue-density occurring during the regular evolution of the system) and the percussions (Dirac-density describing the collision). A condition on the internal percussion assuring that the collision is thermodynamically admissible is established. An application to the collision of rigid disks and the flow in a funnel-shaped hourglass is presented. The approach is extended to crowd motion, indeed; the circulation of pedestrians through the bottlenecks is studied and deals with to optimize evacuation and improve the design of pedestrian facilities. A sensitivity analysis is performed to study the effect of the parameters of a 2D discrete crowd movement model on the nature of pedestrian’s collision and on evacuation times. The question of estimation of contact forces and the pressure generated in a moving crowd is approached both from a discrete and continues point of view. A comparison between the second-order microscopic model (2D discrete model) and the continues approaches is presented. Contact forces are rigorously defined taking into account multiple, simultaneous contact and the non-overlapping condition between pedestrians. We show that for a dense crowd the percussions (moment umjump corresponding to instantaneous contact) become contact forces. For continuous approach, the pressure is calculated according to volume and surface constraints. This approach makes it possible to retain an admissible right-velocity (after impact), including both the non local interactions (at a distance interactions) between non neighbor pedestrians and the choice of displacement strategy of each pedestrian. Finally, two applications are presented : a one-dimensional simulation of an aligned pedestrian chain crashing into an obstacle, and a two-dimensional simulation corresponding to the evacuation of a room. In order to make the approach more efficient, we modeled each pedestrian with a deformable solid, the unidimensional case is studied a comparison with the discreet case is presented that corresponding to a crash of a pedestrian chain in a fixed obstacle is treated. The analytical solution of contact equations is developed for both approaches. This allows to calibrate the model parameters and offers an asymptotic study of the solutions. The non-smooth theory of deformable solids makes it possible to calculate the current velocity of the crowd as a continuous medium taking into account the interactions with the environment and their desired velocity. a macroscopic representation is developed through Hyperbolic – Elliptic Equations. indded;the crowd is described by its density whose evolution is given by a non local balance law. the current velocity involved in the equation is given by the collision equation of a deformable solid with a rigid plane. Firstly, we prove the well posedness of balance laws with a non smooth ux and function source in bounded domains, the existence of a weak entropic solution, it’s uniqueness and stability with respect to the initial datum and of the boundary datum. an application to crowdmodeling is presented
APA, Harvard, Vancouver, ISO, and other styles
39

Amillastre, Emilie. "Amélioration de la robustesse de souches de levures aux stress technologiques par une stratégie de génie microbiologique : Application à la production industrielle de bio-éthanol à partir de matières premières agricoles." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0058/document.

Full text
Abstract:
Sous contraintes industrielles, les micro-organismes sont soumis à différents stress technologiques, liés à leur culture en réacteur de grande taille, altérant leur viabilité et les performances des procédés. Les fluctuations des paramètres physico-chimiques (température, pH, …) sont responsables de cette baisse d’efficacité de la fermentation. Afin de contribuer à l’intensification des performances des procédés de production de bio-éthanol, ce projet de thèse propose d’améliorer la robustesse d’une souche industrielle de Saccharomyces cerevisiae productrice d’alcool vis-à-vis d’un stress environnemental : la température. La stratégie générale de ce projet réside dans l’obtention d’un mutant plus tolérant que la souche sauvage au stress appliqué par abaissement de son taux de décès. Un pilote original de culture en continu a été mis en place, couplant mutagénèse aux UV, générant des modifications génétiques et pression de sélection par des variations de température, permettant la sélection des variants les plus robustes. Un modèle phénoménologique a été développé afin de simuler les cinétiques microbiennes selon le mode de conduite du pilote et d’optimiser les conditions de fonctionnement nécessaires à l’obtention des futurs variants. Ce modèle cinétique fait intervenir l’influence de la température sur les cinétiques de croissance, de décès cellulaire et de production d’éthanol chez Saccharomyces cerevisiae. Ces cinétiques ont été quantifiées expérimentalement en fonction de la température et des traitements de mutagénèse par UV. Grâce aux conditions obtenues par simulation, des cultures en mode continu ont été réalisées et des variants obtenus ont été caractérisés, en condition de production intensive d’éthanol, sur la base de leurs performances en termes de croissance, de décès et de capacités fermentaires. Cette stratégie a permis de sélectionner un variant possédant une meilleure robustesse vis-à-vis de la température, caractérisé par un taux de décès plus faible que celui de la souche sauvage. Néanmoins ce variant ne se caractérise pas par de meilleures performances fermentaires
Under industrial constraints, microorganisms are exposed to various stresses, due to their cultivation in large scale bioreactor, altering their viability and the performances of bioprocesses. Fluctuations in physico-chemical parameters (temperature, pH, ...) are responsible for this reduction in fermentation efficiency. This Ph.D project intends to improve the robustness of an industrial ethanol producer Saccharomyces cerevisiae strain under heat stress, in order to improve its industrial production of bio-ethanol under temperature fluctuating environment. The strategy of this project is to obtain a mutant more tolerant than the wild type strain to heat stress, possessing a lower death rate. An original continuous culture reactor has been designed, coupling UV mutagenesis (generating genetic modifications) and selection pressure (temperature) to select the most robust variant. A phenomenological model was proposed to simulate microbial kinetics based on the monitoring strategy of the chemostat and to optimize the operating conditions necessary for the generation of variants. This dynamic model involves the impact of the temperature on the kinetics of growth, cell death and ethanol production in Saccharomyces cerevisiae. These kinetics were experimentally quantified as a function of the temperature and the UV treatment. Continuous cultures were carried out under the simulated conditions and some variants were characterized in very high ethanol performance fermentations in terms of growth, death and production performances. This strategy allowed us to select a variant possessing a better thermal robustness characterized by a lower death rate than the wild type strain under heat stress. However, the reduction of the death rate did not translate into better ethanol production performances
APA, Harvard, Vancouver, ISO, and other styles
40

Trabelsi, Mariem. "Games with incomplete information : a framework based on possibility theory." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30203.

Full text
Abstract:
Les jeux probabilistes à information incomplète, appelés jeux Bayesiens, offrent un cadre adapté au traitement de jeux à utilités cardinales sous incertitude. Ce type d'approche ne peut pas être utilisé dans des jeux ordinaux, où l'utilité capture un ordre de préférence, ni dans des situations de décision sous incertitude qualitative. Dans la première partie de cette thèse, nous proposons un modèle de jeux à information incomplète basé sur la théorie de l'utilité qualitative possibiliste: les jeux possibiliste à information incomplète, nommés PI-games. Ces jeux constituent un cadre approprié pour la représentation des jeux ordinaux sous connaissance incomplète. Nous étendons les notions fondamentales de stratégie de sécurité et d'équilibres de Nash (pur et mixte). De plus, nous montrons que tout jeu possibiliste à information incomplète peut être transformé en un jeu à information complète sous la forme normale équivalent au jeu initial, dont les stratégies de sécurité, les équilibres de Nash purs et mixtes sont en bijection dans les deux jeux. Ce résultat de représentation est une contrepartie qualitative de celui de Harsanyi sur la représentation des jeux Bayésiens par des jeux sous forme normale à information complète. Cela est plus un résultat de représentation qu'un outil de résolution. Nous montrons que décider si un équilibre de Nash pur existe dans un PI-game est un problème NP-complet et proposons un codage de programmation linéaire mixte en nombres entiers (PLNE) du problème. Nous proposons également un algorithme en temps polynomial pour trouver une stratégie de sécurité dans un PI-game et montrons qu'un équilibre mixte possibiliste peut être également calculé en temps polynomial (en fonction de la taille du jeu). Pour confirmer la faisabilité de la formulation de programmation linéaire en nombres entiers mixtes et des algorithmes en temps polynomial, nous introduisons aussi un nouveau générateur pour les PI-games basé sur le générateur de jeux sous la forme normale: GAMUT. Représenter un PI-game sous forme normale standard nécessite une expression extensive des fonctions d'utilité et de la distribution des possibilités, à savoir sur les espaces produits des actions et des types. La deuxième partie de cette thèse propose une vue moins coûteuse des PI-games, à savoir la polymatrix PI-games basée sur min, qui permet de spécifier de manière concise les PI-games avec des interactions locales, en d'autre termes, lorsque les interactions entre les joueurs sont par paires et l'utilité d'un joueur dépend de son voisinage et non de tous les autres joueurs du PI-game. Ce cadre permet, par exemple, la représentation compacte des jeux de coordination sous incertitude où la satisfaction d'un joueur est élevée si et seulement si sa stratégie est cohérente avec celles de l'ensemble de ses voisins. Dans cette thèse, nous montrons que n'importe quel PI-game à 2 joueurs peut être transformé en un jeu polymatriciel équivalent basé sur le min. Ce résultat est la contrepartie qualitative du théorème de Howson et Rosenthal reliant les jeux Bayésiens aux jeux polymatriciels. De plus, dès qu'une simple condition de cohérence des connaissances des joueurs sur le monde est satisfaite, tout polymatrix PI-game peut être transformé en temps polynomial en un jeu polymatriciel, basé sur le min, à information complète équivalent. Nous montrons que l'existence d'un équilibre de Nash pur dans un polymatrix PI-game est un problème NP-complet mais pas plus difficile que de décider si un équilibre de Nash pur existe dans un PI-game. Enfin, nous montrons que cette dernière famille de jeux peut être résolue grâce à une formulation de programmation linéaire en nombres entiers mixtes. Nous introduisons un nouveau générateur pour les polymatrix PI-games basés sur le générateur de PI-game. Les expérimentations confirment la faisabilité de cette approche
Probabilistic games with incomplete information, called Bayesian games, offer a suitable framework for games where the utility degrees are additive in essence. This approach does not apply to ordinal games where the utility degrees capture no more than a ranking, nor to situations of decision under qualitative uncertainty. In the first part of this thesis, we propose a representation framework for ordinal games under possibilistic incomplete information (PI-games). These games constitute a suitable framework for the representation of ordinal games under incomplete knowledge. We extend the fundamental notions of secure strategy, pure Nash equilibrium, and mixed Nash equilibrium to this framework. Furthermore, we show that any possibilis- tic game with incomplete information can be transformed into an equivalent normal form game with complete information. The fundamental notions such Nash equilibria (pure and mixed) and secure strategies are in bijection in both frameworks. This representation result is a qualitative counterpart of Harsanyi results about the representation of Bayesian games by normal form games under complete information. It is more of a representation result than the premise of a solving tool. We show that deciding whether a pure Nash equilibrium exists in a PI-game is a difficult task (NP-hard) and propose a Mixed Integer Linear Programming (MILP) encoding of this problem. We also propose a polynomial-time algorithm to find a secure strategy in a PI-game and show that a possibilistic mixed equilibrium can be computed in polynomial time (w.r.t., the size of the game), which contrasts with probabilistic mixed equilibrium computation in cardinal game theory. To confirm the feasibility of the MILP formulation and the polynomial-time algorithms, we introduce a novel generator for PI-games based on the well-known standard normal form game generator: GAMUT. Representing a PI-game in standard normal form requires an extensive expression of the utility functions and the possibility distribution on the product spaces of actions and types. This is the concern of the second part of this thesis where we propose a less costly view of PI-games, namely min-based polymatrix PI-games, which allows to concisely specify PI-games with local interactions, i.e., the interactions between players are pairwise and the utility of a player depends on her neighbors and not on all other players in the PI-game. This framework allows, for instance, the compact representation of coordination games under uncertainty where the satisfaction of a player is high if and only if her strategy is coherent with all of her neighbors, the game being possibly only incompletely known to the players. We show that any 2- player PI-game can be transformed into an equivalent min-based polymatrix game. This result is the qualitative counterpart of Howson and Rosenthal's theorem linking Bayesian games to polymatrix games. Furthermore, as soon as a simple condition on the coherence of the players' knowledge about the world is satisfied, any polymatrix PI-game can be transformed in polynomial time into an equivalent min-based and complete information polymatrix game. We show that the existence of a pure Nash equilibrium in a polymatrix PI-game is an NP-complete problem but no harder than deciding the existence of a pure Nash equilibrium in a PI-game. Finally, we show that the latter family of games can be solved through a MILP formulation. We introduce a novel generator for min-based polymatrix PI-games based on the PI-game generator. Experiments confirm the feasibility of this approach
APA, Harvard, Vancouver, ISO, and other styles
41

Alric, Matthieu. "Conception et modélisation modulaire d'un robot bio-inspiré extensible pour l'accès aux tumeurs dans le cerveau." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00724718.

Full text
Abstract:
Intégrés dans un projet de développement d'un système multit-robots de neurochirurgie mini-invasive pour l'ablation de tumeurs, ces travaux ont pour objectif la conception et modélisation d'un robot déployable dans le cerveau, selon des trajectoires curvilignes, sans espace libre autour de sa structure et sans guide naturel pour aider à sa progression. Après définition de la tâche de déploiement, un état de l'art recense un large panel de concepts et une évaluation sélectionne un concept continu bio-inspiré des trompes d'éléphant. La solution modulaire du robot est définie et modélisée géométriquement en associant une chaîne cinématique aux mobilités continues du robot. Une statégie de déploiement, reposant sur une succession ordonnée d'extensions/rétractions locales pour une élongation itérative du robot est formalisée pour le cas générique à N modules, puis validée par des plans de simulations de robots ayant 1 à 3 modules (erreur de suivi inférieure à un mm). Sur un modèle d'étude de gels d'agar (texture proche du cerveau), les efforts de pénétration du robot dans le cerveau sont estimés, puis la conception CAO et la programmation d'un démonstrateur à ressorts sont réalisées. Une interface homme/machine, simulant et commandant le robot, est programmée et des tests sont effectués pour valider certains aspects du déploiement. Un deuxième démonstrateur actionné pneumatiquement est à finaliser pour procéder à une étude comparative des deux prototypes. Même si des perspectives d'amélioration restent à explorer, les résultats obtenus sont encourageants. Un travail collaboratif entre spécialistes de différents domaines devrait conduire à l'optimisation de ce robot de déploiement.
APA, Harvard, Vancouver, ISO, and other styles
42

Chadebec, Olivier. "Modélisation du champ magnétique induit par des tôles - identification de l'aimantation - Application à l'immunisation en boucle fermée d'une coque ferromagnétique." Phd thesis, Grenoble INPG, 2001. http://tel.archives-ouvertes.fr/tel-00010342.

Full text
Abstract:
Un navire à coque ferromagnétique, sous l'influence du champ magnétique terrestre et de contraintes mécaniques, s'aimante, créant ainsi une anomalie locale du champ. L'immunisation en boucle fermée est un système permettant au bâtiment d'auto-évaluer cette anomalie et de la compenser en temps réel. La mise au point de ce système nécessite le développement d'un outil capable de prédire l'aimantation de la coque à chaque instant. Cette aimantation se décompose en deux parties: d'une part l'aimantation induite et d'autre part l'aimantation permanente. La première partie de ce travail s'attache à présenter les méthodes numériques permettant de calculer l'aimantation induite, c'est-à-dire la réaction du matériau plongé dans un champ inducteur. Nous nous sommes plus particulièrement intéressés à des méthodes intégrales conduisant à des répartitions de charges et de dipôles tangentiels localisées sur la coque. La deuxième partie propose une méthode pour déterminer l'aimantation permanente. Cette aimantation dépendant de l'histoire magnétique du bâtiment (hystérésis, magnétostriction...), un calcul déterministe n'est pas envisageable. Il est alors nécessaire de faire intervenir des mesures de champ magnétique effectuées à l'intérieur de la coque pour l'évaluer. Le présent travail propose une approche originale pour résoudre ce problème inverse. Celui-ci étant mal posé, nous proposons un critère de choix de la solution basé, non pas sur une approche mathématique, mais sur la connaissance physique des phénomènes mis en jeu. Une fois un modèle d'aimantation obtenu, il est alors possible de calculer le champ à l'extérieur du bâtiment. Tous nos résultats ont été validés sur une maquette représentative d'un navire réel.
APA, Harvard, Vancouver, ISO, and other styles
43

Menhour, Lghani. "Synthèse de commandes au volant d'une automobile pour le diagnostic de rupture d'un itinéraire : développement et validation expérimentale." Compiègne, 2010. http://www.theses.fr/2010COMP1915.

Full text
Abstract:
L’objectif de cette thèse, est de développer des lois de commande et un observateur de dévers, pour le diagnostic des situations critiques, cette application est connue sous le nom "diagnostic de rupture d’un itinéraire", elle consiste à identifier la vitesse limite de franchissement d’une infrastructure. Cette vitesse est mise en évidence par un fonctionnement du véhicule dans les zones non-linéaires. L’exploration vers la dynamique limite requière un modèle réaliste d’un véhicule réel. La première phase de ce travail, consiste à concevoir des commandes pour extrapoler le comportement du modèle du véhicule. Plusieurs lois sont proposées et validées, certaine d’entres elles contrôlent le véhicule via l’angle de braquage, d’autres contrôlent le véhicule à la fois via le couple de braquage et le couple de traction à la roue. La deuxième phase est l’estimation du dévers de la chaussée par un observateur à entrée inconnue, ceci dans le but de rendre la trajectoire plus réaliste et de tenir compte des effets de ce dernier sur le comportement dynamique du véhicule. La troisième phase présente l’extrapolation du comportement du véhicule, observé lors d’un passage en sollicitations modérées, vers une perte de contrôle virtuelle, cette extrapolation est réalisée en utilisant plusieurs instances du modèle dynamique exécutées avec des vitesses incrémentées, ces modèles sont pilotés par des lois de commande et couplés à l’observateur du dévers. La dernière phase est consacrée à l’étude et à l’analyse des sorties des modèles extrapolés, en utilisant des critères de détection de la dynamique limite du véhicule. Cette phase permettra la détection des situations dangereuses ou/et l’enrichissement des bases de données routières. Cette étude présente d’importantes phases de validation expérimentale des modèles du véhicule, des lois de commande et de l’observateur en utilisant les données expérimentales du véhicule prototype Peugeot 307 développé par l’INRETS-MA, ainsi que les données expérimentales dévers des véhicules VANI et PALAS2. Ce travail a abouti à la conception des modules (commandes et observateur) opérant en temps réel
The aim of this thesis is to develop control laws and road bank angle estimation, for the diagnosis of critical situations, this application is known as "Itinerary Rupture DIagnosis", which aims to evaluate the physical limits of a vehicle negotiating a bend, these limits are highlighted when the vehicle operating in the non-linear areas. The exploration to the limit dynamic requires a realistic model of a real vehicle. The first step of this work, is to design linear and non linear control laws, to extrapolate the behaviour of the vehicle model. Several control laws are proposed and validated, some of them control the vehicle via the steering angle, further at the same time control the vehicle via the steering torque and the wheel traction torque. The second step is dedicated for the estimation of the road bank angle using an unknown input sliding mode observer, this in order to make the trajectory more realistic and take into account the effects of this angle on the dynamic behaviour of the vehicle. The third step presents the speed extrapolation tests, starting from a normal driving situation, towards a virtual loss of control, this extrapolation is performed using several instances of a dynamic model run with incremented speeds, these models are controlled by control laws and coupled with road bank angle observer. The last step is devoted to the study and analysis of extrapolated output models, using detection criteria on the limit vehicle dynamics. This phase will allow the detection of dangerous situations and/or save them in the accident road databases. This study provides an important experimental validation phases of the vehicle models, control laws and observer. This validation is performed using experimental data acquired by prototype vehicle Peugeot 307 developed by INRETS-MA, and the bank angle experimental data of the two vehicles VANI and PALAS2. This work led to the design of modules (commands and observer) operating in real time
APA, Harvard, Vancouver, ISO, and other styles
44

Bornard, Jean-Charles. "Développement d'un modèle du conducteur automobile : De la modélisation cognitive à la simulation numérique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00779706.

Full text
Abstract:
L'activité de conduite automobile prend place dans un environnement dynamique en constante évolution. Le conducteur doit progresser sur la route au moyen de son véhicule, tout en interagissant adéquatement avec l'environnement et les autres usagers. Pour réaliser cette tâche, le conducteur doit percevoir son environnement, interpréter les événements pour se représenter correctement la situation de conduite, anticiper ces changements, et prendre des décisions a n d'engager des actions sur le véhicule lui permettant d'atteindre les buts qu'il se fixe à court et long terme. A cet égard, la complexité et la diversité des processus perceptifs, cognitifs et sensori-moteurs requis pour la conduite automobile font de cette activité un objet d'étude particulièrement riche pour les sciences de la cognition. Pour étudier l'activité du conducteur automobile a n de la comprendre, l'expliquer et peut-être la prédire, les sciences cognitives se dirigent vers la modélisation de la cognition humaine. Cette démarche permet une représentation et une description plus ou moins ne du système cognitif du conducteur automobile. Cependant, un modèle de la cognition ne permet qu'une description théorique. Grâce à son implémentation informatique, il devient possible de simuler les théories utilisées et déployer numériquement celles mises en jeu dans la modélisation cognitive. Ce travail de thèse s'articule autour de la modélisation cognitive du conducteur automobile, de son implémentation informatique sur une plateforme de développement virtuel et de sa simulation au sein de cette plateforme. Le modèle théorique que nous avons implémenté est COSMODRIVE, en développement au laboratoire du LESCOT à l'IFSTTAR, et la plateforme de développement accueillant le modèle est SiVIC, développée au LIVIC. C'est dans ce contexte que nous nous sommes engagés dans le développement computationnel et informatique du modèle COSMODRIVE, a n de pouvoir simuler l'activité perceptive et cognitive du conducteur automobile. Pour cela, nous nous sommes limités à certains processus cognitifs primordiaux, comme les fonctions stratégiques (plani cation d'itinéraires et réalisation de plans stratégiques), ou les fonctions perceptives (exploration et intégration de l'information visuelle), les fonctions cognitives tactiques (construction de représentations mentales, intégration perceptivo-cognitive de l'information, structuration des connaissances de conduite, etc.), ou encore les fonctions d'exécution d'actions (régulation courte par zones enveloppes ou par points de poursuite). Par l'implémentation informatique du modèle COSMODRIVE sur SiVIC, il devient possible d'incarner numériquement des théories cognitives et de les opérationnaliser pour formuler des hypothèses de recherche sous la forme de prédictions de performances que l'on pourra évaluer empiriquement auprès de conducteurs humains. Ces hypothèses formulées, nous avons conduit des expérimentations sur un simulateur de conduite que nous avons construit. A n d'éprouver notre modèle théorique et informatique du conducteur automobile, nous avons comparé les performances des conducteurs humains avec les prédictions issues de la simulation. Les résultats obtenus ont permis de valider cette approche et de con firmer l'intérêt de la simulation cognitive pour appréhender les activités mentales du conducteur automobile.
APA, Harvard, Vancouver, ISO, and other styles
45

Kherroubi, Zine el abidine. "Novel off-board decision-making strategy for connected and autonomous vehicles (Use case highway : on-ramp merging)." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1331.

Full text
Abstract:
L'insertion sur autoroute est un défi pour réaliser une conduite entièrement automatisée (Niveau 4 de conduite autonome). La combinaison des technologies de communication et de conduite autonome, qui sous-tend la notion de Connected Autonomous Vehicles (CAV), peut améliorer considérablement les performances de sécurité lors de l'insertion sur autoroute. Cependant, même avec l'émergence des véhicules CAVs, certaines contraintes clés doivent être prises en compte afin de réaliser une insertion sécurisée sur autoroute. Tout d'abord, les véhicules conduits par des conducteurs humains seront toujours présents sur la route, et il faudra peut-être des décennies avant que tous les véhicules commercialisés ne soient entièrement autonomes et connectés. Aussi, les capteurs embarqués des véhicules peuvent fournir des données inexactes ou incomplètes en raison des limites des capteurs et des angles morts, en particulier dans de telles situations de conduite critiques. Afin de résoudre ces problèmes, la présente thèse propose une nouvelle solution utilisant une unité de bord de route (Road-Side Unit (RSU)) permettant une insertion entièrement automatisée sur autoroute pour véhicules connectés et automatisés. Notre approche est basée sur un réseau de neurones artificiels (ANN) pour prédire l'intention des conducteurs. Cette prédiction est utilisée comme état d'entrée pour un agent Deep Reinforcement Learning (DRL) qui fournit l'accélération longitudinale pour le véhicule qui s'insère. Afin d'y parvenir, nous montrons d'abord comment l'unité Road-Side Unit peut-être utilisée pour améliorer la perception dans la zone d'insertion sur autoroute. Ensuite, nous proposons un modèle de reconnaissance d'intention du conducteur qui peut prédire le comportement des véhicules conduits par des conducteurs humains sur la voie principale de l'autoroute, avec une précision de 99%. Nous utilisons la sortie de ce modèle comme état d'entrée pour entrainer un agent Twin Delayed Deep Deterministic Policy Gradients (TD3) qui apprend une politique de conduite « sûre » et « coopérative » pour effectuer l'insertion sur autoroute. Nous montrons que notre stratégie de prise de décision améliore les performances par rapport aux solutions proposées dans l'état de l'art
Merging in the highway on-ramp is a significant challenge toward realizing fully automated driving (level 4 of autonomous driving). The combination of communication technology and autonomous driving technology, which underpins the notion of Connected Autonomous Vehicles (CAVs), may improve greatly safety performances when performing highway on-ramp merging. However, even with the emergence of CAVs vehicles, some keys constraints should be considered to achieve a safe on-ramp merging. First, human-driven vehicles will still be present on the road, and it may take decades before all the commercialized vehicles will be fully autonomous and connected. Also, on-board vehicle sensors may provide inaccurate or incomplete data due to sensors limitations and blind spots, especially in such critical situations. To resolve these issues, the present thesis introduces a novel solution that uses an off-board Road-Side Unit (RSU) to realize fully automated highway on-ramp merging for connected and automated vehicles. Our proposed approach is based on an Artificial Neural Network (ANN) to predict drivers’ intentions. This prediction is used as an input state to a Deep Reinforcement Learning (DRL) agent that outputs the longitudinal acceleration for the merging vehicle. To achieve this, we first show how the road-side unit may be used to enhance perception in the on-ramp zone. We then propose a driver intention model that can predict the behavior of the human-driven vehicles in the main highway lane, with 99% accuracy. We use the output of this model as an input state to train a Twin Delayed Deep Deterministic Policy Gradients (TD3) agent that learns « safe » and « cooperative » driving policy to perform highway on-ramp merging. We show that our proposed decision-making strategy improves performance compared to the solutions proposed previously
APA, Harvard, Vancouver, ISO, and other styles
46

Mesbahi, Tedjani. "Influence des stratégies de gestion d’une source hybride de véhicule électrique sur son dimensionnement et sa durée de vie par intégration d’un modèle multi-physique." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0004/document.

Full text
Abstract:
Ce mémoire contribue à l’amélioration des performances d’une source de stockage hybride embarquée alimentant un véhicule électrique. La solution investiguée est composée de l’association de batteries Li-ion et de super condensateurs, dans le but d’obtenir, par rapport aux solutions classiques, un gain en masse et en durée de vie pour une certaine plage d’autonomie du véhicule. Notre objectif est de mettre à profit l’utilisation de nouvelles méthodes de gestion de la source hybride et de quantifier le gain obtenu. Un modèle multi-physique incluant les aspects électrique, thermique et vieillissement a été développé et intégré dans l’algorithme de gestion d’énergie afin d’évaluer la dégradation progressive des performances des éléments de stockage au cours des cycles de conduite selon la stratégie de gestion implantée. De nouvelles stratégies de gestion ayant pour objectif d’agir sur la durée de vie ont été évaluées. Leur impact sur les performances de la source en termes de masse, coût et durée de vie a pu être quantifié et montre bien que par une meilleure gestion des puissances, il est possible de mieux utiliser le stockeur hybride, ouvrant ainsi la voie à de nouvelles approches de gestion d’énergie pour ces systèmes
This thesis contributes to the improvement of hybrid embedded source performances supplies an electric vehicle. The studied solution is composed of Li-ion batteries and supercapacitors hybridization, with an aim to achieve improved performances in terms of weight and lifetime over traditional solutions. Our main goal is to take the best advantage of new energy management strategies of the hybrid embedded source and quantify obtained improvements. A multi-physic model including electric, thermal and aging behaviors is developed and integrated into the algorithm of energy management in order to evaluate the gradual degradation of storage components performances during driving cycles and implemented control strategy. New energy management strategies intended to act on the lifetime of hybrid embedded source have been evaluated. Their impact on the performances of the source in terms of weight, cost and lifetime has been quantified and clearly shows that it is possible to make better use of hybrid embedded source thanks to a good power sharing, thus opening the way to new approaches of energy management for these systems
APA, Harvard, Vancouver, ISO, and other styles
47

Kafafy, Ahmed. "Hybrid Evolutionary Metaheuristics for Multiobjective Decision Support." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10184/document.

Full text
Abstract:
La prise de décision est une partie intégrante de notre vie quotidienne où le décideur est confronté à des problèmes composés de plusieurs objectifs habituellement contradictoires. Dans ce travail, nous traitons des problèmes d'optimisation multiobjectif dans des espaces de recherche continus ou discrets. Nous avons développé plusieurs nouveaux algorithmes basés sur les métaheuristiques hybrides évolutionnaires, en particulier sur l'algorithme MOEA/D. Nous avons proposé l'algorithme HEMH qui utilise l'algorithme DM-GRASP pour construire une population initiale de solutions de bonne qualité dispersées le long de l'ensemble des solutions Pareto optimales. Les résultats expérimentaux montrent la supériorité de toutes les variantes hybrides proposées sur les algorithmes originaux MOEA/D et SPEA2. Malgré ces bons résultats, notre approche possède quelques limitations, levées dans une version améliorée de HEMH : HEMH2 et deux autres variantes HEMHde et HEMHpr. Le Adaptive Binary DE inclus dans les HEMH2 et HEMHde a de meilleures capacités d'exploration qui pallient aux capacités de recherche locale contenues dans la HEMH, HEMH2 et HEMHde. Motivés par ces résultats, nous avons proposé un nouvel algorithme baptisé HESSA pour explorer un espace continu de recherche où le processus de recherche est réalisé par différentes stratégies de recherche. Les résultats expérimentaux montrent la supériorité de HESSA à la fois sur MOEA/D et dMOPSO. Tous les algorithmes proposés ont été vérifiés, testé et comparés à certaines méthodes MOEAs. Les résultats expérimentaux montrent que toutes les propositions sont très compétitives et peuvent être considérés comme une alternative fiable
Many real-world decision making problems consist of several conflicting objectives, the solutions of which is called the Pareto-optimal set. Hybrid metaheuristics proved their efficiency in solving these problems. They tend to enhance search capabilities by incorporating different metaheuristics. Thus, we are concerned with developing new hybrid schemes by incorporating different strategies with exploiting the pros and avoiding the drawback of the original ones. First, HEMH is proposed in which the search process includes two phases DMGRASP obtains an initial set of efficient solutions in the 1st phase. Then, greedy randomized path-relinking with local search or reproduction operators explore the non-visited regions. The efficient solutions explored over the search are collected. Second, a comparative study is developed to study the hybridization of different metaheuristics with MOEA/D. The 1st proposal combines adaptive discrete differential Evolution with MOEA/D. The 2nd combines greedy path-relinking with MOEA/D. The 3rd and the 4th proposals combine both of them in MOEA/D. Third, an improved version of HEMH is presented. HEMH2 uses inverse greedy to build its initial population. Then, differential evolution and path-relink improves these solutions by investigating the non-visited regions in the search space. Also, Pareto adaptive epsilon concept controls the archiving process. Motivated by the obtained results, HESSA is proposed to solve continuous problems. It adopts a pool of search strategies, each of which has a specified success ratio. A new offspring is generated using a randomly selected one. Then, the success ratios are adapted according to the success of the generated offspring. The efficient solutions are collected to act as global guides. The proposed algorithms are verified against the state of the art MOEAs using a set of instances from literature. Results indicate that all proposals are competitive and represent viable alternatives
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography