To see the other types of publications on this topic, follow the link: Analyse de sensibilité déterministe.

Dissertations / Theses on the topic 'Analyse de sensibilité déterministe'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse de sensibilité déterministe.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Marchand, Estelle. "Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants." Phd thesis, Université Paris Dauphine - Paris IX, 2007. http://tel.archives-ouvertes.fr/tel-00271632.

Full text
Abstract:
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
APA, Harvard, Vancouver, ISO, and other styles
2

Vo, Ngoc Duong. "Modélisation hydrologique déterministe pour l'évaluation des risques d'inondation et le changement du climat en grand bassin versant. Application au bassin versant de Vu Gia Thu Bon, Viet Nam." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4056/document.

Full text
Abstract:
Le changement climatique dû à l'augmentation des émissions de gaz à effet de serre est considéré comme l'un des principaux défis pour les êtres humains dans 21ème siècle. Il conduira à des changements dans les précipitations, l'humidité atmosphérique, augmentation de l'évaporation et probablement augmenter la fréquence des événements extrêmes. Les conséquences de ces phénomènes auront une influence sur de nombreux aspects de la société humaine. Donc, il y a une nécessité d'avoir une estimation robuste et précise de la variation des facteurs naturels dus au changement climatique, au moins dans les événements de cycle et d'inondation hydrologiques pour fournir une base solide pour atténuer les impacts du changement climatique et s'adapter à ces défis. Le but de cette étude est de présenter une méthodologie pour évaluer les impacts de différents scénarios de changement climatique sur une zone inondable du bassin de la rivière côtière dans la région centrale du Viet Nam - bassin versant de Vu Gia Thu Bon. Les simulations hydrologiques sont basées sur un modèle hydrologique déterministe validé qui intègre la géologie, les sols, la topographie, les systèmes fluviaux et les variables climatiques. Le climat de la journée présente, sur la période de 1991-2010 a été raisonnablement simulée par le modèle hydrologique. Climat futur (2091-2100) information a été obtenue à partir d'une réduction d'échelle dynamique des modèles climatiques mondiaux. L'étude analyse également les changements dans la dynamique des inondations de la région de l'étude, le changement hydrologique et les incertitudes du changement climatique simulation<br>Climate change due to the increase of greenhouse gas emissions is considered to be one of the major challenges to mankind in the 21st century. It will lead to changes in precipitation, atmospheric moisture, increase in evaporation and probably a higher frequency of extreme events. The consequences of these phenomena will have an influence on many aspects of human society. Particularly at river deltas, coastal regions and developing countries, the impacts of climate change to socio-economic development become more serious. So there is a need for a robust and accurate estimation of the variation of natural factors due to climate change, at least in the hydrological cycle and flooding events to provide a strong basis for mitigating the impacts of climate change and to adapt to these challenges. The aim of this study is to present a methodology to assess the impacts of different climate change scenarios on a flood prone area of a coastal river basin in the central region of Viet Nam – Vu Gia Thu Bon catchment. The hydrological simulations are based on a validated deterministic hydrological model which integrates geology, soil, topography, river systems and climate variables. The present day climate, over the period of 1991-2010 was reasonably simulated by the hydrological model. Future climate (2091-2100) information was obtained from a dynamical downscaling of the global climate models. The study also analyzes the changes in the flood dynamics of the study region, the hydrological shift and the uncertainties of climate change simulation
APA, Harvard, Vancouver, ISO, and other styles
3

Malenfant, Charles. "Analyse de sensibilité d'un multimodèle hydrologique." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27163.

Full text
Abstract:
Les enjeux hydrologiques modernes, de prévisions ou liés aux changements climatiques, forcent l’exploration de nouvelles approches en modélisation afin de combler les lacunes actuelles et d’améliorer l’évaluation des incertitudes. L’approche abordée dans ce mémoire est celle du multimodèle (MM). L’innovation se trouve dans la construction du multimodèle présenté dans cette étude : plutôt que de caler individuellement des modèles et d’utiliser leur combinaison, un calage collectif est réalisé sur la moyenne des 12 modèles globaux conceptuels sélectionnés. Un des défis soulevés par cette approche novatrice est le grand nombre de paramètres (82) qui complexifie le calage et l’utilisation, en plus d’entraîner des problèmes potentiels d’équifinalité. La solution proposée dans ce mémoire est une analyse de sensibilité qui permettra de fixer les paramètres peu influents et d’ainsi réduire le nombre de paramètres total à caler. Une procédure d’optimisation avec calage et validation permet ensuite d’évaluer les performances du multimodèle et de sa version réduite en plus d’en améliorer la compréhension. L’analyse de sensibilité est réalisée avec la méthode de Morris, qui permet de présenter une version du MM à 51 paramètres (MM51) tout aussi performante que le MM original à 82 paramètres et présentant une diminution des problèmes potentiels d’équifinalité. Les résultats du calage et de la validation avec le « Split-Sample Test » (SST) du MM sont comparés avec les 12 modèles calés individuellement. Il ressort de cette analyse que les modèles individuels, composant le MM, présentent de moins bonnes performances que ceux calés indépendamment. Cette baisse de performances individuelles, nécessaire pour obtenir de bonnes performances globales du MM, s’accompagne d’une hausse de la diversité des sorties des modèles du MM. Cette dernière est particulièrement requise pour les applications hydrologiques nécessitant une évaluation des incertitudes. Tous ces résultats mènent à une amélioration de la compréhension du multimodèle et à son optimisation, ce qui facilite non seulement son calage, mais également son utilisation potentielle en contexte opérationnel.<br>Contemporary hydrological challenges, such as forecasting and climate change impact evaluations, are forcing the exploration of new modeling approaches to address current gaps and improve the assessment of uncertainties. The approach discussed in this Master’s thesis is referred as multimodel (MM). The main innovation in this study lies in this multimodel construction: rather than individually calibrating the models and use their deterministic combination, a collective calibration is performed on the average of the 12 lumped conceptual models. One of the challenges of this innovative approach is the large number of parameters (82) complicating the computational cost and ease of use, in addition to potential equifinality problems. The first part of the solution proposed is based on a sensitivity analysis to determine the least significant parameters and thereby reduce the total number of parameters to be calibrated. The second part is based on an optimisation with calibration and validation to evaluate the performance of MM and its reduced version. Both lead to improve MM understanding. Sensitivity analysis is performed with the Morris method, which reveal a version of the MM with 51 parameters (MM51) just as efficient as the original MM with 82 parameters and with decreased potential equifinality problems. Results of the calibration and validation with the "Split-Sample Test" (SST) of MM are compared with the 12 models calibrated individually. It emerges from this analysis that the MM individual models have reduced performances compared to the ones when calibrated separately. This decrease in individual performances, essential for an good overall MM performance, comes with an increase in diversity for the MM outputs. The latter is an important component of hydrological applications with uncertainty evaluation. These results lead to a better understanding of the multimodel and its optimisation, which facilitate not only the calibration, but also its potential use in an operational context.
APA, Harvard, Vancouver, ISO, and other styles
4

Cigana, John. "Analyse statistique de sensibilité du modèle SANCHO." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp01/MQ38667.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Lemaitre, Paul. "Analyse de sensibilité en fiabilité des structures." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0061/document.

Full text
Abstract:
Cette thèse porte sur l'analyse de sensibilité dans le contexte des études de fiabilité des structures. On considère un modèle numérique déterministe permettant de représenter des phénomènes physiques complexes.L'étude de fiabilité a pour objectif d'estimer la probabilité de défaillance du matériel à partir du modèle numérique et des incertitudes inhérentes aux variables d'entrée de ce modèle. Dans ce type d'étude, il est intéressant de hiérarchiser l'influence des variables d'entrée et de déterminer celles qui influencent le plus la sortie, ce qu'on appelle l'analyse de sensibilité. Ce sujet fait l'objet de nombreux travaux scientifiques mais dans des domaines d'application différents de celui de la fiabilité. Ce travail de thèse a pour but de tester la pertinence des méthodes existantes d'analyse de sensibilité et, le cas échéant, de proposer des solutions originales plus performantes. Plus précisément, une étape bibliographique sur l'analyse de sensibilité puis sur l'estimation de faibles probabilités de défaillance est proposée. Cette étape soulève le besoin de développer des techniques adaptées. Deux méthodes de hiérarchisation de sources d'incertitudes sont explorées. La première est basée sur la construction de modèle de type classifieurs binaires (forêts aléatoires). La seconde est basée sur la distance, à chaque étape d'une méthode de type subset, entre les fonctions de répartition originelle et modifiée. Une méthodologie originale plus globale, basée sur la quantification de l'impact de perturbations des lois d'entrée sur la probabilité de défaillance est ensuite explorée. Les méthodes proposées sont ensuite appliquées sur le cas industriel CWNR, qui motive cette thèse<br>This thesis' subject is sensitivity analysis in a structural reliability context. The general framework is the study of a deterministic numerical model that allows to reproduce a complex physical phenomenon. The aim of a reliability study is to estimate the failure probability of the system from the numerical model and the uncertainties of the inputs. In this context, the quantification of the impact of the uncertainty of each input parameter on the output might be of interest. This step is called sensitivity analysis. Many scientific works deal with this topic but not in the reliability scope. This thesis' aim is to test existing sensitivity analysis methods, and to propose more efficient original methods. A bibliographical step on sensitivity analysis on one hand and on the estimation of small failure probabilities on the other hand is first proposed. This step raises the need to develop appropriate techniques. Two variables ranking methods are then explored. The first one proposes to make use of binary classifiers (random forests). The second one measures the departure, at each step of a subset method, between each input original density and the density given the subset reached. A more general and original methodology reflecting the impact of the input density modification on the failure probability is then explored.The proposed methods are then applied on the CWNR case, which motivates this thesis
APA, Harvard, Vancouver, ISO, and other styles
6

Fiorini, Camilla. "Analyse de sensibilité pour systèmes hyperboliques non linéaires." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV034/document.

Full text
Abstract:
L’analyse de sensibilité (AS) concerne la quantification des changements dans la solution d’un système d’équations aux dérivées partielles (EDP) dus aux varia- tions des paramètres d’entrée du modèle. Les techniques standard d’AS pour les EDP, comme la méthode d’équation de sensibilité continue, requirent de dériver la variable d’état. Cependant, dans le cas d’équations hyperboliques l’état peut présenter des dis- continuités, qui donc génèrent des Dirac dans la sensibilité. Le but de ce travail est de modifier les équations de sensibilité pour obtenir un syst‘eme valable même dans le cas discontinu et obtenir des sensibilités qui ne présentent pas de Dirac. Ceci est motivé par plusieurs raisons : d’abord, un Dirac ne peut pas être saisi numériquement, ce qui pourvoit une solution incorrecte de la sensibilité au voisinage de la discontinuité ; deuxièmement, les pics dans la solution numérique des équations de sensibilité non cor- rigées rendent ces sensibilités inutilisables pour certaines applications. Par conséquent, nous ajoutons un terme de correction aux équations de sensibilité. Nous faisons cela pour une hiérarchie de modèles de complexité croissante : de l’équation de Burgers non visqueuse au système d’Euler quasi-1D. Nous montrons l’influence de ce terme de correction sur un problème d’optimisation et sur un de quantification d’incertitude<br>Sensitivity analysis (SA) concerns the quantification of changes in Partial Differential Equations (PDEs) solution due to perturbations in the model input. Stan- dard SA techniques for PDEs, such as the continuous sensitivity equation method, rely on the differentiation of the state variable. However, if the governing equations are hyperbolic PDEs, the state can exhibit discontinuities yielding Dirac delta functions in the sensitivity. We aim at modifying the sensitivity equations to obtain a solution without delta functions. This is motivated by several reasons: firstly, a Dirac delta function cannot be seized numerically, leading to an incorrect solution for the sensi- tivity in the neighbourhood of the state discontinuity; secondly, the spikes appearing in the numerical solution of the original sensitivity equations make such sensitivities unusable for some applications. Therefore, we add a correction term to the sensitivity equations. We do this for a hierarchy of models of increasing complexity: starting from the inviscid Burgers’ equation, to the quasi 1D Euler system. We show the influence of such correction term on an optimization algorithm and on an uncertainty quantification problem
APA, Harvard, Vancouver, ISO, and other styles
7

Stieber, Daniel. "Analyse génétique de la sensibilité au cancer mammaire." Doctoral thesis, Universite Libre de Bruxelles, 2005. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Lupascu, Oana. "Modélisation probabiliste et déterministe de la rupture." Paris 13, 2013. http://scbd-sto.univ-paris13.fr/secure/edgalilee_th_2013_lupascu.pdf.

Full text
Abstract:
Cette thèse présente des modèles probabilistes et déterministes de rupture et des phénomènes de branchement, on étudie : les processus de branchement à valeurs mesures et leur EDP non linéaires, les processus de Markov de la subordination au sens de Bochner sur les espaces Lp, et les EDP non linéaires liées au déclenchement des avalanches. La première partie présente les aspects stochastiques. On utilise plusieurs outils théoriques, analytiques et probabilistes de la théorie du potentiel. D'abord, on construit des processus de branchement (de Markov) sur l'ensemble des configurations finies de l'espace d'état d'un processus standard, contrôlés par un noyau de branchement et un noyau tuant. On établit des connexions avec les équations différentielles partielles liées aux fonctions de transition d'un processus de branchement. Si on part d'un super processus, on obtiendra un processus de branchement ayant l'espace d'état des configurations finies de mesures positives finies sur un espace topologique. L'outil principal pour démontrer la régularité des trajectoires d'un processus de branchement est l'existence des fonctions sur-harmoniques convenables, ayant les niveaux compacts. Ensuite, on démontre que la subordination induite par un semi-groupe de convolution (la subordination au sens de Bochner) d'un C0 -semi-groupe d'opérateurs sous-markoviens sur l'espace Lp est associée à la subordination de processus droit de Markov. En conséquence, on résout le problème des martingales associé au Lp –générateur infinitésimal d'un semi-groupe subordonné. Il s'avère qu'un élargissement de l'espace de base est nécessaire. La principale étape de la preuve est la préservation sous une subordination de la propriété d'un processus de Markov d'être un processus droit borélien. La deuxième partie de la thèse est consacrée à la modélisation du déclenchement d'une avalanche d'un matériau viscoplastique de faible épaisseur (sols, neige ou autre géo-matériaux) sur une surface avec topographie (montagnes, vallées). On introduit un critère simple, déduit d'un problème d'optimisation (analyse de la charge limite), capable de distinguer si une avalanche se produit ou pas. Comme la fonctionnelle de dissipation plastique est non régulière et non coercitive dans les espaces de Sobolev classiques, on utilise l'espace des fonctions à déformation tangentielle bornée, pour prouver l'existence d'un champ de vitesse optimal, associé au déclenchement d'une avalanche. La fracture du matériau pendant la phase de déclenchement est modélisée par une discontinuité de ce champ de vitesse. On propose aussi une stratégie numérique, sans maillage, pour résoudre le problème de charge limite et pour obtenir la fracture de déclenchement. Enfin, l'approche numérique proposée est illustrée par la résolution de certains problèmes modélisant le déclenchement des avalanches<br>The thesis presents probabilistic and deterministic models for rupture and branching type phenomena,by studying: measure-valued discrete branching processes and their nonlinear PDEs, the Markov processes of the Bochner subordinations on Lp spaces, and the nonlinear PDEs associated to the flow onset of dense avalanches. The first part presents the stochastic aspects. Several analytic and probabilistic potential theoretical tools are used. First, it is given a construction for the branching Markov processes on the space of finite configurations of the state space of a given standard process (called base process), controlled by a branching kernel and a killing one. There are established connections with the nonlinear partial differential equations associated with the transition functions of the branching processes. When the base process is the Brownian motion, then a nonlinear evolution equation involving the square of the gradient occurs. Starting with a super process as base process, the result is a branching process with state space the finite configurations of positive finite measures on a topological space. A key tool in proving the path regularity of the branching process is the existence of a convenient super-harmonic function having compact level sets. Second, it is shown that the subordination induced by a convolution semi-group (the subordination in the sense of Bochner) of a C0 –semi-group of sub-Markovian operators on an Lp space is actually associated to the subordination of a right (Markov) process. As a consequence, it is solved the martingale problem associate with the Lp -infinitesimal generator of the subordinate semi-group. It turns out that an enlargement of the base space is necessary. A main step in the proof is the preservation under such a subordination of the property of a Markov process to be a Borel right process. The second part of the thesis deals with the modeling of the onset of a shallow avalanche (soils, snow or other geo-materials) over various bottom topologies (mountains, valleys). Starting from a shallow viscoplastic model with topography, a simple criterion able to distinguish if an avalanche occurs or not, is introduced. This criterion is deduced from an optimization problem, called limit load analysis. The plastic dissipation functional involved is non-smooth, and non coercive in the classical Sobolev spaces. The appropriate functional space is the space of bounded tangential deformation functions and the existence of an onset velocity field (collapse flow) is proved. To propose a numerical strategy, a mesh free method is used to reduce the limit load problem to the minimization of a shape dependent functional. The collapse flow velocity field, which is discontinuous, is associated to an optimum sub-domain and to a rigid flow. Finally, the proposed numerical approach is illustrated by solving some safety factor problems associated to avalanche onset
APA, Harvard, Vancouver, ISO, and other styles
9

Camredon, Marie. "Développement d'un modèle déterministe pour la formation des aérosols organiques secondaires : application à la sensibilité du système AOS/COV/NOx." Paris 12, 2007. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990004071120204611&vid=upec.

Full text
Abstract:
Les composés organiques volatils (COV) émis dans l'atmosphère sont oxydés selon un mécanisme complexe. Cette oxydation est progressive et met en jeu une myriade de composés organiques intermédiaires. Ces COV secondaires sont généralement considérablement moins volatils que leurs précurseurs primaires et peuvent ainsi participer à la formation d'aérosols organiques secondaires (AOS). Cette matière organique représente l'une des composantes majeures du mode fin (rayon &lt; 1 μm) des aérosols atmosphériques. Cette formation d'AOS est ainsi supposée modifier significativement les propriétés physiques et chimiques des aérosols notamment la distribution en masse, le comportement hygroscopique (et donc la capacité des particules à agir comme noyau de condensation nuageuse), l'acidité, la réactivité chimique, les propiétés radiatives. . . Malgré l'impact potentiel considérable des AOS sur le climat, l'état des connaissances relatives à leur formation, leur composition et leur évolution reste parcellaire. Dans le cadre de ce travail, nous avons développé un modèle totalement explicite pour représenter la formation de l'AOS dans l'objectif (i), d'évaluer notre degré de compréhension des mécanismes liés à la formation de l'AOS, (ii) d'identifier les sensibilités du système aux différents paramètres contrôlant la production d'AOS et (iii) de disposer de schémas de référence pour valider le développement de schémas optimisés en taille pour la modélisation tridimensionnelle. Nous avons ensuite utilisé ce modèle de formation de l'AOS pour explorer la sensibilité du système AOS/COV/NOx<br>Progressive gas-phase oxidation of volatile organic compounds (VOC) leads to the formation of a myriad of intermediate species. These secondary organics are more functionalized than their parent compounds, and the numbe of functions typically increases as oxidation preceeds. Highly functionalized species have lower vapour pressures and/or higher polarities, allowing substantial gas/particle partioning, thus leading to secondary organic aerosol (SOA) formation. This organic particulate matter constitutes a large and variable fraction of fine particles (Dp &lt;1 μm). Therefore SOA is suspected to modify significantly physical and chemical aerosol properties, such as mass distribution, acidity, reactivity, hygroscopic and optical properties. . . Despite the impacts of SOA on climate, our current understanding of SOA formation, composition and evolution remains incomplete. We develop in thisstudy an explicit SOA formation model enabling (i) to evaluate our understanding of mechanisms involved in SOA formation, (ii) to explore the sensitivity of SOA production to external parameters and (iii) to serve as a benchmark for the systematic development and testing of simplified chemical mechanisms for use in three-dimensional models. The explicit SOA formation model has been used to explore the evolution of the SOA/VOC/NOx system
APA, Harvard, Vancouver, ISO, and other styles
10

Mollon, Guilhem. "Etude déterministe et probabiliste du comportement des tunnels." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00880461.

Full text
Abstract:
Les travaux présentés dans ce mémoire s'attachent à étudier le comportement des tunnels creusés à faible profondeur à l'aide d'un tunnelier à front pressurisé, en se penchant plus particulièrement sur deux aspects fondamentaux lors de l'excavation : la stabilité du front de taille à l'effondrement et au refoulement, et l'apparition de mouvements de sol en surface. L'étude est menée sous un angle déterministe puis probabiliste. Dans un premier temps, un certain nombre de modèles analytique de détermination des pressions limites d'effondrement et de refoulement sont développés à partir d'observations effectuées sur des modèles numériques. Deux de ces modèles analytiques présentent, respectivement pour des sols frottants et non frottants, des résultats très satisfaisants à la fois en termes de pressions limites et de faciès de rupture. Par ailleurs, des modèles numériques de différents degrés de complexité sont programmés afin d'évaluer les mouvements de sol induits par l'excavation et leur propagation jusqu'à la surface. Les modèles déterministes ainsi définis sont ensuite utilisés dans un cadre probabiliste. La méthode de la surface de réponse stochastique par collocation est présentée, validée, et perfectionnée afin de rendre possible pour un faible coût calculatoire des études paramétriques sur les propriétés probabilistes des variables d'entrée des modèles. La propagation de l'incertitude au travers des modèles déterministes de stabilité et de mouvements de sol est évaluée, et des méthodes de dimensionnement fiabiliste sont proposées. Dans une dernière partie, la variabilité spatiale du sol est prise en compte par l'intermédiaire de la théorie des champs aléatoires, et appliquée à un modèle analytique 2D d'effondrement d'un front de taille. Ce modèle, développé dans le but de prendre en compte cette variabilité spatiale pour des temps de calcul inférieurs à ceux des modèles numériques, est validé numériquement et soumis à des tirages aléatoires en grand nombre. L'effet de la variabilité est évaluée, et des phénomènes nouveaux liés à cette variabilité sont mis en lumière.
APA, Harvard, Vancouver, ISO, and other styles
11

Gouaty, Romain. "Analyse de la sensibilité du détecteur d'ondes gravitationnelles Virgo." Chambéry, 2006. http://www.theses.fr/2006CHAMS006.

Full text
Abstract:
Le détecteur d'ondes gravitationnelles Virgo est un interféromètre laser dont les bras font trois kilomètres de long. Cet interféromètre est actuellement dans une phase de réglages et d'ajustements ayant pour but d'amener l'instrument à sa sensibilité nominale. Il est pour cela nécessaire de réduire les bruits instrumentaux qui limitent la sensibilité pendant cette phase. Le travail décrit dans ce mémoire est consacré à l'analyse des bruits instrumentaux. Une description des bruits que l'on sait susceptibles de limiter la sensibilité de l'interféromètre est d'abord présentée, ainsi que leur mécanisme de propagation. La méthode ayant permis d'analyser les bruits instrumentaux est ensuite exposée. Elle consiste tout d'abord à identifier les sources de bruit potentielles par la recherche de cohérence entre les signaux de l'interféromètre. Il est ensuite utile de comprendre le mécanisme par lequel ces bruits se propagent dans l'interféromètre en élaborant des modèles analytiques. Cette analyse, appliquée aux données de l'interféromètre, a été complétée par des études utilisant une simulation du détecteur. Entre fin 2003 et fin 2005, les progrès de la mise en route de Virgo ont été ponctués par sept prises de données techniques, qui ont permis de vérifier l'évolution des performances du détecteur. Les résultats de l'analyse des bruits limitant la sensibilité de l'interféromètre au cours de chacune de ces prises de données techniques sont présentés dans ce mémoire. L'impact des améliorations techniques apportées à l'interféromètre pour éliminer l'effet de ces bruits est également discuté<br>The Virgo detector for gravitational waves is a laser interferometer with arms which are 3 km long. This interferometer is at present in its commissioning phase whose goal is to reach the Virgo nominal sensitivity. To this purpose it is necessary to reduce the technical noises which are limiting the sensitivity during this phase. The work described in this thesis focuses on the analysis of technical noises. The noises which are known to be likely to limit the sensitivity are first described and their propagation mechanism is also explained. The method used to analyse the technical noises is then presented. It first consists in identifying the possible noise sources by looking for coherence between the interferometer signals. Then it is useful to understand how the noise propagates into the interferometer. This is done by building analytical models of propagation. Some studies based on a simulation of the detector have been added to the analysis of interferometer data. Between the end of 2003 and the end of 2005, the advance of the commissioning has been punctuated with seven technical data taking periods, performed in order to check the evolution of the detector performance. The analysis of the noises limiting the interferometer sensitivity for each of these data taking is presented in this thesis. The impact of the technical upgrades implemented on the interferometer to suppress the effect of these noises is also discussed
APA, Harvard, Vancouver, ISO, and other styles
12

Ibrahim, Eliane. "Analyse du comportement du front de taille des tunnels. Etudes déterministe et probabiliste." Nantes, 2016. https://archive.bu.univ-nantes.fr/pollux/show/show?id=5448f883-c005-430f-ab05-06f0442ae581.

Full text
Abstract:
L’objet de cette thèse est d’étudier le comportement du front de taille des tunnels. Dans une première partie, le cas des tunnels à front pressurisé est considéré par deux approches déterministe et probabiliste. Deux nouveaux modèles analytiques 3D sont proposés. Le premier modèle permet de modéliser le cas de tunnels creusés dans des massifs multicouches purement frottants. Le second modèle est capable de prendre en compte la variabilité spatiale des paramètres de cisaillement du sol sous forme de champs aléatoires discrétisés par les méthodes Karhunen-Loeve et EOLE. Une comparaison de ces deux nouveaux mécanismes analytiques avec des modèles équivalents en éléments finis montrent qu’ils rejoignent ces derniers par la précision de leurs résultats mais les devancent par leur temps calculatoire très réduit. La méthode de Monte-Carlo est ensuite utilisée pour étudier l’effet de la variabilité spatiale 3D de l’angle de frottement et de la cohésion sur la distribution de la pression au front et la probabilité de ruine du système. Dans un premier temps, cette méthode est appliquée au nouveau modèle analytique, et dans un second temps, elle est appliquée à un méta-modèle obtenu par la méthode du chaos polynomial creux et qui vient remplacer ce dernier pour une plus grande réduction du coût calculatoire. Dans une deuxième partie, la stabilité du front de taille soutenu par boulonnage horizontal est abordée par une approche numérique tridimensionnelle pour étudier l’effet de la densité des boulons et la loi d’interaction solboulon sur les déplacements du front et la distribution des efforts au sein des boulons<br>This thesis aims at studying the behavior of a tunnel face. The study deals first with the stability of tunnel face excavated with pressurized shields using both deterministic and probabilistic approaches. Two new 3D analytical models are proposed in this regard. The first model allows modeling tunnels that are bored in a multilayered purely frictional soil medium. The second one is capable of taking into account the spatial variability of the shear strength parameters of the soil. Three-dimensional random fields were generated using Karhunen-Loeve and EOLE methods. A comparison between the two new analytical models with equivalent finite element models reveals a good agreement between their results but much smaller computation times for the analytical models than the numerical ones. Monte-Carlo method is then used to evaluate the effect of cohesion and friction angle spatial variability on the critical face pressure and the system’s probability of failure. Monte-Carlo is applied first to the analytical model itself, and then it is applied to a meta-model generated with the sparse polynomial chaos expansion method that replaces the analytical model for a further reduction in the computation time. In a last part, the stability of reinforced tunnel faces (with longitudinal bolts) is addressed using a 3D numerical approach, in order to study the effect of the bolts density and the soil-bolts interface behavior on the resulting displacements and on the forces mobilized within the bolts
APA, Harvard, Vancouver, ISO, and other styles
13

Collonge, Julien. "Analyse post-Pareto en optimisation vectorielle stochastique et déterministe : étude théorique et algorithmes." Thesis, Nouvelle Calédonie, 2014. http://www.theses.fr/2014NCAL0061/document.

Full text
Abstract:
Cette thèse relate certains aspects liés à l'analyse post-Pareto issue de Problèmes d'Optimisation Vectorielle Stochastique. Un problème d'optimisation Vectorielle Stochastique consiste à optimiser l'espérance d'une fonction vectorielle aléatoire définie sur un ensemble arbitraire et à valeurs dans un espace sectoriel ordonné. L'ensemble des solutions de ce problème (appelé ensemble de Pareto) est composé des solutions admissibles qui assurent un certain équilibre entre les objectifs : il est impossible d'améliorer la valeur d'un objectif sans détériorer celle d'un autre. D'un point de vue technique, chaque solution de Pareto est acceptable. Nous nous posons alors le problème de la sélection de l'une d'entre elles : en supposant l'existence d'un décideur qui aurait son propre critère de décision, nous considérons le problème post-Pareto Stochastique qui vise à minimiser cette fonctionnelle sur l'ensemble de Pareto associé à un Problème d'Optimisation Vectorielle Stochastique<br>This thesis explore related aspects to post-Pareto analysis arising from Stochastic Vector Optimization Problem. A Stochastic Vector Optimization Problem is to optimize a random vector objective function defined on an arbitrary set, and taking values in a partially ordered set. Its solution set (called Pareto set) consists of the feasible solutions which ensure some sort of equilibrium amongst the objectives. That is to say, Pareto solutions are such that noneof the objectives values can be improved further without deterioring another. Technically speaking, each Pareto solution is acceptable. The natural question that arises is : how to choose one solution ? One possible answer is to optimize an other objective over the Pareto set. Considering the existence of a decision-maker with its own criteria, we deal with the post-Pareto Stochastic Optimization Problem of minimizing its real-valued criteria over the Pareto set
APA, Harvard, Vancouver, ISO, and other styles
14

Amstutz, Samuel. "Analyse de sensibilité topologique et applications en optimisation de formes." Habilitation à diriger des recherches, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00736647.

Full text
Abstract:
Ce document présente une synthèse de mes principaux travaux de recherche effectués jusqu'à ce jour. Ils portent essentiellement sur l'analyse de sensibilité topologique et ses applications en optimisation et reconstruction de formes. Cette technique récente consiste à étudier la sensibilité d'une fonctionnelle dépendant d'un domaine par rapport à une perturbation infinitésimale de la topologie de ce dernier, comme typiquement la nucléation d'un trou. La notion de dérivée topologique, ou gradient topologique, qui en découle peut alors être utilisée de différentes manières dans des algorithmes d'optimisation de formes afin de générer des modification de topologie. Sont abordés les aspects analytiques, algorithmiques, ainsi que divers exemples d'applications parmi lesquels l'optimisation de structures élastiques, l'optimisation d'écoulements incompressibles ou encore la détection de défauts géométriques.
APA, Harvard, Vancouver, ISO, and other styles
15

Janon, Alexandre. "Analyse de sensibilité et réduction de dimension. Application à l'océanographie." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00757101.

Full text
Abstract:
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique.
APA, Harvard, Vancouver, ISO, and other styles
16

Lam, Quoc Anh. "Analyse de sensibilité pour des problèmes d'équilibre des problèmes connexes." Pau, 2007. http://www.theses.fr/2007PAUU3008.

Full text
Abstract:
Nous avons considéré dans cette thèse les problèmes d'équilibre et de quasi-équilibre ainsi que les problèmes d'inclusion de la variation, forme générale. Commencés par Blum et Oettli (1994), ceux-ci ont considéré les problèmes d'équilibre comme une généralisation directe des inégalités variationnelles et des problèmes d'optimisation, ces problèmes généraux ont été largement développés. Malgré ses formes simples, ce type de problèmes contient une grande palette de problèmes d'optimisation et d'autres problèmes connexes. De plus, ils permettent d'utiliser les outils mathématiques modernes. Au cours de la décennie précédente, on avait cherché à étudier l'existence de leurs solutions. Quand nous avons commencé cette recherche, il y a 4 ans, il n' y avait pas d'article sur la stabilité et la sensibilité d'analyse pour ce type de problèmes. Cela nous a poussé à choisir ce sujet de recherche. Parmi plusieurs notions sur la stabilité des solutions, nous avons étudié essentiellement la continuité et semi-continuité hölderienne. La thèse comporte deux parties. La première partie, comprenant 4 chapitres, aborde essentiellement les semi-continuités des solutions. Dans la deuxième partie, contenant 2 chapitres, nous avons étudié la continuité hölderienne d'une solution unique. Pour justifier notre choix sur ces deux stabilités, nous remarquons qu'il y a actuellement un certain nombre d'articles publiés qui ont le même sujet mais nous ne trouvons aucun ouvrage qui traite d'autres types de stabilité<br>In this thesis we consider equilibrium and quasiequilibrium problems and also quasivariational inclusion problems, a more general setting. Beginning with Blum and Oettli (1994) who stated equilibrium problems as a direct generalization of the variational inequality and optimization problems, these general problems have been intensively developped. Althrought the formulations are simple, this kind of problem setting includes a wide range ofoptimization-related problems (see particular cases and applications in the thesis). Furthermore, these formulations allow convenient employments of modern mathematical tools in consideration. During the last decade most efforts have been devoted to the solution existence. When we began this thesis four years ago, we observed almost no papers on the stability and sensitivity analysis for the mentioned problems. This motivated our choice of the topic. Among various stability notions for solution sets we committed to investigating semicontinuity and Hölder continuity. The thesis consists of Chapter 0 containing preliminaries and two parts. Part I, including four chapters, is devoted to various kinds of semicontinuity of the solution set. In Part II with two chapters we study the Hölder continuity of the unique solution. To justify our choice of the two kinds of stability we note that up to now there have been a number of papers in the literature for the same topics but we still do not observe a study of other kinds of stability
APA, Harvard, Vancouver, ISO, and other styles
17

Quaouire, Lahcen. "Structuration de la déformation plastique par l'effet Portevin-Le Chatelier : une analyse dynamique." Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Quaouire.Lahcen.SMZ9727.pdf.

Full text
Abstract:
L'effet Portevin-le Chatelier (plc) est l'une des formes les plus fascinantes de l'instabilité de la déformation plastique. Ce phénomène se manifeste par la génération répétée et la propagation de bandes de déformation plastique localisée le long d'une éprouvette de traction. L'expérience montre que l'effet plc est souvent apériodique et certaines modélisations suggèrent que la dynamique du phénomène peut être chaotique déterministe. Afin de vérifier cette suggestion, l'étude menée dans ce travail s'appuie sur l'information contenue dans les variations temporelles de la contrainte lors d'essais de traction à vitesse de déformation constante. Dans cette technique d'analyse, divers outils sont mis en œuvre : d'abord la méthode des retards qui permet de reconstruire le portrait de phase d'un système dynamique à partir d'une série temporelle de l'une des variables d'état du système. La structure fractale du pseudo-portrait de phases obtenu suggère que la trajectoire de phase du système converge vers un attracteur étrange qui est le reflet d'une dynamique chaotique déterministe. Ensuite, une confirmation de l'existence d'un attracteur étrange est réalisée par le calcul de sa dimension fractale. L'application de l'algorithme de Grasseberger-Procaccia montre l'existence d'une dimension fractale dont la valeur est légèrement supérieure à trois. Enfin, moyennant l'algorithme de Gao-Zheng, une propriété cruciale des systèmes chaotiques déterministes qui est la sensibilité aux conditions initiales est prouvée par l'obtention d'un exposant de Lyapunov positif. Les résultats ci-dessus permettent de conclure que la dynamique sous-jacente à l'effet plc est chaotique déterministe et, vu la valeur de la dimension de l'attracteur étrange associe, une description de ce phénomène doit prendre en considération au moins quatre paramètres d'état du système ce qui est compatible avec certaines théories<br>The Portevin Le Chatelier (plc) effect is one of the most fascinating forms of the plastic flow instabilities. This phenomenon consists in the repeated generation and propagation along a tensile specimen of sharply edged bands of localised plastic deformation. Experiments show that the plc effect is usually unperiodic and some models suggest that the instability might lead to determinist chaotic behaviour. In this work, this suggestion is investigated using a method of analysis based on the qualitative information contained in the temporal variations of the stress in loading with constant applied cross-head velocity. In this thecnic of a analysis, various implements are used : at first the method of delays is used to reconstruct phase trajectory of the dynamical system. The method use time series constututed from temporel variations of one state parameter of the system. The fractal structure of the reconstruction obtained suggest that the trajectory lie on a strange attractor which is the reflection of determinist chaotic dynamic. Indeed, confirmation of the existence of a strange attractor is done by calculating dimension of this attractor using the Grasseberger-Procaccia algorithm. The dimension obtained is lightly upper than three. Finally, sensitivity to initial conditions is prouved using the Gao-Zheng algorithm which give a positive value of the Lyapunov exponent. The above results permit to conclude that the underlying dynamic of the plc effect is determinist. Indeed, the dimension value of strange attractor suggests that a phenomenon description must take into account at least four state parameters of the system. This is compatible with some theories
APA, Harvard, Vancouver, ISO, and other styles
18

Ghilardi, Jean-Pierre. "Optimisation de la représentation de graphes par approche hybride déterministe et stochastique." Aix-Marseille 3, 2002. http://www.theses.fr/2002AIX30032.

Full text
Abstract:
Dans le domaine de la bibliométrie il est courant d'avoir à retraiter des corpus d'informations importants difficiles à interpréter par lecture directe. Des outils, intégrant des traitements mathématiques complexes, ont été développés pour traiter l'information massive structurée et en extraire l'information pertinente susceptible d'alimenter les processus de prise de décision. Le Centre de Recherche Rétrospective de Marseille s'est depuis de nombreuses années spécialisé en traitement de l'information et a développé des outils informatiques basés sur la représentation graphique de relations reliant des entités : les graphes de paires. S'inscrivant dans cette démarche, ce travail de recherche a permis de définir des traitements innovants s'appuyant sur la théorie des graphes, les algorithmes de recuit simulé et les algorithmes génétiques qui permettent d'aboutir à une expression géométrique organisée des graphes de paire et ainsi d'en faciliter l'exploitation par le plus grand nombre<br>In bibliometrie scope, we frequently have to compute database which constitute a quantitive information corpus, difficult to interpret by direct reading. That's the reason why some tools with complex mathematic treatments have been created, this is how structured data bank can be processing to obtain relevant information available for decision makers. The Centre de Recherche Rétrospective de Marseille is specialized in information processing for a long time. Automatic tools based on geometrical representation of relationship between entities have been developed. During this research, an innovant data processing implemented to automatically produce an organized representation of graph easily understandable have been defined. The treatment chain is based on two different approach, a determinist approach issuing from graph theory and a stochastic approach composed of simulated annealing algorithm and genetic algorithm, which allow to make easier graph reading
APA, Harvard, Vancouver, ISO, and other styles
19

Bernadotte, Guy. "La méthode rationnelle généralisée : analyse de sensibilité et performance du modèle." Mémoire, École de technologie supérieure, 2006. http://espace.etsmtl.ca/491/1/BERNADOTTE_Guy.pdf.

Full text
Abstract:
L'objectif du mémoire est, partant de l'équation de continuité et des hypothèses de la méthode rationnelle traditionnelle, de dériver un modèle capable de reproduire l'hydrogramme complet d'une crue. Le bassin est subdivisé en surface imperméable et en surface perméable, ayant chacune ses caractéristiques propres. L'étude de sensibilité a consisté à calculer les taux de variation du débit de pointe et du volume ruisselé en fonction du taux de variation des neuf paramètres du modèle. Diverses formules d'estimation de sensibilité relative ont ainsi été dérivées. Enfin, quarante-un évènements pluvieux ont servi à étudier les performances du modèle. Cinquante pour cent du temps, le modèle simule parfaitement les débits mesurés. De plus, la prise en compte de temps de concentration distincts pour les surfaces imperméable et perméable améliore sensiblement les résultats.
APA, Harvard, Vancouver, ISO, and other styles
20

Delgado, Gabriel. "Optimisation des structures composites: Une analyse de sensibilité géométrique et topologique." Phd thesis, Ecole Polytechnique X, 2014. http://pastel.archives-ouvertes.fr/pastel-01005520.

Full text
Abstract:
Cette thèse est consacrée principalement à l'étude de deux problèmes, à savoir la conception optimale des drapages composites et l'analyse de sensibilité topologique élastostatique anisotrope. En ce qui concerne la conception des composites, nous considérons des structures de masse minimale soumises à des contraintes de raideur et flambage, où les variables de conception sont la forme de chaque pli et la séquence d'empilement. En effet, le drapage composite est constitué d'une collection de plis orthotropes dont les axes principaux peuvent prendre quatre orientations différentes: 0º , 90º , 45º , -45º. La manière dont ces orientations sont disposées dans le composite définit la séquence d'empilement. Le comportement physique du composite est modélisé par le système d'équations des plaques linéarisées de von Kármán. Afin d'optimiser les deux variables de conception, nous nous appuyons sur une technique de décomposition qui regroupe les contraintes dans une seule fonction qui dépend des formes de chaque pli uniquement. Grâce à cette approche, un problème équivalent d'optimisation à deux niveaux est établi de manière rigoureuse. Le premier niveau, aussi appelé inférieur, représente l'optimisation combinatoire de la séquence d'empilement tandis que le deuxième niveau, ou niveau supérieur, représente l'optimisation de la forme de chaque pli. Nous proposons ainsi pour le niveau inférieur une méthode combinatoire convexe, alors que pour le niveau supérieur une méthode des lignes de niveaux couplé à la notion du gradient de forme. Un cas test aéronautique est détaillé pour diverses contraintes, à savoir la compliance, le facteur de réserve et la première charge de flambement. Ensuite, nous étudions la dérivée topologique des fonctions coût qui dépendent de la déformation et du déplacement (en supposant un comportement du matériau élastique linéaire) dans un cadre 2D et 3D anisotrope général, c'est à dire où à la fois le milieu et l'inclusion peuvent avoir des propriétés élastiques arbitraires. Le développement asymptotique de la fonction coût par rapport à l'inclusion est mathématiquement justifié pour une large classe des critères et des procédures de calcul sont plus tard discutées à la vue de plusieurs exemples numériques 2D et 3D. Finalement, en dehors des sujets mentionnés précédemment, nous traitons en outre deux problèmes de conception optimale. Premièrement, nous considérons la meilleure répartition de plusieurs matériaux élastiques dans un domaine fixe, où l'interface peut être nette ou lisse. Afin d'optimiser à la fois la géométrie et la topologie du mélange, nous nous appuyons sur la méthode des lignes de niveau et la fonction distance signée pour la description des interfaces entre les différentes phases. Deuxièmement, dans le cadre de l'étude des dispositifs énergétiques complémentaires aux moteurs d'avions, nous cherchons à trouver la micro-structure optimale d'une pile à combustible micro-tubulaire par une technique d'homogénéisation inverse. Le motif périodique trouvé vise à maximiser la surface d'échange électrochimique soumis à une contrainte de perte de charge et une contrainte de perméabilité. L'agencement optimal liquide/solide découle de l'application de la méthode de lignes de niveau au problème de cellule correspondant.
APA, Harvard, Vancouver, ISO, and other styles
21

Dargelas, Alain. "Approche multi-stratégique pour la génération déterministe de vecteurs de test de circuits séquentiels synchrones." Montpellier 2, 1997. http://www.theses.fr/1997MON20033.

Full text
Abstract:
Cette these propose une etude bibliographique exhaustive des techniques deterministes de generation de vecteurs de test pour circuits combinatoires et sequentiels synchrones. Une description exhaustive des difficultes specifique du test des circuits combinatoires et sequentiels est faite. Une approche pragmatique est menee pour repondre aux exigences industrielles de la generation de vecteurs de test pour les circuits combinatoires et sequentiels. Des methodes originales, visant les couches algorithmiques de haut niveau, telles que les strategies multiples de recherche structurelle ou les strategies multiples de recherche temporelle sont introduites. D'autres mecanismes de bas niveau tels que les mecanismes de remise en cause ou d'ordonnancement de decisions sont discutes. Une demonstration de l'efficacite des methodes proposees est faite par comparaison avec les meilleurs outils industriels. Cette efficacite se mesure par rapport au taux de couverture de fautes atteint, a la reduction du temps de generation et a la reduction des longueurs de sequences de test. Finalement, une ouverture des techniques utilisees par les generateurs de vecteurs de test vers d'autres disciplines de la microelectronique est exposee
APA, Harvard, Vancouver, ISO, and other styles
22

Royer, Clément. "Algorithmes d'optimisation sans dérivées à caractère probabiliste ou déterministe : analyse de complexité et importance en pratique." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30207/document.

Full text
Abstract:
L'utilisation d'aspects aléatoires a contribué de façon majeure aux dernières avancées dans le domaine de l'optimisation numérique; cela est dû en partie à la recrudescence de problèmes issus de l'apprentissage automatique (machine learning). Dans un tel contexte, les algorithmes classiques d'optimisation non linéaire, reposant sur des principes déterministes, se révèlent en effet bien moins performants que des variantes incorporant de l'aléatoire. Le coût de ces dernières est souvent inférieur à celui de leurs équivalents déterministes; en revanche, il peut s'avérer difficile de maintenir les propriétés théoriques d'un algorithme déterministe lorsque de l'aléatoire y est introduit. Effectuer une analyse de complexité d'une telle méthode est un procédé très répandu dans ce contexte. Cette technique permet déstimer la vitesse de convergence du schéma considéré et par là même d'établir une forme de convergence de celui-ci. Les récents travaux sur ce sujet, en particulier pour des problèmes d'optimisation non convexes, ont également contribué au développement de ces aspects dans le cadre déterministe, ceux-ci apportant en effet un éclairage nouveau sur le comportement des algorithmes. Dans cette thèse, on s'intéresse à l'amélioration pratique d'algorithmes d'optimisation sans dérivées à travers l'introduction d'aléatoire, ainsi qu'à l'impact numérique des analyses de complexité. L'étude se concentre essentiellement sur les méthodes de recherche directe, qui comptent parmi les principales catégories d'algorithmes sans dérivées; cependant, l'analyse sous-jacente est applicable à un large éventail de ces classes de méthodes. On propose des variantes probabilistes des propriétés requises pour assurer la convergence des algorithmes étudiés, en mettant en avant le gain en efficacité induit par ces variantes: un tel gain séxplique principalement par leur coût très faible en évaluations de fonction. Le cadre de base de notre analyse est celui de méthodes convergentes au premier ordre, que nous appliquons à des problèmes sans ou avec contraintes linéaires. Les bonnes performances obtenues dans ce contexte nous incitent par la suite à prendre en compte des aspects d'ordre deux. A partir des propriétés de complexité des algorithmes sans dérivées, on développe de nouvelles méthodes qui exploitent de l'information du second ordre. L'analyse de ces procédures peut être réalisée sur un plan déterministe ou probabiliste: la deuxième solution nous permet d'étudier de nouveaux aspects aléatoires ainsi que leurs conséquences sur l'éfficacité et la robustesse des algorithmes considérés<br>Randomization has had a major impact on the latest developments in the field of numerical optimization, partly due to the outbreak of machine learning applications. In this increasingly popular context, classical nonlinear programming algorithms have indeed been outperformed by variants relying on randomness. The cost of these variants is usually lower than for the traditional schemes, however theoretical guarantees may not be straightforward to carry out from the deterministic to the randomized setting. Complexity analysis is a useful tool in the latter case, as it helps in providing estimates on the convergence speed of a given scheme, which implies some form of convergence. Such a technique has also gained attention from the deterministic optimization community thanks to recent findings in the nonconvex case, as it brings supplementary indicators on the behavior of an algorithm. In this thesis, we investigate the practical enhancement of deterministic optimization algorithms through the introduction of random elements within those frameworks, as well as the numerical impact of their complexity results. We focus on direct-search methods, one of the main classes of derivative-free algorithms, yet our analysis applies to a wide range of derivative-free methods. We propose probabilistic variants on classical properties required to ensure convergence of the studied methods, then enlighten their practical efficiency induced by their lower consumption of function evaluations. Firstorder concerns form the basis of our analysis, which we apply to address unconstrained and linearly-constrained problems. The observed gains incite us to additionally take second-order considerations into account. Using complexity properties of derivative-free schemes, we develop several frameworks in which information of order two is exploited. Both a deterministic and a probabilistic analysis can be performed on these schemes. The latter is an opportunity to introduce supplementary probabilistic properties, together with their impact on numerical efficiency and robustness
APA, Harvard, Vancouver, ISO, and other styles
23

Regazzoni, P. L. "Confrontation et analyse d'érodimètres et caractérisation de la sensibilité à l'érosion d'interface." Phd thesis, Université de Nantes, 2009. http://tel.archives-ouvertes.fr/tel-00738460.

Full text
Abstract:
Une revue bibliographique présente le problème de l'érosion et les études antérieures. Une campagne d'essais est menée à l'aide de deux érodimètres (JET/HET) sur un ensemble de sols naturels, compactés suivant le protocole Proctor. L'interprétation des essais est effectuée avec les méthodes de la littérature. Les paramètres obtenus dépendent de l'appareil utilisé avec un mécanisme identique. Une méthode d'interprétation basée sur l'énergie hydraulique dissipée est développée pour les deux érodimètres. Pour une masse érodée donnée, les énergies sont similaires. L'indice de résistance à l'érosion proposé permet de regrouper sur un meme plan les essais. Une analyse statistique aboutit à l'expression de l'indice de résistance à l'érosion en quelques paramètres au voisinage de l'optimum Proctor. Une étude de la variabilité de la sensibilité à l'érosion met en évidence l'influence du degré de saturation et la corrélation de la perméabilité avec l'indice de résistance à l'érosion.
APA, Harvard, Vancouver, ISO, and other styles
24

Matieyendou, Matieyendou. "Analyse de Sensibilité pour les modèles dynamiques utilisés en agronomie et environnement." Phd thesis, AgroParisTech, 2009. http://tel.archives-ouvertes.fr/tel-00470153.

Full text
Abstract:
Des modèles dynamiques sont souvent utilisés pour simuler l'impact des pratiques agricoles et parfois pour tester des règles de décision. Ces modèles incluent de nombreux paramètres incertains et il est parfois difficile voire impossible de tous les estimer. Une pratique courante dans la littérature consiste à sélectionner les paramètres clés à l'aide d'indices de sensibilité calculés par simulation et de n'estimer que les paramètres les plus influents. Bien que cette démarche soit intuitive, son intérêt réel et ses conséquences sur la qualité prédictive des modèles ne sont pas connus. Nos travaux de recherches ont pour ambition d'évaluer cette pratique des modélisateurs en établissant une relation entre les indices de sensibilité des paramètres d'un modèle et des critères d'évaluation de modèles tels que le MSEP (Mean Square Error of Prediction) et le MSE (Mean Square Error), souvent utilisés en agronomie. L'établissement d'une telle relation nécessite le développement d'une méthode d'AS qui fournit un unique indice par facteur qui prend en compte les corrélations entre les différentes sorties du modèle obtenues à différentes dates. Nous proposons un nouvel indice de sensibilité global qui permet de synthétiser les effets des facteurs incertains sur l'ensemble des dynamiques simulées à l'aide de modèle. Plusieurs méthodes sont présentées dans ce mémoire pour calculer ces nouveaux indices. Les performances de ces méthodes sont évaluées pour deux modèles agronomiques dynamiques: Azodyn et WWDM. Nous établissons également dans ce mémoire, une relation formelle entre le MSE, le MSEP et les indices de sensibilité dans le cas d'un modèle linéaire et une relation empirique entre le MSEP et les indices dans le cas du modèle dynamique non linéaire CERES-EGC. Ces relations montrent que la sélection de paramètres à l'aide d'indices de sensibilité n'améliore les performances des modèles que sous certaines conditions.
APA, Harvard, Vancouver, ISO, and other styles
25

Caniou, Yann. "Analyse de sensibilité globale pour les modèles de simulation imbriqués et multiéchelles." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00864175.

Full text
Abstract:
Cette thèse est une contribution à la modélisation imbriquée de systèmes complexes. Elle propose une méthodologie globale pour quantifier les incertitudes et leurs origines dans une chaîne de calcul formée par plusieurs modèles pouvant être reliés les uns aux autres de façon complexe. Ce travail est organisé selon trois axes. D'abord, la structure dedépendance des paramètres du modèle, induite par la modélisation imbriquée, est modélisée de façon rigoureuse grâce à la théorie des copules. Puis, deux méthodes d'analyse de sensibilité adaptées aux modèles à paramètres d'entrée corrélés sont présentées : l'une est basée sur l'analyse de la distribution de la réponse du modèle, l'autre sur la décomposition de la covariance. Enfin, un cadre de travail inspiré de la théorie des graphes est proposé pour la description de l'imbrication des modèles. La méthodologie proposée est appliquée à des exemples industriels d'envergure : un modèle multiéchelles de calcul des propriétés mécaniques du béton par une méthode d'homogénéisation et un modèle multiphysique de calcul de dommage sur la culasse d'un moteur diesel. Les résultats obtenus fournissent des indications importantes pour une amélioration significative de la performance d'une structure.
APA, Harvard, Vancouver, ISO, and other styles
26

Blanco, Stéphane. "Mécanismes de séparation des protéines par électrophorèse. Modélisation et analyse de sensibilité." Toulouse 3, 1996. http://www.theses.fr/1996TOU30326.

Full text
Abstract:
L'electrophorese est un procede qui permet de separer des particules ou macromolecules chargees en utilisant leur migration sous l'effet d'un champ electrique. La modelisation des phenomenes electrophoretiques developpee dans le cadre de cette etude a l'aide du formalisme d'evolution par transfert et du logiciel zoom, a pour principal objectif d'atteindre un meilleur niveau de comprehension des mecanismes siegeant dans ce type de procede. L'application a des macromolecules du type proteines a necessite de construire, sur une base theorique, un modele mathematique de conductivite electrique d'une suspension de particules moderement chargees.
APA, Harvard, Vancouver, ISO, and other styles
27

Avila, Sergio Luciano. "Optimisation multiobjectif et analyse de sensibilité appliquées à la conception de dispositifs." Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/slavila.pdf.

Full text
Abstract:
Cette thèse présente une brève revue des concepts et méthodes d'optimisation et détaille en outre l'implémentation d'un "Algorithme Génétique MultiObjectif" (AGMO) associé à des analyses de sensibilité pour l'optimisation de dispositifs. Le but est de fournir à l'ingénieur non seulement une ample variété de solutions, mais aussi la possibilité de mieux analyser son propre problème. Ce travail comprend deux contributions principales : l'analyse simultanée des deux espaces, celui des paramètres et celui des objectifs, sans en priviligier un, qui facilite le processus de recherche des solutions optimales ; le développement et l'intégration d'études de sensibilité, destinées à vérifier la stabilité des solutions obtenues, et à tester le modèle adopté par l'ingénieur pour la représentation de son problème. Plusieurs exemples concernant l'électromagnétisme ont été analysés pour évaluer la procédure proposée, en particulier l'optimisation d'antennes satellite à réflecteurs "conformés"<br>This thesis, besides presenting a brief review about optimization concepts and methods, also describes the implementation of a multi-objective genetic algorithm (AGMO) associated to sensitivity analysis for optimization of devices. The aim is to provide engineers not only several possible solutions, but also the possibility of a deeper understanding of the analyzed problem. The present work brings two main contributions : an optimization algorithm that deal with parameters space and objective space with the same importance, making easy the search process for optimal solutions ; the development and integration of sensitivity studies, whose goal is to veriry how stable the obtained solutions are as well as to test the 'model' adopted by the engineer as representation of his/problem. Many projects involving electromagnetisme were considered to evaluate the proposed procedure, in particular the optimization of satellite shaped reflector antennas
APA, Harvard, Vancouver, ISO, and other styles
28

Wolbert, Dominique. "Analyse de sensibilité et optimisation dans un simulateur de procédés modulaire simultané." Toulouse, INPT, 1992. http://www.theses.fr/1992INPT072G.

Full text
Abstract:
L'auteur propose une methodologie generale d'obtention, d'analyse et d'exploitation de sensibilites analytiques au sein d'un simulateur de procedes en regime permanent utilisant une approche modulaire simultanee. Dans une premiere partie, l'auteur expose la methodologie generale mise en uvre pour l'analyse de sensibilite d'un procede: l'obtention, de maniere analytique, des matrices de sensibilite des modules; la gestion et l'exploitation de ces matrices pour la generation de la matrice jacobienne rigoureuse des equations niveau procede; la generation et l'exploitation, a convergence du probleme de simulation, de la matrice de sensibilite du procede. L'interet et l'efficacite de la methodologie mise en uvre sont illustres au travers d'exemples. Dans une seconde partie, l'application des matrices de sensibilite a l'optimisation des procedes est developpee. Plusieurs points sont analyses et discutes: les approches pouvant etre utilisees pour l'optimisation dans un simulateur modulaire simultane; les algorithmes de programmation non-lineaire les plus adaptes a ce type de probleme; l'analyse de sensibilite de la solution optimale, pour laquelle plusieurs techniques ont ete developpees en exploitant les matrices de sensibilite pour la generation de la matrice hessienne du probleme d'optimisation. Toutes les strategies et methodes ont ete mises en place dans le simulateur prosim, et comparees a l'aide de divers exemples de complexite croissante illustrant l'efficacite et la flexibilite resultant de l'utilisation de sensibilites analytiques
APA, Harvard, Vancouver, ISO, and other styles
29

Lamboni, Matieyendou. "Analyse de sensibilité pour les modèles dynamiques utilisés en agronomie et environnement." AgroParisTech, 2009. http://www.theses.fr/2009AGPT0087.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Benoumechiara, Nazih. "Traitement de la dépendance en analyse de sensibilité pour la fiabilité industrielle." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS047.

Full text
Abstract:
Les études de fiabilité des structures ont recours à des approches probabilistes permettant de quantifier le risque qu'un événement accidentel se produise. La dépendance entre les variables aléatoires d'entrée d'un modèle peut avoir un impact significatif sur les résultats de l'étude de sureté. Cette thèse apporte une contribution au traitement de la dépendance en fiabilité des structures. Les deux principaux thèmes traités dans ce document sont, d'une part, l'analyse de sensibilité pour variables dépendantes lorsque la dépendance est connue et, d'autre part, l'évaluation d'un risque de fiabilité lorsque la dépendance est inconnue. Dans un premier temps, nous proposons une extension des mesures d'importance par permutation de l'algorithme des forêts aléatoires au cas de données dépendantes. Nous adaptons aussi l'algorithme d'estimation des indices de Shapley, utilisés en théorie des jeux, afin de prendre compte l'erreur d'estimation des indices. Dans un second temps, lorsque la structure de dépendance est inconnue, nous proposons une estimation conservative du risque de fiabilité basée sur une modélisation de la dépendance qui permet de déterminer la structure de dépendance la plus pénalisante. La méthodologie proposée est appliquée à un exemple de fiabilité structurelle permettant d'obtenir une estimation conservative du risque<br>Structural reliability studies use probabilistic approaches to quantify the risk of an accidental event occurring. The dependence between the random input variables of a model can have a significant impact on the results of the reliability study. This thesis contributes to the treatment of dependency in structural reliability studies. The two main topics covered in this document are the sensitivity analysis for dependent variables when the dependence is known and, as well as the assessment of a reliability risk when the dependence is unknown. First, we propose an extension of the permutation-based importance measures of the random forest algorithm towards the case of dependent data. We also adapt the Shapley index estimation algorithm, used in game theory, to take into account the index estimation error. Secondly, in the case of dependence structure being unknown, we propose a conservative estimate of the reliability risk based on dependency modelling to determine the most penalizing dependence structure. The proposed methodology is applied to an example of structural reliability to obtain a conservative estimate of the risk
APA, Harvard, Vancouver, ISO, and other styles
31

Petelet, Matthieu. "Analyse de sensibilité globale de modèles thermomécaniques de simulation numérique du soudage." Dijon, 2007. http://www.theses.fr/2007DIJOS060.

Full text
Abstract:
La démarche actuelle de simulation numérique d'une opération de soudage (SNS) concernant la définition du modèle mécanique consiste à utiliser au mieux des connaissances, les paramètres matériau et à utiliser le modèle qui semble le plus adapté à la situation. Cette démarche comporte un impondérable de taille : les données du matériau sont toujours incomplètes ! Ainsi, cette manière de procéder admet, omet ou ne��glige l'influence de la méconnaissance des paramètres du modèle sur le résultat de la simulation. Dans ce cas quelle pertinence, quelle fiabilité peut on accorder au modèle ? Cette thèse propose d'apporter les éléments permettant de lever ce verrou et de les appliquer à des cas concrets de simulation du soudage. La détermination des paramètres influents sera réalisée par une analyse de sensibilité globale. Pour la mettre en oeuvre, des expériences numériques de soudage sont planifiées, couvrant l'espace matériau des aciers où toutes les propriétés du matériau varient à la fois. La méthodologie de l'analyse de sensibilité globale permet alors d'identifier les propriétés du matériau les plus influentes sur la variabilité des sorties du code de calcul (contraintes et distorsions). La méthodologie d'analyse de sensibilité globale, totalement innovante en SNS, a démontré la possibilité de réduire la phase d'identification aux seuls paramètres importants et de quantifier les effets des variables d'entrée sur le résultat du calcul. Ainsi, l'analyse de sensibilité apporte des réponses à quelques questions fréquemment posées en SNS : Quelles propriétés du matériau doivent être mesurées avec précision et lesquelles peut-on se contenter de prendre dans la littérature ?<br>Current approach of most welding modellers is to content themselves with available material data, and to chose a mechanical model that seems to be appropriate. Among inputs, those controlling the material properties are one of the key problems of welding simulation: material data are never characterized over a sufficiently wide temperature range! This way to proceed neglect the influence of the uncertainty of input data on the result given by the computer code. In this case, how to assess the credibility of prediction? This thesis represents a step in the direction of implementing an innovative approach in welding simulation in order to bring answers to this question, with an illustration on some concretes welding cases. The global sensitivity analysis is chosen to determine which material properties are the most sensitive in a numerical welding simulation and in which range of temperature. Using this methodology require some developments to sample and explore the input space covering welding of different steel materials. Finally, input data have been divided in two groups according to their influence on the output of the model (residual stress or distortion). In this work, complete methodology of the global sensitivity analysis has been successfully applied to welding simulation and lead to reduce the input space to the only important variables. Sensitivity analysis has provided answers to what can be considered as one of the probable frequently asked questions regarding welding simulation: for a given material which properties must be measured with a good accuracy and which ones can be simply extrapolated or taken from a similar material?
APA, Harvard, Vancouver, ISO, and other styles
32

Machala, Dawid. "Comportement d'un projectile en vol libre : modélisation LPV et analyse de sensibilité." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0165.

Full text
Abstract:
Les essais en vol libre peuvent être considérés comme une référence pour l'étude du comportement d'un projectile en vol, puisque la caractérisation aérodynamique se base sur des données mesurées dans des conditions de vol réelles. Néanmoins, cette détermination est entièrement conditionnée par le cadre expérimental qui peut introduire plusieurs sources d’incertitude telles que les conditions initiales de vol ainsi que les coefficients aérodynamiques partiellement connus. Par ailleurs, la structure non linéaire du modèle, bien qu’adaptée pour la description et l’identification du comportement aérodynamique, est différente de celle utilisée généralement pour la conception des boucles de pilotage. Ainsi, l'intérêt repose sur le développement d'un modèle commun et exploitable quel que soit l'objectif de l'étude. Dans ce contexte, deux contributions principales sont apportées dans cette thèse. • Une nouvelle structure de modèle a été suggérée. Les équations non linéaires ont été transformées en forme quasi-LPV dans un repère non-tournant, similaire aux structures utilisées dans les études GNC. Cette méthode, réduisant le temps de calcul pour des projectiles gyrostabilisés tout en conservant la description complète du comportement d'un projectile en vol, s'avère ainsi adaptée. • L’influence des incertitudes sur le modèle quasi-LPV a été examinée à travers l’analyse de sensibilité globale du modèle, en déterminant ses paramètres influents et non-identifiables. Cette analyse a permis de mieux comprendre son comportement physique et de guider les études de sauvegarde effectuées en amont des essais en vol<br>Free-flight experiments can be considered as a realistic source of aerodynamic data-based knowledge, since the behaviour of a projectile is observed under real flight conditions. However, the experimental framework introduces several sources of uncertainty: the initial flight conditions are unknown, and only an initial guess of aerodynamics of the projectile is available. Additionally, the nonlinear model structure used in identification of aerodynamic behaviour is different from the structures typically used in guidance and navigation activities, which necessitates switching between model structures---depending on the task at hand. Such a setting lays the groundwork for the following main contributions developed in the thesis: • A novel model structure is proposed: the nonlinear model equations are transformed into a quasi-LPV structure in a non-rolling reference frame. The new structure resembles the ones used in guidance and navigation activities, while preserving the projectile's nonlinear behaviour. It is also much faster in computation time for the case of spin-stabilised projectiles, making it more efficient for simulations. • Influence of the aforementioned uncertainties on the quasi-LPV model was assessed using global sensitivity analysis: it has allowed to determine which parameters of the model can be deemed non-identifiable, and to gain further insight into the physical behaviour of the quasi-LPV model. These developments could be used in future safety analysis preceding the flight tests
APA, Harvard, Vancouver, ISO, and other styles
33

Regazzoni, Pierre-Louis. "Confrontation et analyse d'érodimètres et caractérisation de la sensibilité à l'érosion d'interface." Nantes, 2009. http://www.theses.fr/2009NANT2131.

Full text
Abstract:
Le Jet Erosion Test et le Hole Erosion test sont deux appareils qui permettent de caractériser les deux principaux mécanismes d'érosion d'interface : la surverse et le renard. Une étude bibliographique est effectuée afin de présenter et d'analyser les méthodes d'interprétation proposées dans la littérature. Une campagne d'essais est réalisée à l'aide des deux érodimètres sur un ensemble de sols naturels qui représentent une large place de sensibilité à l'érosion et qui sont compactés suivant le protocole Proctor. La première interprétation des essais est effectuée avec les méthodes présentes dans la littérature. Les valeurs ainsi obtenues du coefficient d'érosion et de la contrainte seuil ainsi que la classification de la sensibilité des sols à l'érosion sont dépendantes de l'appareil utilisé. Une analyse des échanges énergétiques entre le fluide et le sol est menée et permet de proposer une méthode d'interprétation pour les deux érodimètres. Un nouvel indice de sensibilité à l'érosion est proposé et ses valeurs obtenues avec les deux érodimètres sont confrontées. Deux gammes d'énergie dissipée par le fluide sont identifiées et la classification des sols ainsi obtenue est identique pour les deux appareils. Une analyse statistique est réalisée pour les sols compactés au voisinage de l'optimum Proctor et permet d'aboutir à l'expression de l'indice de sensibilité à l'érosion en fonction de quelques paramètres physiques des sols. Une étude de la variabilité de la sensibilité à l'érosion est effectuée de part et d'autre de l'optimum Proctor. L'influence du degré de saturation est mise en évidence et une corrélation entre la sensibilité à l'érosion et la perméabilité est proposée<br>The Jet Erosion Test and the Hole Erosion Test are two devices allow characterizing the two main interface erosion mechanisms : overtopping and piping phenomena. A bibliographical review is carried out to analyze and study the different methods of interpretation for the tests. A comparative study is carriedout with the two erodimeters on natural soil samples, compacted with the Proctor protocol and representing a panel of sensitivity to erosion. The first interpretation is based on the methods coming from the litterature. The obtained values for the erosion coefficient and for the critical shear stress and the stoil classification are dependent on the used device. An energetical approach between the fluid and the soil is done in order to propose a method of interpretation for the two devices. A new erosion sensitivity index is proposed and the obtained values are compared between the two apparatus. Two dissipated hydraulic energy scales appear and an identical soil classification is built with the two devices. A statistical analysis is carried out for the compacted soils which gives an expression of the index of sensitivity to erosion in some physical parameters. A study concerning the variation observed on the soil « erodibility » from the dry side to the wet side is done. The influence of the saturation degree is pointed out. In addition, a relation is proposed between the permeability and the index of sensitivity to erosion
APA, Harvard, Vancouver, ISO, and other styles
34

Laroussi, Mehdi. "Analyse de sensibilité 3D par la méthode de l'état adjoint : application au forgeage." Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://tel.archives-ouvertes.fr/tel-00005755.

Full text
Abstract:
Lanalyse de sensibilité 3D en forgeage, thème de ce travail, consiste à calculer le gradient dun certain nombre de fonctions coût par rapport au vecteur des paramètres . Ce gradient est un outil précieux pour lutilisateur, lui offrant une indication précise pour modifier les paramètres afin dobtenir une gamme de forgeage optimale. <br />Différentes techniques danalyse de sensibilité peuvent être utilisées. Nous avons retenu la méthode de létat adjoint, particulièrement bien adaptée aux exigences des industriels (nombre élevé de paramètres) et au code de simulation numérique FORGE3®. Limplémentation de la méthode de létat adjoint dans le logiciel FORGE 3® a requis une attention particulière sur trois points :<br />- le stockage des données nécessaire au calcul de ladjoint<br />- le traitement du contact unilatéral et de sa différentiation<br />- la prise en compte du remaillage et du transport des variables<br />Ces trois points étant acquis, des validations sur des cas « académiques » ont été effectuées afin de tester la précision des dérivées « adjointes ». De plus, les temps de calcul et lespace mémoire requis par la méthode de létat adjoint sont largement raisonnables.<br />Enfin, un cas dengrenage proposé par la société ASCOFORGE est traité, les premiers résultats doptimisation obtenus sont encourageants. Ceci ouvre la voie à lapplication de la méthode de létat adjoint à des problèmes industriels de forgeage 3D.
APA, Harvard, Vancouver, ISO, and other styles
35

Ngodock, Hans Emmanuel. "Assimilation de données et analyse de sensibilité : une application à la circulation océanique." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005006.

Full text
Abstract:
Le travail mené dans cette thèse porte sur l'étude "à posteriori" de l'assimilation variationnelle de données. Il s'agit d'une démarche de faisabilité pour la mise au point des outils permettant de faire une analyse diagnostique (qualitative et quantitative) du processus d'assimilation variationnelle, notamment en ce qui concerne l'influence du bruit des observations sur le processus d'assimilation ainsi que sa propagation sur les champs reconstitués (nous sommes alors amenés à faire une étude de sensibilité), et l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation. L'application usuelle des équations adjointes pour l'analyse de sensibilité est revisée, car dans le contexte de l'assimilation variationnelle, nous avons montré par un exemple simple qu'il faut s'y prendre différemment. Nous proposons alors une méthode pour mener correctement cette analyse de sensibilité. Cette méthode est basée sur l'utilisation des équations adjointes au second ordre, obtenues en prenant l'adjoint du système d'optimalité. La sensibilité en est déduite par inversion du Hessien de la fonction coût via la minimisation d'une fonctionnelle quadratique. L'application est faite sur un modèle de circulation générale océanique de type quasi-géostrophique, et nous faisons aussi l'étude de l'existence et l'unicité de la solution de l'équation adjointe au second ordre du modèle considéré, pour justifier l'utilisation du Hessien et l'applicabilité de notre méthode. Nous étudions aussi l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation au travers du Hessien (à l'optimum) dont les éléments propres varient lorsqu'on fait varier la configuration. Enfin, nous étudions la prédicibilité du système d'optimalité.
APA, Harvard, Vancouver, ISO, and other styles
36

Gurevsky, Evgeny. "Conception de lignes de fabrication sous incertitudes : analyse de sensibilité et approche robuste." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00820619.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur la conception de systèmes de fabrication en contexte incertain. La conception d'un tel système peut être vue comme un problème d'optimisation qui consiste à trouver une configuration qui permet d'optimiser certains objectifs tout en respectant des contraintes technologiques et économiques connues. Les systèmes de fabrication étudiés dans ce mémoire sont des lignes d'assemblage et d'usinage. La première est une ligne qui se présente comme une chaîne de postes de travail où, dans chaque poste, les opérations d'assemblage s'exécutent de manière séquentielle. La deuxième, quant à elle, est une ligne particulière qui se compose de machines de transfert comportant plusieurs boîtiers multibroches où les opérations s'exécutent simultanément. Dans un premier temps, nous décrivons de différentes approches permettant de modéliser l'incertitude des données en optimisation. Une attention particulière est portée sur les deux approches suivantes : l'approche robuste et l'analyse de sensibilité. Puis, nous présentons trois applications : la conception d'une ligne d'assemblage et d'une ligne d'usinage soumises aux variations de temps opératoires et la conception d'une ligne d'assemblage avec les temps opératoires connus sous la forme d'intervalles des valeurs possibles. Pour chaque application, nous identifions les performances attendues ainsi que la complexité de la prise en compte de l'incertitude. Ensuite, nous proposons de nouveaux critères d'optimisation en adéquation avec la problématique introduite. Enfin des méthodes de résolution sont développées pour appréhender les différents problèmes mis en évidence par ces critères.
APA, Harvard, Vancouver, ISO, and other styles
37

Antignac, Aude. "Analyse des souches de Neisseria meningitidis de sensibilité diminuée à la pénicilline G." Paris 7, 2003. http://www.theses.fr/2003PA077005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Resmini, Andrea. "Analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066529.

Full text
Abstract:
L'analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe par rapport à la discrétisation de maillage et aux incertitudes liées à des paramètres d'entrées du modèle a été traitée 1- par le moyen des méthodes adjointes pour le calcul de gradient et 2- par approximations stochastiques non-intrusives basées sur des grilles creuses. 1- Une méthode d'adaptation de maillages goal-oriented basée sur les dérivées totales des fonctions aérodynamiques d'intérêt par rapport aux nœuds du maillage a été introduite sous une forme améliorée. La méthode s'applique au cadre de volumes finis pour des écoulements RANS pour des maillages mono-bloc et multi-bloc structurés. Des applications 2D pour des écoulements transsoniques ainsi que subsonique détaché atour d'un profil pour l'estimation du coefficient de traînée sont présentées. L'apport de la méthode proposée est vérifié. 2- Les méthodes du polynôme de chaos généralisé sous forme pseudospectrale creuse et de la collocation stochastique construite sur des grilles creuses isotropes et anisotropes sont examinées. Les maillages anisotropes sont obtenus par le biais d'une méthode adaptive basée sur l'analyse de sensibilité globale. L'efficacité des ces approximations est testée avec des fonctions test et des écoulements aérodynamiques visqueux autour d'un profil en présence d'incertitudes géométriques et opérationnelles. L'intégration des méthodes et aboutissements 1- et 2- dans une approche couplée permettrait de contrôler de façon équilibrée l'erreur déterministe/stochastique goal-oriented<br>Sensitivity analysis for the numerical simulation of external aerodynamics compressible flows with respect to the mesh discretization and to the model input parametric uncertainty has been addressed respectively 1- through adjoint-based gradient computation techniques and 2- through non-intrusive stochastic approximation methods based on sparse grids. 1- An enhanced goal-oriented mesh adaptation method based on aerodynamic functional total derivatives with respect to mesh coordinates in a RANS finite-volume mono-block and non-matching multi-block structured grid framework is introduced. Applications to 2D RANS flow about an airfoil in transonic and detached subsonic conditions for the drag coefficient estimation are presented. The asset of the proposed method is patent. 2- The generalized Polynomial Chaos in its sparse pseudospectral form and stochastic collocation methods based on both isotropic and dimension-adapted sparse grids obtained through an improved dimension-adaptivity method driven by global sensitivity analysis are considered. The stochastic approximations efficiency is assessed on multi-variate test functions and airfoil viscous aerodynamics simulation in the presence of geometrical and operational uncertainties. Integration of achievements 1- and 2- into a coupled approach in future work will pave the way for a well-balanced goal-oriented deterministic/stochastic error control
APA, Harvard, Vancouver, ISO, and other styles
39

Voon, Lew Yan, and Lew Fock Chong. "Contribution au test intégré déterministe : structures de génération de vecteurs de test." Montpellier 2, 1992. http://www.theses.fr/1992MON20035.

Full text
Abstract:
Ce memoire concerne la synthese de structures de generation de vecteurs de test (gvt) deterministes. Une etude empirique, basee sur des simulations exhaustives, des sequences generees par des registres a decalage a retroaction lineaire et non-lineaire montre que ces derniers sont inaptes a produire des sequences de vecteurs de test deterministes. Nous avons donc etendu notre recherche au cas general de machine d'etats finis lineaire et autonome (mefla) avec inversion. Apres avoir presente les principes fondamentaux d'une mefla avec inversion, nous proposons une methode de synthese de structures gvt deterministes et deterministe/pseudo-aleatoire
APA, Harvard, Vancouver, ISO, and other styles
40

Oualibouch, Moulay Es-Saïd. "Analyse numérique des méthodes proximales : décomposition et parallélisme." Phd thesis, Grenoble 1, 1992. http://tel.archives-ouvertes.fr/tel-00341794.

Full text
Abstract:
Nous proposons dans ce travail de nouvelles méthodes de décomposition basées sur l'algorithme du point proximal et ses extensions en optimisation convexe sous contraintes. On y démontre en particulier la sensibilité numérique de ces méthodes au choix d'un certain paramètre utilise pour accélérer la convergence. Ces méthodes sont appliquées a plusieurs modèles, notamment aux problèmes de transports dans les réseaux et aux problèmes de localisation. Les performances ont été validées a la fois du point de vue séquentiel et du point de vue massivement parallèle après une mise en œuvre sur la connection machine cm-2
APA, Harvard, Vancouver, ISO, and other styles
41

Mensi, Amira. "Analyse des pointeurs pour le langage C." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00944703.

Full text
Abstract:
Les analyses statiques ont pour but de déterminer les propriétés des programmes au moment de la compilation. Contrairement aux analyses dynamiques, le comportement exact du programme ne peut être connu. Par conséquent, on a recours à des approximations pour remédier à ce manque d'information. Malgré ces approximations, les analyses statiques permettent des optimisations et des transformations efficaces pour améliorer les performances des programmes. Parmi les premières analyses du processus d'optimisation figure l'analyse des pointeurs. Son but est d'analyser statiquement un programme en entrée et de fournir en résultat une approximation des emplacements mémoire vers lesquels pointent ses variables pointeurs. Cette analyse est considérée comme l'une des analyses de programmes les plus délicates et l'information qu'elle apporte est très précieuse pour un grand nombre d'autres analyses clientes. En effet, son résultat est nécessaire à d'autres optimisations, comme la propagation de constante, l'élimination du code inutile, le renommage des scalaires ainsi que la parallélisation automatique des programmes. L'analyse des pointeurs est très nécessaire pour l'exploitation du parallélisme présent dans les applications scientifiques écrites en C. Ceci est dû au fait que les tableaux, très présents dans ce type d'applications, sont accédés via les pointeurs. Il devient nécessaire d'analyser les dépendances entre les éléments de tableau dans le but de paralléliser les boucles. Le langage C présente beaucoup de difficultés lors de son analyse par la liberté qu'il offre aux utilisateurs pour gérer et manipuler la mémoire par le biais des pointeurs. Ces difficultés apparaissent par exemple lors de l'accès aux tableaux par pointeurs, l'allocation dynamique (via "malloc") ainsi que les structures de données récursives. L'un des objectifs principaux de cette thèse est de déterminer les emplacements mémoire vers lesquels les pointeurs pointent. Ceci se fait en assurant plusieurs dimensions comme : - la sensibilité au flot de contrôle, c'est-à-dire la mise à jour des informations d'un point programme à un autre ; - la non-sensibilité au contexte, c'est-à-dire l'utilisation de résumés au lieu de l'analyse du corps de la fonction à chaque appel ; - la modélisation des champs pointeurs des structures de données agrégées, dans laquelle chaque champ représente un emplacement mémoire distinct. D'autres aspects sont pris en compte lors de l'analyse des programmes écrits en C comme la précision des emplacements mémoire alloués au niveau du tas, l'arithmétique sur pointeurs ou encore les pointeurs vers tableaux. Notre travail permet l'amélioration des résultats des analyses clientes et en particulier il permet la parallélisation des boucles lorsqu'on accède aux éléments de tableaux via les pointeurs, la détection de code inutile ou le calcul du graphe de dépendances. Il est implémenté dans le compilateur parallélliseur PIPS (Parallélisation Interprocédurale de Programmes Scientifiques) et permet d'analyser, en particulier, les applications scientifiques de traitement du signal tout en assurant une analyse intraprocédurale précise et une analyse interprocédurale efficace via les résumés.
APA, Harvard, Vancouver, ISO, and other styles
42

Rousseau, Marie. "Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion." Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00788360.

Full text
Abstract:
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement
APA, Harvard, Vancouver, ISO, and other styles
43

Beaulieu, Lucie. "Analyse de sensibilité d'un indice de risque de perte de phosphore en zone cultivée." Thesis, Université Laval, 2005. http://www.theses.ulaval.ca/2005/22790/22790.pdf.

Full text
Abstract:
Il existe différents modèles de gestion de la pollution diffuse par le phosphore en agriculture. Le modèle d’indice de risque de perte du phosphore (IRP) estime les risques environnementaux associés aux pratiques culturales et aux conditions édaphiques pour un terrain donné. Des analyses de sensibilité de l’IRP ont été faites pour les conditions de Beauce-Appalaches au Québec. La zone d’étude est caractérisée par une superficie de 1 030 067 ha dont 173 941 ha sont en culture, principalement en fourrage et pâturage. La précipitation moyenne annuelle atteint 1236,5 mm et la température moyenne annuelle est de 3,85 ºC. La zone d’étude présente essentiellement des sols de type loam, loam-limoneux, loam-argileux et loam-limono-argileux. Les coefficients de régression linéaires multiples ont servi d’indice de sensibilité pour évaluer l’influence des différentes composantes, variables intermédiaires et variables de base sur les valeurs de l’IRP. Les analyses de sensibilité présentées dans cette recherche sont basées sur la technique de Monte Carlo qui utilise les densités de probabilité et les fréquences relatives des variables d’entrée du modèle pour estimer leur influence sur les valeurs de sortie. Pour la zone d’étude, 81% de la variabilité de l’IRP est attribuée au sous-indice de source du phosphore et 17% au sous-indice de transport du phosphore. Ce sont les composantes PORGAN (doses d’engrais organiques phosphorés moins les besoins en phosphore des cultures), DRAIN (distance séparatrice des drains souterrains) et PTOTAL (doses d’engrais organiques et minéraux phosphorés moins les besoins en phosphore des cultures) qui influencent le plus la valeur de l’IRP. Une analyse de sensibilité sur les variables de base montre que le prélèvement de phosphore par la culture, la distance entre les drains et la quantité de phosphore sous forme organique appliquée au sol influencent le plus les valeurs de l’IRP.
APA, Harvard, Vancouver, ISO, and other styles
44

Liu, Yuan. "Analyse de sensibilité et estimation de l'humidité du sol à partir de données radar." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD032/document.

Full text
Abstract:
L’étude de la diffusion des ondes électromagnétiques par une surface rugueuse aléatoire est de première importance dans de nombreuses disciplines et conduit à diverses applications notamment pour le traitement des surfaces par télédétection. En connaissant les modes de rétrodiffusion, on peut détecter la présence de la rugosité aléatoire indésirable de la surface de réflection telle que le réflecteur d'antenne et par conséquent trouver un moyen de corriger ou compenser les erreurs de phase. Cette thèse porte sur l’obtention de l'humidité du sol de surface à partir de mesures radar. La description de la surface rugueuse de façon aléatoire est présentée, suivie par les interactions d'ondes électromagnétiques avec les média. En particulier, un modèle d'équation intégrale avancé (AIEM) est introduit. La validité du modèle AIEM, qui est adopté comme modèle de travail, se fait par une large comparaison avec des simulations numériques et des données expérimentales. On analyse également les caractéristiques des configurations radar bistatique et on étudie la sensibilité de la diffusion bistatique à l'humidité du sol et à la rugosité de surface et, dans le même temps, le cadre de la détermination de l'humidité du sol à partir de mesures radar utilisant un réseau de neurones à base de filtres de Kalman récurrents est présenté. La formation du réseau et l'inversion des données sont décrits<br>Electromagnetic waves scattering from a randomly rough surface is of palpable importance in many fields of disciplines and bears itself in various applications spanned from surface treatment to remote sensing of terrain and sea. By knowing the backscattering patterns, one may detect the presence of the undesired random roughness of the reflection surface such as antenna reflector and accordingly devise a means to correct or compensate the phase errors. Therefore, it has been both theoretically and practically necessary to study the electromagnetic wave scattering from the random surfaces. This dissertation focuses on the retrieval of surface soil moisture from radar measurements. The description of the randomly rough surface is presented, followed by the electromagnetic wave interactions with the media. In particular, an advanced integral equation model (AIEM) is introduced. The validity of the AIEM model, which is adopted as a working model, is made by extensive comparison with numerical simulations and experimental data. Also analyzes the characteristics of the bistatic radar configurations and dissects the sensitivity of bistatic scattering to soil moisture and surface roughness of soil surfaces. Meanwhile presents a framework of soil moisture retrieval from radar measurements using a recurrent Kalman filter-based neural network. The network training and data inversion are described in detail
APA, Harvard, Vancouver, ISO, and other styles
45

Baho, Omar. "Conception de structures sandwiches à fort pouvoir d'atténuation acoustique : "analyse de sensibilité et optimisation"." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEC039/document.

Full text
Abstract:
L’industrie aérospatiale doit faire face à de nouvelles exigences environnementales, tout particulièrement concernant la réduction des coûts de lancement. L’utilisation de matériaux sandwichs composites plus légers permet de répondre à ces besoins. Cependant, l’allégement des matériaux sandwichs favorise une transmission importante du bruit, d’où la nécessité de prendre en compte des critères vibroacoustiques dès la phase de préconception. Dans cette optique, le travail présenté dans ce mémoire a pour objectif de proposer une démarche d’optimisation vibroacoustique des panneaux sandwichs composites légers, sous contraintes de masse et rigidité. Une étude spécifique est consacrée à l’optimisation des variables géométriques de solides cellulaires à périodicité de type nid d’abeille. L’objectif principal est de minimiser la densité modale en s’appuyant sur des modèles homogénéisés fiables. Afin de calculer les propriétés mécaniques macroscopiques des panneaux sandwichs, une méthode numérique d’homogénéisation tridimensionnelle est développée. Cette méthode permet de calculer les propriétés mécaniques équivalentes en utilisant les déformations et contraintes moyennes sur le volume représentatif. Les résultats obtenus sont conformes à ceux calculés par des méthodes classiques basées sur des modèles analytiques. Dans le but d’identifier une fonction objectif riche en informations sur le comportement vibroacoustique de panneau sandwich, on choisit d’étudier la densité modale du panneau. Par la suite, la fréquence de transition, qui sépare la zone de comportement de flexion pure du panneau sandwich du comportement en cisaillement pur de l’âme, est utilisée pour définir la fonction objectif. Après une étude d’analyse de sensibilité sur les paramètres mécaniques et géométriques de la structure sandwich, une démarche globale d’optimisation mono-objectif est mise en oeuvre pour maximiser la fréquence de transition de la structure sandwich composite constituée d’une âme en nid d’abeille hexagonale. Enfin, cette démarche est étendue pour estimer les propriétés géométriques optimales de nouvelles âmes<br>The aerospace industry has to adapt to new environmental requirements, especially concerning the reduction of the launch costs. The use of lighter composite sandwich materials can meet part of these requirements. However, their high stiffness-toweight ratio implies that they tend to increase noise transmission, which may be damageable to the payload. Vibroacoustic criterai should hence be taken into account from the early design stages. In this context, the work presented in this thesis aims to provide a vibroacoustic optimization approach of lightweight composite sandwich panels, under mass and stiffness constraints. A specific study is devoted to the optimization of geometric variables of periodic cellular solids such as honeycombs. The main objective is to minimize the modal density based on reliable homogenized models. In order to calculate the macroscopic mechanical properties of the sandwich panel, a numerical method of three-dimensional homogenization is developed. This method allows to calculate the equivalent mechanical properties by applying the average strains and stresses on a unit cell. The results obtained are consistent with those calculated by conventional methods based on analytical approaches. The modal density is chosen as an objective function for optimization, as it is closely related to the vibroacoustic behavior of the structure. The transition frequency, which separates the region of pure panel bending from the pure core shear zone, is further studied and considered as an alternative objective function. After a sensitivity analysis of the mechanical and geometric parameters of the sandwich structure, a mono-objective optimization approach is implemented to maximize the transition frequency of a composite sandwich structure with a hexagonal core. This approach is then extended to estimate the optimal geometric properties of new core shapes
APA, Harvard, Vancouver, ISO, and other styles
46

Lega, Notari Elena. "Analyse de la dynamique du modèle néo-autrichien de croissance : études d'économies hors de l'équilibre." Nice, 2001. http://www.theses.fr/2001NICE0045.

Full text
Abstract:
Le travail concerne l'analyse du modèle néo-autrichien, introduit par Hicks (1973) et reformulé par Amendola et Gaffard (1998). Une des idées de base est la dimension temporelle de la structure de la capacité productive, c'est-à-dire l'aspect séquentiel des évènements de construction et d'utilisation. Le modèle est décrit dans les quatre articles présentés aux Chapitres 2,3,4 et 5, sa description détaillée étant donnée au Chapitre 1. Le modèle de Hicks est écrit en temps discret et lors de l'intégration numérique sur un certain intervalle de temps on peut réduire la durée du pas et étudier les conséquences de ce changement sur l'évolution de l'économie suite à un certain choc (Chapitre 2). Au Chapitre 3, nous étudions les effets d'un choc technologique sur les salaires réels et le taux d'emploi. Grâce à l'utilisation de la méthode Monte-Carlo nous avons pu montrer que la transition à la nouvelle technologie n'est pas lié à la flexibilité des salaires réels mais plutôt aux conditions d'accumulation du capital. Dans le Chapitre 4 nous introduisons une méthode non standard pour l'étude numérique des orbites d'un système dynamique. Les résultats nous montrent que la complexité du modèle n'est pas due seulement aux défauts de coordination mais aussi au caractère définitif de la structure de la capacité productive. La propagation d'un choc technologique et son influence en particulier sur la productivité et le taux de chômage dans des économies caractérisées par différentes choix de politique monétaire est présenté au Chapitre 5. Au Chapitre 6 nous introduisons une nouvelle méthode pour le calcul de l'indicateur de Lyapunov sur des séries expérimentales. Cette méthode est appliquée dans le Chapitre 7 à des séries chaotiques issues du modèle néo-autrichien. Nous retrouvons que les degrés de liberté importants pour la dynamique du modèle sont exactement les variables clés du modèle. Ce résultat nous semble ouvrir une piste pour l'analyse des séries économétriques.
APA, Harvard, Vancouver, ISO, and other styles
47

Barrera, Gallegos Noé. "Sensibilité Paramétrique pour l’Analyse Dynamique des Réseaux à Courant Continu." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0021/document.

Full text
Abstract:
Ce travail de thèse a pour finalité de présenter différentes méthodologies pour l’analyse de réseaux à courant continue haut tension (HVDC). La théorie fondamentale de l‘analyse de sensitivité s’applique sur l’analyse des systèmes électriques de puissance dans les différentes étapes de la production et la transmission de l’énergie. Des outils de bases concernant cette théorie sont devenus populaires et très utilisés.En pratique, les facteurs de participation représentent un exemple de ces outils, utilisés depuis longtemps. Ils ont été proposés par (Perez-Arriaga et al., 1982). Le but des facteurs de participation est la réduction des modèles des systèmes ayant une dynamique particulière comme celle des systèmes électromécaniques. Aussi, les facteurs de participation sont utilisés pour comprendre les relations entre les variables d’état et les valeurs propres des systèmes. Nous présentons la théorie fondamentale de la sensitivité analytique dans laquelle les facteurs de participation sont basses. Pour une bonne compréhension de ces éléments de base de cette théorie, quelques exemples sont présentés. Nous présentons une formulation différente pour l’analyse par sensitivité paramétrique (Barrera Gallegos et al., 2016).Enfin, les deux méthodologies sur des exemples des réseaux HVDC. Notre comparaison permet d’exposer les limites de l’utilisation des facteurs de participation sur des réseaux HVDC.En conclusion, la nouvelle méthodologie est plus générale comparée aux facteurs de participation. Egalement, la nouvelle méthodologie, par sensitivité paramétrique, nous donne plus d’informations sur les caractéristiques dynamiques des réseaux HVDC<br>The work presented in this thesis presents different methodology for parametric sensitivity of high voltage dc networks(HVDC).The fundamental theory of modal analysis has been applied for analysis of the power electrical systems in its different stages of production and transmission of energy. Tools derived from these fundamentals have become popular with its use. Among the tools used in dynamic analysis, participation factors have been used for a long time. Proposed by (Perez-Arriaga et al., 1982), they give a metric for relating states and eigenvalues of a system. The objective of the participation factors is to analyze systems with particular dynamics such as electromechanical systems. The participation factors is a tool that helps in the reduction of systems. Firstly, we present the fundaments of the sensitivity analysis upon which the participation factors are based on. The principle is illustrated with several examples.We propose a new formulation for sensitivity analysis using parametric sensitivity (Barrera Gallegos et al., 2016).In the latter, the application of participation factors and parametric sensitivity analysis is performed using HVDC networks. This comparison exposes the limitation of the participation factors for the general analysis of HVDC grids.In conclusion, the new methodology is a better and general alternative compared to traditional participation factors employed for analysis of HVDC grids. In addition, the new technique of parametric sensitivity produces several novel information related to the dynamic characteristics of the HVDC grid
APA, Harvard, Vancouver, ISO, and other styles
48

Jacques, Julien. "Contributions à l'analyse de sensibilité et à l'analyse discriminante généralisée." Phd thesis, Université Joseph Fourier (Grenoble), 2005. http://tel.archives-ouvertes.fr/tel-00011169.

Full text
Abstract:
Deux thèmes sont abordés dans cette thèse : l'analyse de sensibilité et l'analyse discriminante généralisée.<br /><br />L'analyse de sensibilité globale d'un modèle mathématique étudie comment les variables de sortie de ce dernier réagissent à des perturbations de ses entrées. Les méthodes basées sur l'étude de la variance quantifient les parts de variance de la réponse du modèle dues à chaque variable d'entrée et chaque sous-ensemble de variables d'entrée. Le premier problème abordé est l'impact d'une incertitude de modèle sur les résultats d'une analyse de sensibilité. Deux formes particulières d'incertitude sont étudiées : celle due à une mutation du modèle de référence, et celle due à l'utilisation d'un modèle simplifié à la place du modèle de référence. Un second problème relatif à l'analyse de sensibilité a été étudié au cours de cette thèse, celui des modèles à entrées corrélées. En effet, les indices de sensibilité classiques n'ayant pas de signification (d'un point de vue interprétation) en présence de corrélation des entrées, nous proposons une approche multidimensionnelle consistant à exprimer la sensibilité de la sortie du modèle à des groupes de variables corrélées. Des applications dans le domaine de l'ingénierie nucléaire illustrent ces travaux.<br /><br />L'analyse discriminante généralisée consiste à classer les individus d'un échantillon test en groupes, en utilisant l'information contenue dans un échantillon d'apprentissage, lorsque ces deux échantillons ne sont pas issus d'une même population. Ce travail étend les méthodes existantes dans un cadre gaussien au cas des données binaires. Une application en santé publique illustre l'utilité des modèles de discrimination généralisée ainsi définis.
APA, Harvard, Vancouver, ISO, and other styles
49

Grandjacques, Mathilde. "Analyse de sensibilité pour des modèles stochastiques à entrées dépendantes : application en énergétique du bâtiment." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT109/document.

Full text
Abstract:
Les bâtiments représentent un des principaux leviers d'action pour optimiser l'efficacité énergétique et la réduction des émissions de CO2 dans les villes. Afin d'optimiser les performances énergétiques, différentes études ont été menées sur les performances thermiques aussi bien du de point de vue de la conception, de la calibration de modèle que de l'impact de changement climatique. L'analyse de sensibilité vise à évaluer la part d'incertitude due à chacune des variables ou des paramètres qui peuvent influencer ces performances.La plupart des études en bâtiment menées dans la littérature se placent dans un cadre statique qui ne représente pas l'évolution du système. Il est très vite apparu nécessaire de développer des méthodes qui prennent en compte à la fois la dépendance des entrées et la dimension temporelle qui elle-même comporte toujours de la dépendance. Parmi les différentes méthodes d'analyse de sensibilité, nous avons privilégié la méthode globale, reposant sur le calcul des indices de sensibilité de Sobol. Le calcul effectif des indices de sensibilité permet de hiérarchiser les paramètres d'entrée en fonction de leur influence sur la sortieLes indices de Sobol peuvent se calculer de différentes façons. Nous nous sommes intéressés notamment à la méthode Pick and Freeze basée sur l'échantillonnage. Celle-ci repose sur l'hypothèse fondamentale et dans la pratique le plus souvent non vérifiée d'indépendance des entrées. Cela nous a amené du point de vue statistique à développer des techniques nouvelles pour tenir compte du caractère des entrées de type dynamique et dépendantes entre elles à la fois dans le temps et à chaque instant.Nous avons placé notre travail dans l'optique de méthodes permettant de se ramener au cas d'entrées indépendantes. Notre préoccupation a été de modéliser les entrées de manière souple, aisément transposable à d'autres situations concrètes et permettant des simulations relativement aisées. Afin de rendre compte du lien temporel entre les variables, nous avons choisi de considérer un indice dépendant de l'instant de calcul et de quantifier la variabilité de la sortie non pas seulement à la variabilité de l'entrée à l'instant t mais aussi à cette même variabilité provenant des instants précédents. Cette vision permet d'introduire la notion de mémoire utile pour le calcul de la sensibilité. Nous avons développé une méthode d'estimation des indices de Sobol pour des entrées dépendantes statiques a priori. Elle peut néanmoins être mise en œuvre pour des entrées dynamiques de courte mémoire mais les calculs sont alors très lourds dès que le nombre d'entrées est grand ou les mémoires importantes. Cette méthode permet de séparer des variables dépendantes de loi quelconque en des variables indépendantes de loi uniforme. Facile à mettre en œuvre ces méthodes d'estimation ne s'appuient pas sur des hypothèses d'indépendance des entrées, elles permettent alors un large éventail d'applications.Nous avons appliqué notre méthodologie à un bâtiment existant, apportant ainsi un outil utile à l'analyse du comportement thermique et donc à son optimisation. Nous avons pu montrer différentes situations en analysant l'ordre des variables suivant les sensibilités à partir de mesures. Deux critères ont été étudiés. Un critère de confort : l'étude de la température intérieure et un critère de performance : l'énergie de chauffage<br>Buildings represent one of the main levers of action to optimize energy efficiency and reducing emissions of $ CO_2 $. To understand how perform energy consumption of a building, different studies have been conducted on the thermal performance both the point of view of design and model calibration as the climate change impact. Energy performance can be optimized according to these studies by evaluating the degree of uncertainty due to each of the variables or parameters that may influence performance. This stage is called sensitivity analysis.Most building studies in the literature are placed in a static framework that does not represent the evolution of the system. The variables whose sensitivity to be studied are either considered at a given time or the input-output models are not dynamic. It became necessary to develop methods that take into account both the dependence of the inputs and the temporal dimension which itself always involves dependence. Among the different methods of sensitivity analysis, we have focused on the global method, based on the calculation of Sobol sensitivity indices. Sobol index of a parameter (or group of parameters) is a statistical indicator of easy interpretation. It allows to measure the importance of this parameter (or group of parameters) on the variability of a scalar quantity of interest, depending on the model output. Sensitivity indices allow to rank input parameters according to their influence on the output.Sobol indices can be calculated in different ways. We focused on the Pick and Freeze method based on sampling. This is based on a fundamental assumption and in practice often unverified : inputs independence. This led us statistically to develop new techniques to take into account the dynamic characteristic of inputs and dependents both in time and in every moment. Our work focuses on methods that can bring back to the case of independent inputs. Our concern was modelled in a flexible way inputs, easily transferable to other concrete situations and allowing relatively easy simulations. The input-output relationships are not important as the only constraint, of course not trivial, possible simulation.In order to reproduce the temporal relationship between the variables, we chose to consider an index dependent, in the non-stationary case (especially if there are seasonal phenomena), on the time of calculation and quantify the variability of output not not only to the variability of the input at time $ t $, but also to the same variability from previous times. This vision allows to introduce the concept of usable memory for the calculation of the sensitivity.The second method that we have developed is an estimation method of Sobol indices for static dependent inputs a priori. It may nevertheless be implemented for dynamic inputs with short memory but the calculations are then very heavy when the number of inputs are large or own important memories. This method allows to separate dependent variables of any law in independent variables uniformly distributed.Easy to implement these estimation methods developed are not based on assumptions of independence of inputs. It then allows a wide range of applications.This method applied to an existing building can help improve energy management and can be useful in the design from the implementation scenarios. We could show different situations by analysing the variable order according to the sensitivities from measurements on a test building. Two criteria were studied. A criterion of comfort: the study of indoor temperature and performance criteria: the heating energy
APA, Harvard, Vancouver, ISO, and other styles
50

Moraes, Luís Fernando Gouveia de. "Analyse expérimentale d'un modèle de tourbillon conique et de sa sensibilité à une turbulence amont." Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2011. https://tel.archives-ouvertes.fr/tel-00632367.

Full text
Abstract:
La recherche expérimentale, présentée dans cette thèse, a pour objectif l'étude de l'influence d'un écoulement amont turbulent ou non sur les tourbillons coniques (primaire et secondaire) engendrés à partir d'une configuration de montant de baie. Cette configuration d'écoulement est rencontrée sur les véhicules terrestres et l'interaction des tourbillons avec les vitres latérales du véhicule est le principal responsable du bruit aérodynamique transmis dans le véhicule. Une maquette du type dièdre a été conçue et testée en soufflerie afin de générer et d'étudier ces tourbillons coniques. Les propriétés spatiales et temporelles des champs de vitesse et de pression pariétale ont été étudiées en associant simultanément la mesure de la vitesse par PIV ou Stéréo-PIV à la mesure de pression pariétale fluctuante par capteurs déportés. Nous avons montré qu'un niveau modéré de turbulence amont (intensité : 4%) se traduit par une modification très importante de la dynamique du tourbillon et de la pression pariétale fluctuante associée (Cp'). Notre conjecture - basée sur l'étude des moments statistiques et des corrélations spatio-temporelles - est qu'en l'absence de turbulence externe, la contribution principale au Cp' est liée à l'empreinte du cœur tourbillonnaire et du décollement secondaire induit. Au contraire, en présence de turbulence amont, la forte augmentation du Cp' semble associée à une réponse globale de la structure tourbillonnaire et à la modification associée de l'aérodynamique autour du corps. L'inclusion de dispositifs géométriques simples de contrôle passif sur la maquette a fait objet d'essais supplémentaires. Nous avons montré que ces dispositifs permettent de modifier très significativement le développement de la structure tourbillonnaire et son empreinte en terme de pression pariétale fluctuante<br>The experimental research presented in this thesis aims to study the influence of an upstream flow with and without free stream turbulence (FST) on conical vortices (primary and secondary) generated from a A-pillar strut. This flow configuration is encountered on land vehicles and the interaction of the A-pillar vortices with the side windows is the main contributor to aerodynamic noise transmitted in the car. A model of dihedral type was designed and tested in a wind tunnel in order to generate these vortices. Spatial and temporal properties of velocity and wall pressure fields were studied using simultaneously PIV (or stereo-PIV) measurements and fluctuating wall pressure measurements using off-set sensors. It has been shown that moderate free-stream turbulence (intensity : 4%) leads to a very important modification of the shape of the A-pillar vortex and of the resulting wall pressure field (Cp'). Our conjecture - based on the study of statistical moments and spatio-temporal correlations - is that without FST, the main contribution to Cp' is linked to the local contribution of the 3D vortex core and induced separation. On the contrary, Cp', in presence of FST, seems to be associated with a global response of the 3D separation and induced aerodynamic field around the body. The difference observed with and without FST in the pressure and velocity fields have a significant impact on the Cp' and means that these contributions might be transmitted in very different ways by the car structure because the frequency and length scale range are very distinct. The inclusion of simple geometric devices on the model has been further tested. We have shown that these devices modify very significantly the development of the conical vortex and of its fluctuating pressure footprint
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography