To see the other types of publications on this topic, follow the link: Analysis of sensibility.

Dissertations / Theses on the topic 'Analysis of sensibility'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analysis of sensibility.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Le, Van-Thao. "Development of a new device and stratistical analysis for characterizing soil sensibility face suffusion process." Thesis, Nantes, 2017. http://www.theses.fr/2017NANT4109/document.

Full text
Abstract:
L’érosion interne est le risque majeur de rupture des ouvrages hydrauliques en remblai. Cette étude porte sur l’un des quatre processus d’érosion interne, la suffusion qui correspond aux processus couplés de détachement-transport- filtration de la fraction fine entre les grains de la fraction grossière. La caractérisation de l’initiation de la suffusion a été essentiellement réalisée par l’élaboration de critères granulométriques. Cependant l’influence d’autres paramètres physiques doit être considérée. Une analyse statistique est réalisée afin d’identifier les paramètres prépondérants en privilégiant les paramètres aisément mesurables sur des ouvrages existants. En distinguant les sols à granulométrie discontinue de ceux à granulométrie continue, deux corrélations sont proposées pour estimer la sensibilité à la suffusion. L’interprétation d’essais menés sur deux tailles d’échantillon montre l’influence significative de la taille des échantillons sur le gradient hydraulique critique et sur le coefficient d’érosion. L’approche énergétique permet de s’affranchir de cet effet d’échelle spatiale. Avec l’objectif d’étudier l’influence de la direction de l’écoulement, un nouveau dispositif est développé à finalité industrielle. Le nouveau dispositif et la méthodologie expérimentale associée sont validés par comparaison des résultats avec ceux de l’érodimètre triaxial et de l’oedoperméamètre. Par ailleurs, les essais réalisés sur échantillons hétérogènes mettent en évidence l’influence de la direction de l’écoulement. Enfin, sous écoulement horizontal et sans filtre aval, le développement de la suffusion dans un sable argileux peut conduire à la réalisation d’un renard
Internal erosion is one of the main causes of instabilities within hydraulic earth structures. In literature, four different internal erosion processes are distinguished. This study deals with suffusion which corresponds to the coupled processes of detachment-transport-filtration of the soil’s fine fraction between the coarse fraction. The suffusion susceptibility characterization was mainly researched through grain size based criteria for the initiation of process. However the influence of other physical parameters has to be considered. A statistical analysis is performed in order to identify the main parameters and to focus on those which can easily be measured on existing structures. By distinguishing gapgraded and widely-graded soils, two correlations are proposed to estimate the soil suffusion susceptibility. By performing suffusion tests with two different-sized devices, the results show the significant effect of specimen size on critical hydraulic gradient and on erosion coefficient. The interpretation of all tests by energy based method permits to avoid this spatial scale effect. With the objective to investigate the influence of flow direction, a new device is designed and realized for the industrial purpose. The new device and associated experimental methodology are validated by the comparison of test results with results of triaxial erodimeter tests and oedopermeameter tests. Finally, tests performed on heterogeneous specimens highlight the influence of flow direction. Moreover, under a horizontal flow without any downstream filter, the development of suffusion in clayey sand can lead to the piping process
APA, Harvard, Vancouver, ISO, and other styles
2

Gayrard, Emeline. "Analyse bayésienne de la gerbe d'éclats provoquée pa l'explosion d'une bombe à fragmentation naturelle." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAC039/document.

Full text
Abstract:
Durant cette thèse, une méthode d'analyse statistique sur la gerbe d'éclats d’une bombe, en particulier sur leurs masses, a été mise au point. Nous avions à disposition trois échantillons partiels de données expérimentales et un modèle mécanique simulant l'explosion d'un anneau. Dans un premier temps, un modèle statistique a été créé à partir du modèle mécanique fourni, pour générer des données pouvant être similaires à celles d'une expérience. Après cela, la distribution des masses a pu être étudiée. Les méthodes d'analyse classiques ne donnant pas de résultats suffisamment précis, une nouvelle méthode a été mise au point. Elle consiste à représenter la masse par une variable aléatoire construite à partir d'une base de polynômes chaos. Cette méthode donne de bons résultats mais ne permet pas de prendre en compte le lien entre les éclats d'une même charge. Il a donc été décidé ensuite de modéliser la masse par un processus stochastique, et non par une variable aléatoire. La portée des éclats, qui dépend en partie de la masse, a elle aussi été modélisée par un processus. Pour finir, une analyse de sensibilité a été effectuée sur cette portée avec les indices de Sobol. Ces derniers s'appliquant aux variables aléatoires, nous les avons adaptés aux processus stochastiques de manière à prendre en compte les liens entre les éclats. Dans la suite, les résultats de cette dernière analyse pourront être améliorés. Notamment, grâce à des indices présentés en dernière partie qui seraient adaptés aux variables dépendantes, et permettraient l'utilisation de processus stochastiques à accroissements non indépendants
During this thesis, a method of statistical analysis on sheaf of bomb fragments, in particular on their masses, has been developed. Three samples of incomplete experimental data and a mechanical model which simulate the explosion of a ring were availables. First, a statistical model based on the mechanical model has been designed, to generate data similar to those of an experience. Then, the distribution of the masses has been studied. The classical methods of analysis being not accurate enough, a new method has been developed. It consists in representing the mass by a random variable built from a basis of chaos polynomials. This method gives good results however it doesn't allow to take into account the link between slivers. Therefore, we decided to model the masses by a stochastic process, and not a random variable. The range of fragments, which depends of the masses, has also been modeled by a process. Last, a sensibility analysis has been carried out on this range with Sobol indices. Since these indices are applied to random variables, it was necessary to adapt them to stochastic process in a way that take into account the links between the fragments. In the last part, it is shown how the results of this analysis could be improved. Specifically, the indices presented in the last part are adapted to dependent variables and therefore, they could be suitable to processes with non independent increases
APA, Harvard, Vancouver, ISO, and other styles
3

Vitória, Letícia da Silva. "The mirror of a writer's sensibility : an analysis of Truman Capote's narrator in Other voices, other rooms." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2016. http://hdl.handle.net/10183/150319.

Full text
Abstract:
Truman Capote, autor, roteirista e dramaturgo Americano, foi um dos principais escritores americanos de ficção do período pós-guerra, conhecido por receber ampla notoriedade pelo seu romance best-seller In Cold Blood, de 1965, por um estilo de escrita que misturava literatura e jornalismo. No entanto, o trabalho de Capote se estende além do romance antes mencionado. O autor, que se tornaria famoso por sua personalidade também, revelou grande talento como escritor desde muito jovem, trabalhando com temas muito relacionados à sua vida pessoal. Durante minhas leituras de seus trabalhos, eu pude perceber que o narrador que Capote criava trazia o leitor muito mais próximo à história. O propósito da minha dissertação é fazer uma análise do narrador de Capote para poder discutir suas técnicas específicas. Para tal, escolhi trabalhar com a teoria da narratologia, que não apenas é o estudo da narrativa e da estrutura de um texto, mas também sobre como ele afeta nossas percepções como leitores. Através de uma análise de aspectos como focalização e discurso do narrador, minha intenção foi traçar uma relação entre o narrador de Capote com seu autor implícito para poder entender como isso afeta nossa experiência de leitura e seu relacionamento com o leitor. Para essa análise, eu escolhi o primeiro romance publicado de Capote, Other Voices, Other Rooms (1948), porque acredito que conta uma história que pareceu surgir de emoções altamente reprimidas do autor sobre sua infância e crescimento. Além disso, tentarei identificar onde elementos biográficos podem ter inspirado alguns dos eventos presentes na história, na tentativa de estabelecer uma conexão com os eventos de sua vida real e o quanto elas interferiam em sua ficção. teoria que em destaque nesse trabalho são os trabalhos da autora Mieke Bal (2009) e de Herman & Vervaeck (2005), para poder trazer os termos que ajudam a continuar com a discussão. Ao fim desta análise, espero mostrar o que há por baixo de um narrador cuidadosamente construído, e que o leitor seja capaz de perceber Truman Capote por mais do que sua famosa personalidade, mas também como um escritor cuidadoso e focado que era apaixonado por sua arte.
American novelist, screenwriter and playwright Truman Capote was one of the leading American authors of fiction of the post-war period, known for receiving wide notoriety for his 1965 best seller In Cold Blood, for a style of writing that mixed literature and journalism. However, Capote’s works extend beyond the aforementioned novel. The author, who would eventually become famous for his personality as well, revealed great talent as a writer since a very young age, working with themes closely related to his personal life. During my readings of his works, I was able to perceive that the narrator Capote creates brings the reader much closer to the story. The purpose of this thesis is to carry out an analysis of Capote’s narrator in order to discuss his particular techniques. In order to do that, I chose to work with the theory of narratology, which is not only the study of narrative and the narrative structure of a text, but also of how it affects our perceptions as readers. Through an analysis of aspects such as focalization and the narrator’s discourse, my intention was to trace a relation between the narrator with Capote’s implied author in order to understand how this affects the reading experience and the relationship with the reader. For this analysis, I chose Capote’s first published novel, Other Voices, Other Rooms (1948), because I believe that it tells a story that seem to come from the highly suppressed emotions of the author about his childhood and growing up. I will also attempt to identify where biographical elements might have inspired some of the events that appear in the story, attempting to establish connection to the events of his real life and how much it interfered in his fiction. As to the theory that underlines this work, I chose the works of Mieke Bal (2009) and Herman & Vervaeck (2005), in order to bring light to terms that help further the discussion. By the end of this analysis, I hope to show what lies beneath a carefully constructed narrator, and that the reader will be able to perceive Truman Capote for more than his famous personality, but also as a careful and focused writer that was passionate about his craft.
APA, Harvard, Vancouver, ISO, and other styles
4

Guerrero, Gustavo. "Analyse à base de modèles des interactions cardiorespiratoires chez l'adulte et chez le nouveau-né." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S019.

Full text
Abstract:
Les mécanismes physiologiques à l’origine des épisodes d’apnée, chez l’adulte et le prématuré, ne sont pas encore entièrement élucidés. L’objectif principal de cette thèse est de proposer une approche, basée sur des modèles computationnels, afin de mieux comprendre la réponse cardio-respiratoire aiguë à un épisode d’apnée. Un modèle original des interactions cardio-respiratoires a été proposé et adapté selon 3 versions : adulte, nouveaux-né à terme et prématuré. Les analyses de sensibilité, réalisées sur ces modèles, ont mis en en évidence l’importance de certaines grandeurs physiologiques : fraction d’oxygène inspiré, les taux métaboliques, le chemoréflexe et le volume pulmonaire. À partir de ces résultats un sous-ensemble de paramètres a été sélectionné pour réaliser la première identification spécifique-patient d’un modèle adulte pour étudier la dynamique de SaO2 pendant une apnée obstructive à partir d’une base de données clinique composée de 107 apnées obstructives réparties sur 10 patients. À partir des paramètres identifiés, un phénotype des patients a été obtenu, différenciant les patients présentant un risque accru d’instabilité respiratoire et de respiration périodique. Les résultats de la thèse ouvrent de nouvelles perspectives pour la prise en charge et l’optimisation de certaines thérapies (CPAP, PEEP, oxygénothérapie,...) en unités de soins intensifs néonatals et adultes
The physiological mechanisms behind apnea episodes in adults and premature infants are not yet fully elucidated. The main objective of this thesis is to propose an approach, based on computational models, in order to better understand the acute cardio-respiratory response to an episode of apnea. An original model of cardio-respiratory interactions has been proposed and adapted in 3 versions: adult, newborn at term and preterm infant. Sensitivity analyses, performed on these models, have highlighted the importance of certain physiological variables: the fraction of inspired oxygen, metabolic rates, the chemoreflex and lung volume. From these results, a subset of parameters was selected to perform the first patient-specific identification of an adult model to study the dynamics of SaO2 during an obstructive apnea from a clinical database composed of 107 obstructive apneas distributed over 10 patients. From the parameters identified, a phenotyping of the patients was obtained, differentiating the patients with an increased risk of respiratory instability and periodic breathing. The results of the thesis open up new perspectives for the management and optimization of certain therapies (CPAP, PEEP, oxygen therapy, etc.) in neonatal and adult intensive care units
APA, Harvard, Vancouver, ISO, and other styles
5

Spitz, Clara. "Analyse de la fiabilité des outils de simulation et des incertitudes de métrologie appliquée à l'efficacité énergétique des bâtiments." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00768506.

Full text
Abstract:
Le recours à la simulation est décisif dans le processus de conception d'un bâtiment neuf. Elle permet d'évaluer différentes alternatives au regard de la performance énergétique et du confort des occupants et constitue ainsi un outil d'aide à la décision incontournable. Aujourd'hui la question de la fiabilité des codes de simulation n'est pas à négliger. L'augmentation des performances énergétiques des bâtiments, pourrait mettre en défaut un certain nombre d'hypothèses de modélisation généralement admises pour les bâtiments standards du fait de la prépondérance nouvelle de phénomènes physiques jusqu'alors négligés ou mal pris en compte. Dans le même temps on s'intéresse de plus en plus à la garantie de performance qui consiste à vérifier que les performances énergétiques réelles sont bien en adéquation avec les objectifs fixés lors de la conception or il est souvent constaté des erreurs entre consommation mesurée et estimée compte tenu des incertitudes liées notamment à la mise œuvre, aux occupants et aux conditions météorologiques. L'augmentation des exigences de précision des calculs qui en résulte rend essentiel d'apprécier les incertitudes associées à ces prévisions afin d'améliorer le processus de construction et d'évaluation. Les travaux de cette thèse portent en particulier sur l'évaluation et la hiérarchisation des incertitudes sur les résultats des simulations en phase de conception. Une méthodologie a été développée basée en trois temps qui permet d'identifier les paramètres de conception les plus influents sur la performance énergétique d'un bâtiment et de rendre compte des effets de l'incertitude associée à ces paramètres sur cette même performance. La première étape consiste à identifier parmi l'ensemble des paramètres du modèle ceux qui ont une influence sur le résultat qui nous intéresse. Celle-ci est assurée au moyen d'une analyse de sensibilité locale du modèle. La deuxième étape consiste à évaluer les incertitudes associées à ces paramètres les plus influents afin de propager cette incertitude dans le code de calcul et évaluer l'incertitude sur le résultat. Cette étape est effectuée au moyen d'approches probabilistes de type Monte Carlo. Nous ajoutons une troisième étape de manière à évaluer la responsabilité de chacun des paramètres sur les incertitudes associées au résultat. Cette information est cruciale pour l'utilisateur. Cette dernière étape est traitée au moyen d'une analyse de sensibilité globale sur un jeu de paramètres réduit. Nous nous sommes appuyés sur la plateforme expérimentale INCAS située à l'INES au Bourget du Lac (73) pour identifier les incertitudes de mesure mais aussi les incertitudes dont les hypothèses de modélisation font l'objet. Cette méthodologie pourra être utilisée durant tout le processus de conception d'un bâtiment, des premières esquisses à son exploitation. En phase de conception, cette méthodologie permettra d'orienter les choix architecturaux en évitant des options dont la fiabilité des résultats est incertaine. En phase d'exploitation, elle permettra d'identifier les points de mesure les plus pertinents, afin de réduire l'incertitude des paramètres les plus influents pour effectuer un diagnostic énergétique plus fiable du bâtiment. Elle pourra aussi s'étendre aux incertitudes liées aux occupants et aux conditions météorologiques.
APA, Harvard, Vancouver, ISO, and other styles
6

Toledo, Cristian EpifÃnio de. "Hydrological connectivity in semi-arid environment: case study of the OrÃs reservoir." Universidade Federal do CearÃ, 2013. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=11002.

Full text
Abstract:
CoordenaÃÃo de AperfeiÃoamento de NÃvel Superior
Para tentar auxiliar na resoluÃÃo do problema da seca, as decisÃes polÃticas priorizaram a construÃÃo de reservatÃrios, produzindo âredes de alta densidade de reservatÃriosâ na regiÃo Nordeste Brasileira. Via de regra, a construÃÃo de um reservatÃrio interrompe o fluxo natural do rio, interferindo, assim, na dinÃmica de Ãgua a jusante. Objetivou com esse trabalho estudar os processos envolvidos na conectividade hidrolÃgica, bem como a interferÃncia da rede de mÃltiplos reservatÃrios na conectividade hidrolÃgica de uma grande bacia semiÃrida. O estudo de caso à a bacia hidrogrÃfica do aÃude OrÃs â BHAO (24.211 km2), situada no SemiÃrido do CearÃ. A pesquisa foi iniciada com o levantamento da topologia da rede densa de reservatÃrio da BHAO, realizada utilizando tÃcnicas de sensoriamento remoto (SR), ferramentas de geoprocessamento (SIG) e imagem de satÃlite no fim do perÃodo chuvoso de 2011. A anÃlise da conectividade hidrolÃgica foi realizada usando o modelo âReservoir Network Modelâ (ResNetM), que simulou os processos hidrolÃgicos e considerou a conectividade hidrolÃgica entre os reservatÃrios, conforme os critÃrios estabelecidos nesta pesquisa. Na busca de se identificar os principais elementos naturais e antrÃpicos da bacia que afetam a conectividade hidrolÃgica, foi realizada uma anÃlise de sensibilidades (IS) de alguns parÃmetros de entrada do modelo, o que possibilitou avaliar o impacto da rede de reservatÃrios sobre o volume armazenado no aÃude OrÃs. O levantamento da rede de reservatÃrios com SR e ferramentas automÃticas de SIG demonstrou duas falhas: a interpretaÃÃo de sombras como reservatÃrios e a mà identificaÃÃo da superfÃcie da Ãgua real devido à presenÃa de macrÃfitas nos reservatÃrios. Desse modo, foram gerados automaticamente 6.002 polÃgonos, dos quais, apÃs ajuste manual, confirmaram-se, como reservatÃrios, apenas 4.717 polÃgonos (79%). A pesquisa constatou que, na Ãltima dÃcada, ocorreu um aumento de 17,5% no nÃmero de reservatÃrio da BHAO e que, nas regiÃes com embasamento cristalino, a densidade de reservatÃrios à 80% maior do que nas regiÃes sobre geologia sedimentar. A anÃlise de sensibilidade indicou que o nÃmero de reservatÃrio da rede foi a variÃvel à qual o sistema apresentou maior sensibilidade (IS = 1,07), considerando-se a conectividade hidrolÃgica. Contrariamente, a variaÃÃo da evaporaÃÃo (IS = 0,19) e da perda em trÃnsito (IS= 0,01) nÃo induziu a mudanÃas significativas da conectividade hidrolÃgica da BHAO. O volume armazenado no aÃude OrÃs nÃo sofreu mudanÃas significativas (IS = 0,21) ao se modificar a topologia da rede de reservatÃrio. Por exemplo, ao se simular a retirada dos pequenos e mÃdios reservatÃrios da rede (4.664, ou 98,9% dos reservatÃrios), o aÃude OrÃs indicou um acrÃscimo de apenas 14% em seu volume mÃdio armazenado. Com base nas observaÃÃes, concluiu-se que ocorreu uma reduÃÃo na taxa de incremento anual de reservatÃrios na BHAO nos Ãltimos 10 anos, o que marca o inÃcio da fase de estabilizaÃÃo da referida rede. Entre os elementos naturais avaliados, o coeficiente de escoamento superficial (natural) foi o que demonstrou maior significÃncia para a conectividade hidrolÃgica. Sua importÃncia deve-se ao fato de, no sistema natural da BHAO, raramente se observa escoamento de base significativo. Dos elementos antrÃpicos analisados, a rede densa de reservatÃrios, obteve a maior importÃncia para a conectividade hidrolÃgica. O motivo para esse comportamento à que os reservatÃrios promovem a laminaÃÃo da onda de cheia, aumentando o nÃmero de dias com vazÃo fluvial e, consequentemente, maior frequÃncia da conectividade hidrolÃgica. AlÃm disso, novos reservatÃrios diminuem o comprimento dos trechos a serem ligados, atenuando as perdas em trÃnsito e facilitando a ocorrÃncia da conectividade hidrolÃgica. A variaÃÃo da rede de reservatÃrio comprovou que, ao diminuir o nÃmero de reservatÃrio da rede, ocorre uma reduÃÃo na conectividade hidrolÃgica da BHAO, porÃm, nÃo altera significativamente a vazÃo afluente ao aÃude OrÃs, o exutÃrio da bacia deste trabalho. A rede densa de reservatÃrios provou que, no inÃcio do perÃodo chuvoso, atua como barreira à vazÃo fluvial, causando a quebra da conectividade hidrolÃgica. Com o passar do tempo e com a continuidade da precipitaÃÃo, os milhares de reservatÃrios favorecem a conectividade hidrolÃgica por meio da laminaÃÃo da onda de cheia.
Attempting to solve the drought problem, political decisions prioritized the construction of reservoirs, what eventually resulted in the construction of a "high density network of reservoirs" in the Brazilian Northeast. Usually, a reservoir interrupts the natural river flow, thus interfering in the water dynamics downstream. This work was aimed at studying the processes involved in the hydrological connectivity as well as the interference of multiple reservoirs in the hydrologic network connectivity of a large semiarid basin. The case study is the catchment area of the OrÃs - BHAO (24,211 km2 ) reservoir, located in Semiarid CearÃ. The research began with a survey of the BHAO dense reservoir network topology, conducted using remote sensing (RS), GIS tools (GIS) and satellite image at the end of the 2011 rainy season. The hydrological connectivity analysis was performed using the 'Reservoir Network Model' (ResNetM), which simulated hydrologic processes and considered the hydrological connectivity between the reservoirs, according to the criteria established in this research model. While seeking to identify the key natural and anthropogenic factors affecting the hydrological connectivity of the basin, an analysis of input sensitivity (IS) of some input parameters of the model was performed, this allowed us to evaluate the reservoir network impact on the stored volume on the OrÃs reservoir. The survey of the network of reservoirs with SR and automatic GIS tools showed two shortcomings: the misinterpretation of shadows as reservoirs and the misidentification of the actual water surface due to the macrophyte presence in reservoirs. Thus, of the 6,002 automatically generated polygons, only 4717 polygons (79%) were confirmed as reservoirs, after manual adjustment. The survey found that in the last decade, there was a 17.5% increase in the number of BHAO reservoirs and that, in regions with crystalline geology, the density of reservoirs is 80% higher than in regions of sedimentary geology. The sensitivity analysis indicated that the number of reservoirs in the network was the variable to which the system showed higher sensitivity (SI = 1.07), considering the hydrological connectivity. In contrast, the evaporation variation (SI = 0.19) and loss in transit (SI = 0.01) did not induce significant changes on BHAO hydrological connectivity. Also, the volume stored in the OrÃs reservoir showed no significant changes (SI = 0.21) when the reservoir network topology was modified. For example, when the removal of small and medium network reservoirs (4,664, or 98.9% of the reservoirs) was simulated, the OrÃs reservoir indicated an increase of only 14% in its average volume stored. Based on observations, it was concluded that there was a reduction in the rate of annual BHAO reservoir increment in the past 10 years, marking the beginning of the stabilization phase of the said network. Among the evaluated natural elements, it was the (natural) runoff coefficient which was demonstrated to have the most significance for the hydrological connectivity. Its importance is due to the fact that in the BHAO natural system, underground flow is infrequent. Of the human elements analyzed, the dense reservoir network, obtained the highest importance for hydrological connectivity. The reason for this is that the reservoirs promote the lamination of the flood wave, increasing the number of days with river flow and, consequently, increase the frequency of hydrological connectivity. In addition, new reservoirs decrease the length of the passages to be connected, reducing losses in transit and promoting hydrological connectivity. The variation of the reservoir network demonstrated that decreasing the number of network reservoirs, a decrease in BHAO hydrological connectivity occurs, not changing, however, significantly the inflow to the OrÃs reservoir, the convergence focus of the network. A dense reservoir network showed that, at the beginning of the rainy season, it acts as a barrier to river flow, breaking hydrological connectivity. Over time and with continued rainfall, the thousands of reservoirs promote hydrological connectivity by lamination of the flood wave.
APA, Harvard, Vancouver, ISO, and other styles
7

Ferber, De Vieira Lessa Moisés. "Metodologias para análise de incertezas paramétricas em conversores de potência." Phd thesis, Ecole Centrale de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00999588.

Full text
Abstract:
Le développement de la technologie des semi-conducteurs dans les trente dernières années a augmenté le nombre des nouvelles applications dans lesquelles les dispositifs d'électronique de puissance sont utilisés. L'augmentation de la rapidité de commutation des transistors a permis que la conversion de puissance se produise de façon de plus en plus performante. Cet avantage apporte un nouveau challenge dans la phase de conception, lié à la Compatibilité Électromagnétique. En effet, les impulsions rapides de tension et courant dans les convertisseurs de puissance sont une source d'émissions électromagnétiques conduites indésirables. Des méthodologies de modélisation précises, qui prennent en compte une grande partie des effets parasites, ont été développées pour évaluer le niveau de ces émissions conduites. Lorsque ces méthodologies sont confrontées aux mesures, les résultats sont en concordance dans une large gamme de fréquence, elles peuvent donc être considérées comme des outils fiables de pronostic. Néanmoins, la plupart des paramètres du modèle d'un système électronique ne peuvent pas réellement être déterminés précisément : les conditions d'opération sont souvent mal connues (variations de température ou d'humidité) ; les paramètres caractéristiques des composants présentent une certaine dispersion de production ; des interférences externes sont imprévisibles. Dans ce contexte, il est intéressant de développer des méthodologies de modélisation qui soient capables de prendre en compte des incertitudes paramétriques. Dans cette thèse, deux méthodologies d'analyse d'incertitudes, adaptées aux convertisseurs de puissance, sont proposées. Les incertitudes paramétriques sont modélisées en utilisant des fonctions de densité de probabilité et l'objectif de l'analyse proposée est de déterminer les moments statistiques, la fonction de densité de probabilité ou la limite supérieure probabiliste des émissions conduites d'un convertisseur de puissance quelconque. Des techniques pour aborder les difficultés liées aux non-linéarités, au temps de simulation important et au nombre élevé de dimensions sont discutées. Les méthodologies proposées sont appliquées à des problèmes test et à des problèmes réels, et les résultats sont comparés aux méthodologies classiques. La précision des résultats des méthodologies proposées est similaire aux techniques classiques, mais le temps de calcul est considérablement réduit. Finalement, ce travail ouvre des possibilités de développements nouveaux pour l'analyse des incertitudes des systèmes non-linéaires et à grande échelle.
APA, Harvard, Vancouver, ISO, and other styles
8

Rossi, Lubianka Ferrari Russo. "Acoplamento entre os métodos diferencial e da teoria da perturbação para o cálculo dos coeficientes de sensibilidade em problemas de transmutação nuclear." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/85/85133/tde-12022015-154545/.

Full text
Abstract:
Este trabalho apresenta um novo método para o cálculo dos coecientes de sensibilidade, através da união do metodo diferencial e da teoria da perturbação generalizada, que são os dois métodos tradicionalmente utilizados em física de reatores para a obtenção de tais grandezas. Esses dois métodos apresentam algumas deciências tornando os cálculos dos coeficientes de sensibilidade lentos ou computacionalmente exaustivos, mas unindo-os e possível eliminar as deciências apresentadas por ambos e obter uma nova equação para o coe- ciente de sensibilidade. O método proposto neste trabalho foi aplicado em um reator do tipo PWR , onde foi feita análise de sensibilidade da produção e da razão de conversão do 239Pu, para um ciclo de 120 dias de queima. O código utilizado para a análise de queima e análise de sensibilidade, o CINEW, foi desenvolvido durante este trabalho e os resultados obtidos foram comparados com os códigos amplamente utilizados em física de reatores, como o CINDER e o SERPENT. As conclusões obtidas foram que o novo método matemático para a obtenção dos coeficientes de sensibilidade e o CINEW, além de fornecer agilidade numérica também presentam eciência e segurança. Pois o novo método matemático para a obtenção dos coeficientes quando comparados com os métodos tradicionais utilizados para a análise de sensibilidade, mostram resultados satisfatórios, mesmo quando o método utiliza aproximações matemáticas que diferem do método proposto, e com a vantagem de não apresentar as deciências apresentadas pelos métodos diferencial e da teoria da perturbação generalizada. As análises de queima obtidas pelo CINEW foram comparadas com o CINDER, que mostraram uma diferença aceitável, apesar do CINDER apresentar alguns problemas computacionais que advém da época em que foi feito. A originalidade deste trabalho e a aplicação do método proposto em problemas que envolvem dependência temporal e a elaboração do primerio código nacional que faz análise de queima e análise de sensibilidade.
The main target of this study is to introduce a new method for calculating the coefficients of sensibility through the union of differential method and generalized perturbation theory, which are the two methods generally used in reactor physics to obtain such variables. These two methods, separated, have some issues turning the sensibility coefficients calculation slower or computationally exhaustive. However, putting them together, it\'s possible to repair these issues and build a new equation for the coecient of sensibility. The method introduced in this study was applied in a PWR reactor, where it was performed the sensibility analysis for the production and 239Pu conversion rate during 120 days (1 cycle) of burnup. The computational code used for both burnup and sensibility analysis, the CINEW, was developed in this study and all the results were compared with codes widely used in reactor physics, such as CINDER and SERPENT. The new mathematical method for calculating the sensibility coefficients and the code CINEW provide good numerical agility and also good eciency and security, once the new method, when compared with traditional ones, provide satisfactory results, even when the other methods use different mathematical approaches. The burnup analysis, performed using the code CINEW, was compared with the code CINDER, showing an acceptable variation, though CINDER presents some computational issues due to the period it was built. The originality of this study is the application of such method in problems involving temporal dependence and, not least, the elaboration of the first national code for burnup and sensitivity analysis.
APA, Harvard, Vancouver, ISO, and other styles
9

ROSSI, LUBIANKA F. R. "Acoplamento entre os métodos diferencial e da teoria da perturbação para o cálculo dos coeficientes de sensibilidade em problemas de transmutação nuclear." reponame:Repositório Institucional do IPEN, 2014. http://repositorio.ipen.br:8080/xmlui/handle/123456789/23594.

Full text
Abstract:
Submitted by Claudinei Pracidelli (cpracide@ipen.br) on 2015-03-17T10:41:16Z No. of bitstreams: 0
Made available in DSpace on 2015-03-17T10:41:16Z (GMT). No. of bitstreams: 0
Tese (Doutorado em Tecnologia Nuclear)
IPEN/T
Instituto de Pesquisas Energeticas e Nucleares - IPEN-CNEN/SP
APA, Harvard, Vancouver, ISO, and other styles
10

Santos, Junior James Dean Oliveira dos. "Considerações sobre a relação entre distribuições de cauda pesada e conflitos de informação em inferencia bayesiana." [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/306673.

Full text
Abstract:
Orientadores: Veronica Andrea Gonzales-Lopez, Laura Leticia Ramos Rifo
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica
Made available in DSpace on 2018-08-08T04:30:52Z (GMT). No. of bitstreams: 1 SantosJunior_JamesDeanOliveirados_M.pdf: 1844173 bytes, checksum: 122644f8bc0dedaaa7d7633d9b25eb9c (MD5) Previous issue date: 2006
Resumo: Em inferência bayesiana lidamos com informações provenientes dos dados e com informações a priori. Eventualmente, um ou mais outliers podem causar um conflito entre as fontes de informação. Basica!llente, resolver um conflito entre as fontes de informações implica em encontrar um conjunto de restrições tais que uma das fontes domine, em certo sentido, as demais. Têm-se utilizado na literatura distribuições amplamente aceitas como sendo de cauda pesada para este fim. Neste trabalho, mostramos as relações existentes entre alguns resultados da teoria de conflitos e as distribuições de caudas pesadas. Também mostramos como podemos resolver conflitos no caso locação utilizando modelos subexponenciais e como utilizar a medida credence para resolver problemas no caso escala
Abstract: In bayesian inference we deal with information proceeding from the data and prior information. Eventually, one ar more outliers can cause a conflict between the sources information. Basically, to decide a conflict between the sources of information implies in finding a set of restrictions such that one of the sources dominates, in certain sense, the outher. Widely distributions have been used in literature as being of heavy tailed for this end. In this work, we show the relations between some results of the theory of conflicts and the heavy tailed distributions. Also we show how we can decide a conflicts in the location case using subexponential models and how to use the measure credence to decide problems in the scale case
Mestrado
Inferencia Bayesiana
Mestre em Estatística
APA, Harvard, Vancouver, ISO, and other styles
11

Lara, Jerusa Petróvna Resende 1980. "Análise cinemática tridimensional do salto em distância de atletas de alto nível em competição." [s.n.], 2011. http://repositorio.unicamp.br/jspui/handle/REPOSIP/274719.

Full text
Abstract:
Orientador: Ricardo Machado Leite de Barros
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Educação Física
Made available in DSpace on 2018-08-17T17:54:42Z (GMT). No. of bitstreams: 1 Lara_JerusaPetrovnaResende_M.pdf: 2070442 bytes, checksum: 43a77e989ba58b33b8bd6d21f8264a14 (MD5) Previous issue date: 2011
Resumo: O presente trabalho teve como objetivo fazer a análise cinemática tridimensional do salto em distância de atletas de alto nível em competição através de quatro trabalhos independentes. O primeiro trabalho teve como objetivo analisar a relação das variáveis cinemáticas do salto em distância de atletas de alto nível em competição através de uma análise de regressão linear múltipla nas fases de aproximação, impulsão e voo. Os resultados encontrados foram que a velocidade escalar do centro de massa no touchdown , a altura máxima do centro de massa na fase de voo e a distância do pé de apoio do atleta à tábua de impulsão foram as variáveis incluídas no modelo de predição da distância saltada, sendo conjuntamente responsáveis por 68% da variabilidade da distância. Para um segundo modelo, onde as velocidades escalares foram substituídas pelas componentes das velocidades do centro de massa, a velocidade horizontal do centro de massa no touchdown, a velocidade vertical do centro de massa no touchdown e o ângulo de ataque foram responsáveis por 88% da variabilidade da distância saltada. O segundo trabalho teve como objetivo analisar a replicabilidade e a reprodutibilidade das variáveis cinemáticas tridimensionais no salto em distância e testar a sensibilidade dos valores de replicabilidade e reprodutibilidade na predição da distância saltada. Para esse estudo dez observadores de ambos os sexos realizaram cinco medições cada um de um mesmo salto em distância sob as condições que definem reprodutibilidade e replicabilidade. A partir das edições dos observadores, foram calculadas as variáveis cinemáticas do salto em distância na fase de impulsão. Concluímos que as variáveis de velocidades do centro de massa são reprodutíveis e replicáveis acima de 0.09m/s enquanto variáveis angulares, acima de 0.67°. Para a análise de sensibilidade foi encontrado que para variação de 1m na distância saltada, seriam necessários uma variação de 0.77, 200.00 e 1.80 m/s nas velocidades horizontal, lateral e vertical do centro de massa, respectivamente e uma variação de 5.75° no ângulo do vetor velocidade do centro de massa e o plano horizontal. O terceiro trabalho teve como objetivo investigar a cinemática angular do salto em distância de atletas de alto nível em competição através de três análises dos ângulos articulares durante a fase de impulsão, sugerindo que uma análise realizada durante uma competição oficial, fornece informações valiosas para as análises técnicas e de investigação. Além disso, a análise estatística revelou que os ângulos de flexão máxima ocorre de forma seqüencial, a partir do quadril ao tornozelo, quando relacionada com a porcentagem da fase de impulsão do salto. O último trabalho teve como objetivo analisar a variabilidade nas variáveis cinemáticas ridimensionais de dois atletas medalhistas olímpicos e os resultados sugerem que os atletas devem buscar controlar as variáveis de saída da tábua, buscando reduzir a sua variabilidade e atingir seus valores ótimos das variáveis cinemáticas.
Abstract: The aim of this study is to make a three-dimensional kinematic analysis of long jump during competition through four independent papers. The first study aimed to analyze the long jump kinematic variables relationship in high level athletes in competing across a multiple linear regression analysis of the approach, takeoff and flight phases. The results showed that the center of mass velocity at touchdown, center of mass maximum height during the flight phase and distance from the support athlete's foot to the takeoff board were the variables included in he prediction model of the hopped distance, and together were responsible for 68% of the distance variability. For the second model, the scalar velocities were replaced by the velocity components of the center of mass. With that change, the center of mass horizontal velocity at touchdown, the center of mass vertical velocity at touchdown and angle of attack were responsible for 88% of the distance variability. The aim of the second study was to examine the repeatability and reproducibility of three-dimensional kinematic variables in the long jump and test the sensitivity of the repeatability values and reproducibility in the distance jumped prediction. For this study, ten observers of both sexes performed five measurements each of a long jump under the same conditions that define reproducibility and repeatability. From the observer's measurements, we calculated the kinematic variables of the long jump during the takeoff. We conclude that the variables of the center of mass velocities are reproducible and repeatable over 0.09m/s while angular variables over 0.67°. For sensitivity analysis were found that for the variation of 1m in the distance jumped, would require a variation of 0.77, 200.00 and 1.80 m/s in horizontal, vertical and lateral velocities of the center of mass, respectively, and a variation of 5.75 ° in angle velocity vector of center of mass and in the horizontal plane. The third study aimed to investigate the angular kinematic of the long jump in high level athletes during competition across three analysis of the joint angles during the takeoff, suggesting that an analysis performed during an official competition provides valuable information for technical analysis and research. Furthermore, statistical analysis revealed that the maximum flexion angles occur sequentially, from hip to ankle, when associated to the percentage of the jump takeoff. The aim of the last study were to analyze the variability in three-dimensional kinematic variables of two Olympic medalists and the results suggest that athletes should attempt to control the output variables of the board, seeking to reduce their variability and achieve their optimum values of the kinematic variables.
Mestrado
Biodinamica do Movimento Humano
Mestre em Educação Física
APA, Harvard, Vancouver, ISO, and other styles
12

Vorger, Éric. "Étude de l'influence du comportement des habitants sur la performance énergétique du bâtiment." Thesis, Paris, ENMP, 2014. http://www.theses.fr/2014ENMP0066/document.

Full text
Abstract:
Le comportement humain est modélisé de manière sommaire dans les logiciels de simulation énergétique des bâtiments. Or son impact est considérable et il est à l'origine d'écarts importants entre résultats de simulation et mesures in situ. Les occupants influencent les consommations d'énergie des bâtiments par leur présence et leurs activités, les ouvertures/fermetures de fenêtres, la gestion des dispositifs d'occultation, l'utilisation de l'éclairage artificiel et des appareils électriques, la gestion des consignes de chauffage et les puisages d'eau chaude sanitaire. La thèse propose une modélisation de l'occupation incluant l'ensemble de ces aspects suivant une approche stochastique statistique, pour les bâtiments résidentiels et de bureaux. La construction des modèles fait appel à un grand nombre de données issues de campagnes de mesures, d'enquêtes sociologiques et de la littérature scientifique. Le modèle d'occupation proposé est couplé à l'outil de simulation thermique dynamique Pléiades+COMFIE. En propageant les incertitudes des facteurs du modèle d'occupation et du modèle thermique (enveloppe, climat, systèmes), un intervalle de confiance des résultats de simulation peut être estimé, ouvrant ainsi la voie à un processus de garantie de performance énergétique
Human behaviour is modelled in a simplistic manner in building energy simulation programs. However, it has a considerable impact and is identified as a major explanatory factor of the discrepancy between simulation results and in situ measurements. Occupants influence buildings energy consumption through their presence and activities, the opening/closing of windows, the actions on blinds, the use of artificial lighting and electrical appliances, the choices of temperature setpoints, and the water consumptions. The thesis proposes a model of occupants' behaviour including all these aspects, according to a stochastic approach, for residential and office buildings. Models' development is based on numerous data from measurements campaigns, sociological surveys and from the scientific literature. The proposed model for occupants' behaviour is coupled to the simulation tool Pléiades+COMFIE. By propagating the uncertainties of factors from the occupants' behaviour model and the thermal model (envelope, climate, systems), the simulation results confidence interval can be estimated, opening the way to an energy performance guarantee process
APA, Harvard, Vancouver, ISO, and other styles
13

Pham, Tu Quoc Sang. "Caractérisation des propriétés d’un matériau par radiométrie photothermique modulée." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112377/document.

Full text
Abstract:
L'objectif de nos études est d’appliquer la technique de radiométrie photothermique modulée, technique non intrusive et applicable à distance, pour d’une part, mesurer l'épaisseur et la diffusivité thermique d'une plaque, et d’autre part, caractériser une couche sur un substrat. Un modèle thermique du chauffage 3D a été développé avec prise en compte de l’échange thermique par convection dans le cas d'une plaque, et de la résistance thermique de l'interface dans le cas d'une couche sur un substrat. Une analyse de sensibilité des paramètres sur le déphasage et des études multiparamétriques ont été réalisées à l'aide d'un code de calcul développé sous Matlab. Des formules simples ont ainsi été déterminées pour mesurer l'épaisseur et la diffusivité thermique d'une plaque ainsi que le rapport des effusivités thermiques dans le cas d'une couche sur un substrat. Les formules établies pour les plaques ont été validées expérimentalement sur des plaques d’épaisseur variant de 100μm à 500μm pour différents métaux : inox 304L, nickel, titane, tungstène, molybdène, zinc et fer. L’incertitude de ces déterminations est inférieure à 10% pour l'épaisseur et inférieure à 15% pour la diffusivité thermique. La technique a ensuite été appliquée à des gaines de Zircaloy-4, qui représentent une application très intéressante dans le domaine du nucléaire : les résultats montrent que la présence de la couche d'oxyde, d’épaisseur quelques μm, n'a que très peu d’influence sur les déterminations de l'épaisseur et de la diffusivité thermique du Zircaloy-4. Le comportement du déphasage à hautes fréquences (> 1 kHz) ouvre de plus de nouvelles perspectives, avec la possibilité d’étendre le domaine d’application de la méthode aux couches semi-transparentes et aux couches très minces (inférieures au μm)
Modulated photothermal radiometry, a remote non-intrusive technique, was used to measure the thickness and the thermal diffusivity of a metal plate and to characterize a layer on a substrate. A thermal model of 3D heating was developed with considering the thermal exchange by convection for a plate and the thermal resistance of the interface for a layer on a substrate. The sensibility analysis and the multi-parameter studies on the phase shift were performed by the code developed with the Matlab software. Simple formulas were obtained to determine the thickness and the thermal diffusivity of a plate and the ratio of the thermal effusivities for a layer on a substrate. The obtained formulas were experimentally validated for 100 μm - 500 μm plate thickness of various metals (stainless steel 304L, nickel, titanium, tungsten, molybdenum, zinc and iron). The uncertainty of the measurements was lower than 10 % for thickness and lower than 15 % for thermal diffusivity determination. The same technique was applied in the study on Zircaloy-4 cladding that may be of particular interest for the nuclear industry. It was found that the presence of the oxide layer of some μm thickness had practically no effect on the thickness and the thermal diffusivity measurements of Zircaloy-4 cladding. However, the observed effect of a phase shift on high frequency (> 1kHz) may open new perspectives and widen the field of the method application for semi-transparent layers and for very thin layers (of less than μm thickness)
APA, Harvard, Vancouver, ISO, and other styles
14

Douinot, Audrey. "Analyse des processus d'écoulement lors de crues à cinétique rapide sur l'arc méditerranéen." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30265/document.

Full text
Abstract:
L'objectif de la thèse est d'améliorer la compréhension des processus hydrologiques lors des événements de crues éclair. Se basant sur un modèle existant (MARINE), l'étude se concentre sur les processus internes au sol. Une étape préliminaire permet, à partir de l'analyse des données, de confirmer l'activité du socle rocheux durant les crues éclair. Une analyse structurelle de MARINE est réalisée, afin de connaître la sensibilité des flux de subsurface aux choix structurels. Une nouvelle modélisation, plus robuste et intégrant explicitement une représentation des roches altérées, est mise en place. Supposant des chemins préférentiels à l'interface sol/roche, le modèle donne une bonne reproduction des bassins sédimentaires. Sur les bassins granitiques, il sous-estime les récessions et, en conséquence, les éventuels seconds pics de crue, montrant la nécessité de représenter des flux significatifs sur ces bassins, y compris dans la zone altérée
The purpose of this thesis is to improve the knowledge of hydrological processes during flash flood events using rainfall-runoff modelling. The project focuses on hydrological processes occurring into soil and subsoil horizons. A preliminary data analysis corroborates the activity of the weathered bedrock during flash floods. The hydrological response, simulated by the MARINE model, is then investigated to detect the sensitivity of subsurface flow processes to model assumptions. It leads to several modifications of the model structure in order to make it more robust. Moreover a two-layered soil column is implemented to explicitly integrate the activity of the weathered bedrock into the model. Assuming preferential path flows at the soil-bedrock interface, the model performs well on sedimentary watersheds, but underestimate recession curves and second flood peaks on granitic ones, showing the need to simulate as well significantcontribution from the weathered bedrock
APA, Harvard, Vancouver, ISO, and other styles
15

Holá, Lucie. "Matematický model rozpočtu." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2008. http://www.nusl.cz/ntk/nusl-227938.

Full text
Abstract:
The idea of this diploma thesis is an origin application of optimization models to solve a wage funds allocation problem on various institutes of each faculty. This diploma thesis includes an outline of linear programming models, nonlinear programming models, multiply programming models and parametric programming models. Studied questions are debating in wider context of distributing financial resources from the Budget of the Czech republic, through Ministry of education, youth and sports, universities, faculties after as much as various institutes. The accent is given on question of definition assessment scales of achievement criteria with general-purpose kvantification.
APA, Harvard, Vancouver, ISO, and other styles
16

Martraire, Diane. "Étude du pouvoir de discrimination des primaires initiant les grandes gerbes atmosphériques avec des réseaux de détecteurs au sol : analyse des rayons cosmiques de ultra haute énergie détectés à l’observatoire Pierre Auger, Estimation des performances pour la detection de gamma de très haute énergie du future observatoire LHAASO." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112276/document.

Full text
Abstract:
Depuis plus d’un siècle, les rayons cosmiques d’ultra-haute énergie (RCUHE), ayant une énergie supérieure à 1018 eV, continuent d’entretenir le mystère : Quelle est leur composition ? D’où viennent-ils ? Comment atteignent-ils de telles énergies ? Ces particules chargées, suffisamment énergétiques pour atteindre la Terre, forment des gerbes de particules secondaires via leurs interactions avec l’atmosphère dont le développement est caractéristique de la nature de la particule primaire. L’observatoire Pierre Auger, avec sa structure hybride et son gigantesque réseau de détecteurs peuvent apporter des réponses. L’étude de la composition des RCUHEs a été étudiée avec le réseau de surface de l’observatoire Pierre Auger. Cette dernière est cruciale à la fois pour comprendre les interactions hadroniques, qui constituent le développement des gerbes, et pour identifier leurs sources. Cela peut également aider à comprendre l’origine de la coupure spectrale aux plus hautes énergies : s’agit-il de la coupure GZK ou à l’extinction des sources. Toutes ces raisons motivent la première partie de la thèse, à savoir la mise en place d’une méthode permettant d’extraire la composante muonique des gerbes atmosphériques et d’en déduire la composition. Les résultats de cette méthode montrent une dépendance de la composition avec la distance à l’axe de la gerbe, qui pourrait aider à améliorer les modèles hadroniques. Dans les conditions actuelles du réseau de surface, l’identification de la composante muonique présente des limites.La seconde partie est consacrée au nouvel observatoire en Chine, LHAASO. Ce projet s’intéresse à l’étude des gammas supérieurs à 30 TeV, qui signeraient l’accélération de proton dans la galaxie, donnant ainsi des informations indirectes sur les rayons cosmiques. D’autre part, l’observatoire vise à étudier les rayons cosmiques entre 10 TeV et 1 EeV, région où le spectre en énergie présente une rupture. Cette région nécessite de pouvoir discriminer les gammas des rayons cosmiques. A ce titre, l’un des détecteurs de LHAASO, le KM2A, a été simulé et son pouvoir de discrimination gamma/hadron évalué
During the past century, ultra-high-energy cosmic rays (UHECR), those with an energy larger than 1018 eV, remain as a mystery: What are cosmic rays? Where do they come from? How do they attain their huge energy? When these charged particles strike the earth's atmosphere, they dissipate their energy by generating a shower of secondary particles whose development is significantly different depending on the nature of the primaries. The Pierre Auger observatory, with its hybrid structure and huge size network of ground detectors, can shed some light into these questions.The study of the composition of UHECR was performed with the Pierre Auger apparatus. This is crucial both to understand the hadronic interactions, which govern the evolution of showers, and to identify their sources. It can help to understand the origin of the energy spectrum cut-off: is it the GZK cut-off or the exhaustion of sources? These reasons motivate the first part of this thesis: the development of a method to extract the muonic component of air showers and deduce the implications on the composition of UHECR at the Pierre Auger observatory. The results of this method show a dependence of the composition with the distance to the axis of the shower, which could help to improve the hadronic models. The determination of the muon component is limited by the surface detector setup.The second part is devoted to the new observatory in China, LHAASO. This project focuses on the study of gamma rays with an energy higher than 30 TeV, which probe the acceleration of protons in the galaxy, providing indirect information on cosmic rays. Moreover, the observatory studies cosmic rays between 10 TeV and 1 EeV, one of the regions where the energy spectrum presents a break. This region requires the ability to discriminate gamma rays and cosmic rays. For this reason, one of the detectors of LHAASO, the KM2A, was simulated and its power of discrimination gamma/hadron evaluated
APA, Harvard, Vancouver, ISO, and other styles
17

Lemaitre, Paul. "Analyse de sensibilité en fiabilité des structures." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0061/document.

Full text
Abstract:
Cette thèse porte sur l'analyse de sensibilité dans le contexte des études de fiabilité des structures. On considère un modèle numérique déterministe permettant de représenter des phénomènes physiques complexes.L'étude de fiabilité a pour objectif d'estimer la probabilité de défaillance du matériel à partir du modèle numérique et des incertitudes inhérentes aux variables d'entrée de ce modèle. Dans ce type d'étude, il est intéressant de hiérarchiser l'influence des variables d'entrée et de déterminer celles qui influencent le plus la sortie, ce qu'on appelle l'analyse de sensibilité. Ce sujet fait l'objet de nombreux travaux scientifiques mais dans des domaines d'application différents de celui de la fiabilité. Ce travail de thèse a pour but de tester la pertinence des méthodes existantes d'analyse de sensibilité et, le cas échéant, de proposer des solutions originales plus performantes. Plus précisément, une étape bibliographique sur l'analyse de sensibilité puis sur l'estimation de faibles probabilités de défaillance est proposée. Cette étape soulève le besoin de développer des techniques adaptées. Deux méthodes de hiérarchisation de sources d'incertitudes sont explorées. La première est basée sur la construction de modèle de type classifieurs binaires (forêts aléatoires). La seconde est basée sur la distance, à chaque étape d'une méthode de type subset, entre les fonctions de répartition originelle et modifiée. Une méthodologie originale plus globale, basée sur la quantification de l'impact de perturbations des lois d'entrée sur la probabilité de défaillance est ensuite explorée. Les méthodes proposées sont ensuite appliquées sur le cas industriel CWNR, qui motive cette thèse
This thesis' subject is sensitivity analysis in a structural reliability context. The general framework is the study of a deterministic numerical model that allows to reproduce a complex physical phenomenon. The aim of a reliability study is to estimate the failure probability of the system from the numerical model and the uncertainties of the inputs. In this context, the quantification of the impact of the uncertainty of each input parameter on the output might be of interest. This step is called sensitivity analysis. Many scientific works deal with this topic but not in the reliability scope. This thesis' aim is to test existing sensitivity analysis methods, and to propose more efficient original methods. A bibliographical step on sensitivity analysis on one hand and on the estimation of small failure probabilities on the other hand is first proposed. This step raises the need to develop appropriate techniques. Two variables ranking methods are then explored. The first one proposes to make use of binary classifiers (random forests). The second one measures the departure, at each step of a subset method, between each input original density and the density given the subset reached. A more general and original methodology reflecting the impact of the input density modification on the failure probability is then explored.The proposed methods are then applied on the CWNR case, which motivates this thesis
APA, Harvard, Vancouver, ISO, and other styles
18

Silva, Giovana Oliveira. "Modelos de regressão quando a função de taxa de falha não é monótona e o modelo probabilístico beta Weibull modificada." Universidade de São Paulo, 2009. http://www.teses.usp.br/teses/disponiveis/11/11134/tde-10032009-094918/.

Full text
Abstract:
Em aplicações na área de análise de sobrevivência, é freqüente a ocorrência de função de taxa de falha em forma de U ou unimodal, isto e, funções não-monótonas. Os modelos de regressão comumente usados para dados de sobrevivência são log-Weibull, função de taxa de falha monótona, e log-logística, função de taxa de falha decrescente ou unimodal. Um dos objetivos deste trabalho e propor os modelos de regressão, em forma de locação e escala, log-Weibull estendida que apresenta função de taxa de falha em forma de U e log- Burr XII que tem como caso particular o modelo de regressão log-logística. Considerando dados censurados, foram utilizados três métodos para estimação dos parâmetros, a saber, máxima verossimilhança, bayesiana e jackkinife. Para esses modelos foram calculadas algumas medidas de diagnósticos de influência local e global. Adicionalmente, desenvolveu-se uma análise de resíduos baseada no resíduo tipo martingale. Para diferentes parâmetros taxados, tamanhos de amostra e porcentagens de censuras, várias simulações foram feitas para avaliar a distribuição empírica do resíduo tipo martingale e compará-la com a distribuição normal padrão. Esses estudos sugerem que a distribuição empírica do resíduo tipo martingale para o modelo de regressão log-Weibull estendida com dados censurados aproxima-se de uma distribuição normal padrão quando comparados com outros resíduos considerados neste estudo. Para o modelo de regressão log-Burr XII, foi proposta uma modificação no resíduo tipo martingale baseada no estudo de simulação para obter concordância com a distribuição normal padrão. Conjuntos de dados reais foram utilizados para ilustrar a metodologia desenvolvida. Também pode ocorrer que em algumas aplicações a suposição de independência dos tempos de sobrevivência não é válida. Assim, outro objetivo deste trabalho é introduzir um modelo de regressão log-Burr XII com efeito aleatório para o qual foi proposto um método de estimação para os parâmetros baseado no algoritmo EM por Monte Carlo. Por fim, foi desenvolvido um novo modelo probabilístico denominado de beta Weibull modificado que apresenta cinco parâmetros. A vantagem desse novo modelo é a flexibilidade em acomodar várias formas da função de taxa de falha, por exemplo, U e unimodal, e mostrou-se útil na discriminação entre alguns modelos probabilísticos alternativos. O método de máxima verossimilhança e proposto para estimar os parâmetros desta distribuição. A matriz de informação observada foi calculada. Um conjunto de dados reais é usado para ilustrar a aplicação da nova distribuição
In survival analysis applications, the failure rate function may have frequently unimodal or bathtub shape, that is, non-monotone functions. The regression models commonly used for survival studies are log-Weibull, monotone failure rate function shape, and log-logistic, decreased or unimodal failure rate function shape. In the first part of this thesis, we propose location-scale regression models based on an extended Weibull distribution for modeling data with bathtub-shaped failure rate function and on a Burr XII distribution as an alternative to the log-logistic regression model. Assuming censored data, we consider a classical analysis, a Bayesian analysis and a jackknife estimator for the parameters of the proposed models. For these models, we derived the appropriate matrices for assessing the local influence on the parameter estimates under diferent perturbation schemes, and we also presented some ways to perform global influence. Additionally, we developed residual analy- sis based on the martingale-type residual. For di®erent parameter settings, sample sizes and censoring percentages, various simulation studies were performed and the empirical distribution of the martingale-type residual was displayed and compared with the standard normal distribution. These studies suggest that the empirical distribution of the martingale-type residual for the log-extended Weibull regression model with data censured present a high agreement with the standard normal distribution when compared with other residuals considered in these studies. For the log-Burr XII regression model, it was proposed a change in the martingale-type residual based on some studies of simulation in order to obtain an agreement with the standard normal distribution. Some applications to real data illustrate the usefulness of the methodology developed. It can also happen in some applications that the assumption of independence of the times of survival is not valid, so it was added to the log-Burr XII regression model of random exects for which an estimate method was proposed for the parameters based on the EM algorithm for Monte Carlo simulation. Finally, a five- parameter distribution so called the beta modified Weibull distribution is defined and studied. The advantage of that new distribution is its flexibility in accommodating several forms of the failure rate function, for instance, bathtub-shaped and unimodal shape, and it is also suitable for testing goodness-of-fit of some special sub-models. The method of maximum likelihood is used for estimating the model parameters. We calculate the observed information matrix. A real data set is used to illustrate the application of the new distribution.
APA, Harvard, Vancouver, ISO, and other styles
19

Mazzilli, Naomi. "Sensibilité et incertitude de modélisation sur les bassins méditerranéens à forte composante karstique." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20188/document.

Full text
Abstract:
Les aquifères karstiques sont associés à des enjeux importants en termes à la fois de gestion de la ressource en eau et de gestion du risque d'inondation. Ces systèmes sont caractérisés par une structure fortement hétérogène et un fonctionnement non-linéaire. Cette thèse est consacrée à l'étude de la sensibilité et de l'incertitude associés à la modélisation numérique des écoulements en milieu karstique. De façon systématique, l'analyse de sensibilité est utilisée comme outil afin de répondre aux questions suivantes: (i) la calibration est-elle possible ? (ii) la calibration est-elle robuste ? (iii) est-il possible de réduire l'équifinalité via une calibration multi-objectif ou multi-variable ?Cette contribution met en évidence le potentiel des méthodes locales d'analyse de sensibilité. En dépit des limitations inhérentes à cette approche (approximation locale et perturbation d'un facteur à la fois), l'analyse locale permet une compréhension fine du fonctionnement du modèle, pour un coût de calcul réduit.Par ailleurs, cet travail souligne l'intérêt d'une calibration multi-variable par rapport à une calibration multi-objectif, dans une optique de réduction de l'équifinalité
Karst aquifers are associated with key issues for water resource management and also for flood risk mitigation. These systems are characterized by a highly heterogeneous structure and non-linear functioning. This thesis addresses the sensitivity and uncertainty associated with the numerical modelling of groundwater flow in karst systems. As a systematic approach, sensitivity analysis has been used to answer the following questions:(i) is it possible to calibrate the model ? (ii) is the calibration robust ? (iii) is it possible to reduce equifinality, through multi-objective calibration or through multi-variable calibration ? This contribution stresses the potentialities of local sensitivity analyses. Despite their inherent limitations (local approximation), local analyses have proved to bring valuable insights into the general behaviour of complex, non-linear flow models, at little computational cost. Besides, this contribution also stresses the interest of multi-variable calibration as compared to multi-objective calibration, as regards equifinality reduction
APA, Harvard, Vancouver, ISO, and other styles
20

Sarlon, Emmanuelle. "Stratégies palliatives à la non-randomisation en santé mentale : score de propension et techniques d’ajustement apparentées. Méthodologie appliquée à la prise en compte des facteurs de confusion dans le cas de la schizophrénie." Thesis, Paris 11, 2014. http://www.theses.fr/2013PA11T103/document.

Full text
Abstract:
Objectif : L’objectif est l’étude de plusieurs méthodes de prise en compte des facteurs de confusion, mesurés ou non mesurés, ce en situation observationnelle de population de patients psychotiques ou schizophrènes. Méthodes : Deux méthodes ont été utilisées : le score de propension (adaptés aux données mesurées) et les analyses de sensibilité (pour les informations non mesurées). Le champ d’application est celui de l’épidémiologie clinique en psychiatrie, et plus spécifiquement celui de la schizophrénie. Le développement s’appuie sur trois parties successives. La première partie met en exergue la question de la discussion du biais résiduel. Pour cela, on s’appuie sur les résultats d’une étude transversale d’exposition à un facteur contextuel (la prison), ce dans le cadre de la présence de troubles psychotiques (au sens axe DSM IV), à partir d’une méthodologie d’ajustement conventionnelle classique. La deuxième partie est une comparaison d’une technique d’ajustement classique à un ajustement par score de propension. Pour cela, on utilise les résultats issus d’une étude de cohorte avec la survenue d’un évènement selon l’exposition à un traitement en population schizophrène, à partir de l’utilisation du score de propension comme outil d’ajustement. La troisième partie est une synthèse sur la modélisation de l’incertitude et des biais de confusion non mesurés multiples. Les théories et méthodes sont décrites, puis appliquées aux résultats des deux études précédentes. Résultats : L’étude transversale, dont les résultats non montrés jusqu’à présent, permet de poser la problématique de la qualité de l’ajustement dans le cadre d’une exposition à un facteur en situation observationnelle. L’étude de cohorte permet de comparer une technique d’ajustement classique à un ajustement par score de propension (SP). Nous avons étudié plusieurs méthodes d’ajustement (multivarié standard, avec ajustement sur SP, avec appariement sur SP). Et nous mettons en évidence que, selon la méthode d’ajustement utilisée, les résultats obtenus sont différents. La méthode de stratification sur SP semble être la meilleure. Les méthodes de prise en compte des facteurs de confusion non mesurés sont ensuite étudiées. Une première étape fait état de l’apport des théories probabilistes et des techniques apparentées, ensuite une combinaison de ces théories est proposée avec une application pratique aux deux études présentées précédemment. Conclusion : Dans le cas des études observationnelles, l’objectif de ce travail a été d’étudier, de décrire et d’appliquer des techniques de modélisation pour mieux prendre en compte les différences initiales, potentiellement source de confusion. C’est un travail à la frontière entre la méthodologie, les biostatistiques et l’épidémiologie. Nous nous appuyons sur des difficultés rencontrées, en pratique en épidémiologie psychiatrique (pathologies mentales à étiologies multifactorielles et interdépendantes) pour proposer une approche pragmatique de la prise en compte optimale des facteurs de confusion potentiels, mesurés ou non mesurés
Objective : To evaluate control methods for measured or unmeasured confusion bias, in observational situation of psychotic or schizophrenic patients. Methods : Propensity score method (for measured confusion bias) and analyses of sensibility (for unmeasured confusion bias) were applied in the field of psychiatric epidemiology, specifically in schizophrenia. In first, the question of residual bias was underlined by the results of a transversal study. The exposition at a contextual parameter (prison) was studied in link with psychotic disorders (DSM IV), with a classic control method.Second, to lead to an unbiased estimation of treatment effect, we compared a classic control method with a method based on propensity score. These approach were applied to a cohort of French schizophrenic patients where we studied the event (relapse) by the treatment exposition (polypharmacy or not).Third, we developed a synthesis on modelisation of uncertainty and non-measured confusion bias. Theories and methods were described, and then applied on results of previous studies. Results : The transversal study, with non-demonstrated results still then, allow us to reach the question of control quality in the case of exposition to a parameter in observational situation. The cohort study permit to compare a classic control method and propensity score (PS). We highlighted different results according to some control method. Stratification method on PS seemed to be the best method to predict relapse according to treatment exposition. Non-measured bias control methods were then described. And a combination of probabilistic methods was applied to the previous studies. Conclusion : In the case of observational studies, the objective was to study, to describe and to apply modelisation methods to take in account differences at baseline, potentially source of confusion bias. This research is at the crossroads of methodology, biostatistics and epidemiology
APA, Harvard, Vancouver, ISO, and other styles
21

Janon, Alexandre. "Analyse de sensibilité et réduction de dimension. Application à l'océanographie." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00757101.

Full text
Abstract:
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique.
APA, Harvard, Vancouver, ISO, and other styles
22

Barrera, Gallegos Noé. "Sensibilité Paramétrique pour l’Analyse Dynamique des Réseaux à Courant Continu." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0021/document.

Full text
Abstract:
Ce travail de thèse a pour finalité de présenter différentes méthodologies pour l’analyse de réseaux à courant continue haut tension (HVDC). La théorie fondamentale de l‘analyse de sensitivité s’applique sur l’analyse des systèmes électriques de puissance dans les différentes étapes de la production et la transmission de l’énergie. Des outils de bases concernant cette théorie sont devenus populaires et très utilisés.En pratique, les facteurs de participation représentent un exemple de ces outils, utilisés depuis longtemps. Ils ont été proposés par (Perez-Arriaga et al., 1982). Le but des facteurs de participation est la réduction des modèles des systèmes ayant une dynamique particulière comme celle des systèmes électromécaniques. Aussi, les facteurs de participation sont utilisés pour comprendre les relations entre les variables d’état et les valeurs propres des systèmes. Nous présentons la théorie fondamentale de la sensitivité analytique dans laquelle les facteurs de participation sont basses. Pour une bonne compréhension de ces éléments de base de cette théorie, quelques exemples sont présentés. Nous présentons une formulation différente pour l’analyse par sensitivité paramétrique (Barrera Gallegos et al., 2016).Enfin, les deux méthodologies sur des exemples des réseaux HVDC. Notre comparaison permet d’exposer les limites de l’utilisation des facteurs de participation sur des réseaux HVDC.En conclusion, la nouvelle méthodologie est plus générale comparée aux facteurs de participation. Egalement, la nouvelle méthodologie, par sensitivité paramétrique, nous donne plus d’informations sur les caractéristiques dynamiques des réseaux HVDC
The work presented in this thesis presents different methodology for parametric sensitivity of high voltage dc networks(HVDC).The fundamental theory of modal analysis has been applied for analysis of the power electrical systems in its different stages of production and transmission of energy. Tools derived from these fundamentals have become popular with its use. Among the tools used in dynamic analysis, participation factors have been used for a long time. Proposed by (Perez-Arriaga et al., 1982), they give a metric for relating states and eigenvalues of a system. The objective of the participation factors is to analyze systems with particular dynamics such as electromechanical systems. The participation factors is a tool that helps in the reduction of systems. Firstly, we present the fundaments of the sensitivity analysis upon which the participation factors are based on. The principle is illustrated with several examples.We propose a new formulation for sensitivity analysis using parametric sensitivity (Barrera Gallegos et al., 2016).In the latter, the application of participation factors and parametric sensitivity analysis is performed using HVDC networks. This comparison exposes the limitation of the participation factors for the general analysis of HVDC grids.In conclusion, the new methodology is a better and general alternative compared to traditional participation factors employed for analysis of HVDC grids. In addition, the new technique of parametric sensitivity produces several novel information related to the dynamic characteristics of the HVDC grid
APA, Harvard, Vancouver, ISO, and other styles
23

Fiorini, Camilla. "Analyse de sensibilité pour systèmes hyperboliques non linéaires." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLV034/document.

Full text
Abstract:
L’analyse de sensibilité (AS) concerne la quantification des changements dans la solution d’un système d’équations aux dérivées partielles (EDP) dus aux varia- tions des paramètres d’entrée du modèle. Les techniques standard d’AS pour les EDP, comme la méthode d’équation de sensibilité continue, requirent de dériver la variable d’état. Cependant, dans le cas d’équations hyperboliques l’état peut présenter des dis- continuités, qui donc génèrent des Dirac dans la sensibilité. Le but de ce travail est de modifier les équations de sensibilité pour obtenir un syst‘eme valable même dans le cas discontinu et obtenir des sensibilités qui ne présentent pas de Dirac. Ceci est motivé par plusieurs raisons : d’abord, un Dirac ne peut pas être saisi numériquement, ce qui pourvoit une solution incorrecte de la sensibilité au voisinage de la discontinuité ; deuxièmement, les pics dans la solution numérique des équations de sensibilité non cor- rigées rendent ces sensibilités inutilisables pour certaines applications. Par conséquent, nous ajoutons un terme de correction aux équations de sensibilité. Nous faisons cela pour une hiérarchie de modèles de complexité croissante : de l’équation de Burgers non visqueuse au système d’Euler quasi-1D. Nous montrons l’influence de ce terme de correction sur un problème d’optimisation et sur un de quantification d’incertitude
Sensitivity analysis (SA) concerns the quantification of changes in Partial Differential Equations (PDEs) solution due to perturbations in the model input. Stan- dard SA techniques for PDEs, such as the continuous sensitivity equation method, rely on the differentiation of the state variable. However, if the governing equations are hyperbolic PDEs, the state can exhibit discontinuities yielding Dirac delta functions in the sensitivity. We aim at modifying the sensitivity equations to obtain a solution without delta functions. This is motivated by several reasons: firstly, a Dirac delta function cannot be seized numerically, leading to an incorrect solution for the sensi- tivity in the neighbourhood of the state discontinuity; secondly, the spikes appearing in the numerical solution of the original sensitivity equations make such sensitivities unusable for some applications. Therefore, we add a correction term to the sensitivity equations. We do this for a hierarchy of models of increasing complexity: starting from the inviscid Burgers’ equation, to the quasi 1D Euler system. We show the influence of such correction term on an optimization algorithm and on an uncertainty quantification problem
APA, Harvard, Vancouver, ISO, and other styles
24

Paucar, Casas Walter Jesus. "Concepção otima de sistemas elasto-acusticos interiores acoplados." [s.n.], 1998. http://repositorio.unicamp.br/jspui/handle/REPOSIP/265126.

Full text
Abstract:
Orientador: Renato Pavanello
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica
Made available in DSpace on 2018-07-23T16:29:26Z (GMT). No. of bitstreams: 1 PaucarCasas_WalterJesus_D.pdf: 11209231 bytes, checksum: ed76027cff17f4a62e9dfcff2f0e03d2 (MD5) Previous issue date: 1998
Resumo: Neste trabalho desenvolveram-se metodologias para a obtenção de formas ótimas em sistemas vibroacústicos acoplados, via mudança de parâmetros geométricos, usando a análise de sensibilidade e ferramentas de programação não linear. As equações matriciais do problema são determinadas com o método dos elementos finitos, e expostas de forma a se tornarem dependentes dos parâmetros estruturais. Uma formulação não simétrica em deslocamento da estrutura e pressão do fluido é utilizada para descrever o sistema. Obtidas as freqüências e modos próprios para um conjunto de parâmetros, executa-se o processo de otimização usando a análise de sensibilidade modal. O objetivo é maximizar o afastamento de freqüências naturais adjacentes, ou diminuir a resposta numa região do sistema para uma faixa predefinida de freqüências de excitação, modificando para isso os parâmetros de forma. O efeito do amortecimento proporcional é incluído na modelagem. Os resultados obtidos são validados a partir de soluções numéricas disponíveis na literatura. A utilização da predição modal no processo de otimização também é analisada. A implementação da metodologia desenvolvida encontra aplicação, por exemplo, na melhora do conforto vibroacústico
Abstract: In this research some methodologies for obtaining optimal forms in coupled vibroacoustic problems are developed, through geometrical parameter changing, using sensitivity analysis and non linear programming tools. The matrix equations of the problem are determined through the finite element method, and then put in such a form that they become functions of the structural parameters. A non symmetrical formulation in structural displacement and tluid pressure is used to describe the system. Once the natural frequencies and modes for a set of parameters are found, the optimization process is conducted using the modal sensitivity analysis. The objective is either to maximize the gap between some adjacent natural frequencies,or to minimizethe frequency response in a specific region of the system for one set of excitation frequencies.This is done by modifying the shape parameters. The effect of proportional damping is included in the model. The results are validated with numerical solutions available in the literature. Additional results using the modal prediction in the optimization are also analyzed. The implemented methodology can be applied, for example, in the improvement of the vibroacoustic confort
Doutorado
Mecanica dos Sólidos e Projeto Mecanico
Doutor em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
25

Figueiredo, António José Pereira de. "Energy efficiency and comfort strategies for Southern European climate : optimization of passive housing and PCM solutions." Doctoral thesis, Universidade de Aveiro, 2016. http://hdl.handle.net/10773/17291.

Full text
Abstract:
Doutoramento em Engenharia Civil
Pursuing holistic sustainable solutions, towards the target defined by the United Nations Framework Convention on Climate Change (UNFCCC) is a stimulating goal. Exploring and tackling this task leads to a broad number of possible combinations of energy saving strategies than can be bridged by Passive House (PH) concept and the use of advanced materials, such as Phase Change Materials (PCM) in this context. Acknowledging that the PH concept is well established and practiced mainly in cold climate countries of Northern and Central Europe, the present research investigates how the construction technology and energy demand levels can be adapted to Southern Europe, in particular to Portugal mainland climate. For Southern Europe in addition to meeting the heating requirements in a fairly easier manner, it is crucial to provide comfortable conditions during summer, due to a high risk of overheating. The incorporation of PCMs into building solutions making use of solar energy to ensure their phase change process, are a potential solution for overall reduction of energy consumption and overheating rate in buildings. The PH concept and PCM use need to be adapted and optimised to work together with other active and passive systems improving the overall building thermal behaviour and reducing the energy consumption. Thus, a hybrid evolutionary algorithm was used to optimise the application of the PH concept to the Portuguese climate through the study of the combination of several building features as well as constructive solutions incorporating PCMs minimizing multi-objective benchmark functions for attaining the defined goals.
A procura de soluções de sustentabilidade holísticas que conduzam ao cumprimento dos desafios impostos pela Convenção-Quadro das Nações Unidas sobre as Alterações Climáticas é uma meta estimulante. Explorar esta tarefa resulta num amplo número de possíveis combinações de estratégias de poupança energética, sendo estas alcançáveis através do conceito definido pela Passive House (PH) e pela utilização de materiais de mudança de fase que se revelam como materiais inovadores neste contexto. Reconhecendo que este conceito já se encontra estabelecido e disseminado em países de climas frios do centro e norte da Europa, o presente trabalho de investigação foca-se na aplicabilidade e adaptabilidade deste conceito e correspondentes técnicas construtivas, assim como os níveis de energia, para climas do sul da Europa, nomeadamente em Portugal continental. No sudeste da Europa, adicionalmente à necessidade de cumprimento dos requisitos energéticos para aquecimento, é crucial promover e garantir condições de conforto no verão, devido ao elevado risco de sobreaquecimento. A incorporação de materiais de mudança de fase nas soluções construtivas dos edifícios, utilizando a energia solar para assegurar o processo de mudança de fase, conduz a soluções de elevado potencial para a redução global da energia consumida e do risco de sobreaquecimento. A utilização do conceito PH e dos materiais de mudança de fase necessitam de ser adaptados e otimizados para funcionarem integrados com outros sistemas ativos e passivos, melhorando o comportamento térmico dos edifícios e minimizando o consumo energético. Assim, foi utilizado um algoritmo evolutivo para otimizar a aplicabilidade do conceito PH ao clima português através do estudo e combinação de diversos aspetos construtivos, bem como o estudo de possíveis soluções construtivas inovadoras com incorporação de materiais de mudança de fase minimizando as funções objetivo para o cumprimento das metas inicialmente definidas.
APA, Harvard, Vancouver, ISO, and other styles
26

Resmini, Andrea. "Analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066529.

Full text
Abstract:
L'analyse de sensibilité pour la simulation numérique des écoulements compressibles en aérodynamique externe par rapport à la discrétisation de maillage et aux incertitudes liées à des paramètres d'entrées du modèle a été traitée 1- par le moyen des méthodes adjointes pour le calcul de gradient et 2- par approximations stochastiques non-intrusives basées sur des grilles creuses. 1- Une méthode d'adaptation de maillages goal-oriented basée sur les dérivées totales des fonctions aérodynamiques d'intérêt par rapport aux nœuds du maillage a été introduite sous une forme améliorée. La méthode s'applique au cadre de volumes finis pour des écoulements RANS pour des maillages mono-bloc et multi-bloc structurés. Des applications 2D pour des écoulements transsoniques ainsi que subsonique détaché atour d'un profil pour l'estimation du coefficient de traînée sont présentées. L'apport de la méthode proposée est vérifié. 2- Les méthodes du polynôme de chaos généralisé sous forme pseudospectrale creuse et de la collocation stochastique construite sur des grilles creuses isotropes et anisotropes sont examinées. Les maillages anisotropes sont obtenus par le biais d'une méthode adaptive basée sur l'analyse de sensibilité globale. L'efficacité des ces approximations est testée avec des fonctions test et des écoulements aérodynamiques visqueux autour d'un profil en présence d'incertitudes géométriques et opérationnelles. L'intégration des méthodes et aboutissements 1- et 2- dans une approche couplée permettrait de contrôler de façon équilibrée l'erreur déterministe/stochastique goal-oriented
Sensitivity analysis for the numerical simulation of external aerodynamics compressible flows with respect to the mesh discretization and to the model input parametric uncertainty has been addressed respectively 1- through adjoint-based gradient computation techniques and 2- through non-intrusive stochastic approximation methods based on sparse grids. 1- An enhanced goal-oriented mesh adaptation method based on aerodynamic functional total derivatives with respect to mesh coordinates in a RANS finite-volume mono-block and non-matching multi-block structured grid framework is introduced. Applications to 2D RANS flow about an airfoil in transonic and detached subsonic conditions for the drag coefficient estimation are presented. The asset of the proposed method is patent. 2- The generalized Polynomial Chaos in its sparse pseudospectral form and stochastic collocation methods based on both isotropic and dimension-adapted sparse grids obtained through an improved dimension-adaptivity method driven by global sensitivity analysis are considered. The stochastic approximations efficiency is assessed on multi-variate test functions and airfoil viscous aerodynamics simulation in the presence of geometrical and operational uncertainties. Integration of achievements 1- and 2- into a coupled approach in future work will pave the way for a well-balanced goal-oriented deterministic/stochastic error control
APA, Harvard, Vancouver, ISO, and other styles
27

Ngodock, Hans Emmanuel. "Assimilation de données et analyse de sensibilité : une application à la circulation océanique." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00005006.

Full text
Abstract:
Le travail mené dans cette thèse porte sur l'étude "à posteriori" de l'assimilation variationnelle de données. Il s'agit d'une démarche de faisabilité pour la mise au point des outils permettant de faire une analyse diagnostique (qualitative et quantitative) du processus d'assimilation variationnelle, notamment en ce qui concerne l'influence du bruit des observations sur le processus d'assimilation ainsi que sa propagation sur les champs reconstitués (nous sommes alors amenés à faire une étude de sensibilité), et l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation. L'application usuelle des équations adjointes pour l'analyse de sensibilité est revisée, car dans le contexte de l'assimilation variationnelle, nous avons montré par un exemple simple qu'il faut s'y prendre différemment. Nous proposons alors une méthode pour mener correctement cette analyse de sensibilité. Cette méthode est basée sur l'utilisation des équations adjointes au second ordre, obtenues en prenant l'adjoint du système d'optimalité. La sensibilité en est déduite par inversion du Hessien de la fonction coût via la minimisation d'une fonctionnelle quadratique. L'application est faite sur un modèle de circulation générale océanique de type quasi-géostrophique, et nous faisons aussi l'étude de l'existence et l'unicité de la solution de l'équation adjointe au second ordre du modèle considéré, pour justifier l'utilisation du Hessien et l'applicabilité de notre méthode. Nous étudions aussi l'influence de la configuration spatio-temporelle des observations sur le processus d'assimilation au travers du Hessien (à l'optimum) dont les éléments propres varient lorsqu'on fait varier la configuration. Enfin, nous étudions la prédicibilité du système d'optimalité.
APA, Harvard, Vancouver, ISO, and other styles
28

Chabridon, Vincent. "Analyse de sensibilité fiabiliste avec prise en compte d'incertitudes sur le modèle probabiliste - Application aux systèmes aérospatiaux." Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC054/document.

Full text
Abstract:
Les systèmes aérospatiaux sont des systèmes complexes dont la fiabilité doit être garantie dès la phase de conception au regard des coûts liés aux dégâts gravissimes qu’engendrerait la moindre défaillance. En outre, la prise en compte des incertitudes influant sur le comportement (incertitudes dites « aléatoires » car liées à la variabilité naturelle de certains phénomènes) et la modélisation de ces systèmes (incertitudes dites « épistémiques » car liées au manque de connaissance et aux choix de modélisation) permet d’estimer la fiabilité de tels systèmes et demeure un enjeu crucial en ingénierie. Ainsi, la quantification des incertitudes et sa méthodologie associée consiste, dans un premier temps, à modéliser puis propager ces incertitudes à travers le modèle numérique considéré comme une « boîte-noire ». Dès lors, le but est d’estimer une quantité d’intérêt fiabiliste telle qu’une probabilité de défaillance. Pour les systèmes hautement fiables, la probabilité de défaillance recherchée est très faible, et peut être très coûteuse à estimer. D’autre part, une analyse de sensibilité de la quantité d’intérêt vis-à-vis des incertitudes en entrée peut être réalisée afin de mieux identifier et hiérarchiser l’influence des différentes sources d’incertitudes. Ainsi, la modélisation probabiliste des variables d’entrée (incertitude épistémique) peut jouer un rôle prépondérant dans la valeur de la probabilité obtenue. Une analyse plus profonde de l’impact de ce type d’incertitude doit être menée afin de donner une plus grande confiance dans la fiabilité estimée. Cette thèse traite de la prise en compte de la méconnaissance du modèle probabiliste des entrées stochastiques du modèle. Dans un cadre probabiliste, un « double niveau » d’incertitudes (aléatoires/épistémiques) doit être modélisé puis propagé à travers l’ensemble des étapes de la méthodologie de quantification des incertitudes. Dans cette thèse, le traitement des incertitudes est effectué dans un cadre bayésien où la méconnaissance sur les paramètres de distribution des variables d‘entrée est caractérisée par une densité a priori. Dans un premier temps, après propagation du double niveau d’incertitudes, la probabilité de défaillance prédictive est utilisée comme mesure de substitution à la probabilité de défaillance classique. Dans un deuxième temps, une analyse de sensibilité locale à base de score functions de cette probabilité de défaillance prédictive vis-à-vis des hyper-paramètres de loi de probabilité des variables d’entrée est proposée. Enfin, une analyse de sensibilité globale à base d’indices de Sobol appliqués à la variable binaire qu’est l’indicatrice de défaillance est réalisée. L’ensemble des méthodes proposées dans cette thèse est appliqué à un cas industriel de retombée d’un étage de lanceur
Aerospace systems are complex engineering systems for which reliability has to be guaranteed at an early design phase, especially regarding the potential tremendous damage and costs that could be induced by any failure. Moreover, the management of various sources of uncertainties, either impacting the behavior of systems (“aleatory” uncertainty due to natural variability of physical phenomena) and/or their modeling and simulation (“epistemic” uncertainty due to lack of knowledge and modeling choices) is a cornerstone for reliability assessment of those systems. Thus, uncertainty quantification and its underlying methodology consists in several phases. Firstly, one needs to model and propagate uncertainties through the computer model which is considered as a “black-box”. Secondly, a relevant quantity of interest regarding the goal of the study, e.g., a failure probability here, has to be estimated. For highly-safe systems, the failure probability which is sought is very low and may be costly-to-estimate. Thirdly, a sensitivity analysis of the quantity of interest can be set up in order to better identify and rank the influential sources of uncertainties in input. Therefore, the probabilistic modeling of input variables (epistemic uncertainty) might strongly influence the value of the failure probability estimate obtained during the reliability analysis. A deeper investigation about the robustness of the probability estimate regarding such a type of uncertainty has to be conducted. This thesis addresses the problem of taking probabilistic modeling uncertainty of the stochastic inputs into account. Within the probabilistic framework, a “bi-level” input uncertainty has to be modeled and propagated all along the different steps of the uncertainty quantification methodology. In this thesis, the uncertainties are modeled within a Bayesian framework in which the lack of knowledge about the distribution parameters is characterized by the choice of a prior probability density function. During a first phase, after the propagation of the bi-level input uncertainty, the predictive failure probability is estimated and used as the current reliability measure instead of the standard failure probability. Then, during a second phase, a local reliability-oriented sensitivity analysis based on the use of score functions is achieved to study the impact of hyper-parameterization of the prior on the predictive failure probability estimate. Finally, in a last step, a global reliability-oriented sensitivity analysis based on Sobol indices on the indicator function adapted to the bi-level input uncertainty is proposed. All the proposed methodologies are tested and challenged on a representative industrial aerospace test-case simulating the fallout of an expendable space launcher
APA, Harvard, Vancouver, ISO, and other styles
29

Loubiere, Peio. "Amélioration des métaheuristiques d'optimisation à l'aide de l'analyse de sensibilité." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1051/document.

Full text
Abstract:
L'optimisation difficile représente une classe de problèmes dont la résolution ne peut être obtenue par une méthode exacte en un temps polynomial.Trouver une solution en un temps raisonnable oblige à trouver un compromis quant à son exactitude.Les métaheuristiques sont une classe d'algorithmes permettant de résoudre de tels problèmes, de manière générique et efficiente (i.e. trouver une solution satisfaisante selon des critères définis: temps, erreur, etc.).Le premier chapitre de cette thèse est notamment consacré à la description de cette problématique et à l'étude détaillée de deux familles de métaheuristiques à population, les algorithmes évolutionnaires et les algorithmes d'intelligence en essaim.Afin de proposer une approche innovante dans le domaine des métaheuristiques, ce premier chapitre présente également la notion d'analyse de sensibilité.L'analyse de sensibilité permet d'évaluer l'influence des paramètres d'une fonction sur son résultat.Son étude caractérise globalement le comportement de la fonction à optimiser (linéarité, influence, corrélation, etc.) sur son espace de recherche.L'incorporation d'une méthode d'analyse de sensibilité au sein d'une métaheuristique permet d'orienter sa recherche le long des dimensions les plus prometteuses.Deux algorithmes réunissant ces notions sont proposés aux deuxième et troisième chapitres.Pour le premier algorithme, ABC-Morris, la méthode de Morris est introduite dans la métaheuristique de colonie d'abeilles artificielles (ABC).Cette inclusion est dédiée, les méthodes reposant sur deux équations similaires.Afin de généraliser l'approche, une nouvelle méthode, NN-LCC, est ensuite développée et son intégration générique est illustrée sur deux métaheuristiques, ABC avec taux de modification et évolution différentielle.L'efficacité des approches proposées est testée sur le jeu de données de la conférence CEC 2013. L'étude se réalise en deux parties: une analyse classique de la méthode vis-à-vis de plusieurs algorithmes de la littérature, puis vis-à-vis de l'algorithme d'origine en désactivant un ensemble de dimensions, provoquant une forte disparité des influences
Hard optimization stands for a class of problems which solutions cannot be found by an exact method, with a polynomial complexity.Finding the solution in an acceptable time requires compromises about its accuracy.Metaheuristics are high-level algorithms that solve these kind of problems. They are generic and efficient (i.e. they find an acceptable solution according to defined criteria such as time, error, etc.).The first chapter of this thesis is partially dedicated to the state-of-the-art of these issues, especially the study of two families of population based metaheuristics: evolutionnary algorithms and swarm intelligence based algorithms.In order to propose an innovative approach in metaheuristics research field, sensitivity analysis is presented in a second part of this chapter.Sensitivity analysis aims at evaluating arameters influence on a function response. Its study characterises globally a objective function behavior (linearity, non linearity, influence, etc.), over its search space.Including a sensitivity analysis method in a metaheuristic enhances its seach capabilities along most promising dimensions.Two algorithms, binding these two concepts, are proposed in second and third parts.In the first one, ABC-Morris, Morris method is included in artificial bee colony algorithm.This encapsulation is dedicated because of the similarity of their bare bone equations, With the aim of generalizing the approach, a new method is developped and its generic integration is illustrated on two metaheuristics.The efficiency of the two methods is tested on the CEC 2013 conference benchmark. The study contains two steps: an usual performance analysis of the method, on this benchmark, regarding several state-of-the-art algorithms and the comparison with its original version when influences are uneven deactivating a subset of dimensions
APA, Harvard, Vancouver, ISO, and other styles
30

Nanty, Simon. "Quantification des incertitudes et analyse de sensibilité pour codes de calcul à entrées fonctionnelles et dépendantes." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM043/document.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre du traitement des incertitudes dans les simulateurs numériques, et porte plus particulièrement sur l'étude de deux cas d'application liés aux études de sûreté pour les réacteurs nucléaires. Ces deux applications présentent plusieurs caractéristiques communes. La première est que les entrées du code étudié sont fonctionnelles et scalaires, les entrées fonctionnelles étant dépendantes entre elles. La deuxième caractéristique est que la distribution de probabilité des entrées fonctionnelles n'est connue qu'à travers un échantillon de ces variables. La troisième caractéristique, présente uniquement dans un des deux cas d'étude, est le coût de calcul élevé du code étudié qui limite le nombre de simulations possibles. L'objectif principal de ces travaux de thèse était de proposer une méthodologie complète de traitement des incertitudes de simulateurs numériques pour les deux cas étudiés. Dans un premier temps, nous avons proposé une méthodologie pour quantifier les incertitudes de variables aléatoires fonctionnelles dépendantes à partir d'un échantillon de leurs réalisations. Cette méthodologie permet à la fois de modéliser la dépendance entre les variables fonctionnelles et de prendre en compte le lien entre ces variables et une autre variable, appelée covariable, qui peut être, par exemple, la sortie du code étudié. Associée à cette méthodologie, nous avons développé une adaptation d'un outil de visualisation de données fonctionnelles, permettant de visualiser simultanément les incertitudes et les caractéristiques de plusieurs variables fonctionnelles dépendantes. Dans un second temps, une méthodologie pour réaliser l'analyse de sensibilité globale des simulateurs des deux cas d'étude a été proposée. Dans le cas d'un code coûteux en temps de calcul, l'application directe des méthodes d'analyse de sensibilité globale quantitative est impossible. Pour pallier ce problème, la solution retenue consiste à construire un modèle de substitution ou métamodèle, approchant le code de calcul et ayant un temps de calcul très court. Une méthode d'échantillonnage uniforme optimisé pour des variables scalaires et fonctionnelles a été développée pour construire la base d'apprentissage du métamodèle. Enfin, une nouvelle approche d'approximation de codes coûteux et à entrées fonctionnelles a été explorée. Dans cette approche, le code est vu comme un code stochastique dont l'aléa est dû aux variables fonctionnelles supposées incontrôlables. Sous ces hypothèses, plusieurs métamodèles ont été développés et comparés. L'ensemble des méthodes proposées dans ces travaux a été appliqué aux deux cas d'application étudiés
This work relates to the framework of uncertainty quantification for numerical simulators, and more precisely studies two industrial applications linked to the safety studies of nuclear plants. These two applications have several common features. The first one is that the computer code inputs are functional and scalar variables, functional ones being dependent. The second feature is that the probability distribution of functional variables is known only through a sample of their realizations. The third feature, relative to only one of the two applications, is the high computational cost of the code, which limits the number of possible simulations. The main objective of this work was to propose a complete methodology for the uncertainty analysis of numerical simulators for the two considered cases. First, we have proposed a methodology to quantify the uncertainties of dependent functional random variables from a sample of their realizations. This methodology enables to both model the dependency between variables and their link to another variable, called covariate, which could be, for instance, the output of the considered code. Then, we have developed an adaptation of a visualization tool for functional data, which enables to simultaneously visualize the uncertainties and features of dependent functional variables. Second, a method to perform the global sensitivity analysis of the codes used in the two studied cases has been proposed. In the case of a computationally demanding code, the direct use of quantitative global sensitivity analysis methods is intractable. To overcome this issue, the retained solution consists in building a surrogate model or metamodel, a fast-running model approximating the computationally expensive code. An optimized uniform sampling strategy for scalar and functional variables has been developed to build a learning basis for the metamodel. Finally, a new approximation approach for expensive codes with functional outputs has been explored. In this approach, the code is seen as a stochastic code, whose randomness is due to the functional variables, assumed uncontrollable. In this framework, several metamodels have been developed and compared. All the methods proposed in this work have been applied to the two nuclear safety applications
APA, Harvard, Vancouver, ISO, and other styles
31

Grandjacques, Mathilde. "Analyse de sensibilité pour des modèles stochastiques à entrées dépendantes : application en énergétique du bâtiment." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT109/document.

Full text
Abstract:
Les bâtiments représentent un des principaux leviers d'action pour optimiser l'efficacité énergétique et la réduction des émissions de CO2 dans les villes. Afin d'optimiser les performances énergétiques, différentes études ont été menées sur les performances thermiques aussi bien du de point de vue de la conception, de la calibration de modèle que de l'impact de changement climatique. L'analyse de sensibilité vise à évaluer la part d'incertitude due à chacune des variables ou des paramètres qui peuvent influencer ces performances.La plupart des études en bâtiment menées dans la littérature se placent dans un cadre statique qui ne représente pas l'évolution du système. Il est très vite apparu nécessaire de développer des méthodes qui prennent en compte à la fois la dépendance des entrées et la dimension temporelle qui elle-même comporte toujours de la dépendance. Parmi les différentes méthodes d'analyse de sensibilité, nous avons privilégié la méthode globale, reposant sur le calcul des indices de sensibilité de Sobol. Le calcul effectif des indices de sensibilité permet de hiérarchiser les paramètres d'entrée en fonction de leur influence sur la sortieLes indices de Sobol peuvent se calculer de différentes façons. Nous nous sommes intéressés notamment à la méthode Pick and Freeze basée sur l'échantillonnage. Celle-ci repose sur l'hypothèse fondamentale et dans la pratique le plus souvent non vérifiée d'indépendance des entrées. Cela nous a amené du point de vue statistique à développer des techniques nouvelles pour tenir compte du caractère des entrées de type dynamique et dépendantes entre elles à la fois dans le temps et à chaque instant.Nous avons placé notre travail dans l'optique de méthodes permettant de se ramener au cas d'entrées indépendantes. Notre préoccupation a été de modéliser les entrées de manière souple, aisément transposable à d'autres situations concrètes et permettant des simulations relativement aisées. Afin de rendre compte du lien temporel entre les variables, nous avons choisi de considérer un indice dépendant de l'instant de calcul et de quantifier la variabilité de la sortie non pas seulement à la variabilité de l'entrée à l'instant t mais aussi à cette même variabilité provenant des instants précédents. Cette vision permet d'introduire la notion de mémoire utile pour le calcul de la sensibilité. Nous avons développé une méthode d'estimation des indices de Sobol pour des entrées dépendantes statiques a priori. Elle peut néanmoins être mise en œuvre pour des entrées dynamiques de courte mémoire mais les calculs sont alors très lourds dès que le nombre d'entrées est grand ou les mémoires importantes. Cette méthode permet de séparer des variables dépendantes de loi quelconque en des variables indépendantes de loi uniforme. Facile à mettre en œuvre ces méthodes d'estimation ne s'appuient pas sur des hypothèses d'indépendance des entrées, elles permettent alors un large éventail d'applications.Nous avons appliqué notre méthodologie à un bâtiment existant, apportant ainsi un outil utile à l'analyse du comportement thermique et donc à son optimisation. Nous avons pu montrer différentes situations en analysant l'ordre des variables suivant les sensibilités à partir de mesures. Deux critères ont été étudiés. Un critère de confort : l'étude de la température intérieure et un critère de performance : l'énergie de chauffage
Buildings represent one of the main levers of action to optimize energy efficiency and reducing emissions of $ CO_2 $. To understand how perform energy consumption of a building, different studies have been conducted on the thermal performance both the point of view of design and model calibration as the climate change impact. Energy performance can be optimized according to these studies by evaluating the degree of uncertainty due to each of the variables or parameters that may influence performance. This stage is called sensitivity analysis.Most building studies in the literature are placed in a static framework that does not represent the evolution of the system. The variables whose sensitivity to be studied are either considered at a given time or the input-output models are not dynamic. It became necessary to develop methods that take into account both the dependence of the inputs and the temporal dimension which itself always involves dependence. Among the different methods of sensitivity analysis, we have focused on the global method, based on the calculation of Sobol sensitivity indices. Sobol index of a parameter (or group of parameters) is a statistical indicator of easy interpretation. It allows to measure the importance of this parameter (or group of parameters) on the variability of a scalar quantity of interest, depending on the model output. Sensitivity indices allow to rank input parameters according to their influence on the output.Sobol indices can be calculated in different ways. We focused on the Pick and Freeze method based on sampling. This is based on a fundamental assumption and in practice often unverified : inputs independence. This led us statistically to develop new techniques to take into account the dynamic characteristic of inputs and dependents both in time and in every moment. Our work focuses on methods that can bring back to the case of independent inputs. Our concern was modelled in a flexible way inputs, easily transferable to other concrete situations and allowing relatively easy simulations. The input-output relationships are not important as the only constraint, of course not trivial, possible simulation.In order to reproduce the temporal relationship between the variables, we chose to consider an index dependent, in the non-stationary case (especially if there are seasonal phenomena), on the time of calculation and quantify the variability of output not not only to the variability of the input at time $ t $, but also to the same variability from previous times. This vision allows to introduce the concept of usable memory for the calculation of the sensitivity.The second method that we have developed is an estimation method of Sobol indices for static dependent inputs a priori. It may nevertheless be implemented for dynamic inputs with short memory but the calculations are then very heavy when the number of inputs are large or own important memories. This method allows to separate dependent variables of any law in independent variables uniformly distributed.Easy to implement these estimation methods developed are not based on assumptions of independence of inputs. It then allows a wide range of applications.This method applied to an existing building can help improve energy management and can be useful in the design from the implementation scenarios. We could show different situations by analysing the variable order according to the sensitivities from measurements on a test building. Two criteria were studied. A criterion of comfort: the study of indoor temperature and performance criteria: the heating energy
APA, Harvard, Vancouver, ISO, and other styles
32

Vasconcelos, Fillipe Matos de. "Estudo de reativos em sistemas de distribuição de energia elétrica." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/18/18154/tde-25042012-163719/.

Full text
Abstract:
Este trabalho tem o objetivo de utilizar métodos de otimização não linear a fim de desenvolver uma metodologia eficiente para alocação de bancos de capacitores visando a eliminar violações de tensão em redes de distribuição. A aplicação de capacitores em paralelo a sistemas elétricos de potência é comumente empregada com o intuito de se obter melhor controle do fluxo de potência, gerenciamento do perfil de tensão, correção do fator de potência e minimização de perdas. Tendo em vista estes benefícios, a metodologia deste trabalho se dará por meio da resolução de um problema de programação não linear associada com a aproximação linear da relação potência reativa versus tensão para determinar o número, a localização e o dimensionamento dos bancos capacitores ao longo das linhas de distribuição. Desta forma, pretende-se minimizar a injeção de reativos e reduzir as perdas ativas totais de modo que todas as restrições de operação e de carga sejam atendidas. Os resultados são avaliados pelo programa GAMS (General Algebraic Modeling System), pelo MATLAB TM (Matrix Laboratory) e por um programa elaborado em Fortran, sendo possível analisar e descrever as contribuições alcançadas pelo presente trabalho, considerando que este é um tema de grande relevância para a operação e planejamento da expansão dos sistemas elétricos de potência.
This work aims to use nonlinear optimization methods to develop an efficient methodology for capacitor banks allocation to eliminate voltage violations in distribution networks. The application of capacitors in parallel to the electric power systems are commonly employed in order to have better control of power flow, voltage profile management, power factor correction and loss minimization. To achieve these benefits, the methodology of this work will be done through the resolution of a nonlinear programming problem associated with the linear approach of Voltage Variations versus Reactive Power Variation, calculating the number, location and optimal design of capacitor banks along distribution lines. Thus, it looks forward to minimize reactive power injection and reduce losses subject to meeting the operating and the loading constraints. The results are evaluated by the program GAMS TM (General Algebraic Modeling System), by Matlab TM (Matrix Laboratory) and by a program written in FORTRAN TM, being able to analyze and describe the contributions achieved by this work, considering it is a topic of great relevance to the operation and expansion planning of electric power systems.
APA, Harvard, Vancouver, ISO, and other styles
33

Mensi, Amira. "Analyse des pointeurs pour le langage C." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00944703.

Full text
Abstract:
Les analyses statiques ont pour but de déterminer les propriétés des programmes au moment de la compilation. Contrairement aux analyses dynamiques, le comportement exact du programme ne peut être connu. Par conséquent, on a recours à des approximations pour remédier à ce manque d'information. Malgré ces approximations, les analyses statiques permettent des optimisations et des transformations efficaces pour améliorer les performances des programmes. Parmi les premières analyses du processus d'optimisation figure l'analyse des pointeurs. Son but est d'analyser statiquement un programme en entrée et de fournir en résultat une approximation des emplacements mémoire vers lesquels pointent ses variables pointeurs. Cette analyse est considérée comme l'une des analyses de programmes les plus délicates et l'information qu'elle apporte est très précieuse pour un grand nombre d'autres analyses clientes. En effet, son résultat est nécessaire à d'autres optimisations, comme la propagation de constante, l'élimination du code inutile, le renommage des scalaires ainsi que la parallélisation automatique des programmes. L'analyse des pointeurs est très nécessaire pour l'exploitation du parallélisme présent dans les applications scientifiques écrites en C. Ceci est dû au fait que les tableaux, très présents dans ce type d'applications, sont accédés via les pointeurs. Il devient nécessaire d'analyser les dépendances entre les éléments de tableau dans le but de paralléliser les boucles. Le langage C présente beaucoup de difficultés lors de son analyse par la liberté qu'il offre aux utilisateurs pour gérer et manipuler la mémoire par le biais des pointeurs. Ces difficultés apparaissent par exemple lors de l'accès aux tableaux par pointeurs, l'allocation dynamique (via "malloc") ainsi que les structures de données récursives. L'un des objectifs principaux de cette thèse est de déterminer les emplacements mémoire vers lesquels les pointeurs pointent. Ceci se fait en assurant plusieurs dimensions comme : - la sensibilité au flot de contrôle, c'est-à-dire la mise à jour des informations d'un point programme à un autre ; - la non-sensibilité au contexte, c'est-à-dire l'utilisation de résumés au lieu de l'analyse du corps de la fonction à chaque appel ; - la modélisation des champs pointeurs des structures de données agrégées, dans laquelle chaque champ représente un emplacement mémoire distinct. D'autres aspects sont pris en compte lors de l'analyse des programmes écrits en C comme la précision des emplacements mémoire alloués au niveau du tas, l'arithmétique sur pointeurs ou encore les pointeurs vers tableaux. Notre travail permet l'amélioration des résultats des analyses clientes et en particulier il permet la parallélisation des boucles lorsqu'on accède aux éléments de tableaux via les pointeurs, la détection de code inutile ou le calcul du graphe de dépendances. Il est implémenté dans le compilateur parallélliseur PIPS (Parallélisation Interprocédurale de Programmes Scientifiques) et permet d'analyser, en particulier, les applications scientifiques de traitement du signal tout en assurant une analyse intraprocédurale précise et une analyse interprocédurale efficace via les résumés.
APA, Harvard, Vancouver, ISO, and other styles
34

Derennes, Pierre. "Mesures de sensibilité de Borgonovo : estimation des indices d'ordre un et supérieur, et application à l'analyse de fiabilité." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30039.

Full text
Abstract:
Dans de nombreuses disciplines, un système complexe est modélisé par une fonction boîte noire dont le but est de simuler le comportement du système réel. Le système est donc représenté par un modèle entrée-sortie, i.e, une relation entre la sortie Y (ce que l'on observe sur le système) et un ensemble de paramètres extérieurs Xi (représentant typiquement des variables physiques). Ces paramètres sont usuellement supposés aléatoires pour prendre en compte les incertitudes phénoménologiques inhérentes au système. L'analyse de sensibilité globale joue alors un rôle majeur dans la gestion de ces incertitudes et dans la compréhension du comportement du système. Cette étude repose sur l'estimation de mesures d'importance dont le rôle est d'identifier et de classifier les différentes entrées en fonction de leur influence sur la sortie du modèle. Les indices de Sobol, dont l'objectif est de quantifier la contribution d'une variable d'entrée (ou d'un groupe de variables) à la variance de la sortie, figurent parmi les mesures d'importance les plus considérées. Néanmoins, la variance est une représentation potentiellement restrictive de la variabilité du modèle de sortie. Le sujet central de cette thèse porte sur une méthode alternative, introduite par Emanuele Borgonovo, et qui est basée sur l'analyse de l'ensemble de la distribution de sortie. Les mesures d'importance de Borgonovo admettent des propriétés très utiles en pratique qui justifient leur récent gain d'intérêt, mais leur estimation constitue un problème complexe. En effet, la définition initiale des indices de Borgonovo fait intervenir les densités inconditionnelles et conditionnelles de la sortie du modèle, malheureusement inconnues en pratique. Dès lors, les premières méthodes proposées menaient à un budget de simulation élevé, la fonction boite noire pouvant être très coûteuse à évaluer. La première contribution de cette thèse consiste à proposer de nouvelles méthodologies pour estimer les mesures d'importance de Borgonovo du premier ordre, i.e, les indices mesurant l'influence de la sortie Y relativement à une entrée Xi scalaire. Dans un premier temps, nous choisissons d'adopter la réinterprétation des indices de Borgonovo en terme de mesure de dépendance, i.e, comme une distance entre la densité jointe de Xi et Y et la distribution produit. En outre, nous développons une procédure d'estimation combinant échantillonnage préférentiel et approximation par noyau gaussien de la densité de sortie et de la densité jointe. Cette approche permet de calculer l'ensemble des indices de Borgonovo d'ordre 1, et ce, avec un faible budget de simulation indépendant de la dimension du modèle. Cependant, l'utilisation de l'estimation par noyau gaussien peut fournir des estimations imprécises dans le cas des distributions à queue lourde. Pour pallier ce problème, nous nous appuyons dans un second temps sur une autre définition des indices de Borgonovo reposant sur le formalisme des copules
In many disciplines, a complex system is modeled by a black box function whose purpose is to mimic the real system behavior. Then, the system is represented by an input-output model, i.e, a relationship between the output Y (the observation made on the system) and a set of external parameters Xi (typically representing physical variables). These parameters are usually assumed to be random in order to take phenomenological uncertainties into account. Then, global sensitivity analysis (GSA) plays a crucial role in the handling of these uncertainties and in the understanding of the system behavior. This study is based on the estimation of importance measures which aim at identifying and ranking the different inputs with respect to their influence on the model output. Variance-based sensitivity indices are one of the most widely used GSA measures. They are based on Sobol's indices which express the share of variance of the output that is due to a given input or input combination. However, by definition they only study the impact on the second-order moment of the output which may a restrictive representation of the whole output distribution. The central subject of this thesis is an alternative method, introduced by Emanuele Borgonovo, which is based on the analysis of the whole output distribution. Borgonovo's importance measures present very convenient properties that justify their recent gain of interest, but their estimation is a challenging task. Indeed, the initial definition of the Borgonovo's indices involves the unconditional and conditional densities of the model output, which are unfortunately unknown in practice. Thus, the first proposed methods led to a high computational burden especially since the black box function may be very costly-to-evaluate. The first contribution of this thesis consists in proposing new methodologies for estimating first order Borgonovo importance measures which quantify the influence of the output Y relatively to a scalar input Xi. First, we choose to adopt the reinterpretation of the Borgonovo indices in term of measure of dependence, i.e, as a distance between the joint density of Xi and Y and the product distribution. In addition, we develop an estimation procedure combining an importance sampling procedure and Gaussian kernel approximation of the output density and the joint density. This approach allows the computation of all first order Borgonovo with a low budget simulation, independent to the model dimension. However, the use of Gaussian kernel estimation may provide inaccurate estimates for heavy tail distributions. To overcome this problem, we consider an alternative definition of the Borgonovo indices based on the copula formalism
APA, Harvard, Vancouver, ISO, and other styles
35

Machala, Dawid. "Comportement d'un projectile en vol libre : modélisation LPV et analyse de sensibilité." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0165.

Full text
Abstract:
Les essais en vol libre peuvent être considérés comme une référence pour l'étude du comportement d'un projectile en vol, puisque la caractérisation aérodynamique se base sur des données mesurées dans des conditions de vol réelles. Néanmoins, cette détermination est entièrement conditionnée par le cadre expérimental qui peut introduire plusieurs sources d’incertitude telles que les conditions initiales de vol ainsi que les coefficients aérodynamiques partiellement connus. Par ailleurs, la structure non linéaire du modèle, bien qu’adaptée pour la description et l’identification du comportement aérodynamique, est différente de celle utilisée généralement pour la conception des boucles de pilotage. Ainsi, l'intérêt repose sur le développement d'un modèle commun et exploitable quel que soit l'objectif de l'étude. Dans ce contexte, deux contributions principales sont apportées dans cette thèse. • Une nouvelle structure de modèle a été suggérée. Les équations non linéaires ont été transformées en forme quasi-LPV dans un repère non-tournant, similaire aux structures utilisées dans les études GNC. Cette méthode, réduisant le temps de calcul pour des projectiles gyrostabilisés tout en conservant la description complète du comportement d'un projectile en vol, s'avère ainsi adaptée. • L’influence des incertitudes sur le modèle quasi-LPV a été examinée à travers l’analyse de sensibilité globale du modèle, en déterminant ses paramètres influents et non-identifiables. Cette analyse a permis de mieux comprendre son comportement physique et de guider les études de sauvegarde effectuées en amont des essais en vol
Free-flight experiments can be considered as a realistic source of aerodynamic data-based knowledge, since the behaviour of a projectile is observed under real flight conditions. However, the experimental framework introduces several sources of uncertainty: the initial flight conditions are unknown, and only an initial guess of aerodynamics of the projectile is available. Additionally, the nonlinear model structure used in identification of aerodynamic behaviour is different from the structures typically used in guidance and navigation activities, which necessitates switching between model structures---depending on the task at hand. Such a setting lays the groundwork for the following main contributions developed in the thesis: • A novel model structure is proposed: the nonlinear model equations are transformed into a quasi-LPV structure in a non-rolling reference frame. The new structure resembles the ones used in guidance and navigation activities, while preserving the projectile's nonlinear behaviour. It is also much faster in computation time for the case of spin-stabilised projectiles, making it more efficient for simulations. • Influence of the aforementioned uncertainties on the quasi-LPV model was assessed using global sensitivity analysis: it has allowed to determine which parameters of the model can be deemed non-identifiable, and to gain further insight into the physical behaviour of the quasi-LPV model. These developments could be used in future safety analysis preceding the flight tests
APA, Harvard, Vancouver, ISO, and other styles
36

Picherit, Marie-Lou. "Evaluation environnementale du véhicule électrique : méthodologies et application." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2010. http://tel.archives-ouvertes.fr/tel-00666955.

Full text
Abstract:
Le véhicule électrique est aujourd'hui présenté comme l'une des solutions alternatives sérieuses au véhicule à moteur à combustion interne, visant à limiter la consommation d'énergies fossiles, ainsi que les émissions de polluants locaux et de gaz à effet de serre. L'évaluation des forces et faiblesses de cette technologie au regard de l'environnement est aujourd'hui limitée, compte tenu notamment du peu de retour d'expérience sur ce type de véhicules.L'objectif de ce travail de recherche est de proposer une approche combinant une connaissance fine du véhicule étudié (obtenu notamment par des essais expérimentaux et l'utilisation de modèles de consommation) et de la méthode d'évaluation environnementale Analyse de Cycle de Vie (ACV), pour identifier les paramètres clefs du bilan environnemental, et par différentes analyses de sensibilité, d'en proposer une analyse détaillée. Pour y parvenir, des essais expérimentaux ont été réalisés sur un véhicule électrique à usage essentiellement urbain et son équivalent thermique. Un modèle permet d'estimer les consommations de véhicules selon leurs spécificités (chimie et capacité de batterie, rendement de la chaîne de traction) et leurs conditions d'utilisation (trafic, usages d'auxiliaires). Des hypothèses et scénarios sont également établis sur la durée de vie des batteries qui équipent le véhicule. Les jeux de données obtenus sont mis en œuvre dans l'ACV d'un véhicule électrique, et les résultats obtenus interprétés puis comparés à ceux du véhicule thermique équivalent. Enfin, analyses de sensibilité et test de divers scénarios permettent l'identification des paramètres clefs du bilan environnemental.
APA, Harvard, Vancouver, ISO, and other styles
37

Caniou, Yann. "Analyse de sensibilité globale pour les modèles de simulation imbriqués et multiéchelles." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00864175.

Full text
Abstract:
Cette thèse est une contribution à la modélisation imbriquée de systèmes complexes. Elle propose une méthodologie globale pour quantifier les incertitudes et leurs origines dans une chaîne de calcul formée par plusieurs modèles pouvant être reliés les uns aux autres de façon complexe. Ce travail est organisé selon trois axes. D'abord, la structure dedépendance des paramètres du modèle, induite par la modélisation imbriquée, est modélisée de façon rigoureuse grâce à la théorie des copules. Puis, deux méthodes d'analyse de sensibilité adaptées aux modèles à paramètres d'entrée corrélés sont présentées : l'une est basée sur l'analyse de la distribution de la réponse du modèle, l'autre sur la décomposition de la covariance. Enfin, un cadre de travail inspiré de la théorie des graphes est proposé pour la description de l'imbrication des modèles. La méthodologie proposée est appliquée à des exemples industriels d'envergure : un modèle multiéchelles de calcul des propriétés mécaniques du béton par une méthode d'homogénéisation et un modèle multiphysique de calcul de dommage sur la culasse d'un moteur diesel. Les résultats obtenus fournissent des indications importantes pour une amélioration significative de la performance d'une structure.
APA, Harvard, Vancouver, ISO, and other styles
38

Dobre, Simona. "Analyses de sensibilité et d'identifiabilité globales : application à l'estimation de paramètres photophysiques en thérapie photodynamique." Phd thesis, Université Henri Poincaré - Nancy I, 2010. http://tel.archives-ouvertes.fr/tel-00550527.

Full text
Abstract:
La thérapie photodynamique (PDT) est un traitement médical destiné à certains types de cancer. Elle utilise un agent photosensibilisant qui se concentre dans les tissus pathologiques est qui sera. Cet agent est ensuite activé par une lumière d'une longueur d'onde précise produisant, après une cascade de réactions, des espèces réactives de l'oxygène qui endommagent les cellules cancéreuses. Cette thèse aborde les analyses d'identifiabilité et de sensibilité des paramètres du modèle dynamique non linéaire retenu. Après avoir précisé différents cadres d'analyse d'identifiabilité, nous nous intéressons plus particulièrement à l'identifiabilité a posteriori, pour des conditions expérimentales fixées, puis à l'identifiabilité pratique, prenant en plus en compte les bruits de mesure. Pour ce dernier cadre, nous proposons une méthodologie d'analyse locale autour de valeurs particulières des paramètres. En ce qui concerne l'identifiabilité des paramètres du modèle dynamique de la phase photocytotoxique de la PDT, nous montrons que parmi les dix paramètres localement identifiables a posteriori, seulement l'un d'entre eux l'est en pratique. Néanmoins, ces résultats locaux demeurent insuffisants en raison des larges plages de variation possibles des paramètres du modèle et nécessitent d'être complétés par une analyse globale. Le manque de méthode visant à tester l'identifiabilité globale a posteriori ou pratique, nous a orientés vers l'analyse de sensibilité globale de la sortie du modèle par rapport à ses paramètres. Une méthode d'analyse de sensibilité globale fondée sur l'étude de la variance a permis de mettre en évidence trois paramètres sensibilisants. Nous abordons ensuite les liens entre les analyses globales d'identifiabilité et de sensibilité des paramètres, en employant une décomposition de Sobol'. Nous montrons alors que les liens suivants existent : une fonction de sensibilité totale nulle implique un paramètre non-identifiable; deux fonctions de sensibilité colinéaires impliquent la non-identifiabilité mutuelle des paramètres en question ; la non-injectivité de la sortie par rapport à un de ses paramètres peut aussi entrainer la non-identifiabilité du paramètre en question mais ce dernier point ne peut être détecté en analysant les fonctions de sensibilité uniquement. En somme, la détection des paramètres non globalement identifiables dans un cadre expérimental donné à partir de résultats d'analyse de sensibilité globale ne peut être que partielle. Elle permet d'observer deux (sensibilité nulle ou négligeable et sensibilités corrélées) des trois causes de la non-identifiabilité.
APA, Harvard, Vancouver, ISO, and other styles
39

Kouassi, Attibaud. "Propagation d'incertitudes en CEM. Application à l'analyse de fiabilité et de sensibilité de lignes de transmission et d'antennes." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC067/document.

Full text
Abstract:
De nos jours, la plupart des analyses CEM d’équipements et systèmes électroniques sont basées sur des approches quasi-déterministes dans lesquelles les paramètres internes et externes des modèles sont supposés parfaitement connus et où les incertitudes les affectant sont prises en compte sur les réponses par le biais de marges de sécurité importantes. Or, l’inconvénient de telles approches est qu’elles sont non seulement trop conservatives, mais en outre totalement inadaptées à certaines situations, notamment lorsque l’objectif de l’étude impose de prendre en compte le caractère aléatoire de ces paramètres via des modélisations stochastiques appropriées de type variables, processus ou champs aléatoires. Cette approche probabiliste a fait l’objet ces dernières années d’un certain nombre de recherches en CEM, tant au plan national qu’au plan international. Le travail présenté dans cette thèse est une contribution à ces recherches et a un double objectif : (1) développer et mettre en œuvre une méthodologie probabiliste et ses outils numériques d’accompagnement pour l’évaluation de la fiabilité et l’analyse sensibilité des équipements et systèmes électroniques en se limitant à des modélisations stochastiques par variables aléatoires ; (2) étendre cette étude au cas des modélisations stochastiques par processus et champs aléatoires dans le cadre d’une analyse prospective basée sur la résolution de l’équation aux dérivées partielles des télégraphistes à coefficients aléatoires.L’approche probabiliste mentionnée au point (1) consiste à évaluer la probabilité de défaillance d’un équipement ou d’un système électronique vis-à-vis d’un critère de défaillance donné et à déterminer l’importance relative de chacun des paramètres aléatoires en présence. Les différentes méthodes retenues à cette fin sont des adaptations à la CEM de méthodes développées dans le domaine de la mécanique aléatoire pour les études de propagation d’incertitudes. Pour le calcul des probabilités de défaillance, deux grandes catégories de méthodes sont proposées : celles basées sur une approximation de la fonction d’état-limite relative au critère de défaillance et les méthodes de Monte-Carlo basées sur la simulation numérique des variables aléatoires du modèle et l’estimation statistique des probabilités cibles. Pour l’analyse de sensibilité, une approche locale et une approche globale sont retenues. Ces différentes méthodes sont d’abord testées sur des applications académiques afin de mettre en lumière leur intérêt dans le domaine de la CEM. Elles sont ensuite appliquées à des problèmes de lignes de transmission et d’antennes plus représentatifs de la réalité.Dans l’analyse prospective, des méthodes de résolution avancées sont proposées, basées sur des techniques spectrales requérant les développements en chaos polynomiaux et de Karhunen-Loève des processus et champs aléatoires présents dans les modèles. Ces méthodes ont fait l’objet de tests numériques encourageant, mais qui ne sont pas présentés dans le rapport de thèse, faute de temps pour leur analyse complète
Nowadays, most EMC analyzes of electronic or electrical devices are based on deterministic approaches for which the internal and external models’ parameters are supposed to be known and the uncertainties on models’ parameters are taken into account on the outputs by defining very large security margins. But, the disadvantage of such approaches is their conservative character and their limitation when dealing with the parameters’ uncertainties using appropriate stochastic modeling (via random variables, processes or fields) is required in agreement with the goal of the study. In the recent years, this probabilistic approach has been the subject of several researches in the EMC community. The work presented here is a contribution to these researches and has a dual purpose : (1) develop a probabilistic methodology and implement the associated numerical tools for the reliability and sensitivity analyzes of the electronic devices and systems, assuming stochastic modeling via random variables; (2) extend this study to stochastic modeling using random processes and random fields through a prospective analysis based on the resolution of the telegrapher equations (partial derivative equations) with random coefficients. The first mentioned probabilistic approach consists in computing the failure probability of an electronic device or system according to a given criteria and in determining the relative importance of each considered random parameter. The methods chosen for this purpose are adaptations to the EMC framework of methods developed in the structural mechanics community for uncertainty propagation studies. The failure probabilities computation is performed using two type of methods: the ones based on an approximation of the limit state function associated to the failure criteria, and the Monte Carlo methods based on the simulation of the model’s random variables and the statistical estimation of the target failure probabilities. In the case of the sensitivity analysis, a local approach and a global approach are retained. All these methods are firstly applied to academic EMC problems in order to illustrate their interest in the EMC field. Next, they are applied to transmission lines problems and antennas problems closer to reality. In the prospective analysis, more advanced resolution methods are proposed. They are based on spectral approaches requiring the polynomial chaos expansions and the Karhunen-Loève expansions of random processes and random fields considered in the models. Although the first numerical tests of these methods have been hopeful, they are not presented here because of lack of time for a complete analysis
APA, Harvard, Vancouver, ISO, and other styles
40

Raillon, Loic. "Experimental identification of physical thermal models for demand response and performance evaluation." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI039.

Full text
Abstract:
La stratégie de l’Union Européenne pour atteindre les objectifs climatiques, est d’augmenter progressivement la part d’énergies renouvelables dans le mix énergétique et d’utiliser l’énergie plus efficacement de la production à la consommation finale. Cela implique de mesurer les performances énergétiques du bâtiment et des systèmes associés, indépendamment des conditions climatiques et de l’usage, pour fournir des solutions efficaces et adaptées de rénovation. Cela implique également de connaître la demande énergétique pour anticiper la production et le stockage d’énergie (mécanismes de demande et réponse). L’estimation des besoins énergétiques et des performances énergétiques des bâtiments ont un verrou scientifique commun : l’identification expérimentale d’un modèle physique du comportement intrinsèque du bâtiment. Les modèles boîte grise, déterminés d’après des lois physiques et les modèles boîte noire, déterminés heuristiquement, peuvent représenter un même système physique. Des relations entre les paramètres physiques et heuristiques existent si la structure de la boîte noire est choisie de sorte qu’elle corresponde à la structure physique. Pour trouver la meilleure représentation, nous proposons d’utiliser, des simulations de Monte Carlo pour analyser la propagation des erreurs dans les différentes transformations de modèle et, une méthode de priorisation pour classer l’influence des paramètres. Les résultats obtenus indiquent qu’il est préférable d’identifier les paramètres physiques. Néanmoins, les informations physiques, déterminées depuis l’estimation des paramètres, sont fiables si la structure est inversible et si la quantité d’information dans les données est suffisante. Nous montrons comment une structure de modèle identifiable peut être choisie, notamment grâce au profil de vraisemblance. L’identification expérimentale comporte trois phases : la sélection, la calibration et la validation du modèle. Ces trois phases sont détaillées dans le cas d’une expérimentation d’une maison réelle en utilisant une approche fréquentiste et Bayésienne. Plus précisément, nous proposons une méthode efficace de calibration Bayésienne pour estimer la distribution postérieure des paramètres et ainsi réaliser des simulations en tenant compte de toute les incertitudes, ce qui représente un atout pour le contrôle prédictif. Nous avons également étudié les capacités des méthodes séquentielles de Monte Carlo pour estimer simultanément les états et les paramètres d’un système. Une adaptation de la méthode de prédiction d’erreur récursive, dans une stratégie séquentielle de Monte Carlo, est proposée et comparée à une méthode de la littérature. Les méthodes séquentielles peuvent être utilisées pour identifier un premier modèle et fournir des informations sur la structure du modèle sélectionnée pendant que les données sont collectées. Par la suite, le modèle peut être amélioré si besoin, en utilisant le jeu de données et une méthode itérative
The European Union strategy for achieving the climate targets, is to progressively increase the share of renewable energy in the energy mix and to use the energy more efficiently from production to final consumption. It requires to measure the energy performance of buildings and associated systems, independently of weather conditions and user behavior, to provide efficient and adapted retrofitting solutions. It also requires to known the energy demand to anticipate the energy production and storage (demand response). The estimation of building energy demand and the estimation of energy performance of buildings have a common scientific: the experimental identification of the physical model of the building’s intrinsic behavior. Grey box models, determined from first principles, and black box models, determined heuristically, can describe the same physical process. Relations between the physical and mathematical parameters exist if the black box structure is chosen such that it matches the physical ones. To find the best model representation, we propose to use, Monte Carlo simulations for analyzing the propagation of errors in the different model transformations, and factor prioritization, for ranking the parameters according to their influence. The obtained results show that identifying the parameters on the state-space representation is a better choice. Nonetheless, physical information determined from the estimated parameters, are reliable if the model structure is invertible and the data are informative enough. We show how an identifiable model structure can be chosen, especially thanks to profile likelihood. Experimental identification consists of three phases: model selection, identification and validation. These three phases are detailed on a real house experiment by using a frequentist and Bayesian framework. More specifically, we proposed an efficient Bayesian calibration to estimate the parameter posterior distributions, which allows to simulate by taking all the uncertainties into account, which is suitable for model predictive control. We have also studied the capabilities of sequential Monte Carlo methods for estimating simultaneously the states and parameters. An adaptation of the recursive prediction error method into a sequential Monte Carlo framework, is proposed and compared to a method from the literature. Sequential methods can be used to provide a first model fit and insights on the selected model structure while the data are collected. Afterwards, the first model fit can be refined if necessary, by using iterative methods with the batch of data
APA, Harvard, Vancouver, ISO, and other styles
41

Louboutin, Etienne. "Sensibilité de logiciels au détournement de flot de contrôle." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2021. http://www.theses.fr/2021IMTA0230.

Full text
Abstract:
La sécurité d'un logiciel peut être prise en compte dès la conception. Cette approche, appelée security by design, permet d'influer au plus tôt de la conception pour influer sur l'architecture d'un logiciel. Les protections contre les attaques par détournement de flot d'exécution, comme le return oriented programming, ne sont pas pensées pour changer la manière de concevoir un logiciel, mais permettent de protéger un logiciel soit lors de sa compilation soit en travaillant directement sur le binaire produit. Dans cette thèse, nous proposons des métriques permettant à un développeur d'évaluer la sensibilité d'un logiciel face aux attaques par détournement de flot d'exécution. Pour aider le développement, les métriques définies permettent d'identifier les paramètres de production de binaires d'un logiciel qui entrainent une sensibilité accrue à ces attaques. L'utilisation de ces métriques sont illustrées dans cette thèse en étudiant l'influence de compilateurs et de leurs options, de langages et architectures matérielles
The security of a software can be taken into account right from the design stage. This approach, called security by design, allows to influence as early as possible the design to influence the architecture of a software. The protections against control flow hijacks, such as return oriented programming, are not designed to change the way of designing the software. They often aim to protect a software either during its compilation or by working directly on the binary produced. In this thesis, we propose metrics allowing a developer to evaluate the sensitivity of a software program to attacks by control flow hijacks. To ease development, metrics defined allow to identify the parameters used in the production of binaries of a software that result in increased sensitivity to these attacks. The use of of these metrics are illustrated in this thesis by studying the influence of compilers and their options, languages and hardware architectures
APA, Harvard, Vancouver, ISO, and other styles
42

Zhu, Yueying. "Investigation on uncertainty and sensitivity analysis of complex systems." Thesis, Le Mans, 2017. http://www.theses.fr/2017LEMA1021/document.

Full text
Abstract:
Par un développement en série de Taylor, une relation analytique générale est établie pour calculer l’incertitude de la réponse du modèle, en assumant l'indépendance des entrées. En utilisant des relations de puissances et exponentielles, il est démontré que l’approximation souvent utilisée permet d’évaluer de manière satisfaisante l’incertitude sur la réponse du modèle pourvu que l’incertitude d’entrée soit négligeable ou que le modèle soit presque linéaire. La méthode est appliquée à l’étude d’un réseau de distribution électrique et à un modèle d’ordre économique.La méthode est étendue aux cas où les variables d’entrée sont corrélées. Avec la méthode généralisée, on peux déterminer si les corrélations d'entrée doivent ou non être considérées pour des applications pratiques. Des exemples numériques montrent l'efficacité et la validation de notre méthode dans l'analyse des modèles tant généraux que spécifiques tels que le modèle déterministe du VIH. La méthode est ensuite comparée à celle de Sobol. Les résultats montrent que la méthode de Sobol peut surévaluer l’incidence des divers facteurs, mais sous-estimer ceux de leurs interactions dans le cas d’interactions non linéaires entre les paramètres d’entrée. Une modification est alors introduite, aidant à comprendre la différence entre notre méthode et celle de Sobol. Enfin, un modèle numérique est établi dans le cas d’un jeu virtuel prenant en compte la formation de la dynamique de l'opinion publique. L’analyse théorique à l’aide de la méthode de modification d'un paramètre à la fois. La méthode basée sur l'échantillonnage fournit une analyse globale de l'incertitude et de la sensibilité des observations
By means of taylor series expansion, a general analytic formula is derived to characterise the uncertaintypropagation from input variables to the model response,in assuming input independence. By using power-lawand exponential functions, it is shown that the widelyused approximation considering only the first ordercontribution of input uncertainty is sufficiently good onlywhen the input uncertainty is negligible or the underlyingmodel is almost linear. This method is then applied to apower grid system and the eoq model.The method is also extended to correlated case. Withthe extended method, it is straightforward to identify theimportance of input correlations in the model response.This allows one to determine whether or not the inputcorrelations should be considered in practicalapplications. Numerical examples suggest theeffectiveness and validation of our method for generalmodels, as well as specific ones such as thedeterministic hiv model.The method is then compared to Sobol’s one which isimplemented with sampling based strategy. Resultsshow that, compared to our method, it may overvaluethe roles of individual input factors but underestimatethose of their interaction effects when there arenonlinear coupling terms of input factors. A modificationis then introduced, helping understand the differencebetween our method and Sobol’s one.Finally, a numerical model is designed based on avirtual gambling mechanism, regarding the formation ofopinion dynamics. Theoretical analysis is proposed bythe use of one-at-a-time method. Sampling-basedmethod provides a global analysis of output uncertaintyand sensitivity
APA, Harvard, Vancouver, ISO, and other styles
43

Benoumechiara, Nazih. "Traitement de la dépendance en analyse de sensibilité pour la fiabilité industrielle." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS047.

Full text
Abstract:
Les études de fiabilité des structures ont recours à des approches probabilistes permettant de quantifier le risque qu'un événement accidentel se produise. La dépendance entre les variables aléatoires d'entrée d'un modèle peut avoir un impact significatif sur les résultats de l'étude de sureté. Cette thèse apporte une contribution au traitement de la dépendance en fiabilité des structures. Les deux principaux thèmes traités dans ce document sont, d'une part, l'analyse de sensibilité pour variables dépendantes lorsque la dépendance est connue et, d'autre part, l'évaluation d'un risque de fiabilité lorsque la dépendance est inconnue. Dans un premier temps, nous proposons une extension des mesures d'importance par permutation de l'algorithme des forêts aléatoires au cas de données dépendantes. Nous adaptons aussi l'algorithme d'estimation des indices de Shapley, utilisés en théorie des jeux, afin de prendre compte l'erreur d'estimation des indices. Dans un second temps, lorsque la structure de dépendance est inconnue, nous proposons une estimation conservative du risque de fiabilité basée sur une modélisation de la dépendance qui permet de déterminer la structure de dépendance la plus pénalisante. La méthodologie proposée est appliquée à un exemple de fiabilité structurelle permettant d'obtenir une estimation conservative du risque
Structural reliability studies use probabilistic approaches to quantify the risk of an accidental event occurring. The dependence between the random input variables of a model can have a significant impact on the results of the reliability study. This thesis contributes to the treatment of dependency in structural reliability studies. The two main topics covered in this document are the sensitivity analysis for dependent variables when the dependence is known and, as well as the assessment of a reliability risk when the dependence is unknown. First, we propose an extension of the permutation-based importance measures of the random forest algorithm towards the case of dependent data. We also adapt the Shapley index estimation algorithm, used in game theory, to take into account the index estimation error. Secondly, in the case of dependence structure being unknown, we propose a conservative estimate of the reliability risk based on dependency modelling to determine the most penalizing dependence structure. The proposed methodology is applied to an example of structural reliability to obtain a conservative estimate of the risk
APA, Harvard, Vancouver, ISO, and other styles
44

Alhossen, Iman. "Méthode d'analyse de sensibilité et propagation inverse d'incertitude appliquées sur les modèles mathématiques dans les applications d'ingénierie." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30314/document.

Full text
Abstract:
Dans de nombreuses disciplines, les approches permettant d'étudier et de quantifier l'influence de données incertaines sont devenues une nécessité. Bien que la propagation directe d'incertitudes ait été largement étudiée, la propagation inverse d'incertitudes demeure un vaste sujet d'étude, sans méthode standardisée. Dans cette thèse, une nouvelle méthode de propagation inverse d'incertitude est présentée. Le but de cette méthode est de déterminer l'incertitude d'entrée à partir de données de sortie considérées comme incertaines. Parallèlement, les méthodes d'analyse de sensibilité sont également très utilisées pour déterminer l'influence des entrées sur la sortie lors d'un processus de modélisation. Ces approches permettent d'isoler les entrées les plus significatives, c'est à dire les plus influentes, qu'il est nécessaire de tester lors d'une analyse d'incertitudes. Dans ce travail, nous approfondirons tout d'abord la méthode d'analyse de sensibilité de Sobol, qui est l'une des méthodes d'analyse de sensibilité globale les plus efficaces. Cette méthode repose sur le calcul d'indices de sensibilité, appelés indices de Sobol, qui représentent l'effet des données d'entrées (vues comme des variables aléatoires continues) sur la sortie. Nous démontrerons ensuite que la méthode de Sobol donne des résultats fiables même lorsqu'elle est appliquée dans le cas discret. Puis, nous étendrons le cadre d'application de la méthode de Sobol afin de répondre à la problématique de propagation inverse d'incertitudes. Enfin, nous proposerons une nouvelle approche de la méthode de Sobol qui permet d'étudier la variation des indices de sensibilité par rapport à certains facteurs du modèle ou à certaines conditions expérimentales. Nous montrerons que les résultats obtenus lors de ces études permettent d'illustrer les différentes caractéristiques des données d'entrée. Pour conclure, nous exposerons comment ces résultats permettent d'indiquer les meilleures conditions expérimentales pour lesquelles l'estimation des paramètres peut être efficacement réalisée
Approaches for studying uncertainty are of great necessity in all disciplines. While the forward propagation of uncertainty has been investigated extensively, the backward propagation is still under studied. In this thesis, a new method for backward propagation of uncertainty is presented. The aim of this method is to determine the input uncertainty starting from the given data of the uncertain output. In parallel, sensitivity analysis methods are also of great necessity in revealing the influence of the inputs on the output in any modeling process. This helps in revealing the most significant inputs to be carried in an uncertainty study. In this work, the Sobol sensitivity analysis method, which is one of the most efficient global sensitivity analysis methods, is considered and its application framework is developed. This method relies on the computation of sensitivity indexes, called Sobol indexes. These indexes give the effect of the inputs on the output. Usually inputs in Sobol method are considered to vary as continuous random variables in order to compute the corresponding indexes. In this work, the Sobol method is demonstrated to give reliable results even when applied in the discrete case. In addition, another advancement for the application of the Sobol method is done by studying the variation of these indexes with respect to some factors of the model or some experimental conditions. The consequences and conclusions derived from the study of this variation help in determining different characteristics and information about the inputs. Moreover, these inferences allow the indication of the best experimental conditions at which estimation of the inputs can be done
APA, Harvard, Vancouver, ISO, and other styles
45

Rousseau, Marie. "Propagation d'incertitudes et analyse de sensibilité pour la modélisation de l'infiltration et de l'érosion." Phd thesis, Université Paris-Est, 2012. http://pastel.archives-ouvertes.fr/pastel-00788360.

Full text
Abstract:
Nous étudions la propagation et la quantification d'incertitudes paramétriques au travers de modèles hydrologiques pour la simulation des processus d'infiltration et d'érosion en présence de pluie et/ou de ruissellement. Les paramètres incertains sont décrits dans un cadre probabiliste comme des variables aléatoires indépendantes dont la fonction de densité de probabilité est connue. Cette modélisation probabiliste s'appuie sur une revue bibliographique permettant de cerner les plages de variations des paramètres. L'analyse statistique se fait par échantillonage Monte Carlo et par développements en polynômes de chaos. Nos travaux ont pour but de quantifier les incertitudes sur les principales sorties du modèle et de hiérarchiser l'influence des paramètres d'entrée sur la variabilité de ces sorties par une analyse de sensibilité globale. La première application concerne les effets de la variabilité et de la spatialisation de la conductivité hydraulique à saturation du sol dans le modèle d'infiltration de Green--Ampt pour diverses échelles spatiales et temporelles. Notre principale conclusion concerne l'importance de l'état de saturation du sol. La deuxième application porte sur le modèle d'érosion de Hairsine--Rose. Une des conclusions est que les interactions paramétriques sont peu significatives dans le modèle de détachement par la pluie mais s'avèrent importantes dans le modèle de détachement par le ruissellement
APA, Harvard, Vancouver, ISO, and other styles
46

Amstutz, Samuel. "Analyse de sensibilité topologique et applications en optimisation de formes." Habilitation à diriger des recherches, Université d'Avignon, 2011. http://tel.archives-ouvertes.fr/tel-00736647.

Full text
Abstract:
Ce document présente une synthèse de mes principaux travaux de recherche effectués jusqu'à ce jour. Ils portent essentiellement sur l'analyse de sensibilité topologique et ses applications en optimisation et reconstruction de formes. Cette technique récente consiste à étudier la sensibilité d'une fonctionnelle dépendant d'un domaine par rapport à une perturbation infinitésimale de la topologie de ce dernier, comme typiquement la nucléation d'un trou. La notion de dérivée topologique, ou gradient topologique, qui en découle peut alors être utilisée de différentes manières dans des algorithmes d'optimisation de formes afin de générer des modification de topologie. Sont abordés les aspects analytiques, algorithmiques, ainsi que divers exemples d'applications parmi lesquels l'optimisation de structures élastiques, l'optimisation d'écoulements incompressibles ou encore la détection de défauts géométriques.
APA, Harvard, Vancouver, ISO, and other styles
47

Gurevsky, Evgeny. "Conception de lignes de fabrication sous incertitudes : analyse de sensibilité et approche robuste." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00820619.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur la conception de systèmes de fabrication en contexte incertain. La conception d'un tel système peut être vue comme un problème d'optimisation qui consiste à trouver une configuration qui permet d'optimiser certains objectifs tout en respectant des contraintes technologiques et économiques connues. Les systèmes de fabrication étudiés dans ce mémoire sont des lignes d'assemblage et d'usinage. La première est une ligne qui se présente comme une chaîne de postes de travail où, dans chaque poste, les opérations d'assemblage s'exécutent de manière séquentielle. La deuxième, quant à elle, est une ligne particulière qui se compose de machines de transfert comportant plusieurs boîtiers multibroches où les opérations s'exécutent simultanément. Dans un premier temps, nous décrivons de différentes approches permettant de modéliser l'incertitude des données en optimisation. Une attention particulière est portée sur les deux approches suivantes : l'approche robuste et l'analyse de sensibilité. Puis, nous présentons trois applications : la conception d'une ligne d'assemblage et d'une ligne d'usinage soumises aux variations de temps opératoires et la conception d'une ligne d'assemblage avec les temps opératoires connus sous la forme d'intervalles des valeurs possibles. Pour chaque application, nous identifions les performances attendues ainsi que la complexité de la prise en compte de l'incertitude. Ensuite, nous proposons de nouveaux critères d'optimisation en adéquation avec la problématique introduite. Enfin des méthodes de résolution sont développées pour appréhender les différents problèmes mis en évidence par ces critères.
APA, Harvard, Vancouver, ISO, and other styles
48

Liu, Yuan. "Analyse de sensibilité et estimation de l'humidité du sol à partir de données radar." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD032/document.

Full text
Abstract:
L’étude de la diffusion des ondes électromagnétiques par une surface rugueuse aléatoire est de première importance dans de nombreuses disciplines et conduit à diverses applications notamment pour le traitement des surfaces par télédétection. En connaissant les modes de rétrodiffusion, on peut détecter la présence de la rugosité aléatoire indésirable de la surface de réflection telle que le réflecteur d'antenne et par conséquent trouver un moyen de corriger ou compenser les erreurs de phase. Cette thèse porte sur l’obtention de l'humidité du sol de surface à partir de mesures radar. La description de la surface rugueuse de façon aléatoire est présentée, suivie par les interactions d'ondes électromagnétiques avec les média. En particulier, un modèle d'équation intégrale avancé (AIEM) est introduit. La validité du modèle AIEM, qui est adopté comme modèle de travail, se fait par une large comparaison avec des simulations numériques et des données expérimentales. On analyse également les caractéristiques des configurations radar bistatique et on étudie la sensibilité de la diffusion bistatique à l'humidité du sol et à la rugosité de surface et, dans le même temps, le cadre de la détermination de l'humidité du sol à partir de mesures radar utilisant un réseau de neurones à base de filtres de Kalman récurrents est présenté. La formation du réseau et l'inversion des données sont décrits
Electromagnetic waves scattering from a randomly rough surface is of palpable importance in many fields of disciplines and bears itself in various applications spanned from surface treatment to remote sensing of terrain and sea. By knowing the backscattering patterns, one may detect the presence of the undesired random roughness of the reflection surface such as antenna reflector and accordingly devise a means to correct or compensate the phase errors. Therefore, it has been both theoretically and practically necessary to study the electromagnetic wave scattering from the random surfaces. This dissertation focuses on the retrieval of surface soil moisture from radar measurements. The description of the randomly rough surface is presented, followed by the electromagnetic wave interactions with the media. In particular, an advanced integral equation model (AIEM) is introduced. The validity of the AIEM model, which is adopted as a working model, is made by extensive comparison with numerical simulations and experimental data. Also analyzes the characteristics of the bistatic radar configurations and dissects the sensitivity of bistatic scattering to soil moisture and surface roughness of soil surfaces. Meanwhile presents a framework of soil moisture retrieval from radar measurements using a recurrent Kalman filter-based neural network. The network training and data inversion are described in detail
APA, Harvard, Vancouver, ISO, and other styles
49

Liu, Xing. "Modélisation, analyse et optimisation de la résilience des infrastructures critiques interdépendantes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC080.

Full text
Abstract:
La résilience concerne une capacité importante d'un système à résister et à se remettre des événements perturbateurs. L'objectif de cette thèse est de construire un cadre d'analyse et d'optimisation de la résilience des infrastructures critiques interconnectées (ICIs). Dans ce travail, les contributions scientifiques originales comprennent: 1) une approche de modélisation générique pour décrire le comportement dynamique et les processus d'échec en cascade dans les ICIs. 2) basé sur le modèle proposé, une approche quantitative d'évaluation de la résilience de ICIs est développée, où les aspects d'atténuation et de récupération sont évalués; 3) afin de réduire le coût de calcul dans le cas de systèmes à grande échelle, trois méthodes Différentes échelle, trois méthodes différentes d'analyse de sensibilité globale (ANN estimation, ensemble-based, given-data estimation), sont mis en place pour identifier les paramètres de modèle les plus pertinents affectant la résilience du système, puis les performances de ces méthodes sont comparées;4) un modèle hiérarchique est développé pour caractériser les facteurs de stratégies d'amélioration de la résilience. Un problème d’optimisations multi-objectif est formulé et résolu par l'algorithme NSGA-II, afin de fournir un plan optimal pour l'amélioration de la résilience du système. Les méthodes proposées sont mises en œuvre dans les applications, par exemple, un réseau d'alimentation en gaz et un réseau électrique
Resilience is the ability of a system to resist to and recover from disruptive events. The objective of this thesis is to build a framework of analysis and optimization of interconnected critical infrastructures (ICIs) resilience. In this work, the original scientific contributions include: 1) a generic modeling approach to describe the dynamic behavior and the physical cascading failure processes in ICIs.2) on the basis of the model, a quantitative resilience assessment approach for ICIs is proposed, where both the mitigation and recovery aspects of system resilience are evaluated; 3) in order to reduce the computational cost in the case of large-scale systems, three different global sensitivity analysis methods (ANN estimation, ensemblebased, give-data estimation) are implemented to identify the most relevant model parameters affecting the system resilience, and then the performance of these methods are compared; 4) a hierarchical model is developed to characterize the factors of resilience improvement strategies. A multi-objectives optimization problem is formulated and solved by NSGA-II algorithm, to provide the optimal plan for system resilience improvement. The methods proposed are implemented to applications, e.g., a gas supply network and an electrical power grid
APA, Harvard, Vancouver, ISO, and other styles
50

Saint-Geours, Nathalie. "Analyse de sensibilité de modèles spatialisés : application à l'analyse coût-bénéfice de projets de prévention du risque d'inondation." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20203/document.

Full text
Abstract:
L'analyse de sensibilité globale basée sur la variance permet de hiérarchiser les sources d'incertitude présentes dans un modèle numérique et d'identifier celles qui contribuent le plus à la variabilité de la sortie du modèle. Ce type d'analyse peine à se développer dans les sciences de la Terre et de l'Environnement, en partie à cause de la dimension spatiale de nombreux modèles numériques, dont les variables d'entrée et/ou de sortie peuvent être des données distribuées dans l'espace. Le travail de thèse réalisé a pour ambition de montrer comment l'analyse de sensibilité globale peut être adaptée pour tenir compte des spécificités de ces modèles numériques spatialisés, notamment la dépendance spatiale dans les données d'entrée et les questions liées au changement d'échelle spatiale. Ce travail s'appuie sur une étude de cas approfondie du code NOE, qui est un modèle numérique spatialisé d'analyse coût-bénéfice de projets de prévention du risque d'inondation. On s'intéresse dans un premier temps à l'estimation d'indices de sensibilité associés à des variables d'entrée spatialisées. L'approche retenue du « map labelling » permet de rendre compte de l'auto-corrélation spatiale de ces variables et d'étudier son impact sur la sortie du modèle. On explore ensuite le lien entre la notion d'« échelle » et l'analyse de sensibilité de modèles spatialisés. On propose de définir les indices de sensibilité « zonaux » et « ponctuels » pour mettre en évidence l'impact du support spatial de la sortie d'un modèle sur la hiérarchisation des sources d'incertitude. On établit ensuite, sous certaines conditions, des propriétés formelles de ces indices de sensibilité. Ces résultats montrent notamment que l'indice de sensibilité zonal d'une variable d'entrée spatialisée diminue à mesure que s'agrandit le support spatial sur lequel est agrégée la sortie du modèle. L'application au modèle NOE des méthodologies développées se révèle riche en enseignements pour une meilleure prise en compte des incertitudes dans les modèles d'analyse coût-bénéfice des projets de prévention du risque d'inondation
Variance-based global sensitivity analysis is used to study how the variability of the output of a numerical model can be apportioned to different sources of uncertainty in its inputs. It is an essential component of model building as it helps to identify model inputs that account for most of the model output variance. However, this approach is seldom applied in Earth and Environmental Sciences, partly because most of the numerical models developed in this field include spatially distributed inputs or outputs . Our research work aims to show how global sensitivity analysis can be adapted to such spatial models, and more precisely how to cope with the following two issues: i) the presence of spatial auto-correlation in the model inputs, and ii) the scaling issues. We base our research on the detailed study of the numerical code NOE, which is a spatial model for cost-benefit analysis of flood risk management plans. We first investigate how variance-based sensitivity indices can be computed for spatially distributed model inputs. We focus on the “map labelling” approach, which allows to handle any complex spatial structure of uncertainty in the modelinputs and to assess its effect on the model output. Next, we offer to explore how scaling issues interact with the sensitivity analysis of a spatial model. We define “block sensitivity indices” and “site sensitivity indices” to account for the role of the spatial support of model output. We establish the properties of these sensitivity indices under some specific conditions. In particular, we show that the relative contribution of an uncertain spatially distributed model input to the variance of the model output increases with its correlation length and decreases with the size of the spatial support considered for model output aggregation. By applying our results to the NOE modelling chain, we also draw a number of lessons to better deal with uncertainties in flood damage modelling and cost-benefit analysis of flood riskmanagement plans
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography