Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Estimativa universal.

Thèses sur le sujet « Estimativa universal »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Estimativa universal ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Costa, Tássia Alves. « Estimativa da umidade do solo na região semiárida do Brasil pelo método do triângulo universal ». Instituto Nacional de Pesquisas Espaciais (INPE), 2017. http://urlib.net/sid.inpe.br/mtc-m21b/2017/08.03.10.42.

Texte intégral
Résumé :
A umidade do solo é uma variável chave no funcionamento de diversos processos que atuam no sistema terrestre, com destaque para os ciclos de água, energia e nutrientes no contínuo solo-planta-atmosfera. Uma série de métodos tem sido desenvolvida para estimativa da variabilidade espacial e temporal da umidade do solo. Dos métodos que utilizam os sensores remotos, uma das alternativas propostas para estimativa da umidade do solo foi por meio do chamado método do triângulo universal. Este método admite a existência de uma relação entre o Índice de Vegetação da Diferença Normalizada (NDVI), a Temperatura da Superfície Terrestre (LST) e a umidade superficial do solo. Enquanto a maioria dos sensores remotos utilizados atua em escalas da ordem de quilômetros, o método do triângulo, em princípio, permite que se trabalhe na escala desejada. No presente trabalho, utilizaramse os dados MODIS, MOD13A2 (NDVI) e MOD11A2 (LST), com resolução espacial de 1 km, para testar a habilidade do método em estimar a umidade superficial do solo (Mo) em uma cena do MODIS inserida no semiárido brasileiro. Os resultados obtidos foram validados a partir da comparação com dados de umidade do solo in situ obtidos em dois diferentes sítios de pesquisa, São João e Serra Talhada, representativos, respectivamente, das ecorregiões da Caatinga conhecidas como Planalto da Borborema e Depressão Sertaneja Meridional. Duas alternativas foram testadas para efeito do desenvolvimento da relação entre Mo, NDVI e LST: uma solução geométrica simples e outra por meio da geração de um polinômio de terceiro grau. A comparação com dados in situ resultou em coeficientes de correlação (R${2}$) de 0,18 e 0,78 para solução geométrica simples e polinômio, respectivamente. A equação polinomial foi validada de duas formas: por meio do processo de validação convencional, onde uma parte dos dados é utilizada para construir a equação, e o restante, para validá-la; e por meio de validação cruzada. Valores de R$^{2}$ obtidos em ambos os processos foram, respectivamente, 0,78 e 0,91. O elevado coeficiente de correlação obtido com a validação cruzada indica a existência de uma forte dependência da umidade superficial do solo em relação aos parâmetros de NDVI e LST, conforme preconizado pelo método aplicado. Dessa forma, a solução polinomial foi utilizada para espacialização da umidade superficial do solo (Mo) dentro da cena do MODIS, para dois períodos distintos: seco e chuvoso. Para o período seco, a umidade do solo variou de 0,1 a 0,3 cm$^{3}$ cm$^{-3}$ ao longo de toda a cena. Para o período chuvoso, a variação obtida foi de 0,3 a 0,5 cm$^{3}$ cm$^{-3}$. Em função do exposto, avalia-se que o método do triângulo apresenta potencial para uso na estimativa da umidade superficial do solo na região semiárida brasileira.
Soil moisture is a key variable of several processes in the earth system, with emphasis on water, energy and nutrient cycles in the soil-plant-atmosphere continuum. Direct and indirect methods have been developed to estimate its spatial and temporal variability, in situ or via remote sensing products. In the context of remote sensors, one of the first alternative proposed for estimation of surface soil moisture was the so-called 'method of the universal triangle'. This method presumes the existence of a relationship between the Normalized Difference Vegetation Index (NDVI), the Land Surface Temperature (LST) and the surface soil moisture. While most of the remote sensors used in estimating soil moisture work on scales of kilometers, the triangle method, in principle, allows working on the desired scale (that is, the same as the NDVI and LST data). The requirement, however, is to select an area with the widest possible range of NDVI and LST values. In the present work, it were used MODIS data, MOD13A2 (NDVI) and MOD11A2 (LST), with a spatial resolution of 1 km, to test the ability of the method to estimate the surface soil moisture (Mo) in a MODIS scene, in the Brazilian semi-arid region. The results were validated in comparison with in situ soil moisture data obtained from two different research sites, São João and Serra Talhada, representing, respectively, the Caatinga ecoregions known as the Borborema Plateau and Southern Sertaneja Depression. Two alternatives were tested for the development of the relationship between Mo, NDVI, and LST: a simple geometric solution and a third-degree polynomial. The comparison with in situ data resulted in correlation coefficients (R$^{2}$) of 0.18 and 0.78, respectively, for both solutions. The polynomial equation was validated in two ways: through the conventional validation process, where part of the data is used to build the equation, and the remainder to verify it; and by cross-validation procedure. The R$^{2}$ values obtained in both processes were, respectively, 0.78 and 0.91. The high correlation coefficient achieved with the cross-validation process indicates the existence of a strong dependence on the surface soil moisture about the NDVI and LST parameters, as recommended by the method applied. Thus, the polynomial solution was used to spatialize the surface soil moisture estimated within the MODIS scene, for two different periods: dry and rainy seasons. For the dry period, soil moisture ranged from 0.1 to 0.3 cm$^{3}$ cm$^{-3}$ throughout the scene. For the rainy season, the variation obtained was 0.3 to 0.5 cm$^{3}$ cm$^{-3}$. Based on these results, we consider that the triangle method presents a potential for surface soil moisture estimates for the Brazilian semi-arid region.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Coutinho, Francisco Edson Gama. « Universal moduli of continuity for solutions to fully nonlinear elliptic equations ». Universidade Federal do CearÃ, 2013. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=11427.

Texte intégral
Résumé :
CoordenaÃÃo de AperfeiÃoamento de Pessoal de NÃvel Superior
In this paper we provide a universal solution for continuity module in the direction of the viscosity of fully nonlinear elliptic equations considering properties of the function f integrable in different situations. Established inner estimate for the solutions of these equations based on some conditions the norm of the function f. To obtain regularity in solutions of these inhomogeneous equations and coefficients of variables we use a method of compactness, which consists essentially of approximating solutions of inhomogeneous equations for a solution of a homogeneous equation in order to "inherit" the regularity that those equations possess.
Neste trabalho fornecemos mÃdulo de continuidade universal para soluÃÃes, no sentido da viscosidade,de equaÃÃes elÃpticas totalmente nÃo lineares, considerando propriedades de integrabilidade da funÃÃo f em diferentes situaÃÃes. Estabelecemos estimativa interior para as soluÃÃes dessas equaÃÃes baseadas em algumas condiÃÃes da norma da funÃÃo f. Para se obter regularidade nas soluÃÃes dessas equacÃes nÃo homogÃneas e de coeficientes variÃveis usamos um mÃtodo de compacidade, o qual consiste, essencialmente, em aproximar soluÃÃes de equaÃÃes nÃo homogÃneas por uma soluÃÃo de uma equaÃÃo homogÃnea com o objetivo de âherdarâ a regularidade que essas equaÃÃes possuem.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Gomez, Javier Dario Pulido. « Estimativa de erosão pela Equação Universal de Perda de Solo (USLE) e transferência de sedimentos para todo território Brasileiro ». Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/11/11140/tde-25102012-150933/.

Texte intégral
Résumé :
O presente trabalho é uma tentativa de validar uma metodologia para estimar a produção de sedimentos para todo território Brasileiro. Foram utilizadas ferramentas de sistemas de informação geográfi ca (GIS), estatística espacial, modelagem e gerenciamento de bancos de dados aplicados a conservação de solos, permitindo combinar a equação Universal de Perda do Solo (USLE) com diferentes modelos de taxa de transferência de sedimentos (SDR). A metodologia utilizou como base de teste dados da rede sedimentométrica brasileira composta de 201 bacias. As estimativas foram analisadas por regressão linear múltipla obtendo valores de R2 de até de 46% entre dados observados e modelados. Observou-se a pouca sensibilidade do modelo USLE em relação ao fator de erosividade (fator R) quando duas observações por métodos diferentes diferem espacialmente em seus valores máximos entre 18000 MJ.mm.ha-1.h-1.ano-1 e 28000 MJ.mm.ha-1.h-1.ano-1 . Por outro lado o modelo mostrou-se sensível ao fator de cobertura do solo (Fator C da USLE) afetando as taxas máximas estimadas de erosão entre 160 Mg.ha-1.ano-1 ate 460 Mg.ha-1.ano-1. Nesse sentido a metodologia sugerida pode ser utilizada para dar indicativos sobre mudanças de uso da terra em escalas regionais e subsidiar tomadas de decisões quanto ao planejamento e gestão territorial.
This work is an attempt to validate a methodology for estimating sediment production for the whole Brazilian territory. Tools were used geographic information systems (GIS), spatial statistics, modeling and database management applied to soil conservation, allowing combine the Universal Soil Loss Equation (USLE) with different models of sediment transfer rate (SDR). The methodology used as test data of Brazilian sedimentometric network composed of 201 basins. The estimates were analysed by multiple linear regression getting values of R2 to 46% between observed and modelled data. Noted the low sensitivity of USLE model in relation to the erosivity factor (R factor) when two observations by different methods differ in their maximum values and spatial distribution of 18000 MJ.mm.ha-1.h-1.year-1 and 28000 MJ.mm.ha-1.h-1.year-1. the other aspects the model proved to be sensitive to soil coverage factor (factor C of USLE) affecting the estimated maximum rates of erosion between 160 Mg.ha-1.year-1 up to 460 Mg.ha-1.year-1.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Cassuli, Danieli Cristina. « Estimativa de perda de solo na Bacia do Rio Pinto, em São Miguel do Iguaçu - PR ». Universidade Estadual do Oeste do Paraná, 2016. http://tede.unioeste.br:8080/tede/handle/tede/1678.

Texte intégral
Résumé :
Made available in DSpace on 2017-07-10T17:51:42Z (GMT). No. of bitstreams: 1 2016Danieli_Cristina_Cassuli.pdf: 6828466 bytes, checksum: 5506c6d98c6991b7e79017994609383c (MD5) Previous issue date: 2016-05-31
Fundação Araucária
El trabajo tiene por objetivo estimar la perdida del suelo por lá erosión laminar de lá cuenca hidrografica del aroyo Pinto ubicada en la mesorregión oeste del departamento Paraná. Lá predicción fue realizada por lo medio de lá aplicación de la equación universal de perdidas del Suelo - USLE. De informaciones obtidas en campo y gabinete fue posible determinar los índices de las variables que compõen el citado modelo matemático. Lá integraçión de los datos y lá estimacion de los datos de perdidas de suelo anual fueran desarolladas en el Sistema de Informaciones Geográficas (SIG) QGIS, con la ayuda de técnicas de geoprocessamiento. Los resultados obtenidos demostran, que prevalece en la area del estudo, perdida de Suelo inferiores a 25 t/ha/ano. En reneral las condiciones estan conectadas a las areas de Latosol y Nitosol, en locales donde el factor topográfico es menor que 3 y el suelo és utilizado para lá Agricultura con la adopción de prácticas conservacionistas como lá siembra directa y siembra en contorno. Los locales en la cuenca que apresentan valores altos de perdidas de suelo anuais hasta de 7.107 t/ha/ano, estan associadas a las areas con alto fotor LS (Hasta 14), dispondo de suelos tipo cambisol y nitosol con ocupaciones de pasturas y extraciones de basalto, que no apresentan práticas conservacionistas de forma efetiva
Este trabalho visa estimar as perdas de solo por erosão laminar na bacia hidrográfica do rio Pinto, localizada na mesorregião oeste do estado do Paraná. O principal objetivo é contribuir para o levantamento de dados sobre a perda de solo e identificar a relação com as características fisiográficas a fim de subsidiar a conservação dos solos sob uso agrícola. A predição foi executada por meio da aplicação da Equação Universal de Perdas de Solo USLE. A partir de informações obtidas em campo e gabinete, foi possível determinar os índices das variáveis que compõem o citado modelo matemático. A integração dos dados levantados e a estimativa de perdas de solo anual foram desenvolvidas no Sistema de Informações Geográficas (SIG) QGIS, com o auxílio de técnicas de geoprocessamento. Os resultados obtidos demonstraram que as perdas de solo predominantes na bacia do rio Pinto são inferiores à 25 t/ha/ano. Em geral, esta condição está relacionada às áreas de Latossolos e Nitossolos, em locais onde o fator topográfico é menor que 3 e o solo é utilizado para agricultura com adoção de práticas conservacionistas como o plantio direto e plantio em contorno. Na bacia, os locais que apresentaram valores elevados de perda de solo anuais, até 7.107 t/ha/ano, estão associados às áreas com elevado índice de fator LS (até 14), dominadas pelos Cambissolos e Neossolos Litólicos e Regolíticos, ocupadas com pastagem e extração de basalto, as quais não apresentam práticas conservacionistas eficazes
Styles APA, Harvard, Vancouver, ISO, etc.
5

Basso, Bruna Tauana. « Estimativa de erosão utilizando a Equação Universal de Perdas de Solos (EUPS) : o caso do alto curso do rio Chopim ». Universidade Estadual do Oeste do Paraná, 2018. http://tede.unioeste.br/handle/tede/4041.

Texte intégral
Résumé :
Submitted by Fabielle Cheuczuk (fabielle.cheuczuk@unioeste.br) on 2018-11-29T18:04:45Z No. of bitstreams: 2 Versão Final.pdf: 3865354 bytes, checksum: c057a961a6b88478a6890a7fc6df2932 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2018-11-29T18:04:45Z (GMT). No. of bitstreams: 2 Versão Final.pdf: 3865354 bytes, checksum: c057a961a6b88478a6890a7fc6df2932 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-09-04
Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq
The erosive process ocurrs naturally, however it is being accelerated by anthropic action causing changes in the natural characteristics of soil, reduction of crop productivity, rivers silting and several environmental problems. The implementation of sustainable studies models in watershed, aims preservation, utilization and dinamic of the environment, having an important role as environmental resources management tool. This study aims to establish estimation of soil loss to upper course of Chopim River watershed through aplication of Universal Soil Loss Equation (USLE), applying Qgis 3.0 software. The study area is located in the south of Paraná State. Were considered pluviosity rainfall data from 1985 to 2015 to calculate annual average erosivity and was obtained a variation from 9752 Mj/ha.mm/year to 8180Mj/ha.mm/year, constituting an moderate to strong erosivity. The present soils in the study area have an average erosivity of 0,02030, 0,02092, 0,02410 and 0,02681 Mg.ha.h.ha-1.MJ-1.mm-1 for Nitosol, Latosol, Cambisol, Neosol, respectively. The declivity degree associated with ramp length results in topographic factor, which indicated the study area with flat and smooth wavy relief. The factors of use, management and conservation practices of soil, were estimated according to soil use classification and literature review, alternating from 0 to 0,143. The types of use soil classes were differentiated by Pine, Forest, Open Fields, Conventional Cultivation and Exposed Soil, Urban Area. The annual average soil loss was estimated in 39,36 ton/ha.year what can be considered as moderated soil loss. In the maps analysis were not possible to identificate only one factor that individualizes as soil losses. However, was observed that the association of the erosivity factor and the topographic factor, indicates the high values of soil loss. Nevertheless, the soil loss estimation map in the upper course of the watershed of Chopim River provides enough data to the analysis and environmental planning of study area.
O processo erosivo ocorre de maneira natural, porém pode ser acelerado pela ação antrópica ocasionando mudanças nas características naturais do solo, redução da produtividade de culturas, degradação dos solos, assoreamento de rios e diversos problemas ambientais. A implementação de estudos de modelos sustentáveis em bacias hidrográficas visando a preservação, utilização e dinâmica do meio ambiente possui um papel importante como ferramenta de gestão dos recursos ambientais. Este estudo visou estabelecer estimativas de perda de solo para o setor do Alto Curso da Bacia Hidrográfica do Rio Chopim por meio da aplicação da Equação Universal de Perda de Solos (EUPS), com o auxílio do software QGis 3.0. A área de estudo localiza-se no Sul do estado do Paraná, abrange grande parte do município de Palmas. A erosividade anual média, considerando os dados pluviométricos de 1985 a 2015, teve uma variação de 9752 MJ/ha.mm/ano a 8180 MJ/ha.mm/ano, constituindo uma erosividade moderada a forte. Os solos presentes na área de estudo possuem uma erodibilidade média tendo valores mínimos de 0,02030, 0,02092, 0,02410 e 0,02681 Mg.ha.h.ha-1.MJ-1.mm-1 para o Nitossolo, Latossolo, Cambissolo e Neossolo respectivamente. O grau de declividade associado ao comprimento de rampa resulta no fator topográfico o que indicou a área de estudo com um relevo plano e suave ondulado. Os fatores de uso e manejo do solo e práticas conservacionistas foram valorados de acordo com a classificação do uso do solo e a revisão da literatura, e alternaram de 0 a 0,143. As classes dos tipos de uso de solos se diferenciaram por Pinus, Floresta, Campo Limpos, Cultivo convencional e solo exposto, área urbana. A perda de solo média anual foi estimada em 39,36 ton/ha.ano o que pode ser considerada como perda de solo moderada. Na análise dos mapas não foi possível identificar apenas um fator que individualize as perdas de solos. A associação da erosividade com o fator topográfico indicam os valores elevados de perda de solo, sendo os elementos principais que estariam influenciando na perda de solo na área. Ainda assim, o mapa de estimativa de perdas de solo do Alto Curso da Bacia hidrográfica do Rio Chopim fornece dados suficientes para a análise e planejamento ambiental da área de estudo.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Filho, NarcÃlio Silva de Oliveira. « Regularidade para equaÃÃes quase lineares em conjuntos singulares degenerados ». Universidade Federal do CearÃ, 2014. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=14681.

Texte intégral
Résumé :
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico
CoordenaÃÃo de AperfeÃoamento de Pessoal de NÃvel Superior
We will study a new universal gradient continuity estimate for solutions to quasi-linear equations with varying coefficients at singular set of degeneracy: S(u) := {X : Du(X) = 0}. Ourmain theorem reveals that along S(u), u is asymptotic as regular as solutions to constant coefficient equations. In particular, along the critical set S(u),u enjoys a modulus of continuity much superior than the possibly low, continuity feature of the coefficients. The results are new even in the context of linear elliptic equations, where it is herein shown that H^1- weak solutions to div (a(X,Du))= 0 with aij elliptic and dinicontinuous are actually C ^{1,1^{-}} along S(u). The results and insights of this work foster a new understanding os smoothness properties of solutions to degenerate or singular equations, beyond typical elliptic regularity estimates, precisely where the diffusion attributes of the equation collapse.
Neste trabalho estudaremos uma nova estimativa universal para a continuidade do gradiente de soluÃÃes para equaÃÃes quase lineares com coeficientes variÃveis em conjuntos singulares degenerados que serÃo denotados por S(u) := {X : Du(X) = 0} . O resultado principal deste trabalho revela que ao longo de S(u), u à assintoticamente tÃo regular quanto as soluÃÃes das equaÃÃes com coeficientes constantes. Em particular, ao longo do conjunto S(u), Du tem um mÃdulo de continuidade superior a baixa caracterÃstica de continuidade de seus coeficientes. Os resultados sÃo novos e mesmo no contexto de equaÃÃes diferenciais lineares onde se mostra que soluÃÃes H^1- fracas da equaÃÃo div(a(X, Du)) = 0 com os aij elÃpicos e Dini-ContÃnuos sÃo realmente C ^{1,1^{-}} ao longo de S(u). Os resultados e as perspectivas deste trabalho promovem um novo entendimento sobre as propriedades suavidade de soluÃÃes para equaÃÃes singulares, ou degeneradas, alÃm de estimativas tÃpicas sobre regularidade elÃpticas, precisamente onde temos os atributos de difusÃo do equaÃÃo do colapso.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Nunes, Sheila Elke Araújo. « Estimativa dos custos da doença pneumocócica e estudo de custo-efetividade da introdução universal da vacina anti-pneumocócica 10 valente no Brasil ». Universidade Federal de Goiás, 2014. http://repositorio.bc.ufg.br/tede/handle/tede/7547.

Texte intégral
Résumé :
Submitted by Cássia Santos (cassia.bcufg@gmail.com) on 2017-06-21T13:42:52Z No. of bitstreams: 2 Tese - Sheila Elke Araújo Nunes - 2014.pdf: 4139252 bytes, checksum: 113368e043fc53148e1cd7b8b50b2632 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2017-07-10T13:36:29Z (GMT) No. of bitstreams: 2 Tese - Sheila Elke Araújo Nunes - 2014.pdf: 4139252 bytes, checksum: 113368e043fc53148e1cd7b8b50b2632 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2017-07-10T13:36:29Z (GMT). No. of bitstreams: 2 Tese - Sheila Elke Araújo Nunes - 2014.pdf: 4139252 bytes, checksum: 113368e043fc53148e1cd7b8b50b2632 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2014-12-18
Introduction: Estimate the costs of treatment of pneumococcal diseases can aid the understanding of reduced economic burden of these after introduction of the pneumococcal conjugate vaccine (PCV), as run in Brazil, in March 2010, which introduced the PCV10 valiant in the National Program Immunization (NPI) for children between 2 and 23 months of age. Cost-effectiveness analysis (CEA) before the introduction indicated that the vaccine was cost-effective (R $ 24.930 / Daly avoided - Disability Adjusted Life Years), in the SUS perspective. Disease burden and the cost of the vaccine were identified as the main drivers of the results for sensitivity analysis. Objectives: Estimate the costs of pneumococcal disease and to evaluate the ratio of incremental cost-effectiveness (ICER) of implementing the PCV-10 brave after introduction into INP Brazil. Methods: Three steps have been performed in the SUS perspective: 1) cost of illness study: medical charts of children 28 days to 35 months of age hospitalized with clinical suspicion of bacterial pneumonia were reviewed to estimate the costs of pneumonia and to other syndromes costs were estimated by therapeutic guidelines; 2) comparison between the three methods of funding: (i) bottom-up / micro-costing by chart review; (ii) top-down / micro-costing through therapeutic guidelines; and (iii) top-down / gross-costing, through reimbursement paid by the SUS. 3) CEA: the strategy to vaccinate with PCV-10 was compared to the non-vaccination. The model used was the PneuModel. In acute otitis media from all causes, pneumococcal meningitis, pneumococcal sepsis and pneumococcal pneumonia were considered. Costs were obtained by microcusteio, epidemiological data from primary studies of population-based, dose costs and vaccination coverage in INP. The discount rate was 5%. Sensitivity analysis was conducted to test the robustness and variability of the model parameters. Results: The cost of study of hospitalized pneumonia records of 52 cases of severe pneumonia and 7 of very serious pneumonia were reviewed. Statistical analyzes of severe pneumonia data revealed that there is difference between the costing methodologies (p=0,015) and to compare the estimated costs by these methods there was no difference between the cost of compensation and the cost for therapeutic guideline (p=0,241). At ACE, annually, vaccination with PCV-10 would prevent 3,942 cases of the disease and 16,514 years of life lost in a cohort of children <1 year. The ICER was R $ 14,230 per DALY averted. In sensitivity analysis, the model was sensitive to variations in incidence and mortality of pneumonia and pneumococcal meningitis. Conclusions: The cost for therapy guideline, uncommonly used in disease cost estimates, was an alternative to funding for compensation, heavily used technique and lower accuracy. After introduction of ICER, using primary data revealed that PCV-10 is a low-cost intervention, as suggested by WHO (<1GDP / per capita - in Brazil, in 2010, US $ 10.933) and, ICER less than previous ACE. Despite uncertainties in critical parameters of the model, using secondary data, ACE can provide evidence to support decision making. After the implementation analysis can result in more accurate estimates and provide evidence to continue vaccination.
Introdução: Estimar os custos do tratamento das doenças pneumocócicas podem auxiliar no conhecimento da redução da carga econômica destas após introdução da vacina anti-pneumocócica conjugada (VPC), como corrido no Brasil, em março de 2010, que introduziu a VPC-10 valente no Programa Nacional de Imunização (PNI), para crianças entre 2 e 23 meses de idade. Análise de custo-efetividade (ACE) antes da introdução indicou que a vacina era custo-efetiva (R$ 24,930/Daly evitado – do inglês, Disability Adjusted Life Years), na perspectiva do SUS. Carga da doença e os custos da vacina foram identificados como os principais direcionadores do resultado para análise de sensibilidade. Objetivos: Estimar os custos da doença pneumocócica e avaliar a razão de custo-efetividade incremental (RCEI) da implementação da VPC-10 valente após introdução no PNI do Brasil. Métodos: Três etapas foram executadas, aplicadas a perspectiva do SUS: 1º) estudo de custo de doenças: prontuários de crianças com 28 dias a 35 meses de idade internadas por suspeita clínica de pneumonia bacteriana foram revisados para estimar os custos da pneumonia e para demais síndromes os custos foram estimados por diretrizes terapêuticas; 2º) comparação entre as três metodologias de custeio: (i) bottom-up/micro-costing através da revisão de prontuários; (ii) top-down/micro-costing através de diretriz terapêutica; e (iii) top-down/gross-costing através de ressarcimento pago pelo SUS. 3º) ACE: a estratégia de vacinar com a VPC-10 foi comparada com a não vacinação. O modelo empregado foi o PneuModel. Neste, otite média aguda por todas as causas, meningite pneumocócica, sepse pneumocócica e pneumonia pneumocócica foram consideradas. Os custos foram obtidos por microcusteio, dados epidemiológicos a partir de estudos primários de base populacional, custos da dose e de cobertura vacinal no PNI. A taxa de desconto aplicada foi de 5%. Análise de sensibilidade foi conduzida para testar a robustez e variabilidade de parâmetros do modelo. Resultados: No estudo de custo da pneumonia hospitalizada prontuários de 52 casos de pneumonias graves e 7 de pneumonias muito graves foram revisados. Análises estatísticas dos dados de pneumonias graves revelaram que há diferença entre as metodologias de custeio (p=0,015) e ao comparar os custos estimados por estas metodologias não houve diferença entre o custeio por ressarcimento e o custeio por diretriz terapêutica (p=0,241). Na ACE, anualmente, a vacinação com VPC-10 evitaria 3.942 casos da doença e 16.514 anos de vida perdidos em uma coorte de crianças <1 ano. A RCEI foi de R$ 14.230 por DALY evitado. Na análise de sensibilidade, o modelo foi sensível às variações de incidência e letalidade de pneumonia e meningite pneumocócica. Conclusões: O custeio por diretriz terapêutica, pouco empregado nas estimativas de custo de doença, se mostrou uma alternativa ao custeio por ressarcimento, técnica muito utilizada e de menor acurácia. A RCEI pós introdução, com dados primários, revelou que a VPC-10 é uma intervenção de baixo custo, como sugerido pela OMS (<1PIB/per capita – no Brasil, em 2010, R$ 10,933) e, com menor RCEI que ACE anterior. Mesmo com incertezas em parâmetros críticos do modelo, usando dados secundários, ACE podem fornecer evidências para apoiar tomadas de decisões. Analise pós-introdução pode resultar em estimativas mais precisas e fornecer evidências para continuar a vacinação.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Oliveira, Filho Narcélio Silva de. « Regularidade para equações quase lineares em conjuntos singulares degenerados ». reponame:Repositório Institucional da UFC, 2015. http://www.repositorio.ufc.br/handle/riufc/12999.

Texte intégral
Résumé :
OLIVEIRA FILHO, Narcélio Silva de. Regularidade para equações quase lineares em conjuntos singulares degenerados. 2015. 34 f. Dissertação (Mestrado em Matemática)- Centro de Ciências, Universidade Federal do Ceará, Fortaleza, 2015.
Submitted by Rocilda Sales (rocilda@ufc.br) on 2015-07-14T13:52:37Z No. of bitstreams: 1 2015_dis_nsoliveirafilho.pdf: 714573 bytes, checksum: a9d4adbf2d0cae1cdbd50d60fd1083e0 (MD5)
Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-07-14T13:53:13Z (GMT) No. of bitstreams: 1 2015_dis_nsoliveirafilho.pdf: 714573 bytes, checksum: a9d4adbf2d0cae1cdbd50d60fd1083e0 (MD5)
Made available in DSpace on 2015-07-14T13:53:14Z (GMT). No. of bitstreams: 1 2015_dis_nsoliveirafilho.pdf: 714573 bytes, checksum: a9d4adbf2d0cae1cdbd50d60fd1083e0 (MD5) Previous issue date: 2015
We will study a new universal gradient continuity estimate for solutions to quasi-linear equations with varying coefficients at singular set of degeneracy: S(u) := {X : Du(X) = 0}. Ourmain theorem reveals that along S(u), u is asymptotic as regular as solutions to constant coefficient equations. In particular, along the critical set S(u),u enjoys a modulus of continuity much superior than the possibly low, continuity feature of the coefficients. The results are new even in the context of linear elliptic equations, where it is herein shown that H^1- weak solutions to div (a(X,Du))= 0 with aij elliptic and dinicontinuous are actually C ^{1,1^{-}} along S(u). The results and insights of this work foster a new understanding os smoothness properties of solutions to degenerate or singular equations, beyond typical elliptic regularity estimates, precisely where the diffusion attributes of the equation collapse.
Neste trabalho estudaremos uma nova estimativa universal para a continuidade do gradiente de soluções para equações quase lineares com coeficientes variáveis em conjuntos singulares degenerados que serão denotados por S(u) := {X : Du(X) = 0} . O resultado principal deste trabalho revela que ao longo de S(u), u é assintoticamente tão regular quanto as soluções das equações com coeficientes constantes. Em particular, ao longo do conjunto S(u), Du tem um módulo de continuidade superior a baixa característica de continuidade de seus coeficientes. Os resultados são novos e mesmo no contexto de equações diferenciais lineares onde se mostra que soluções H^1- fracas da equação div(a(X, Du)) = 0 com os aij elípicos e Dini-Contínuos são realmente C ^{1,1^{-}} ao longo de S(u). Os resultados e as perspectivas deste trabalho promovem um novo entendimento sobre as propriedades suavidade de soluções para equações singulares, ou degeneradas, além de estimativas típicas sobre regularidade elípticas, precisamente onde temos os atributos de difusão do equação do colapso.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Veniziani, Junior José Carlos Toledo. « Utilização de índices de vegetação para estimativa da proteção do solo pela cobertura vegetal : uma contribuição para o uso da equação universal das perdas de solo / ». Rio Claro : [s.n.], 2003. http://hdl.handle.net/11449/86522.

Texte intégral
Résumé :
Orientador: Marcos César Ferreira
Banca: Sergio dos Anjos Ferreira Pinto
Banca: Diana Sarita Hamburger
Resumo: O processo de erosão acelerada se apresenta como um dos maiores problemas ambientais da atualidade, influenciando a produção agrícola, devido às conseqüências no empobrecimento do solo e no abastecimento de água, diminuindo a sua disponibilidade em reservatórios. Este trabalho apresenta uma proposta para avaliação da ambiental das variáveis relacionadas ao desenvolvimento de processos erosivos além da verificação da adequação do uso e ocupação do solo as necessidades especiais da área, tendo como estudo de caso a Bacia do Córrego Santo Antonio, situada no município de Jaú-SP. Propomos como indicador quantitativo da cobertura vegetal, os índices de vegetação (IV) obtidos por meio de imagens de satélite. Na avaliação da suscetibilidade à erosão nos amparamos no modelo da EUPS o qual foi desenvolvido para obtenção de uma classificação das terras da bacia em classes de risco de erosão além da obtenção classes de capacidade de uso relativas a cada unidade pedológica. O estudo relativo a analise da viabilidade da utilização do IV, foi embasado na amostragem de campo a partir da qual se obteve os valores médios de percentual de interceptação das gotas de chuva para determinados tipos de cultivo na região. Avaliamos ser possível o emprego do índice de vegetação em estudos referentes à proteção do solo e acreditamos serem as classes de risco á erosão um importante indicador das necessidades de planejamento ambiental. Verificamos uma mudança no uso do solo da área do ano 2000 para ao ano 2003, o que provocou grandes alterações nos resultados da adequação do uso do solo na bacia do córrego Santo Antonio.
Abstract: The soil loss process arises as one of the major environmental problems nowadays, influencing the agricultural production, due to its consequences on the soil decay and on the water supply, decreasing its availability in the reservoirs. This work presents a proposal for the assessment of the environmental aspect of the variables concerning the development of the soil loss processes besides the verification of the adequacy of the use and occupation of the land regarding the special necessities of the area, portraying as study of case the Santo Antonio watershed, located in the town of Jaú, São Paulo. We propose as the quantitative indicator of the vegetation covering, the vegetation indexes ( VI) obtained through satellite images. On the assessment of the soil loss susceptibility we looked for support on the USLE, which was developed to obtain a classification of the watershed lands in classes of soil loss risk, besides obtaining classes on the capability of use regarding each pedologic unit. The study about the analysis of the viability of the use of the vegetation index was based in the field samples, from which were achieved the average percentage values of rain drops interception for determined kinds of agricultural growing in the region. We assessed that it is possible to proceed the use of the vegetation index in studies concerning the soil protection, and we believe that the classes of risk regarding soil loss are an important indicator towards the necessities of environmental planning. It was verified a certain change on the land use in the area from the year 2000 until the year 2003, what brought huge alterations on the outcome of the land use adequacy in the Santo Antonio watershed.
Mestre
Styles APA, Harvard, Vancouver, ISO, etc.
10

Veniziani, Junior José Carlos Toledo [UNESP]. « Utilização de índices de vegetação para estimativa da proteção do solo pela cobertura vegetal : uma contribuição para o uso da equação universal das perdas de solo ». Universidade Estadual Paulista (UNESP), 2003. http://hdl.handle.net/11449/86522.

Texte intégral
Résumé :
Made available in DSpace on 2014-06-11T19:22:18Z (GMT). No. of bitstreams: 0 Previous issue date: 2003-08-27Bitstream added on 2014-06-13T19:48:21Z : No. of bitstreams: 1 venizianijr_jct_me_rcla.pdf: 2634367 bytes, checksum: b1cce5967dd69795efffbbd271af2d8b (MD5)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
O processo de erosão acelerada se apresenta como um dos maiores problemas ambientais da atualidade, influenciando a produção agrícola, devido às conseqüências no empobrecimento do solo e no abastecimento de água, diminuindo a sua disponibilidade em reservatórios. Este trabalho apresenta uma proposta para avaliação da ambiental das variáveis relacionadas ao desenvolvimento de processos erosivos além da verificação da adequação do uso e ocupação do solo as necessidades especiais da área, tendo como estudo de caso a Bacia do Córrego Santo Antonio, situada no município de Jaú-SP. Propomos como indicador quantitativo da cobertura vegetal, os índices de vegetação (IV) obtidos por meio de imagens de satélite. Na avaliação da suscetibilidade à erosão nos amparamos no modelo da EUPS o qual foi desenvolvido para obtenção de uma classificação das terras da bacia em classes de risco de erosão além da obtenção classes de capacidade de uso relativas a cada unidade pedológica. O estudo relativo a analise da viabilidade da utilização do IV, foi embasado na amostragem de campo a partir da qual se obteve os valores médios de percentual de interceptação das gotas de chuva para determinados tipos de cultivo na região. Avaliamos ser possível o emprego do índice de vegetação em estudos referentes à proteção do solo e acreditamos serem as classes de risco á erosão um importante indicador das necessidades de planejamento ambiental. Verificamos uma mudança no uso do solo da área do ano 2000 para ao ano 2003, o que provocou grandes alterações nos resultados da adequação do uso do solo na bacia do córrego Santo Antonio.
The soil loss process arises as one of the major environmental problems nowadays, influencing the agricultural production, due to its consequences on the soil decay and on the water supply, decreasing its availability in the reservoirs. This work presents a proposal for the assessment of the environmental aspect of the variables concerning the development of the soil loss processes besides the verification of the adequacy of the use and occupation of the land regarding the special necessities of the area, portraying as study of case the Santo Antonio watershed, located in the town of Jaú, São Paulo. We propose as the quantitative indicator of the vegetation covering, the vegetation indexes ( VI) obtained through satellite images. On the assessment of the soil loss susceptibility we looked for support on the USLE, which was developed to obtain a classification of the watershed lands in classes of soil loss risk, besides obtaining classes on the capability of use regarding each pedologic unit. The study about the analysis of the viability of the use of the vegetation index was based in the field samples, from which were achieved the average percentage values of rain drops interception for determined kinds of agricultural growing in the region. We assessed that it is possible to proceed the use of the vegetation index in studies concerning the soil protection, and we believe that the classes of risk regarding soil loss are an important indicator towards the necessities of environmental planning. It was verified a certain change on the land use in the area from the year 2000 until the year 2003, what brought huge alterations on the outcome of the land use adequacy in the Santo Antonio watershed.
Styles APA, Harvard, Vancouver, ISO, etc.
11

AYER, Joaquim Ernesto Bernardes. « Estimativa da erosão hídrica na sub-bacia hidrográfica do Córrego Pedra Branca, município de Alfenas - MG, a partir da Equação Universal de Perdas de Solos Revisada ». Universidade Federal de Alfenas, 2014. https://bdtd.unifal-mg.edu.br:8443/handle/tede/545.

Texte intégral
Résumé :
A classe dos Latossolos é a mais utilizada na agropecuária no Sul de Minas Gerais. As características do intemperismo, as propriedades físicas e químicas e a composição mineralógica proporcionam grande estabilidade a esses solos, o que contribui para reduzir a ação erosiva das chuvas, resultando em solos profundos e bem estruturados. Porém, nos últimos cem anos, estes solos foram submetidos a cultivos e manejos que os expõem a ação da erosão hídrica, o que degradou seus atributos e favoreceu o aumento da erosão, promovendo o assoreando dos corpos de água da região. Para estimar a erosão hídrica na sub-bacia hidrográfica do Córrego Pedra Branca, foi aplicada a equação universal de perdas de solos revisada (RUSLE). Na sub-bacia foram discriminadas três unidades de Latossolos Vermelhos distróficos (LVd1, LVd2 e LVd3) e uma de solos indiscriminados de várzea (SIV). Os Latossolos apresentaram uma perda média de solos de 4,7 t ha-1 ano-1. Da área total, 31,7 % da sub-bacia apresentam erosão acima do limite de tolerância de perda de solo de cada unidade, respectivamente, de 10,45 t ha-1 ano-1 para LVd1; de 9,35 t ha-1 ano-1 para LVd2; de 9,14 t ha-1 ano-1 para a LVd3. As áreas com taxa de erosão superior ao limite de tolerância são resultado principalmente do manejo, da ausência de práticas conservacionistas e da elevada erosividade. Todavia, no cenário simulado com manejos conservacionistas, como plantio direto, as perdas médias diminuiriam para 1,38 t ha-1 ano-1, com apenas 3,93 % da área com perdas de solos acima do limite de tolerância.
The Latosoil (oxisols) class is the most used on agriculture on South of Minas Gerais. Its weathering features, the physical and chemical properties and its mineralogical composition provide high stability to these soils. Such peculiarities contribute to decrease the erosive action of the rainfall, resulting in deep soils and well structured. However, in the last 100 years, cultives and managements have submitted these soils to practices that expose them to the hydric erosion. This occurrence degrades their attributes and favors the erosion increase, promoting the water bodies’ silting on the region. To estimate the water erosion in the watershed Córrego Pedra Branca, we applied the revised universal soil loss equation. In the watershed were discriminated three units of dystrophic Red Latosols ((LVd1, LVd2 and LVd3) were discriminated and one of undiscriminated floodplain soils (SIV), which present an average soil loss of 4,7 t ha-1 year-1 were evaluated. Of the total area, 31,7 % of the watershed presented erosion levels above the limit of loss tolerance as follows: 10,54 t ha-1 year-1 for LVd1; 9.35 t ha-1 year-1 for LVd2; 9,14 t ha-1 year-1 for LVd3; and 9.77 t ha-1 year-1 for the SIV. The area with erosion rate above the tolerance limit resulted from the management, the absence of conservation practices and high erosivity. However, in a simulated scenario with conservation management practices, such as no tillage, average soil losses would decrease to 1,38 t ha-1 year-1, with only 3,93 % of the area with soil losses above the tolerance limit.
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Styles APA, Harvard, Vancouver, ISO, etc.
12

Zhang, Junan. « Universal compression and probability estimation over unknown alphabets / ». Diss., Connect to a 24 p. preview or request complete full text in PDF format. Access restricted to UC campuses, 2005. http://wwwlib.umi.com/cr/ucsd/fullcit?p3167859.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
13

Beirami, Ahmad. « Characterizing the redundancy of universal source coding for finite-length sequences ». Thesis, Georgia Institute of Technology, 2011. http://hdl.handle.net/1853/45750.

Texte intégral
Résumé :
In this thesis, we first study what is the average redundancy resulting from the universal compression of a single finite-length sequence from an unknown source. In the universal compression of a source with d unknown parameters, Rissanen demonstrated that the expected redundancy for regular codes is asymptotically d/2 log n + o(log n) for almost all sources, where n is the sequence length. Clarke and Barron also derived the asymptotic average minimax redundancy for memoryless sources. The average minimax redundancy is concerned with the redundancy of the worst parameter vector for the best code. Thus, it does not provide much information about the effect of the different source parameter values. Our treatment in this thesis is probabilistic. In particular, we derive a lower bound on the probability measure of the event that a sequence of length n from an FSMX source chosen using Jeffreys' prior is compressed with a redundancy larger than a certain fraction of d/2 log n. Further, our results show that the average minimax redundancy provides good estimate for the average redundancy of most sources for large enough n and d. On the other hand, when the source parameter d is small the average minimax redundancy overestimates the average redundancy for small to moderate length sequences. Additionally, we precisely characterize the average minimax redundancy of universal coding when the coding scheme is restricted to be from the family of two--stage codes, where we show that the two--stage assumption incurs a negligible redundancy for small and moderate length n unless the number of source parameters is small. %We show that redundancy is significant in the compression of small sequences. Our results, collectively, help to characterize the non-negligible redundancy resulting from the compression of small and moderate length sequences. Next, we apply these results to the compression of a small to moderate length sequence provided that the context present in a sequence of length M from the same source is memorized. We quantify the achievable performance improvement in the universal compression of the small to moderate length sequence using context memorization.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Hlozek, Renee Alexandra. « Probing the early universe and dark energy with multi-epoch cosmological data ». Thesis, University of Oxford, 2012. http://ora.ox.ac.uk/objects/uuid:37eb7f80-e7c0-41a4-a3a7-0e59f50abbf3.

Texte intégral
Résumé :
Contemporary cosmology is a vibrant field, with data and observations increasing rapidly. This allows for accurate estimation of the parameters describing our cosmological model. In this thesis we present new research based on two different types of cosmological observations, which probe the universe at multiple epochs. We begin by reviewing the current concordance cosmological paradigm, and the statistical tools used to perform parameter estimation from cosmological data. We highlight the initial conditions in the universe and how they are detectable using the Cosmic Microwave Background radiation. We present the angular power spectrum data from temperature observations made with the Atacama Cosmology Telescope (ACT) and the methods used to estimate the power spectrum from temperature maps of the sky. We then present a cosmological analysis using the ACT data in combination with observations from the Wilkinson Microwave Anisotropy Probe to constrain parameters such as the effective number of relativistic species and the spectral index of the primordial power spectrum, which we constrain to deviate from scale invariance at the 99% confidence limit. We then use this combined dataset to constrain the primordial power spectrum in a minimally parametric framework, finding no evidence for deviation from a power-law spectrum. Finally we present Bayesian Estimation Applied to Multiple Species, a parameter estimation technique using photometric Type Ia Supernova data to estimate cosmological parameters in the presence of contaminated data. We apply this algorithm to the full season of the Sloan Digital Sky Survey II Supernova Search, and find that the constraints are improved by a factor of three relative to the case where one uses a smaller, spectroscopically confirmed subset of supernovae.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Ahmed, Amer A. « An Improved Approach For Soil Moisture Estimation By Employing Illumination-Corrected Data In A Modifed Ts-VI Method ». Thesis, Fredericton : University of New Brunswick, 2011. http://hdl.handle.net/1882/35376.

Texte intégral
Résumé :
There are a great number of publications that apply different methods to estimate soil moisture from optical satellite imagery. However, none of the proposed methods have considered correcting solar illumination error that is caused by variation in topography before estimating soil moisture. In this research, an integrated approach is developed to improve the estimation of soil moisture. The integration is represented by removing the solar-illumination error from the data. Several modifications were made in the Ts-VI space based on the Universal Triangle Relationship. The data used in the research are obtained from Moderate Resolution Imaging Spectroradiometer (MODIS) satellite. The research results show that the surface-illumination error, which is caused by variation in topography, misleads the estimation of soil moisture index. Based on statistical and visual analysis, the results are improved with removing error. The method is further enhanced with the application of enhanced vegetation index (EVI) to the Ts-VI relationship.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Garaud, Damien, et Damien Garaud. « Estimation des incertitudes et prévision des risques en qualité de l'air ». Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00679178.

Texte intégral
Résumé :
Ce travail porte sur l'estimation des incertitudes et la prévision de risques en qualité de l'air. Il consiste dans un premier temps à construire un ensemble de simulations de la qualité de l'air qui prend en compte toutes les incertitudes liées à la modélisation de la qualité de l'air. Des ensembles de simulations photochimiques à l'échelle continentale ou régionale sont générés automatiquement. Ensuite, les ensembles générés sont calibrés par une méthode d'optimisation combinatoire qui sélectionne un sous-ensemble représentatif de l'incertitude ou performant (fiabilité et résolution) pour des prévisions probabilistes. Ainsi, il est possible d'estimer et de prévoir des champs d'incertitude sur les concentrations d'ozone ou de dioxyde d'azote, ou encore d'améliorer la fiabilité des prévisions de dépassement de seuil. Cette approche est ensuite comparée avec la calibration d'un ensemble Monte Carlo. Ce dernier, moins dispersé, est moins représentatif de l'incertitude. Enfin, on a pu estimer la part des erreurs de mesure, de représentativité et de modélisation de la qualité de l'air
Styles APA, Harvard, Vancouver, ISO, etc.
17

Syed, Usman Hassan. « Estimation of Un-electrified Households & ; Electricity Demand for Planning Electrification of Un-electrified Areas : Using South Africa as Case ». Thesis, KTH, Energisystemanalys, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-125590.

Texte intégral
Résumé :
“We emphasize the need to address the challenge of access to sustainable modern energy services for all, in particular for the poor, who are unable to afford these services even when they are available.”  Section 126: The Future We Want (Out Come Document of Rio+20-United Nations Conference on Sustainable Development June 20-22, 2012). The lack of energy access has been identified as a hurdle in achieving the United Nations’ Millennium Development Goals, leading towards the urge to set a goal for universal electrification till 2030. With around 600 million people in Africa without access to electricity, effective and efficient electrification programs and policy framework is required to achieve this goal sustainably. South Africa is an example in the continent for initiating intense electrification programs and policies like “Free Basic Electricity”, increasing its electrification rate from 30% in 1993 to 75% in 2010 and a claimed 82% in 2011. The case of South Africa has been analysed from the perspective of universal electrification in the coming years. The aim was to estimate the un-electrified households for each area of South Africa in order to provide the basis for electrification planning. The idea was to use available electrification statistics with GIS (Geographic Information System) maps for grid lines and identifying the suitability of on-grid or off-grid electrification options, which may help in planning the electrification of these areas in the near future. However, due to lack of readily available data, the present work has been able to estimate the un-electrified households & their possible electrical load. The estimates have been distributed in different income groups for each province and district municipality of South Africa, which can be used for electrification planning at national, provincial and municipal level.  As a result, some simple and useful data parameters have been identified and an estimation methodology has been developed, which may be employed to obtain similar estimates at lower administrative levels i.e. local municipalities and wards. The work can be utilized further and feasible electrification options may be suggested for different areas of South Africa, with the help of GIS maps and data. Depending on the availability of useful data, the data parameters & indicators used in this work will be helpful for planning the electrification for rural households in other places of Africa.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Ferté, Agnès. « Statistics of the CMB polarised anisotropies : unveiling the primordial universe ». Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112223/document.

Texte intégral
Résumé :
La compréhension des premiers instants de notre Univers complèterait notre description de son histoire et permettrait également une exploration de la physique fondamentale à des échelles d'énergie jusque là inatteignables. L'inflation cosmique est le scénario privilégié pour décrire ces premiers instants car il s'intègre très bien dans le modèle standard de la cosmologie. Selon ce scénario l'Univers aurait connu une courte période d'expansion accélérée peu après le Big Bang. Quelques indices favorisent ce modèle cependant toujours en attente d'une signature observationnelle décisive. Les modes B du fond diffus comologique (FDC) aux grandes échelles angulaires sont générés par les ondes gravitationnelles primordiales, produites durant l'inflation cosmique. Dans ce cadre, la détection des modes B primordiaux est le but de nombreuses expériences, actuelles ou à venir. Cependant, des effets astrophysiques et instrumentaux rendent sa détection difficile. Plus précisément, une couverture incomplète de la polarisation du FDC (inhérente à toute observation du FDC) entraine la fuite des modes E dans B, un problème majeur dans l'estimation des modes B. Cet effet peut empêcher une détection des modes B même à partir de cartes parfaitement nettoyées, car les modes E fuyant (beaucoup plus intenses) masquent les modes B. Diverses méthodes offrant une estimation de modes B théoriquement non affectés par cette fuite, ont été récemment proposées dans la littérature. Cependant, lorsqu'elles sont appliquées à des expériences réalistes, elles ne corrigent plus exactement cette fuite. Ces méthodes doivent donc être validées dans le cadre d'expériences réalistes. Dans ce but, j'ai travaillé sur l'implémentation et le développement numérique de trois méthodes typiques de pseudospectres. Ensuite, je les ai testé dans le cas de deux expériences fiducielles, typiques d'une expérience suborbitale et d'une potentielle mission satellite. J'ai alors montré l'efficacité et la nécessité d'une méthode en particulier: la méthode dite pure. J'ai également montré que le cas d'une couverture quasi complète du ciel n'est pas trivial, à cause des contours compliqués du masque galactique et des points sources. Par conséquent, une estimation optimale de pseudospectre des modes B exige l'utilisation d'une telle méthode également dans le contexte d'une mission satellite. Grâce à cette méthode, j'ai fait des prévisions réalistes sur les contraintes qu'une détection de la polarisation du FDC pourra apporter sur la physique de l'Univers primordial. J'ai tout d'abord étudié la détectabilité du rapport tenseur-sur-scalaire r qui quantifie l'amplitude des ondes gravitationnelles primordiales, directement relié à l'échelle d'énergie de l'inflation, dans le cas de différentes expériences dédiées à la détection de la polarisation du FDC. J'ai montré qu'une mission satellite nous permettrait de mesurer un rapport tenseur-sur-scalaire de l'ordre de 0.001, autorisant une distinction entre les modèles d'inflation à champ fort et faible. De plus, dans le cas d'une extension du modèle standard de la cosmologie, des corrélations EB et TB du FDC peuvent être générées. En particulier, j'ai prévu les contraintes que nous pourrons mettre sur une violation de parité durant l'univers primordial à partir d'observations sur une grande ou une petite partie du ciel. Mes résultats ont montré qu'une expérience satellite est nécessaire pour mettre des contraintes sur une gamme de modèles de violation de parité. J'ai finalement abordé la problématique de la détectabilité d'une signature observationnelle d'un champ magnétique primordial
A deep understanding of the first instants of the Universe would not only complete our description of the cosmic history but also enable an exploration of new fundamental phsyics at energy scales unexplored on Earth laboratories and colliders. The most favoured scenario which describes these first instants is the cosmic inflation, an ephemeral period of accelerated expansion shortly after the big bang. Some hints are in favour of this scenario which is however still waiting for a smoking-gun observational signature. The cosmic microwave background (CMB) B modes would be generated at large angular scales by primordial gravitational waves produced during the cosmic inflation. In this frame, the primordial CMB B modes are the aim of various ongoing or being-deployed experiments, as well as being-planned satellite mission. However, unavoidable instrumental and astrophysical features makes its detection difficult. More specifically, a partial sky coverage of the CMB polarisation (inherent to any CMB measurements) leads to the E-to-B leakage, a major issue on the estimation of the CMB B modes power spectrum. This effect can prevent from a detection of the primordial B modes even if the polarisation maps are perfectly cleaned, since the (much more intense) leaked E-modes mask the B-modes. Various methods have been proposed in the literature offering a B modes estimation theoretically free from any leakage. However, when applied to real data, they are no longer completely leakage-free and remove part of the information on B-modes. These methods consequently need to be validate in the frame of real data analysis. In this purpose, I have worked on the implementation and numerical developments of three typical pseudospectrum methods. Afterwards, I have tested each of them in the case of two fiducial experimental set ups, typical of current balloon-borne or ground based experiments and of potential satellite mission. I have therefore stated on the efficiency and necessity of one of them: the so-called pure method. I have also shown that the case of nearly full sky coverage is not trivial because of the intricate shape of the contours of the point-sources and galactic mask. As a result this method is also required for an optimal B modes pseudospectrum estimation in the context of a satellite mission. With this powerful method, I performed realistic forecasts on the constraints that a CMB polarisation detection could set on the physics of the primordial universe. First of all, I have studied the detectability of the tensor-to-scalar ratio r, amounting the amplitude of primordial gravity waves and directly related to the energy scale of inflation, in the case of current suborbital experiments, a potential array of telescopes and a potential satellite mission. I have shown that a satellite-like experiment dedicated to the CMB polarisation detection will enable us to measure a tensor-to-scalar ratio of about 0.001, thus allowing for distinguishing between large and small field models of inflation. Moreover, in extension of the standard model of cosmology, the CMB EB and TB correlations can be generated. In particular, I have forecast the constraints that one could set on a parity violation in the gravitational waves during the primordial universe from observations on a small and a large part of the sky. Our results have shown that a satellite-like experiment is mandatory to set constraints on a range of parity violation models. I finally address the problematic of the detectability of observational signature of a primordial magnetic field
Styles APA, Harvard, Vancouver, ISO, etc.
19

Sourlamtas, Konstantinos. « Soil Erosion estimation for the Göta Älv river using remote sensing, GIS and the Revised Universal Soil Loss Equation (RUSLE) model ». Thesis, Stockholms universitet, Institutionen för naturgeografi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-175412.

Texte intégral
Résumé :
According to previous studies, the study area of Göta Älv river has high risk of landslides along the river banks due to the water flow. Soil erosion can affect the increase of the landslides in an area with unstable soils caused by the increase rainfall. The Swedish climate is getting more vulnerable thus there is a potential increased risk in erosion and landslides due to unpredictable rainfall intensity. This study aims to calculate soil erosion for the Göta Älv river using the Revised Universal Soil Loss Equation (RUSLE) where a comparison of data from remote sensing and meteorological and geological agencies were completed. Two research questions will be addressed, first if the different calculation of the soil erodibility (K) factor affects RUSLE result, and second how much soil erosion occurs and will potentially occur in the future. Factors including rainfall erosivity (R), soil erodibility (K), slope length and steepness (LS), land cover management (C) and conservation practices (P) were analyzed and used as inputs for the RUSLE model. Moreover, three scenarios were applied for the calculation of K factor in order to show how each one can affect the soil erosion result. The scenarios includes the K-scenario 1, 2 and 3, where the values were derived from a world soil database, a table with literature values and estimated field measurements, respectively. Also, three scenarios for R factor were applied for the periods 2000-2018, 2021-2050 and 2069-2098 (R-scenarios 1, 2 and 3) in order to show how future changes to rainfall patterns could affect soil erosion in the Göta Älv river and if it increases the risk of the landslides. The results suggest that the soil erosion varied between 0 – 0.5 t/ha for all the time periods with mean annual soil loss between 20 – 22 t/ha/yr and maximum soil loss between 2158- 5443 t/ha. The difference between the three K factor scenarios is almost 4%, which is pretty low thus, no influence on the soil erosion results. In conclusion, the different calculations of the K factor affected more the estimated maximum soil loss instead of the mean annual soil loss. The different calculations of R factor showed that more than 90% of the total area was not affected by the soil erosion when the soil loss will not be increased considerably in the future due to the rainfall increase.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Naber, Steven John. « Nonlinear least-squares and universal-kriging estimation of source and ground-water parameters for several types of plumes caused by instantaneous contamination releases / ». The Ohio State University, 1993. http://rave.ohiolink.edu/etdc/view?acc_num=osu1487848531362977.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Schaub, François. « Estimation géostatistique de l'impédance acoustique après migration prestack en profondeur ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00002987.

Texte intégral
Résumé :
Le but de cette thèse est d'exploiter au mieux les résultats du traitement des données sismiques en profondeur pour réaliser une simulation géostatistique de l'impédance acoustique. La base de la prospection géophysique est la sismique réflexion, une méthode qui fournit les coefficients de réflexion des interfaces géologiques. Ces coefficients fournissent des informations sur la structure du sous-sol et permettent d'estimer les propriétés pétro-acoustiques de chacune des couches géologiques. Nous utilisons une méthode d'imagerie (la migration) qui permet d'obtenir des données sismiques migrées en profondeur, dont les variations de réflectivité selon l'angle sont conservées. L'analyse de ces variations est alors effectuée sur les panneaux Iso-X le long de trajectoires définies par la variation de la réflectivité avec l'angle d'incidence. Ces trajectoires permettent d'obtenir une première interprétation structurale (le squelette) à laquelle sont associés des attributs tels l'intercept et le gradient. Un pointé sur ces deux squelettes complémentaires permet de délimiter des couches dans lesquelles la simulation sera effectuée. Après avoir interprété sur les sections sismiques et d'autres attributs des éventuelles anomalies en hydrocarbures, nous proposons de contraindre localement la simulation géostatistique pour reproduire ces anomalies. Pour cela, nous nous servons du lien qui existe entre l'impédance acoustique et l'intercept. Nous obtenons finalement une section en impédance acoustique en profondeur, valable sur la globalité de la section étudiée, et qui tient compte des anomalies d'hydrocarbures importantes pour l'éventuelle exploration et production du réservoir.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Rigollier, Christelle. « Vers un accès à une climatologie du rayonnement solaire : estimation de l'irradiation globale à partir d'images satellitales ». Phd thesis, Université Nice Sophia Antipolis, 2000. http://tel.archives-ouvertes.fr/tel-00955264.

Texte intégral
Résumé :
Le Soleil est la source d'énergie essentielle de notre planète, et la connaissance du rayonnement solaire devient nécessaire dans un nombre croissant de domaines, où les utilisateurs font face à un manque de données. Les mesures disponibles dans le réseau météorologique mondial fournissent des valeurs du rayonnement solaire reçu au sol ; cependant elles sont ponctuelles et dispersées. Il est alors nécessaire de recourir à des interpolations ou extrapolations, techniques d'autant moins précises que la distance à la station augmente. Dans ce contexte, nous proposons d'une part une méthode d'estimation du rayonnement solaire reçu au sol à partir d'images satellitales, et d'autre part des outils pour permettre à l'utilisateur d'accéder de manière plus efficace à l'information sur le rayonnement solaire par l'intermédiaire d'Internet. Parmi les méthodes existantes, la méthode Heliosat a été choisie au regard des critères de qualité, de robustesse, et d'exploitation, qualités qui doivent être renforcées dans l'objectif de créer une climatologie du rayonnement solaire. Nous proposons donc d'améliorer la méthode Heliosat en 1) introduisant une méthode automatique d'étalonnage, 2) utilisant un modèle ciel clair plus précis, 3) établissant une nouvelle relation entre les indices de ciel clair et d'ennuagement, 4) évaluant l'albédo des différentes surfaces à partir des images étalonnées. Forte de ces améliorations, la méthode " Heliosat-2 " constitue alors une base solide pour l'élaboration d'une base de données climatiques du rayonnement solaire, devant être disséminées au travers d'Internet.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Gomes, Leonardo. « Sobre o primeiro salto de autovalores para o h-Laplaciano, desigualdades universais para o problema de vibração de uma placa e estimativa do tipo conjectura de Pólya ». reponame:Repositório Institucional da UnB, 2011. http://repositorio.unb.br/handle/10482/11400.

Texte intégral
Résumé :
Tese (doutorado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Matemática, 2011.
Submitted by Tania Milca Carvalho Malheiros (tania@bce.unb.br) on 2012-10-11T13:13:05Z No. of bitstreams: 1 2011_LeonardoGomes_Parcial.pdf: 611961 bytes, checksum: d5a3d0903d6db0f7f003942b66fa701e (MD5)
Approved for entry into archive by Jaqueline Ferreira de Souza(jaquefs.braz@gmail.com) on 2012-10-11T14:20:46Z (GMT) No. of bitstreams: 1 2011_LeonardoGomes_Parcial.pdf: 611961 bytes, checksum: d5a3d0903d6db0f7f003942b66fa701e (MD5)
Made available in DSpace on 2012-10-11T14:20:46Z (GMT). No. of bitstreams: 1 2011_LeonardoGomes_Parcial.pdf: 611961 bytes, checksum: d5a3d0903d6db0f7f003942b66fa701e (MD5)
Neste trabalho apresentamos três tipos diferentes de desigualdades envolvendo autovalo-res de diversos operadores. Primeiramente encontramos uma estimativa inferior para oprimeiro salto dos autovalores para o h-Laplaciano, melhorando em particular algumasestimativas já conhecidas para tal operador. Em seguida, obtemos uma desigualdadeuniversal para autovalores do problema de vibração de uma placa com extremidades fixas sobre variedades Riemannianas. Porfim, apresentamos uma estimativa inferior para autovalores do tipo conjectura de Pólya para operadores elípticos mais gerais. ______________________________________________________________________________ ABSTRACT
In this work we presente three different types of inequalities involving eigenvalues of severaloperators. Firstly we find a lower bound for the fundamental gap for theh-Laplacian improving in particular, some estimates already known to such operator. Next,we obtain a universal inequality for eigenvalues of the vibration problem for a clamped plate onRiemannian manifolds. Finaly we give alower bound for eigenvalues o Pólya conjecture Type for more general eliptic operators.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Schneider, Sebastien. « Estimation des paramètres hydrodynamiques des sols à partir d'une modélisation inverse de données d'infiltration et de résistivité électrique ». Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00398650.

Texte intégral
Résumé :
Cette thèse consiste en l'établissement d'une méthode d'estimation des paramètres hydrodynamiques du sol par le biais d'une modélisation inverse d'une infiltration à disque pendant laquelle des mesures de résistivité électrique sont réalisées dans la zone du bulbe d'infiltration. Après avoir suggéré l'intérêt et les avantages d'une telle méthode, on a démontré, par le biais d'une étude numérique que la méthode peut conduire aux résultats escomptés. Pour cela des représentations de la fonction objective ont été proposées, et des scénarios d'inversion ont été testés. 3 paramètres hydrodynamiques et 2 paramètres pétrophysiques, qui assurent via la relation de Rhoades et al. (1976) la correspondance entre la teneur en eau volumique du sol et sa résistivité électrique, ont été inversés. On a montré que la méthode est adaptée à la détermination des paramètres hydrodynamiques, mais pas à celle des paramètres pétrophysiques. Enfin, des expériences de terrain et des inversions numériques associées ont été réalisées. Pour les 3 sols de textures différentes testés, 4 scénarios d'inversion ont été proposés. Il a été observé, que dans le cas du sol limoneux la méthode conduit vers une estimation correcte des paramètres hydrodynamiques, que les paramètres de Rhoades ne peuvent être inversés qu'avec une incertitude très large, tout comme la dispersivité. Pour les sols sableux et argileux, les paramètres hydrodynamiques ont été optimisés avec des incertitudes plus importantes que dans le cas du sol limoneux. Pour le sol argileux, l'optimisation de la dispersivité s'est révélée impossible. A ce stade de développement, la méthode semble bien adaptée pour les sols de texture moyenne.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Paulus, Caroline. « Filtrage de données sismiques multicomposantes et estimation de la polarisation ». Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00204504.

Texte intégral
Résumé :
Les capteurs multicomposantes (2C, 3C ou 4C) sont de plus en plus utilisés pour les acquisitions sismiques.
Ils peuvent enregistrer le déplacement dans plusieurs directions de l'espace ainsi que les variations de pression.
Le développement de traitements adaptés à ce type de données est nécessaire.

Le but de ce travail de thèse est de développer une méthode permettant d'une part le débruitage de données sismiques multicomposantes, la séparation des différents champs d'ondes ou encore l'estimation de la polarisation des ondes et de leur direction d'arrivée (DOA).
Cette méthode, appelée filtrage matriciel large-bande multicomposante, dérivée de la méthode monocomposante, prend en compte l'information de polarisation et traite les différentes composantes de façon globale et non indépendamment.

Le principe utilisé est celui de la décomposition en valeurs propres d'une matrice spectrale pour permettre une séparation efficace de l'espace des données de départ en deux espaces complémentaires (sous-espace signal et sous-espace bruit).
Styles APA, Harvard, Vancouver, ISO, etc.
26

Ruggiero, Giovanni Abdelnur. « Une étude comparative de méthodes d'assimilation de données pour des modèles océaniques ». Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00976619.

Texte intégral
Résumé :
Cette thèse a développé et mis en œuvre des algorithmes itératifs d'assimilation de données pour un modèle d'océan aux équations primitives, et les a comparés avec d'autres méthodes d'AD bien établis tels que le 4Dvar et le Singular Evolutive Extended Kalman (SEEK) Filtre /lisseur. Le modèle numérique utilisé est le modèle NEMO. Il a été configuré pour simuler la circulation typique subtropicale en double gyre. Les nouveaux algorithmes itératifs proposés, semblables au Nudging direct et rétrograde - BFN, sont tous basés sur une séquence d'intégrations alternées du modèle direct et rétrograde. Ce sont le ''Backward Smoother'' (BS), qui utilise le modèle rétrograde pour propager librement des observations "futures" en rétrograde dans le temps, et le ''Back and Forth Kalman Filter'' (BFKF), qui utilise également le modèle rétrograde pour propager les observations en arrière dans le temps, mais qui à chaque fois qu'un lot d'observations est disponible, réalise une étape de mise à jour du système similaire à l'étape de mise à jour du filtre SEEK. Le formalisme Bayésien a été utilisé pour dériver ces méthodes, ce qui signifie qu'ils peuvent être utilisés avec n'importe quelle méthode qui estime la probabilité postérieure du système par des méthodes séquentielles. Les résultats montrent que l'avantage principal des méthodes basées sur le BFN est l'utilisation du modèle rétrograde pour propager les informations des observations en arrière dans le temps.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Zhou, Hong. « Integration of Analytical Models for Estimating Sediment Supply and Evaluation of Channel Stability ». Ohio University / OhioLINK, 2016. http://rave.ohiolink.edu/etdc/view?acc_num=ohiou1456273575.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

De, Brémond D'Ars Jean. « Estimation des propriétés rhéologiques des magmas par l'étude des instabilités gravitaires : Pétrologie du complexe plutonique lite de Guernesey ». Phd thesis, Université Rennes 1, 1989. http://tel.archives-ouvertes.fr/tel-00619374.

Texte intégral
Résumé :
L'objectif principal de ce travail est de déterminer dans quelle mesure l'étude de phénomènes physiques, secondaires par rapport à la différenciation magmatique, permet d'apporter des contraintes pour la reconstitution de l'évolution des chambres magmatiques. Dans un premier temps, une étude pétrologique de l'objet choisi -le Complexe plutonique Nord de Guernesey- a été réalisée. On en retire à la fois des résultats intéressant la géologie régionale et les paramètres de base pour l'étude des phénomènes physiques secondaires. Les résultats d'ordre régional consistent en la mise en évidence ou la confirmation de plusieurs points. On a ainsi montré que le Complexe plutonique Nord de Guernesey est un massif calco-alcalin d'âge cadomien (550-560 Ma) constitué de quatre intrusions. Les deux ensembles les plus basiques: le Gabbro de Saint-Peter-Port et le Groupe Dioritique de Bordeaux sont des formations litées qui constituent les témoins d'une ancienne chambre magmatique. Les relations entre gabbros et diorites ne peuvent être établies avec certitude, mais plusieurs critères pétrographiques et géochimiques incitent à penser qu'ils se - rattachent à une même évolution magmatique. Les deux intrusions les plus acides: la Granodiorite de L'Ancresse et le Granite de Cobo apparaissent résulter du mélange d'un constituant basique apparenté aux liquides gabbro-dioritiques et d'un constituant dérivant de la fusion crustale induite par la mise en place de la chambre magmatique basique. Le Groupe Dioritique de Bordeaux, et plus précisément le type Beaucette que l'on observe sur la côte Est de l'île, présente de nombreuses figures particulières traduisant l'intervention de phénomènes magmatiques divers venant se superposer à l'évolution magmatique principale par cristallisation fractionnée. On a ainsi des indications de l'importance des phénomènes tels que les mélanges dans les chambres magmatiques calco-alcalines. Certaines structures qui évoquent des figures de charge sédimentaires sont particuiièrement bien déveioppées à ia pointe Nord-Est de l'île. Ce sont elles qui ont été choisies pour étudier l'importance des phénomènes physiques de second ordre dans les chambres magmatiques. En effet, les mécanismes d'instabilité gravitaire ont une signification suffisamment simple pour permettre ce type d'approche.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Korsakissok, Irène. « Changements d'échelle en modélisation de la qualité de l'air et estimation des incertitudes associées ». Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00596384.

Texte intégral
Résumé :
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. En particulier, les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles, deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. Couplage de modèles L'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée est très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous-maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs passifs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. Réduction d'échelle statistique Une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée "composantes principales ajustées". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain).
Styles APA, Harvard, Vancouver, ISO, etc.
30

Sadikhov, Teymur. « Stability, dissipativity, and optimal control of discontinuous dynamical systems ». Diss., Georgia Institute of Technology, 2015. http://hdl.handle.net/1853/53635.

Texte intégral
Résumé :
Discontinuous dynamical systems and multiagent systems are encountered in numerous engineering applications. This dissertation develops stability and dissipativity of nonlinear dynamical systems with discontinuous right-hand sides, optimality of discontinuous feed-back controllers for Filippov dynamical systems, almost consensus protocols for multiagent systems with innaccurate sensor measurements, and adaptive estimation algorithms using multiagent network identifiers. In particular, we present stability results for discontinuous dynamical systems using nonsmooth Lyapunov theory. Then, we develop a constructive feedback control law for discontinuous dynamical systems based on the existence of a nonsmooth control Lyapunov function de fined in the sense of generalized Clarke gradients and set-valued Lie derivatives. Furthermore, we develop dissipativity notions and extended Kalman-Yakubovich-Popov conditions and apply these results to develop feedback interconnection stability results for discontinuous systems. In addition, we derive guaranteed gain, sector, and disk margins for nonlinear optimal and inverse optimal discontinuous feedback regulators that minimize a nonlinear-nonquadratic performance functional for Filippov dynamical systems. Then, we provide connections between dissipativity and optimality of nonlinear discontinuous controllers for Filippov dynamical systems. Furthermore, we address the consensus problem for a group of agent robots with uncertain interagent measurement data, and show that the agents reach an almost consensus state and converge to a set centered at the centroid of agents initial locations. Finally, we develop an adaptive estimation framework predicated on multiagent network identifiers with undirected and directed graph topologies that identifies the system state and plant parameters online.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Schneider, Sébastien. « Estimation des paramètres hydrodynamiques des sols à partir d'une modélisation inverse de données d'infiltration et de résistivité électrique ». Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00459291.

Texte intégral
Résumé :
L'objectif proposé pour ce travail est la mise au point d'une méthode d'inversion des paramètres hydrodynamiques du sol (paramètres de Mualem-van Genuchten) par le biais d'une modélisation inverse d'une expérience d'infiltration sous succion pendant laquelle des mesures de résistivité électrique sont réalisées dans la zone où se développe le bulbe d'infiltration. Après avoir suggéré dans un premier chapitre l'intérêt d'une telle méthode et les avantages qu'elle pourrait comporter (mesures non invasives réalisées in situ, estimation des paramètres par une expérience unique qui aboutit en principe à un jeu cohérent de paramètres), on a démontré numériquement, dans un second chapitre, que la méthode proposée peut conduire aux résultats escomptés. Pour cela des représentations de la fonction objective ont été proposées, et des scénarios d'inversion ont été construits et testés (algorithme de Levenberg-Marquardt). Trois paramètres hydrodynamiques ont été inversés lors de cette étude numérique (a, n, et Ks) et deux textures de sol ont été testées (textures limoneuse et sablo-limoneuse). On a cherché à inverser également les paramètres pétrophysiques qui assurent, via la relation de Rhoades et al. (1976), la correspondance entre la teneur en eau volumique du sol et sa résistivité électrique. Cette étude numérique a montré que la méthode est adaptée à la détermination des paramètres de Mualemvan Genuchten, mais que les paramètres pétrophysiques ne peuvent être inversés correctement. Le troisième et dernier chapitre a porté sur la réalisation d'expériences de terrain et des inversions numériques associées. Trois sols de textures différentes (sableuse, limoneuse, et argileuse) ont été testés, et, à chaque fois, 4 scénarios d'inversion ont été réalisés. Ces scénarios différaient par le fait que qr était optimisé ou non, et par le fait que la dispersivité était inversée ou non. Il a été observé, dans le cas du sol limoneux, que la méthode conduit vers une estimation correcte des paramètres de Mualemvan Genuchten, que les paramètres de Rhoades ne peuvent être inversés qu'avec une incertitude très large, et que la dispersivité est, elle aussi, estimée avec une incertitude importante. En ce qui concerne les sols sableux et argileux, les paramètres de Mualemvan Genuchten ont été optimisés avec des incertitudes plus importantes que dans le cas du sol limoneux, et une optimisation correcte du paramètre de dispersivité n'a pas été possible. De nombreuses améliorations pourraient être envisagées dans le futur afin de rendre la méthode plus performante: optimisation du choix des quadripôles utilisés pour les mesures de résistivité électrique, resserrement des distances entre les électrodes, réalisations d'infiltration avec des eaux de forces ioniques différentes, utilisation d'algorithmes d'inversions plus sophistiqués (méthodes stochastiques).
Styles APA, Harvard, Vancouver, ISO, etc.
32

Guilloux, Frédéric. « Analyse harmonique et Estimation spectrale sur la Sphère.Applications à l'étude du Fond diffus cosmologique ». Phd thesis, Université Paris-Diderot - Paris VII, 2008. http://tel.archives-ouvertes.fr/tel-00347673.

Texte intégral
Résumé :
Cette thèse porte sur l'utilisation d'ondelettes de seconde génération pour l'étude statistique de champs aléatoires sphériques. Parmi les phénomènes modélisables par un tel champ, on s'intéressera en particulier au Fond diffus cosmologique (CMB).

La localisation des needlets (récente construction d'ondelettes) sur la sphère est étudiée et optimisée en terme de concentration spatiale et d'estimation statistique. Ces fonctions sont ensuite utilisées pour construire un nouvel estimateur du spectre de puissance angulaire. L'examen des propriété de cet estimateur, d'un point de vue théorique (dans l'asymptotique des hautes fréquences angulaires) et pratique, montre qu'il améliore les méthodes existantes dans un modèle réaliste comportant des données manquantes et un bruit hétéroscédastique. A côté de l'estimation spectrale, l'utilisation des needlets est également introduite dans un problème de séparation de sources.

Après quatre chapitres introductifs (dédiés respectivement aux aspects physiques, analytiques et statistiques de l'étude du CMB, puis à une présentation d'ensemble des résultats), quatre articles de revue (en collaboration) sont présentés : "Practical wavelet design on the sphere" ; "CMB power spectrum estimation using wavelets" ; "Spectral estimation on the sphere with needlets: high frequency asymptotics" et "A full sky, low foreground, high resolution CMB map from WMAP".
Styles APA, Harvard, Vancouver, ISO, etc.
33

Santamaría-Gómez, Alvaro. « Estimation des mouvements verticaux de l'écorce terrestre par GPS dans un repère géocentrique, dans le cadre du projet TIGA ». Phd thesis, Observatoire de Paris, 2010. http://tel.archives-ouvertes.fr/tel-00686823.

Texte intégral
Résumé :
Deux techniques complémentaires coexistent aujourd'hui pour observer les variations du niveau des mers. L'altimétrie par satellite permet une observation quasi globale avec un échantillonnage temporel et spatial régulier. Cependant, cette technique n'a pas plus de quelques décennies d'existence. A cause des variations inter-décennales du niveau des mers, elle ne donne donc pas accès aux signaux de longue période ou aux variations séculaires. Les variations du niveau des mers à long terme sont accessibles aujourd'hui que grâce aux mesures marégraphiques, certains marégraphes fournissant des enregistrements continus depuis le XIXème siècle. Cette technique constitue donc le seul moyen d'estimer, à partir de la mesure directe, les variations du niveau des mers pendant le XXème siècle, donnée qui représente un bon indicateur du changement climatique. Cependant, les estimations marégraphiques sont contaminées par des mouvements verticaux à long terme de la croûte terrestre. Afin d'obtenir les variations absolues à long terme du niveau des mers, les mouvements verticaux des marégraphes peuvent maintenant être déterminés par la technique GPS. Cette approche est explorée en pratique depuis 2001 par le projet pilote TIGA (Tide Gauge benchmark monitoring) du Service International des GNSS (IGS). Dès 2002, le Consortium ULR (Université de La Rochelle et Institut Géographique National) contribue à ce projet en tant que Centre d'Analyse TIGA. Actuellement, plus de 300 stations GPS globalement reparties sont traitées, parmi lesquelles plus de 200 sont co-localisées avec un marégraphe. Mes travaux de thèse s'inscrivent dans l'étude méthodologique visant à améliorer l'estimation des vitesses verticales des stations GPS. Une première étape de mes travaux a donc consisté en l'étude de la meilleure stratégie de traitement des données GPS. Différentes modélisations ont été testées comme, par exemple, les effets de variation de phase des antennes et du retard troposphérique. A cause du grand nombre de stations du réseau, une répartition en sous-réseaux est imposée pour le traitement. Une répartition optimale des stations GPS selon une approche dynamique a été élaborée et testée. Les résultats ont montré que cette procédure améliore grandement la qualité du traitement GPS. A l'issue de l'application de cette nouvelle stratégie de calcul, on a obtenu et exporté des produits dérivés comme les positions des stations, les orbites des satellites, les paramètres d'orientation de la Terre, et le mouvement apparent du géocentre, pour être combinés dans le cadre de la première campagne de retraitement des données GPS de l'IGS. La confrontation de ces produits avec les produits d'autres analyses de très haute qualité (la grande majorité des Centres d'Analyse IGS y participent) on fourni une validation de la stratégie de traitement GPS implémentée et aussi des indications pour de futures améliorations. La participation à cette campagne a permis en plus de densifier et d'étendre le repère international de référence terrestre (ITRF) aux marégraphes. La deuxième étape de mes travaux a consisté en l'étude de l'estimation de vitesses verticales GPS. L'effet couplé des signaux périodiques et des discontinuités sur les vitesses estimées a été mis en évidence, montrant la nécessité d'estimer ces paramètres d'une manière cohérente et rigoureuse. Particulièrement, l'effet des discontinuités a été signalé comme la source d'erreur la plus importante aujourd'hui pour l'estimation de vitesses. Les incertitudes réalistes des vitesses estimées ont été analysées en profondeur en prenant en compte le contenu de bruit corrélé dans les séries temporelles. En comparant rigoureusement les résultats de cette analyse avec la précédente solution ULR, on constate une réduction significative du contenu du bruit corrélé. Ceci est dû principalement à l'amélioration du traitement des données. Cette analyse du bruit a abouti à la démonstration que la corrélation temporelle des données retraitées de façon homogène dépend de l'époque des données. De cette façon, il a été démontré que le contenu du bruit dans les séries temporelles GPS longues s'explique principalement par le niveau de bruit des données les plus anciennes. Toutefois, pour obtenir l'incertitude formelle de vitesse la plus petite possible, il est nécessaire d'incorporer toutes les données disponibles. Il a été montré qu'en utilisant le modèle de bruit le plus approprié pour la série temporelle de chaque station, l'incertitude formelle du champ de vitesse estimé est en accord avec les différences de vitesse obtenues par rapport à la prochaine réalisation du repère international de référence terrestre, l'ITRF2008.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Lopez, Morgan. « Estimation des émissions de gaz à effet de serre à différentes échelles en France à l'aide d'observations de haute précision ». Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00777476.

Texte intégral
Résumé :
L'objectif de ma thèse est de conduire et d'utiliser les observations de haute précision de gaz à effet de serre pour estimer les émissions de ces gaz à différentes échelles en France, du locale au régionale. Le réseau français de mesure de gaz à effet de serre, géré par l'équipe RAMCES, est constitué de trois observatoires équipés de systèmes de mesure par chromatographie en phase gazeuse. Ces chromatographes en phase gazeuse sont situés à Gif-sur-Yvette, Trainou (forêt d'Orléans) et au sommet du Puy-de-Dôme. Ils ont été optimisés pour la mesure continue et de haute précision des principaux gaz à effet de serre : CO2, CH4, N2O et SF6. Ayant installé le GC au Puy-de-Dôme au cours de l'année 2010, je présenterai et analyserai en détail la série temporelle obtenue depuis son installation. Les mesures de gaz à effet de serre et des traceurs associés m'ont permis d'utiliser une approche multigaz pour contraindre leurs émissions à différentes échelles. A une échelle départementale et régionale, j'ai utilisé le 222Rn comme traceur de masses d'air pour quantifier les flux surfaciques mensuels de N2O à Gif-sur-Yvette et Trainou. Les émissions annuelles de N2O estimées à Gif-sur-Yvette et Trainou sont respectivement de 0.34/0.51 et 0.52 g(N2O) m-2 a-1. Le cycle saisonnier des émissions de N2O a permis de mettre en évidence l'impact de l'agriculture sur les émissions lors de l'apport d'engrais azoté dans les sols. J'ai mis en évidence une corrélation entre les flux de N2O annuels et les précipitations annuelles à Gif-sur-Yvette. A une échelle locale, j'ai utilisé le CO2 et ses isotopes mesurés lors d'une campagne réalisée pendant l'hiver 2010 à Paris, pour estimer les flux de CO2 parisien. Les mesures de 14CO2 atmosphérique m'ont permis de montrer que les flux de CO2 parisien en hiver sont essentiellement anthropiques (77 %) avec une contribution significative des émissions biogéniques (23 %). L'analyse du 13CO2 à quant à lui mis en évidence que les 77 % d'émission de CO2 d'origine fossile sont dues à 70 % à l'utilisation de gaz naturel et 30 % à l'utilisation de pétrole.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Prins, Christian. « Échantillonnage, simulation et estimation des gisements secondaires de diamant ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00780063.

Texte intégral
Résumé :
Il est difficile d'explorer et d'estimer des gisements secondaires de diamants en raison du manque de fiabilité des données et/ou de leur rareté. Des efforts soutenus sont nécessaires pour maintenir une bonne compréhension de ces types de dépôts lors de leur exploration, leur échantillonnage et leur exploitation. Cette thèse traite des sujets suivants : - L'existence de regroupements entre cheminées kimberlites est établie, et leur extension moyenne déterminée. - Des données d'exploration d'indicateurs minéraux sont analysées par arbre de classification. Un modèle est ensuite bâti à partir de sites kimberlitiques connus pour identifier de nouveaux sites. - Les milieux maritimes comportent des mécanismes de piégeage complexes, ce qui les rend difficiles à échantillonner. Dans certaines situations, on dispose de peu, voire d'aucune information de qualité, alors qu'une étude d'optimisation de l'échantillonnage est nécessaire. Dans ce cas, une esquisse au crayon est utilisée pour construire des simulations, lesquelles servent à une première optimisation de l'échantillonnage. - Dans les dépôts sous-marins profonds, les échantillons doivent dépasser une taille minimale critique pour être représentatifs. L'établissement de cette taille passe par une modélisation selon un processus de Cox, bien adapté à la nature discrète de la minéralisation. L'impact de l'échantillonnage sur la qualité de l'estimation par blocs ou par panneaux peut ainsi être testé par simulation. - Ces dernières années, certains terrils sont redevenus économiquement viables. Pour en obtenir une estimation locale par blocs, une procédure de détermination de la taille optimale des échantillons et de leur espacement a été développée et mise en oeuvre sur un terril de kimberlite.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Paris, Silvia. « Méthodes de détection parcimonieuses pour signaux faibles dans du bruit : application à des données hyperspectrales de type astrophysique ». Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00933827.

Texte intégral
Résumé :
Cette thèse contribue à la recherche de méthodes de détection de signaux inconnus à très faible Rapport Signal-à-Bruit. Ce travail se concentre sur la définition, l'étude et la mise en œuvre de méthodes efficaces capables de discerner entre observations caractérisées seulement par du bruit de celles qui au contraire contiennent l'information d'intérêt supposée parcimonieuse. Dans la partie applicative, la pertinence de ces méthodes est évaluée sur des données hyperspectrales. Dans la première partie de ce travail, les principes à la base des tests statistiques d'hypothèses et un aperçu général sur les représentations parcimonieuses, l'estimation et la détection sont introduits. Dans la deuxième partie du manuscrit deux tests d'hypothèses statistiques sont proposés et étudiés, adaptés à la détection de signaux parcimonieux. Les performances de détection des tests sont comparés à celles de méthodes fréquentistes et Bayésiennes classiques. Conformément aux données tridimensionnelles considérées dans la partie applicative, et pour se rapprocher de scénarios plus réalistes impliquant des systèmes d'acquisition de données, les méthodes de détection proposées sont adaptées de façon à exploiter un modèle plus précis basé sur des dictionnaires qui prennent en compte l'effet d'étalement spatio-spectral de l'information causée par les fonctions d'étalement du point de l'instrument. Les tests sont finalement appliqués à des données astrophysiques massives de type hyperspectral dans le contexte du Multi Unit Spectroscopic Explorer de l'Observatoire Européen Austral.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Caron, Benoît. « EMISSION DE CENDRES PENDANT L'ACTIVITE EXPLOSIVE DES VOLCANS ITALIENS EN ZONE DISTALE : ESTIMATION, CARACTERISATION PHYSICO-CHIMIQUE ET CONTRUCTION D'UNE BASE DE DONNEE POUR MIEUX EVALUER LES ALEAS VOLCANIQUES DANS LE SUD DE L'ITALIE ». Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00545633.

Texte intégral
Résumé :
En plus de la destruction des sites à proximités des volcans, l'accumulation de cendres volcaniques dans les zones distales peut causer de graves dommages. De plus l'évaluation de ces dangers n'est pas pleinement prise en compte dans les plans de mitigation actuels. L'étude de la dispersion des retombées pyroclastiques produites par les éruptions explosives des volcans Italiens lors du Quaternaire est le sujet de cette thèse. L'étude tephrostratigraphique de trois carottes lacustres des lacs de Shkodra et Ohrid (Albanie) et d'une carotte marine du Nord de la mer Ionienne a été réalisée. Dix-sept niveaux de tephra ont été corrélés aux éruptions explosives de A.D. 472, Avellino (3.9 cal. ka BP) du Vésuve, Monte Pilato (A.D.1200), Gabellotto-Fiumebianco (8.6 cal ka BP) et Monte Guardia (22 ka BP) de l'île de Lipari, FL (3.4 cal. ka BP) de l'Etna, Astroni (4.2 cal. ka BP), Agnano Monte Spina (4.5 cal. ka BP), Agnano Pomici Principali (12.3 cal. ka BP), SMP1-Y3 (31 ka) et l'Ignimbrite Campanienne-Y5 (39 ka) des Champs Phlégréens, X6 (107 ka) de la région Campanienne, et de P11 (131 ka) de l'île de Pantelleria. Cinq autres niveaux de tephra possèdent la composition que les dépôts de l'éruption vésuvienne de Mercato. Cela suggère une activité explosive entre les éruptions pliniennes de Mercato (8.9 cal ka BP) et Avellino (3.9 cal ka BP). Toutes ces données ont été intégrées, avec les données préexistantes de la littérature, dans la banque de données d'un SIG. Cette banque de données couplée à un SIG permet de grandement améliorer les dispersions des cendres et représente un outil qui améliore la mitigation des risques volcaniques dans la région centrale de la Méditerranée.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Demarcq, Hervé. « Applications de la télédétection infrarouge et visible en océanographie. Etude de la zone de dilution rhodanienne, observations des zones de production dans le Golfe du Lion, et estimation de l'éclairement solaire global en Méditerranée Occidentale ». Phd thesis, Université de la Méditerranée - Aix-Marseille II, 1985. http://pastel.archives-ouvertes.fr/pastel-00955845.

Texte intégral
Résumé :
Les travaux ont été effectués sur le golfe du Lion. Ils présentent des résultats combinés de l'interprétation d'images de satellites, obtenues dans l'infrarouge thermique (capteur AVHRR) et dans le domaine visible (capteur CZCS) avec des connaissances historiques et des mesures recueillies simultanément en mer. Ils permettent, d'une part, d'estimer la forte variabilité spatio-temporelle de la zone de dilution rhodanienne, en particulier sous l'influence du vent local et du débit du fleuve, et, d'autre part, d'observer la formation hivernale d'eau profonde dans le golfe du Lion. L'évolution saisonnière des zones de production dans le golfe du Lion est suivie à l'aide d'images de la concentration relative en pigments chlorophylliens et de la température de la mer. Le traitement d'images du spectre visible du satellite METEOSAT II permet l'estimation mensuelle de l'éclairement solaire global au niveau de la mer.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Hauet, Alexandre. « Estimation de débit et mesure de vitesse en rivière par Large-Scale Particle Image Velocimetry ». Phd thesis, Grenoble INPG, 2006. http://tel.archives-ouvertes.fr/tel-00116889.

Texte intégral
Résumé :
Les protocoles hydrométriques en rivière ne répondent pas aux besoins des hydrologues et des hydrauliciens. L'appareillage traditionnel de jaugeage (moulinet, ADCP) est limité par son aspect intrusif, particulièrement en crue et en étiage. Cette thèse étudie la technique Large Scale Particle Image Velocimetry (LSPIV) qui consiste à identifier, par analyse d'images, un champ de vitesses en surface. L'ajout d'un modèle hydraulique permet le calcul du débit.

Une station LSPIV de mesure en continu et temps réel a été mise en place sur la rivière Iowa à Iowa City (USA). Les premières années de fonctionnement ont montré des estimations LSPIV de débit en bonne concordance avec la courbe de tarage du site et avec des mesures classiques réalisées au moulinet. L'établissement d'une importante base de données a permis une étude de sensibilité de la technique. Les sources d'erreur affectant la mesure ont été identifiées et quantifiées. L'étude de sensibilité a été affinée grâce à un simulateur numérique de la mesure LSPIV en rivière, outils capitalisant notre connaissance de la mesure et permettant d'évaluer l'importance relative de différentes sources d'erreur pour une situation donnée.

Une unité LSPIV motorisée (camionnette équipée d'un bras télescopique et d'une caméra) a été développée pour permettre l'application de la méthode en sites difficiles d'accès. Cette unité s'est montrée efficace, donnant des résultats d'excellentes qualités sur les différents sites testés. Des mesures LSPIV de champ de vitesse de surface ont été utilisées par ailleurs pour la validation de la modélisation hydraulique d'une zone d'écoulement complexe (la lône de Port-Galand sur l'Ain) et pour une étude de reconstitution de formes de fond de chenal en laboratoire.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Grosdemouge, Virginie. « Proposition d'indicateurs de confort thermique et estimation de la température radiante moyenne en milieu urbain tropical. Contribution à la méthode nationale d'évaluation des ÉcoQuartiers ». Thesis, La Réunion, 2020. http://www.theses.fr/2020LARE0033.

Texte intégral
Résumé :
Notre étude menée dans l’EcoQuartier (EQ) de la Ravine Blanche, à La Réunion, souligne que les indicateurs développés dans la méthode nationale d’évaluation ne sont pas tous adaptés à notre contexte en milieu tropical. Cette thèse démontre qu’un indicateur de performance des bâtiments basé sur un niveau de confort thermique semble plus adapté en milieu tropical que le strict indicateur énergétique. Une revue de littérature portant sur les différents indices développés afin de quantifier le confort thermique en extérieur a donc été réalisée et nous a permis de porter notre choix sur deux indices pertinents : la PET et l’UTCI. Le confort thermique en milieu urbain tropical est fortement affecté par la température radiante moyenne extérieure (Tmrt), qui est un paramètre physique difficilement caractérisable, aussi bien en termes de mesures que de modélisation et, qui est essentielle au calcul des indices de confort PET et UTCI. Une expérimentation basée sur une méthode de mesure existante permettant d’estimer Tmrt est mise en œuvre. Cette thèse propose également une méthodologie reproductible se basant sur des mesures microclimatiques combinées à des enquêtes de terrain. Une évaluation de la perception du confort thermique des usagers a été menée dans un espace urbain de l’EQ de la Ravine Blanche, avec la problématique du confort d’été. De plus, une comparaison entre différentes méthodes de mesure de la Tmrt (globe noir et globe gris) montre que le choix de la méthode a un impact non négligeable sur les valeurs des indices de confort choisis. Enfin, les indices PET et UTCI ont été calibrés et leurs zones de confort respectives ont été définies pour le climat de Saint-Pierre
Feedback from the post-occupancy evaluation carried out in the eco-neighbourhood (EQ) of Ravine Blanche, in Reunion Island, shows that some indicators proposed by the French eco-neighbourhood evaluation model are not suitable for specific application in tropical climate. This thesis demonstrates that a building performance indicator based on a level of thermal comfort seems more appropriate in a tropical urban environment. A literature review of the main existing outdoor thermal comfort indices has been carried out. Two relevant indices for application in a tropical climate have been chosen: the PET and the UTCI indices. In addition, this research study mainly focuses on the definition and estimation of the mean radiant temperature (Tmrt), which is one of the most important factors that influence human thermal comfort in outdoor spaces. However, Tmrt is particularly difficult to determine, whether in terms of in-situ measurements or numerical modelling. An experimentation based on an existing methodology has been set up so as to estimate Tmrt. This thesis also proposes a methodology relating to how to conduct field surveys in outdoor environments with micrometeorological measurements. People’s subjective thermal perception in a coastal outdoor urban environment of the EQ of Ravine Blanche has been investigated during summer. Furthermore, two popular radiation measurement techniques in determining Tmrt (black globe & grey globe) have been studied. The choice of the method has an impact on the thermal comfort indices values. Finally, the PET and UTCI indices have been calibrated and their respective comfort zones have been defined for the climate of Saint-Pierre
Styles APA, Harvard, Vancouver, ISO, etc.
41

Mbengue, Abdou Aziz. « Estimation par satellite de l'humidité spécifique au dessus de l'océan par radiométrie hyperfréquence ». Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2009. http://tel.archives-ouvertes.fr/tel-00737712.

Texte intégral
Résumé :
L'océan joue un rôle très important dans la régulation du climat de la terre à travers les échanges de chaleur avec l'atmosphère, qui se font en grande partie sous forme de Flux de Chaleur Latente (FCL). Ce dernier dépend notamment de l'humidité spécifique à quelques mètres au-dessus de la surface. Cette dernière variable est encore mal maîtrisée dans les modèles météorologiques, et trop peu d'observations sont disponibles à l'échelle du globe pour calculer des champs d'humidité et de flux de chaleur latente, pourtant nécessaires pour forcer les modèles océaniques, par exemple. Dans ce travail, on analyse le potentiel des données de télédétection spatiale pour estimer l'humidité de surface. L'intérêt majeur des satellites est qu'ils nous permettent d'observer l'ensemble des océans à une échelle temporelle de quelques jours seulement. Afin de restituer l'humidité spécifique, nous nous servons des données de températures de brillance mesurées par les radiomètres hyperfréquences AMSU-A (Advanced Microwave Sounding Unit - A) et AMSU-B embarqués à bord des satellites NOAA 15, 16 et 17. AMSU-A comporte 15 canaux entre 23.8 GHz et 89 GHz, avec une résolution de 48 Km, et AMSU-B comporte 5 canaux entre 89 GHz et 183.31 GHz, et a une résolution de 16 Km. Nous utilisons les radiomètres AMSU parce qu'ils possèdent un nombre important de canaux (20 canaux au total), dont certains sont sensibles à la vapeur d'eau. Malgré leur potentiel intéressant, les radiomètres AMSU ont jusqu'ici été peu exploités pour la restitution de l'humidité de surface. Deux approches sont utilisées pour faire cette restitution : la régression linéaire multiple et les réseaux de neurones artificiels. Grâce à cette dernière méthode, nous avons pu restituer l'humidité de surface avec une amélioration de 21.8% par rapport à l'algorithme de référence (Bentamy et al., 2003). Ceci se traduit par un écart rms de 0.86 g/kg, par rapport aux données de validation, qui sont les observations horaires des mouillages TAO et PIRATA. L'ensemble des résultats trouvés au cours de cette étude indique clairement que le satellite apporte un point de vue complémentaire par rapport aux modèles opérationnels et par rapport aux observations, vis-à-vis de l'humidité de surface.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Tran, Truong. « ESTIMATION DE L'ÉTAT HYDRIQUE DES SOLS EN AFRIQUE DE L'OUEST PAR TÉLÉDÉTECTION SPATIALE ». Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00608801.

Texte intégral
Résumé :
Les travaux réalisés au cours de cette Thèse ont contribué à améliorer l'estimation de l'humidité de surface du sol et de l'humidité racinaire sur la bande sahélienne en Afrique de l'ouest. La première partie a été consacrée à évaluer la capacité de différents algorithmes d'estimations de l'humidité du sol basées sur des mesures satellites dans le domaine spectral de l'infrarouge thermique. Dans un deuxième temps, une méthode a été développée dans le but d'obtenir une cartographie de l'humidité du sol à une résolution temporelle fine (< 3h) en se basant sur deux produits satellites: un produit satellite de précipitation et une cartographie journalière micro-onde sensible à l'humidité du sol. Dans un troisième temps, une évaluation de la fiabilité et de la robustesse de la méthodologie a été proposée. Enfin, une méthode semi-empirique a été utilisée afin de produire une cartographie de l'humidité de la zone racinaire (0-1 m) sur l'ensemble de la bande sahélienne. Les mesures de terrain obtenues sur trois sites situés au Mali, au Niger et au Bénin dans le cadre du programme AMMA ont servi de référence pour évaluer la qualité des estimations de l'humidité superficielle et racinaire à chaque étape de ce travail. Les résultats montrent qu'une estimation de l'humidité superficielle du sol est possible avec une précision de moins de 3 % vol. sur la bande sahélienne. L'erreur est de l'ordre de 5% vol. sur la zone soudanienne (Bénin). La précision est identique sur l'estimation de l'humidité racinaire. Enfin, la méthode développée permet parallèlement de corriger les produits satellites de précipitation et notamment la surestimation du cumul annuel et du nombre d'événements des trois produits satellites utilisés dans ce travail.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Bourdin-Korsakissok, Irène. « Changements d'échelles en modélisation de la qualité de l'air et estimation des incertitudes associées ». Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00584389.

Texte intégral
Résumé :
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. Les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles , deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. (1) Couplage de modèles : l'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. (2) Réduction d'échelle statistique : une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée " composantes principales ajustées ". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain)
Styles APA, Harvard, Vancouver, ISO, etc.
44

Yver, Camille. « Estimation des sources et puits du dihydrogène troposphérique : développements instrumentaux, mesures atmosphériques et assimilation variationnelle ». Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2010. http://tel.archives-ouvertes.fr/tel-00633825.

Texte intégral
Résumé :
En m'appuyant sur des mesures atmosphériques et à l'aide de la modélisation, je propose une nouvelle estimation du bilan du dihydrogène troposphérique (H2). Pendant mon stage de master, j'ai installé un chromatographe en phase gazeuse pour analyser les concentrations de H2 et CO sur les échantillons du réseau RAMCES. L'analyse des mesures in-situ à Gif-sur-Yvette permet d'estimer le dépôt de H2 dans le sol de cette région (0.027 cm s−1) et le ratio H2/CO (0.5) provenant des émissions dues au transport automobile. La haute tour de Trainou située près de la forêt d'Orléans (100 km au sud-ouest de Paris) a été instrumentée en octobre 2008 pour H2 et CO à trois hauteurs de prélèvement (50, 100 et 180 m), en mai 2009 pour 222Rn à 180 m et en avril 2010 pour 222Rn à 50 m. Avec trois hauteurs de prélèvement, les masses d'air locales à régionales sont échantillonnées. L'infl uence du traffi c n'est pas visible mais pendant l'hiver on observe des évènements pendant lesquels les concentrations de H2 et CO sont fortement corrélées. La vitesse moyenne de dépôt estimée avec la même méthode qu'à Gif-sur-Yvette atteint 0.026 cm s−1. Dans la partie modélisation, les mesures de la concentration de H2 au sein des réseaux RAMCES et EUROHYDROS ont été utilisées dans le système LMDz-SACS-PYVAR. Ce système permet d'optimiser l'estimation quantitative du bilan de H2 : le modèle de transport atmosphérique LMDz est couplé avec le système de chimie simpli fiée SACS et intégré dans le système d'inversion PYVAR. Plusieurs scénarios, impliquant la séparation progressive des sources et puits de H2 ont été testés pour optimiser les flux de H2 à l'échelle globale et européenne. La meilleure estimation du dépôt global de H2 atteint 59 ± 5 Tg an−1.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Hörmann, Wolfgang, et Josef Leydold. « Automatic Random Variate Generation for Simulation Input ». Department of Statistics and Mathematics, Abt. f. Angewandte Statistik u. Datenverarbeitung, WU Vienna University of Economics and Business, 2000. http://epub.wu.ac.at/534/1/document.pdf.

Texte intégral
Résumé :
We develop and evaluate algorithms for generating random variates for simulation input. One group called automatic, or black-box algorithms can be used to sample from distributions with known density. They are based on the rejection principle. The hat function is generated automatically in a setup step using the idea of transformed density rejection. There the density is transformed into a concave function and the minimum of several tangents is used to construct the hat function. The resulting algorithms are not too complicated and are quite fast. The principle is also applicable to random vectors. A second group of algorithms is presented that generate random variates directly from a given sample by implicitly estimating the unknown distribution. The best of these algorithms are based on the idea of naive resampling plus added noise. These algorithms can be interpreted as sampling from the kernel density estimates. This method can be also applied to random vectors. There it can be interpreted as a mixture of naive resampling and sampling from the multi-normal distribution that has the same covariance matrix as the data. The algorithms described in this paper have been implemented in ANSI C in a library called UNURAN which is available via anonymous ftp. (author's abstract)
Series: Preprint Series / Department of Applied Statistics and Data Processing
Styles APA, Harvard, Vancouver, ISO, etc.
46

Klimprová, Lucie. « Regresní metody pro statistickou analýzu prostorových dat ». Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2009. http://www.nusl.cz/ntk/nusl-228884.

Texte intégral
Résumé :
Kriging techniques are regression methods used for evaluation of continuous spatial processes. If the covariance structure of process is unknown, then it's necessary to estimate it from the data. The first part of this Master's thesis is devoted to description the kriging method and to estimate of a variogram fuction, which describes the covariance structure of considered process. The second part includes the implementation of kriging method in MATLAB for simulated and real data.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Adon, Marcellin. « Etude des concentrations de gaz atmosphériques et estimation des flux de dépôt sec à l'échelle des principaux écosystèmes africains ». Phd thesis, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00650079.

Texte intégral
Résumé :
Ce travail de recherche, réalisé dans le cadre du programme IDAF, est une contribution à l'étude des dépôts des constituants majeurs atmosphériques à la surface de la terre, en Afrique tropicale. Il concerne l'étude des concentrations atmosphériques des gaz azotés (ammoniac, dioxyde d'azote, acide nitrique), du dioxyde de soufre (SO2) et de l'ozone (O3) et leur dépôt sec en Afrique de l'Ouest et Centrale. Les gaz ont été mesurés sur une base mensuelle par la technique des capteurs passifs sur une période de dix ans (1998-2007) dans sept sites IDAF représentatifs d'un transect d'écosystèmes : savanes sèches - savanes humides - forêts. La validation et l'analyse de la base de données décennales des " gaz IDAF " a permis d'établir les niveaux de concentrations caractéristiques de chaque écosystème et d'étudier leurs évolutions moyennes mensuelles, saisonnières, annuelles et interannuelles sur le transect d'écosystèmes. Les flux de dépôt sec ont été estimés par la méthode inférentielle à partir des vitesses de dépôt sec calculées en utilisant le modèle " big-leaf " de Zhang et al. (2003b). Dans le modèle de dépôt, les conditions de surface et météorologiques spécifiques aux sites IDAF ont été adaptées puis validées pour être représentatives de ces sites et ont ainsi permis de simuler les vitesses de dépôt sec représentatives des grands écosystèmes. Les variations moyennes mensuelles, saisonnières et annuelles des flux de dépôt sec des gaz (NO2, HNO3, NH3, O3, et SO2) sont analysées dans l'objectif de réaliser un bilan de dépôt atmosphérique total (sec + humide) d'azote à l'échelle des écosystèmes africains. Le dépôt total d'azote est estimé respectivement à 6-9 kgN.ha-1.an-1, 7-10 kgN.ha-1.an-1 et 13 kgN.ha-1.an-1 en savanes sèches, en savane humides et en forêts, avec une contribution relative du dépôt sec sous forme gazeuse au dépôt total d'azote comprise entre 46 et 71% sur l'ensemble des écosystèmes. Un bilan émission-dépôt des composés azotés oxydés et réduits à l'échelle de chaque écosystème a été réalisé et a montré un flux d'émission totale de même ordre de grandeur que le dépôt moyen annuel d'azote pour les écosystèmes de savanes mais plus faible dans l'écosystème forestier. Enfin une analyse comparative entre les mesures IDAF de dépôt d'azote et, d'une part, le dépôt d'azote simulé par une analyse multi-modèle à l'échelle globale et d'autre part, avec les charges critiques d'eutrophisation existantes dans la littérature a permis une première évaluation de l'impact potentiel du dépôt total d'azote sur les écosystèmes tropicaux africains.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Davtyan, Vahan. « Les failles actives d'Arménie : estimation des vitesses de déplacement par la géodésie (GPS), l'archéosismologie et la paléosismologie ». Phd thesis, Montpellier 2, 2007. http://tel.archives-ouvertes.fr/tel-00551535.

Texte intégral
Résumé :
Les travaux présentés dans ce mémoire sont consacrés à l'étude de la géodynamique du territoire de l'Arménie qui est situé dans la partie centrale de la zone de collision continentale entre les plaques Arabique et Eurasienne. Le mémoire comprend deux parties principales: 1/ l'étude des déformations actuelles par la géodésie GPS; 2/ l'étude paléosismologique et morphométrique détaillée de la zone du segment d'Artanish-Tskhuk de la faille de Pambak-Sevan-Syunik (PSSF). On présente l'analyse et la comparaison des vitesses de déformations estimées par les données de GPS et par les données paléosismologiques et morphométriques. Le réseau d'observations GPS Arméno - Français a été installé en Arménie en septembre 1998. Trois campagnes de mesure du réseau ont été réalisées en 1998, 2000 et 2003. L'analyse détaillée du champ de vitesse à partir des données GPS a permis d'étudier et de quantifier les déformations actuelles de l'Arménie centrale et septentrionale. On a pu estimer les vitesses des déplacements des failles actives principales du territoire de l'Arménie. Un ensemble de travaux sur le terrain comprenant des recherches paléosismologiques, archéosismologiques, archéologiques, géodésiques, et morphologiques a été réalisé entre 2003 et 2005 dans la zone du segment d'Artanish-Tskhuk de la faille de PSSF. La cartographie détaillée de la faille a été réalisée et l'on a estimé et/ou re-estimés les déplacements horizontaux et verticaux le long de la faille. Quatre paléo- et archéoséismes ont été étudiés et datés. À partir des données obtenues, pour le segment d'Artanish-Tskhuk de la faille de PSSF, on a réévalué les vitesses de déplacements, la magnitude maximale possible, et l'intervalle récurrence des séismes forts. Une méthode d'évaluation des déplacements horizontaux et verticaux a été proposée à partir des logs de tranchées sur les failles de décrochements associées à des paléoséismes.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Plu, Matthieu. « Représentation numérique et mathématique des structures météorologiques cohérentes d'échelle synoptique ». Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00286510.

Texte intégral
Résumé :
Les phénomènes météorologiques d'échelle synoptique peuvent s'expliquer par les interactions non linéaires entre structures d'amplitude finie, et leur environnement. Ce cadre d'étude, qui ne repose pas sur les hypothèses difficilement justifiables des théories d'instabilité, nécessite de pouvoir représenter de façon objective ces structures cohérentes, nommées ainsi par analogie avec les écoulements turbulents.
L'objectif principal de cette thèse est de bâtir et d'évaluer un algorithme d'extraction des structures cohérentes d'échelle synoptique. Elles sont recherchées dans le seul champ de tourbillon potentiel, qui est inversible dans l'atmosphère sèche. L'attribution des autres champs dynamiques à la structure est ainsi rendue possible après inversion. L'extraction repose sur la projection des champs bidimensionnels sur un ensemble de bases d'ondelettes orthogonales. Une base optimale est associée à chaque structure ; pour éviter la redondance entre les structures, une technique d'orthogonalisation a été mise au point. La comparaison de l'extraction avec une méthode non objective est possible grâce à un nouveau critère de cohérence temporelle, qui repose sur l'indépendance de l'évolution de l'environnement.
L'extraction est appliquée à plusieurs phénomènes d'échelle synoptique : un précurseur d'altitude haute-fréquence, un rapide de courant-jet et des champs d'altitude associés à des épisodes précipitants en Méditerranée. Ces études montrent la pertinence dynamique des structures extraites et dégagent des perspectives d'utilisation de l'algorithme. On aborde aussi sa possible application à la mise en place d'une prévision d'ensemble à courte échéance des tempêtes.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Monteil, Céline. « Estimation de la contribution des principaux aquifères du bassin versant de la Loire au fonctionnement hydrologique du fleuve à l'étiage ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00677056.

Texte intégral
Résumé :
La connaissance de l'évolution des débits d'étiage de la Loire intéresse différents usagers : agglomérations, agriculteurs et industriels. La production d'électricité est une activité industrielle majeure du bassin : quatre sites nucléaires utilisent l'eau de la Loire comme source froide. Les débits d'étiage de la Loire sont dépendants des apports des principaux aquifères de son bassin versant. Trois aquifères superposés sont considérés couvrant une surface de 38 000 km² : calcaires de Beauce, craie séno-turonienne et sables cénomaniens. Un modèle hydrogéologique distribué est mis en œuvre (code Eau-Dyssée). Cinq modules couplés simulent respectivement le bilan hydrique en surface, le routage de l'eau sur les versants, le routage en rivière, le transfert en zone non-saturée et les écoulements souterrains. Le modèle est calé sur une période de 10 ans, validé sur une autre période de 10 ans, puis testé sur 35 ans. Une méthode hybride de calage, couplant inversion automatique et calage manuel, a été développée pour caler le champ de transmissivités de l'aquifère de Beauce. Les autres couches sont calées par essais et erreurs. Le modèle ajusté permet de bien simuler les débits et piézométries observés sur l'ensemble du domaine sur les 35 années avec une RMSE globale des écarts piézométriques de 2,86 m sur 197 piézomètres et des critères de Nash aux stations en Loire tous supérieurs à 0,9. Ce modèle est utilisé pour analyser le fonctionnement hydrologique du bassin à différentes échelles de temps. Les apports des nappes cumulés sur le linéaire de la Loire à l'étiage sont estimés à 15 m3/s en moyenne entre 1975 et 2008. Les premières estimations de l'impact du changement climatique indiquent une baisse des apports moyens de 8 à 50% à horizon 2100 pour les quatre projections climatiques traitées.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie