Dissertations / Theses on the topic 'Métodos de estimación bayesiana'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Métodos de estimación bayesiana.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Jaras, Castaños Ismael Sebastián. "Métodos avanzados para la evaluación del desempeño de algoritmos de estimación y pronóstico basados en métodos secuenciales de Monte Carlo." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/147363.
Full textDiagnosticar y pronosticar la evolución del estado de un sistema dinámico es un problema complejo que desde hace algún tiempo ha comenzado a tomar más fuerza y relevancia dentro de la ingeniería. En este sentido, la comunidad de Prognostics and Health Management, ha escogido a los algoritmos basados en métodos Secuenciales de Monte Carlo (SMC) como los algoritmos de facto del estado-del-arte, por su capacidad de aproximar el filtrado óptimo cuando se estudia un sistema no-lineal y con incertidumbre no necesariamente Gaussiana. Sin embargo, el costo a pagar por estos algoritmos es la complejidad computacional que requieren para generar sus resultados, lo que sugiere obtener versiones simplificadas de estos algoritmos -en desmedro de la calidad de los resultados- que puedan resolver el problema en tiempo real y con el objetivo de ser implementados en sistemas embebidos. De acuerdo con lo expresado, nace la necesidad de desarrollar un marco de trabajo que posibilite la comparación de algoritmos basados en el enfoque secuencial de Monte Carlo y que permita, por una parte, incluir las variaciones estadísticas inherentes de estos algoritmos, como también la implementación de medidas que incorporen la caracterización probabilística de la evolución del estado del sistema y, de esta forma, cuantificar la degradación en la calidad de los resultados producto de las simplificaciones. Es común observar comparaciones entre diferentes aproximaciones al método secuencial de Monte Carlo mediante medidas como el MSE, o momentos de las distribuciones, pero, ¿logran estas medidas incorporar la descripción probabilística que se asume como caracterización de la evolución del estado?. En el presente trabajo de Tesis se aborda esta interrogante y se utiliza como punto de partida para el desarrollo de un método de comparación que desafía la forma actual en la que se contrastan las diferentes aproximaciones a SMC. El método propuesto incluye el desarrollo de un marco comparativo -mediante el análisis PACC- donde se toma en cuenta el comportamiento estocástico propio de los algoritmos basados en SMC, por lo que es posible estimar el máximo error teórico en el que incurren distintas aproximaciones. Además, para abarcar la descripción estadística que generan los algoritmos sobre la evolución del estado del sistema, se introducen medidas de la información para cuantificar el desempeño de distintas aproximaciones y, de esta manera, estimar el máximo error teórico incorporando toda la información sobre la descripción estadística del proceso. En particular, para la implementación y análisis de la metodología propuesta en esta Tesis, se utiliza la estrategia comparativa para estudiar el desempeño de distintas aproximaciones de SMC al problema de estimar y pronosticar el estado de carga en baterías de Ion-Litio. Se muestra la factibilidad de obtener un algoritmo de referencia para ambos casos. Además, se concluye acerca del algoritmo más preciso computacionalmente, en cuanto a pérdida de información y representación de la incertidumbre.
Este trabajo a sido parcialmente financiado por Proyecto CONICYT FONDECYT 1140774
Acuña, Pagliero Javier Ignacio. "Aplicación de técnicas de filtrado Bayesiano para detección de exoplanetas y estimación de sus masas." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116503.
Full textLa última década de investigación planetaria extrasolar ha permitido determinar de manera concluyente la existencia de planetas fuera de nuestro propio sistema planetario. Más aún, se posee evidencia de que estos son de variadas formas y que el sistema solar no es único en su especie. A la fecha, la técnica más exitosa para la detección de exoplanetas ha sido la de velocidades radiales, midiendo el efecto Doppler inducido por la fuerza gravitacional de un planeta orbitando alrededor de una estrella. Utilizando esta metodología los investigadores han sido capaces de inferir la presencia de exoplanetas orbitantes, confirmando además la inmensa mayoría de los que se conocen actualmente; generando resultados concluyentes a un ritmo acelerado. En el presente Trabajo de Título se ha propuesto la utilización de técnicas de inferencia Bayesiana para la detección de exoplanetas, a partir de datos de velocidad radial simulados. Se ha planteado además estudiar las limitantes intrínsecas asociadas al instrumento de observación, modelando su rango de error y obteniendo una medida del intervalo en donde es posible lograr la detección. Finalmente, a partir de la información obtenida y la utilizando técnicas de filtrado secuencial se consigue una estimación de la masa del planeta extrasolar. Dadas las simplificaciones consideradas durante la realización de este estudio se considera que los resultados obtenidos implican un avance inicial en la solución de un problema que posee una envergadura muy amplia, pero resultan significativos a la hora de abordarlo en mayor profundidad. Se logró de manera satisfactoria la simulación de los datos necesarios para el trabajo y la implementación de la metodología de detección de exoplanetas, junto con la obtención de la curva que define las limitantes del mismo proceso. Luego, haciendo uso de los Métodos Secuenciales de Monte Carlo fue posible estimar de manera certera la masa del planeta bajo los distintos parámetros orbitales, analizando también los casos límites de importancia.
Ferroni, Filippo. "Essay on Bayesian Estimation of DSGE Models." Doctoral thesis, Universitat Pompeu Fabra, 2009. http://hdl.handle.net/10803/7397.
Full textThis thesis examines three different policy experiments using Bayesian estimates of DSGE models. First, we show that countercyclical fiscal policies are important to smooth fluctuations and that this is true regardless of how we specify the fiscal rule and several details of the model. Second, we show that the sources of output volatility obtained from a cyclical DSGE model crucially depend on whether estimation is done sequentially or jointly. In fact, while with a two step procedure, where the trend is first removed, nominal shocks drive output volatility, investment shocks dominate when structural and trend parameters are estimated jointly. Finally, we examine the role of money for business cycle fluctuations with a single and a multiple filtering approach, where information provided by different filters is jointly used to estimate DSGE parameters. In the former case, money has a marginal role for output and inflation fluctuations, while in the latter case is important to transmit cyclical fluctuations.
Dallari, Pietro. "DSGEs and PVARs: applications to macroeconomics." Doctoral thesis, Universitat Pompeu Fabra, 2014. http://hdl.handle.net/10803/146249.
Full textEsta tesis adopta modelos DSGE y PVAR para examinar tres preguntas de macroeconomía. El primer capítulo identifica algunas dificultades que enfrentan los modelos DSGE cuando se supone que una fracción de consumidores sea de tipo rule-of-thumb con el fin de replicar la respuesta positiva del consumo a los shocks de gasto público que se observa en los modelos SVAR. El segundo capítulo cuantifica la importancia del canal de turismo para la transmisión internacional de las fluctuaciones cíclicas en la cuenca mediterránea. Se demuestra que, ausentes los flujos de turismo, los efectos sobre el producto en un país mediterráneo sería un cuarto menor. El tercer capítulo examina el impacto de los shocks de austeridad en los mercados laborales de la zona Euro. Encontramos que las respuestas de las variables del mercado laboral difieren entre los países, no obstante multiplicadores de producción similares. Las cuasas parecen estar relacionadas con reformas institucionales y planes de política económica dedicados que fomentan el vínculo entre los impulsos fiscales y del mercado laboral nacional.
Ortego, Martínez María Isabel. "Estimación bayesiana de cópulas extremales en procesos de Poisson." Doctoral thesis, Universitat Politècnica de Catalunya, 2015. http://hdl.handle.net/10803/286786.
Full textLa estimación de probabilidades de ocurrencia de cantidades extremales es imprescindible en el estudio de la peligrosidad de fenómenos naturales. Las cantidades extremales de interés suelen corresponder a fenómenos caracterizados por dos o más magnitudes, que en muchos casos son dependientes entre sí. Por tanto, para poder caracterizar mejor las situaciones que pudieran resultar peligrosas, se deben estudiar conjuntamente las magnitudes que describen el fenómeno. Se ha establecido un modelo Poisson-GPD que permite describir la ocurrencia de los sucesos extremales y sus tamaños marginales: la ocurrencia de los sucesos extremales se representa mediante un proceso de Poisson y cada suceso se caracteriza por un tamaño modelado según una distribución generalizada de Pareto, GPD. La dependencia entre sucesos se modeliza mediante funciones cópula: se utiliza una familia de cópulas Gumbel, adecuada al tipo de datos, y se introduce un nuevo tipo de cópula, la cópula CrEnC. La cópula CrEnC minimiza la información mutua en situaciones donde se dispone de información parcial en forma de restricciones, tales como los modelos marginales o momentos conjuntos de las variables. La representación de estas cópulas en R^2 permite mejorar tanto su estima como la apreciación de la bondad de ajuste a los datos. Se proporciona un algoritmo de estimación de cópulas CrEnC, que incluye una aproximación de las funciones normalizadoras mediante el método Montecarlo. En este contexto los datos suelen ser escasos, por lo que la incertidumbre en la estimación del modelo será elevada. Se ha establecido un proceso de estimación bayesiana de los parámetros, la cual permite tener en cuenta esta incertidumbre. La bondad de ajuste de diversos aspectos del modelo (bondad de ajuste GPD, hipótesis GPD-Weibull y bondad de ajuste global) se ha valorado mediante una selección de p-valores bayesianos, los cuales incorporan la incertidumbre de la estimación de los parámetros. Una vez estimado el modelo, se realiza un post-proceso de la información, donde se obtienen cantidades a posteriori de interés, como probabilidades de excedencia de valores de referencia o periodos de retorno de sucesos de un tamaño determinado. El modelo propuesto se aplica a tres conjuntos de datos de características diferentes. Se obtienen buenos resultados: las cópulas CrEnC introducidas representan correctamente la dependencia en situaciones en las que sólo se dispone de información parcial y la estimación bayesiana de los parámetros del modelo proporciona valor añadido a los resultados, ya que permite evaluar la incertidumbre de las estimaciones y tenerla en cuenta al obtener las cantidades a posteriori deseadas
Chahuara, Vargas Paulo Roberto. "Estimación bayesiana de efectos de red: el modelo Logit mixto." Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9449.
Full textTesis
Ortiz, Abarcia Mario Sergio. "Estimación de recursos recuperables por condicionamiento uniforme." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112539.
Full textLas técnicas geoestadísticas permiten cuantificar las leyes de especies de interés, subproductos y contaminantes dentro de depósitos minerales. Comúnmente estas técnicas se basan en una hipótesis de estacionaridad (homogeneidad espacial), la cual puede no ser pertinente al depósito considerado. Una técnica poco usada es el condicionamiento uniforme, la cual condiciona la estimación de leyes a la ley del panel, supuestamente conocida, y entrega la distribución de probabilidad de la ley de un bloque elegido aleatoriamente dentro de dicho panel. En el presente trabajo se busca aplicar el método del condicionamiento uniforme, validarlo contra resultados de simulaciones condicionales y extenderlo al caso bivariable. La base de datos del estudio corresponde a testigos de sondajes en yacimiento cuprífero, con información de coordenadas y leyes de cobre y arsénico en los puntos muestreados. En el trabajo son considerados cuatro casos de estudio: condicionamiento uniforme con leyes de panel calculadas por kriging o co-kriging y condicionamiento uniforme con leyes de panel calculadas al promediar un conjunto de simulaciones o co-simulaciones. Estos dos últimos casos se utilizan para hacer una comparación más robusta entre la simulación y el condicionamiento uniforme. La aplicación del condicionamiento uniforme al caso univariable (ley de cobre) da resultados coherentes con la simulación, ya que las curvas tonelaje-ley obtenidas de ambas técnicas se asemejan. En cambio, al aplicar el condicionamiento uniforme al caso bivariable y contrastar los resultados con los de la co-simulación, se aprecia una diferencia significativa en las curvas tonelaje-ley cuando se considera una restricción sobre la ley de arsénico baja (arsénico menor a 100, 200 ó 300 ppm). Sin embargo, al aliviar la restricción sobre la ley de arsénico, las curvas obtenidas por condicionamiento uniforme se asemejan más a aquellas obtenidas por co-simulación, pero la restricción de ley de arsénico debe ser tan holgada que resulta ser prácticamente un caso univariable en paneles de baja a mediana ley de arsénico. En base a estos resultados, se recomienda usar el condicionamiento uniforme univariable en etapas tempranas de estimación, cuando la malla de muestreo es amplia, puesto que es ilusorio buscar el detalle bloque a bloque. Por esta razón el condicionamiento uniforme surge como una alternativa de estimación mucho más rápida que la simulación y adecuada cuando existen problemas de estacionaridad. Por otro lado para el caso bivariable, no se recomienda el uso del condicionamiento uniforme, ya que no entrega resultados comparables con aquellos obtenidos por co-simulación, probablemente debido a que modela la dependencia entre las variables en estudio de una forma diferente.
Díaz, Martínez Miguel Ángel, Luis Martín Aromí, and Martínez Domingo Galán. "Modelos de confiabilidad de software : comparación de enfoques de estimación." Pontificia Universidad Católica del Perú, 2013. http://repositorio.pucp.edu.pe/index/handle/123456789/97115.
Full textVergara, Bustos Diego Rolando. "Estimación multivariable y sesgo condiciona." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/114457.
Full textEl insesgo condicional es una propiedad deseada en un modelo de estimación de recursos. Esta propiedad indica que los recursos (leyes, tonelaje y metal) recuperados sobre cierta ley de corte, son iguales a los recursos estimados. Los estimadores geoestadísticos como el kriging generalmente producen estimaciones condicionalmente insesgados, dependiendo del tamaño y diseño de la vecindad de búsqueda. Poco se conoce sobre el sesgo condicional en un contexto multivariable, cuando el interés recae en la estimación conjunta de varias especies minerales. Para abordar este problema se analiza un caso de estudio correspondiente a un yacimiento ubicado en el norte de Chile. Los datos consisten en muestras de testigos de sondajes, con información sobre las leyes de cobre y arsénico. Estas leyes se encuentran altamente correlacionadas debido a que la mineralización ocurre principalmente en forma de enargita y tenantita. Además, a diferencia del cobre, falta la información de arsénico en algunos puntos de muestreo, lo que hace que el enfoque multivariable (cokriging) particularmente adecuado para esta estimación de recursos. La metodología considera los siguientes pasos. Primero las leyes de cobre y de arsénico son simuladas de manera conjunta, para crear modelos de referencias con los cuales se harán las comparaciones. Luego, usando las muestras de sondajes, las leyes serán estimadas separadamente mediante kriging y en conjunto mediante cokriging, usando una vecindad móvil que considera distintos números de datos en cada estimación. También son consideradas estimaciones mediante media de simulaciones y de cosimulaciones. Finalmente, el sesgo condicional es cuantificado aplicando leyes de corte de cobre o de arsénico (o de ambas especies) para mostrar la dependencia entre las variables estimadas. Para cuantificar el sesgo condicional se utilizan dos curvas, la primera muestra la ley media (estimada y real) en función de la ley de corte y la segunda muestra el tonelaje (estimado y real) en función de la ley de corte. Los resultados indican que el sesgo condicional es considerable cuando la vecindad tiene pocos datos, independiente del tipo de estimación (kriging o cokriging). También se observa una disminución del sesgo condicional cuando se utiliza cokriging en vez de kriging. Las estimaciones realizadas mediante simulación y cosimulación muestran un bajo sesgo condicional.
Clavería, Vega Rubén Matías. "Filtrado bayesiano para estimación de parámetros orbitales en estrellas binarias visuales." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137156.
Full textLa masa es la propiedad más crítica de una estrella, ya que determina en gran medida su estructura y evolución. Se estima que un porcentaje mayoritario de las estrellas observadas en el cielo corresponde no a estrellas individuales sino a sistemas estelares múltiples. El estudio del movimiento relativo entre los componentes de un sistema estelar es la principal herramienta para calcular masas estelares; de hecho, la mayor parte de las estrellas fuera del Sistema Solar cuya masa ha podido ser determinada de manera directa corresponde a estrellas binarias ─sistemas compuestos por dos estrellas ligadas gravitacionalmente─. De esta manera, los sistemas estelares múltiples constituyen la base observacional de la teoría de estructura y evolución estelar. Dadas las características y el volumen de las observaciones astronómicas, es necesario que los métodos computacionales utilizados en el estudio de sistemas estelares múltiples sean automáticos y robustos frente a la existencia de ruido de observación, brechas temporales y pérdida de datos. Con esta motivación, el presente Trabajo de Título propone y evalúa un método de estimación automática de elementos orbitales (y con ello, de la masa total) para estrellas binarias visuales. La herramienta desarrollada utiliza un enfoque Bayesiano, planteando un esquema de estimación basado en Filtro de Partículas. En este esquema, los parámetros orbitales son formulados como un vector de estado que evoluciona a través del tiempo ─concepto conocido como Evolución Artificial de Parámetros─ y la función de verosimilitud corresponde a la caracterización estadística del error cuadrático medio del conjunto de observaciones de posición relativa en el plano del cielo. A fin de reducir la dimensionalidad del problema, se utiliza la representación de Thiele-Innes para la descripción de las órbitas. El método propuesto es probado sobre datos artificiales basados en el sistema estelar Sirius, con diferentes niveles de cobertura de órbita y error de observación característico. En la mayor parte de los casos estudiados, el método logra estimar los elementos orbitales con gran exactitud y precisión ─mejor en la medida que el error observacional característico disminuye y la cobertura de la órbita aumenta─; sin embargo, se lograron identificar casos límite en que, sin importar la calidad de los datos, los parámetros orbitales estimados presentan un error significativo (a pesar de generar órbitas concordantes con las observaciones). Finalmente, se muestra que el algoritmo desarrollado permite no sólo obtener un estimador ─un valor puntual dentro del espacio paramétrico─, sino también caracterizar la distribución a posteriori de los parámetros orbitales.
Abanto, Orihuela Juan Carlos. "Estabilidad sistémica y riesgo de crédito: estimación mediante datos de panel y técnica bayesiana." Master's thesis, Pontificia Universidad Católica del Perú, 2021. http://hdl.handle.net/20.500.12404/20335.
Full textBernardo, Jose M. "Análisis de datos y métodos bayesianos." Pontificia Universidad Católica del Perú, 2013. http://repositorio.pucp.edu.pe/index/handle/123456789/95635.
Full textSáenz, Egúsquiza Miguel Angel. "Extensión al modelo DINA reparametrizado con covariable." Master's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17324.
Full textTesis
Galecio, Valdés Juan Enrique. "Métodos de Aforo para la Estimación de la Recarga de Acuíferos." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104656.
Full textBuscaglione, Blu Valentina Andrée. "Aplicación de truncación para la estimación de leyes." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/142074.
Full textLa presente investigación busca establecer la aplicabilidad que tiene truncación en la estimación de leyes de recursos minerales; ya que cuando dicha estimación se realiza con valores muy altos, se produce una falta de robustez en análisis variográfico y/o en estimaciones generando cifras consideradas erróneas y que finalmente son omitidas. En los casos donde estos datos no se consideran errados, la situación suele resolverse mediante truncación, que consiste en truncar los valores considerados demasiado altos. Esta técnica, sin embargo, implica una subestimación de los recursos del yacimiento, y la omisión de parte de los datos podría generar sesgo. Por ello es que se probó y validó la implementación de dos metodologías de truncación, y el método tradicional a una base de datos sintética y a una real. Para el caso sintético, se creó una base de datos con la finalidad de comparar las diferencias entre los valores estimados con cada método con el valor real. Para el caso real, se utilizó una base de datos de un cuerpo mineralizado que contenía tanto cobre como molibdeno. Los resultados de las estimaciones se compararon considerando diferencias principalmente en sesgo y precisión. Los métodos que se evaluaron correspondieron al kriging ordinario, truncación simple con un posterior kriging ordinario y una metodología de truncación mejorada que considera un exceso sobre la ley de truncación. En el caso sintético, los resultados mostraron que la metodología tradicional presentó un mejor ajuste. Esto puede deberse principalmente a que la distribución de la base de datos no es de cola pesada , es decir, con muchos valores extremos, lo que implica un mayor número de valores a truncar. Además, para el método mejorado no se observó mayor facilidad al momento de realizar el análisis variográfico, por lo que no se justifica su utilización en este tipo de bases de datos. A pesar de esto, ambas metodologías que aplican truncación demuestran ser insesgadas y precisas. Para el caso real, se obtienen resultados diferentes para el cobre y para el molibdeno. En cuanto al cobre, ambos métodos truncados presentaron mejor precisión y menor sesgo con una baja diferencia entre ellos. Para el molibdeno, en cambio, la metodología tradicional mostró un mejor ajuste, lo que puede estar relacionado con la variablidad que muestran los correlogramas cruzados, la dificultad en el análisis variográfico o bien por la posible falta de estacionaridad de la variable en estudio. Por lo tanto, para el caso real la aplicación de métodos con truncación da como resultado estimaciones más precisas y menos sesgadas. La base de datos presenta distribuciones de cola pesada , lo que permite que la aplicación de truncación resulte útil al momento de estimar. La utilización de métodos con truncación es una herramienta útil a la hora de estimar recursos minerales en presencia de una cantidad considerable de valores extremos, ya que facilita el análisis variográfico para al menos el caso de la truncación simple. Sin embargo, con una base de datos de distribución lognormal que no incluye una cantidad considerable de valores extremos, es recomendable la utilización de la metodología tradicional, a pesar de que los métodos con truncación demuestren ser precisos e insesgados.
Este trabajo ha sido parcialmente financiado por AMTC y CONICYT
Navarro, Huamaní Luis Alberto. "Estimación Bayesiana para la volatilidad de la tasa de intercambio del Nuevo Sol versus Dólar Americano." Universidad Nacional de Ingeniería. Programa Cybertesis PERÚ, 2004. http://cybertesis.uni.edu.pe/uni/2004/navarro_hl/html/index-frames.html.
Full textBustamante, Muñoz Pamela Francisca. "Comparación de métodos de estimación del consumo aparente de carne de cerdo." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136975.
Full textEl consumo aparente permite estimar lo consumido por una población en un tiempo determinado, utilizando para esto los valores de producción y de comercio internacional (importaciones y exportaciones). Con el paso de los años la industria de la carne de cerdo ha sufrido cambios con el fin de atender las nuevas necesidades del consumidor. Como resultado, hoy ofrece productos con cortes listos, deshuesados o sometidos a procesos como ahumado o salado entre otros, incrementado notoriamente sus importaciones y exportaciones. Este nuevo escenario obliga a generar cambios en la estimación del consumo aparente, ya que ahora no solo se exportan e importan canales, sino cortes y alimentos procesados que requieren ser convertidos a una unidad común. En vista que el método de estimación del consumo aparente en Chile no cuenta con las herramientas para determinar el valor correcto de estos productos, se hace necesario establecer un método que si lo permita. El presente estudio busca encontrar en otros países un método que permita reflejar el consumo aparente de carne de cerdo en Chile de forma más precisa. Los resultados de este estudio indican que existe una variación de hasta 3,4 kg per cápita de carne de cerdo entre los métodos analizados. Dentro de las principales causas de esto estaría, la diferencia en los cortes incluidos en la definición de canal de cada país y, la cantidad y variabilidad de factores de conversión aplicados a estos cortes.
Bernardini, Diego Fernando de 1986. "Inferencia Bayesiana para valores extremos." [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/307585.
Full textDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica
Made available in DSpace on 2018-08-15T01:44:09Z (GMT). No. of bitstreams: 1 Bernardini_DiegoFernandode_M.pdf: 1483229 bytes, checksum: ea77acd21778728138eea2f27e59235b (MD5) Previous issue date: 2010
Resumo: Iniciamos o presente trabalho apresentando uma breve introdução a teoria de valores extremos, estudando especialmente o comportamento da variável aleatória que representa o máximo de uma sequência de variáveis aleatórias independentes e identicamente distribuídas. Vemos que o Teorema dos Tipos Extremos (ou Teorema de Fisher-Tippett) constitui uma ferramenta fundamental no que diz respeito ao estudo do comportamento assintóticos destes máximos, permitindo a modelagem de dados que representem uma sequência de observações de máximos de um determinado fenômeno ou processo aleatório, através de uma classe de distribuições conhecida como família de distribuições de Valor Extremo Generalizada (Generalized Extreme Value - GEV). A distribuição Gumbel, associada ao máximo de distribuições como a Normal ou Gama entre outras, é um caso particular desta família. Torna-se interessante, assim, realizar inferência para os parâmetros desta família. Especificamente, a comparação entre os modelos Gumbel e GEV constitui o foco principal deste trabalho. No Capítulo 1 estudamos, no contexto da inferência clássica, o método de estimação por máxima verossimilhança para estes parâmetros e um procedimento de teste de razão de verossimilhanças adequado para testar a hipótese nula que representa o modelo Gumbel contra a hipótese que representa o modelo completo GEV. Prosseguimos, no Capítulo 2, com uma breve revisão em teoria de inferência Bayesiana obtendo inferências para o parâmetro de interesse em termos de sua distribuição a posteriori. Estudamos também a distribuição preditiva para valores futuros. No que diz respeito à comparação de modelos, estudamos inicialmente, neste contexto bayesiano, o fator de Bayes e o fator de Bayes a posteriori. Em seguida estudamos o Full Bayesian Significance Test (FBST), um teste de significância particularmente adequado para testar hipóteses precisas, como a hipótese que caracteriza o modelo Gumbel. Além disso, estudamos outros dois critérios para comparação de modelos, o BIC (Bayesian Information Criterion) e o DIC (Deviance Information Criterion). Estudamos as medidas de evidência especificamente no contexto da comparação entre os modelos Gumbel e GEV, bem como a distribuição preditiva, além dos intervalos de credibilidade e inferência a posteriori para os níveis de retorno associados a tempos de retorno fixos. O Capítulo 1 e parte do Capítulo 2 fornecem os fundamentos teóricos básicos deste trabalho, e estão fortemente baseados em Coles (2001) e O'Hagan (1994). No Capítulo 3 apresentamos o conhecido algoritmo de Metropolis-Hastings para simulação de distribuições de probabilidade e o algoritmo particular utilizado neste trabalho para a obtenção de amostras simuladas da distribuição a posteriori dos parâmetros de interesse. No capítulo seguinte formulamos a modelagem dos dados observados de máximos, apresentando a função de verossimilhança e estabelecendo a distribuição a priori para os parâmetros. Duas aplicações são apresentadas no Capítulo 5. A primeira delas trata das observações dos máximos trimestrais das taxas de desemprego nos Estados Unidos da América, entre o primeiro trimestre de 1994 e o primeiro trimestre de 2009. Na segunda aplicação estudamos os máximos semestrais dos níveis de maré em Newlyn, no sudoeste da Inglaterra, entre 1990 e 2007. Finalmente, uma breve discussão é apresentada no Capítulo 6.
Abstract: We begin this work presenting a brief introduction to the extreme value theory, specifically studying the behavior of the random variable which represents the maximum of a sequence of independent and identically distributed random variables. We see that the Extremal Types Theorem (or Fisher-Tippett Theorem) is a fundamental tool in the study of the asymptotic behavior of those maxima, allowing the modeling of data which represent a sequence of maxima observations of a given phenomenon or random process, through a class of distributions known as Generalized Extreme Value (GEV) family. We are interested in making inference about the parameters of this family. Specifically, the comparison between the Gumbel and GEV models constitute the main focus of this work. In Chapter 1 we study, in the context of classical inference, the method of maximum likelihood estimation for these parameters and likelihood ratio test procedure suitable for testing the null hypothesis associated to the Gumbel model against the hypothesis that represents the complete GEV model. We proceed, in Chapter 2, with a brief review on Bayesian inference theory. We also studied the predictive distribution for future values. With respect to the comparison of models, we initially study the Bayes factor and the posterior Bayes factor, in the Bayesian context. Next we study the Full Bayesian Significance Test (FBST), a significance test particularly suitable to test precise hypotheses, such as the hypothesis characterizing the Gumbel model. Furthermore, we study two other criteria for comparing models, the BIC (Bayesian Information Criterion) and the DIC (Deviance Information Criterion). We study the evidence measures specifically in the context of the comparison between the Gumbel and GEV models, as well as the predictive distribution, beyond the credible intervals and posterior inference to the return levels associated with fixed return periods. Chapter 1 and part of Chapter 2 provide the basic theoretical foundations of this work, and are strongly based on Coles (2001) and O'Hagan (1994). In Chapter 3 we present the well-known Metropolis-Hastings algorithm for simulation of probability distributions, and the particular algorithm used in this work to obtain simulated samples from the posterior distribution for the parameters of interest. In the next chapter we formulate the modeling of the observed data of maximum, presenting the likelihood function and setting the prior distribution for the parameters. Two applications are presented in Chapter 5. The first one deals with observations of the quarterly maximum for unemployment rates in the United States of America, between the first quarter of 1994 and first quarter of 2009. In the second application we studied the semiannual maximum of sea levels at Newlyn, in southwest of England, between 1990 and 2007. Finally, a brief discussion is presented in Chapter 6.
Mestrado
Estatistica
Mestre em Estatística
Ruíz, Arias Raúl Alberto. "Un enfoque de credibilidad bajo espacios de Hilbert y su estimación mediante modelos lineales mixtos." Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4474.
Full textTesis
Carvalho, Dennison Célio de Oliveira. "Abordagem bayesiana para polinômios fracionários." Botucatu, 2019. http://hdl.handle.net/11449/181746.
Full textResumo: Em inúmeras situações práticas a relação entre uma variável resposta e uma ou mais covariáveis é curvada. Dentre as diversas formas de representar esta curvatura, Royston e Altman (1994) propuseram uma extensa famı́lia de funções denominada de Polinômios Fracionários (Fractional Polynomials - FP ). Bové e Held (2011) im- plementaram o paradigma bayesiano para FP sob a suposição de normalidade dos erros. Sua metodologia é fundamentada em uma distribuição a priori hiper − g (Liang et al., 2008), que, além de muitas propriedades assintóticas interessantes, garante uma predição bayesiana de modelos consistente. Nesta tese, compara-se as abordagens clássica e Bayesiana para PF a partir de dados reais disponı́veis na litera- tura, bem como por simulações. Além disso, propõem-se uma abordagem Bayesiana para modelos FPs em que a potência, diferentemente dos métodos usuais, pode as- sumir qualquer valor num determinado intervalo real e é estimada via métodos de simulação HMC (Monte Carlo Hamiltoniano) e MCMC (Métodos de Monte Carlo via Cadeias de Markov). Neste modelo, para o caso de um FP de segunda ordem, ao contrário dos modelos atualmente disponı́veis, apenas uma potência é estimada. Avalia-se este modelo a partir de dados simulados e em dados reais, sendo um deles com transformação de Box-Cox.
Abstract: In many practical situations the relationship between the response variable and one or more covariates is curved. Among the various ways of representing this curvature, Royston and Altman (1994) proposed an extended family of functions called Fractional Polynomials (FP). Bov´e and Held (2011) implemented the Bayesian paradigm for FP on the assumption of error normality. Their methodology is based on a hyperg prior distribution, which, in addition to many interesting asymptotic properties, guarantees a consistent Bayesian model average (BMA). In addition, a Bayesian approach is proposed for FPs models in which power, unlike the usual methods, can obtain any numerical real interval value and is estimated via HMC (Monte Carlo Hamiltonian) and MCMC (Markov chain Monte Carlo). In this model, in the case of a second-order FP, unlike the currently available models, only one power is estimated. This model is evaluated from simulated data and real data, one of them with Box-Cox transformation.
Doutor
Hartmann, Marcelo. "Métodos de Monte Carlo Hamiltoniano na inferência Bayesiana não-paramétrica de valores extremos." Universidade Federal de São Carlos, 2015. https://repositorio.ufscar.br/handle/ufscar/4601.
Full textIn this work we propose a Bayesian nonparametric approach for modeling extreme value data. We treat the location parameter _ of the generalized extreme value distribution as a random function following a Gaussian process model (Rasmussem & Williams 2006). This configuration leads to no closed-form expressions for the highdimensional posterior distribution. To tackle this problem we use the Riemannian Manifold Hamiltonian Monte Carlo algorithm which allows samples from the posterior distribution with complex form and non-usual correlation structure (Calderhead & Girolami 2011). Moreover, we propose an autoregressive time series model assuming the generalized extreme value distribution for the noise and obtained its Fisher information matrix. Throughout this work we employ some computational simulation studies to assess the performance of the algorithm in its variants and show many examples with simulated and real data-sets.
Neste trabalho propomos uma abordagem Bayesiana não-paramétrica para a modelagem de dados com comportamento extremo. Tratamos o parâmetro de locação _ da distribuição generalizada de valor extremo como uma função aleatória e assumimos um processo Gaussiano para tal função (Rasmussem & Williams 2006). Esta situação leva à intratabilidade analítica da distribuição a posteriori de alta dimensão. Para lidar com este problema fazemos uso do método Hamiltoniano de Monte Carlo em variedade Riemanniana que permite a simulação de valores da distribuição a posteriori com forma complexa e estrutura de correlação incomum (Calderhead & Girolami 2011). Além disso, propomos um modelo de série temporal autoregressivo de ordem p, assumindo a distribuição generalizada de valor extremo para o ruído e determinamos a respectiva matriz de informação de Fisher. No decorrer de todo o trabalho, estudamos a qualidade do algoritmo em suas variantes através de simulações computacionais e apresentamos vários exemplos com dados reais e simulados.
Garrido, Rodríguez Felipe Andrés. "Modelamiento de volúmenes geológicos basado en la estimación y simulación estocástica de distancias al contacto." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139846.
Full textEl modelamiento geológico es uno de los primeros pasos en la estimación de recursos en un yacimiento. Este modelamiento se realiza a partir de una interpolación basada en un número limitado de muestras obtenidas en sondajes y tiene por objetivo reproducir de la manera más exacta lo que ocurre en el subsuelo. Esta representación es de suma importancia debido a que influye directamente sobre la toma de decisiones y, por lo tanto, en la metodología para explotar el yacimiento, la rentabilidad y otros asuntos operacionales. El objetivo de este trabajo es implementar una nueva metodología para el modelamiento de cuerpos geológicos utilizando geoestadística para estimar y simular la distancia de las muestras al contacto entre el cuerpo mineralizado y la roca caja que lo contiene. Esta nueva metodología permite incorporar información interpretativa o blanda, en los algoritmos de estimación mediante kriging ordinario y simulación secuencial gaussiana. El trabajo consistió en modificaciones a GSLIB, ésta es una librería que contiene los algoritmos más usados en geoestadística. Las rutinas modificadas fueron dos: \textit{kt3d}, que corresponde al algoritmo de kriging, y \textit{sgsim}, que corresponde a la simulación secuencial gaussiana. Estos algoritmos se modificaron para incluir la información blanda en dos modalidades. La primera consiste en sondajes artificiales, o pseudosondajes, creados por el usuario y que explicitan lo que el experto infiere con respecto a la continuidad y conectividad del cuerpo y/o de la roca caja. La segunda es usar direcciones variables, las cuales definen las direcciones de continuidad en el algoritmo. Estas direcciones se utilizan de dos maneras: orientando la búsqueda y el variograma según el campo de direcciones o bien, utilizándolas en una nueva definición de distancia no euclidiana que las incorpora. Los resultados obtenidos, para una prueba en un yacimiento real, muestran una mejora de entre 1% y 5% para el acierto total. Si bien, para dicho indicador es una leve mejora, sigue siendo una mejora, mas aún considerando que el yacimiento no posee plegamientos importantes que permitan explotar todo el potencial de estos algoritmos. De los algoritmos de estudiados, cabe destacar el comportamiento de la simulación utilizando anisotropía variable, pues mostró una mejora importante en la precisión y en el calce con el volumen real del cuerpo, aunque acompañada de una baja considerable en la cobertura. Esta característica hace de este método una buena alternativa para evaluar yacimientos de una manera conservadora, cuando la inversión se ve restringida y el riesgo debe ser el menor posible, es decir, no tanto alcance, pero con gran presición. El uso de estos nuevos algoritmos constituyen una nueva alternativa para el modelamiento, donde el usuario puede asistir con su conocimiento experto, la creación del modelo, sobre todo en yacimientos donde exista estructuras complejas que dificulten el proceso normal. La ventaja de éstos sobre otras técnicas que persiguen el mismo objetivo es lo intuitivo de las ideas detrás de las modificaciones y de la información adicional que se genera. Estos algoritmos contituyen parte del backend de una aplicación que permitirá al usuario interactuar con los datos para guiar el modelamiento de cuerpos geológicos.
Christiansen, Trujillo Andrés Guillermo. "Análisis de influencia bajo inferencia bayesiana en evaluaciones escolares de altas consecuencias." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12356.
Full textTesis
Flores, Velarde Patrick Marcelo. "Análisis comparativo de métodos de estimación de emisiones vehiculares en ambientes urbanos en Lima." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17651.
Full textCurrently, climate change and air quality are two of the major phenomena that affect human wellbeing on planet Earth. The former thrives on ever-growing greenhouse gas (GHG) emissions due to a set of critical human-related activities, including transport. The latter is of critical importance in urban environments, mainly due to the use of fossil fuels for transport and heating and cooling devices. However, the computation of traffic in life-cycle modelling lacks in most cases the effect of speed, acceleration and deceleration, as well as driving behavior in general, on exhaust pollutant emissions. In this context, Lima, located in a temperate desert, is well known to owe most of its air pollution to traffic, as well as its high level of congestion. Therefore, the aim of this study is to develop a method that provides greater precision when calculating emissions from motor vehicles in cities, using the city of Lima as a case study. The methodology applied includes the development of a traffic microsimulation model, from which the speed and acceleration data of each vehicle are obtained for each second of simulation. With this data, exhaust emissions are calculated using an emission modeling software (CMEM), which considers acceleration and deceleration cycles. Once the model and calculation of the emissions are made, emission factors are extracted and a comparison is realized. This comparison is undergone with the first two methods (i.e., Tiers 1 and 2) proposed by the European Environmental Agency’s guide for the calculation of vehicle emissions. These methods are commonly used within the framework of the Life Cycle Assessment (LCA) and it is presumed that they do not adequately reflect total emissions. The results obtained in the comparison confirm that the factors calculated using CMEM are considerably higher in the case of carbon monoxide (CO), but lower in the case of carbon dioxide (CO2) compared to those provided by the European guide. This suggests that acceleration and deceleration processes enhance air quality pollutants in urban environments, fostering the formation of photochemical smog, whereas climate change emissions dwindle. Thus, it is claimed that using European methods, potential harm to human health is overlooked when estimates are made in purely urban environments.
Huamaní, Ñahuinlla Percy. "Estimación no paramétrica para datos con eventos recurrentes." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/15667.
Full textCuando se estudia el análisis de supervivencia generalmente lo hacemos para eventos que ocurren por única vez para cual es muy útil el estimador de Klapan Meier para estimar la función de supervivencia. Sin embargo, cuando tenemos el caso de eventos que ocurren varias veces para un mismo individuo u objeto necesitamos otros estimadores para la función de supervivencia, es ahí donde nacen nuevos conceptos para el análisis de supervivencia como por ejemplo, interocurrencia, tiempos correlacionados, modelos de fragilidad, etc. Para realizar inferencia en este tipo de estudio, debe tener cuidado con los tiempos de interocurrencia ya que muchas veces estos tiempos no son independientes, si no tenemos en cuenta este hecho, se pueden obtenerse estimadores sesgados e ineficientes. En el caso de independencia, podemos usar el Estimador General Limite de Producto (GPLE), por otra parte para modelos con tiempos correlacionados debemos utilizar otros estimadores como Wang-Chang (WC) y modelos de Gamma de Fragilidad (FRMLE). El objetivo que se persigue en este trabajo de investigación, es estimar la función de supervivencia a través de los estimadores no paramétricos para eventos que ocurren más de una vez. La aplicación de los estimadores en la base de datos de Complejo Migratorio Motor (CMM) que fue elaborado por Aalen y Husebye en 1991 y que actualmente se encuentra en la consola de R Project, en dicho base de datos se aplica los estimadores de Wang-Chang y Peña-Strawderman-Hollander de modo independiente, los resultados de ambas estimaciones son muy similares por lo que el método de análisis no afecta en los resultados siempre y cuando los tiempos de interocurrencias son independientes, en el caso de datos con tiempos correlacionados es recomendable sólo utilizar el estimador de Wang-Chang.
Souza, Cillene da Silva Nunes de. "Uso de métodos MCMC para análise Bayesiana de dados de sobrevivência na presença de covariáveis." Universidade de São Paulo, 2001. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-19012018-113133/.
Full textIn this dissertation, we develop a Bayesian analysis for survival medical data with censored observations and in the presence of one or more covariates. In many cases, we can assume a parametrical modal for the lifetime data as na altemative to nonparametrical modais. In many special cases, we need a parametrical regression modal with a more general distribution as a mixture of distributions for the error assuming log-linear modais. In the Bayesian approach, we use MCMC simulation methods (Markov Chain Monte Cano) using the softwares Ox and WinBugs as a computational alternativa to other computational programs.
Tampier, Cotorás Carlos Andrés. "Análisis comparativo de técnicas avanzadas de estimación Bayesiana aplicado al pronóstico del tiempo de descarga de celdas de ion-litio." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/132206.
Full textEl problema de aseguramiento de la autonomía de equipos energizados con baterías es de creciente importancia en la sociedad actual, en la que cada vez más dispositivos y vehículos de diversas clases obtienen de ellas la energía necesaria para su funcionamiento. Por ello resulta imperante conocer el estado de carga y predecir cuándo la batería se descargará, con la mayor precisión y exactitud posible. El objetivo de este trabajo, enmarcado en el proyecto de investigación FONDECYT Regular 1140774, es estudiar, implementar y comparar técnicas de estimación de estado basadas en filtro de partículas y filtro de Kalman unscented, aplicadas al problema de pronóstico del tiempo de descarga de una celda de ion-litio. Para ello se utiliza como base un esquema de filtro de partículas, consistente en módulos tanto estimación, como de pronóstico, y el cual fue programado con anterioridad en el contexto del mismo proyecto. En dicho esquema, se modifica el módulo encargado de la etapa de estimación del estado-de-carga de la batería, incluyendo un diseño de lógica de ajuste de híper-parámetros del ruido del modelo, llamada en forma genérica lazo de corrección externo. Paralelamente, se implementa un filtro de Kalman unscented como alternativa para la reemplazar al filtro de partículas en la misma etapa mencionada. Por último, también a éste se le agrega la mecánica de corrección con lazos externos. Para los métodos sin lazos externos de corrección, el basado en filtro de partículas logra corregir la condición inicial erróneamente supuesta sobre el estado de carga de la celda, aproximándose al estado real con una discrepancia que en general no supera el 4%. Una excepción a lo anterior se produce cuando la diferencia inicial entre el estado supuesto y el real es demasiado grande, en cuyo caso se produce un sesgo en la estimación. Por otro lado, el filtro unscented corrige rápidamente el supuesto inicial erróneo, pero su cómputo del estado se aleja del real cuando se obtienen mediciones poco congruentes con las predicciones generadas por el modelo, alcanzando un error de hasta 8%. La adición de los lazos externos de corrección mejora levemente el desempeño en cuanto al error de estimación del filtro de partículas, pero tiene un notorio impacto positivo en la consistencia de los resultados entre distintas realizaciones del algoritmo. Para el filtro de Kalman unscented, la mejora es significativa y su desempeño se torna superior a todos los demás casos, siempre que el lazo de corrección sea capaz de reducir lo suficiente el ruido de proceso. En cuanto al tiempo de ejecución se obtienen resultados comparables para los distintos esquemas. Se concluye que el filtro de partículas permite trabajar el problema con una mayor tolerancia a la incertidumbre, mientras que si se cuenta con un modelo de batería adecuado, el filtro de Kalman unscented con lazo de corrección externo puede lograr un mejor rendimiento.
Júnior, Claudio José Bordin. "Métodos estatísticos para equalização de canais de comunicação." Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/3/3142/tde-22042007-205845/.
Full textIn this thesis, we propose and analyze blind equalization methods suitable for linear FIR communications channels, focusing on the development of algorithms based on particle filters - recursive methods for approximating Bayesian solutions to stochastic filtering problems. Initially, we propose new equalization methods for signal models with gaussian additive noise that dispense with the need for differentially encoding the transmitted signals, as opposed to the previously existing methods. Next, we extend these algorithms to deal with non-gaussian additive noise by deploying artificial parameter evolution techniques. We next develop new joint blind equalization and decoding algorithms, suitable for convolutionally or block-coded communications systems. Via numerical simulations we show that the proposed algorithms outperform traditional approaches both in terms of mean bit error rate and convergence speed, and closely approach the performance of the optimal (MAP) trained equalizer. Furthermore, we observed that the methods based on deterministic particle filters consistently outperform those based on stochastic approaches, making them preferable when the adopted signal model allows for the analytic marginalization of the unknown channel parameters.
Vergara, Vera Paulina Fernanda. "Evaluación y comparación de cuatro métodos de estimación del volumen vesical en perros mediante ultrasonografía." Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/131726.
Full textEl objetivo de este proyecto fue comparar cuatro métodos de estimación del volumen vesical mediante ultrasonografía en perros, para definir el más exacto. Se evaluaron 21 individuos, en los cuales se utilizaron dos volúmenes de infusión conocidos de suero fisiológico, 3 y 6 ml/Kg. de peso vivo. Ecográficamente se obtuvieron imágenes longitudinales y transversales de cada volumen para cada animal. Luego se analizaron las imágenes para obtener los datos necesarios para los cuatro métodos en estudio (largo, ancho, profundidad longitudinal y profundidad transversal). A continuación se realizó un análisis estadístico con el fin de determinar la exactitud de dichos métodos. Pero al analizar los datos se vio que existía gran variabilidad en el peso de los pacientes, y por ende, en los volúmenes, entonces se compararon los resultados luego de una corrección por peso. Obtenidos los resultados, se llegó a la conclusión de que el método F4 de Eves (1987) fue el único concordante, el más exacto y sin diferencias estadísticamente significativas respecto de los volúmenes reales; incluso después de la corrección por peso. Por ende, podría ser utilizado en la práctica clínica para estimar el volumen vesical en los perros
Ramos, Molina Lina Maria [UNESP]. "Um estudo sobre métodos estatísticos na avaliação da interação genótipo x ambientes em genótipos de arroz (Oryza sativa L.)." Universidade Estadual Paulista (UNESP), 2007. http://hdl.handle.net/11449/92674.
Full textCoordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Análise da interação genótipo x ambiente no melhoramento de plantas tem evoluído bastante na última década pela introdução de novos métodos de análise, melhorando a eficiência na seleção de genótipos testados em diferentes condições ambientais. Neste trabalho foram estudados alguns métodos estatísticos de análise da interação genótipo x ambiente, utilizando dados de oito genótipos de arroz avaliados em diferentes ambientes da Colômbia. Foram feitas a identificação dos genótipos de arroz com adaptabilidade e estabilidade ampla ou especifica nas regiões estudadas. Os métodos utilizados e estudados foram SREG (CORNELIUS, et al, 1996), ANNICCHIARICO (1992), EBERHART & RUSSELL (1966), Shukla e análise pelo método Bayesiano que foi feita segundo a metodologia desenvolvida por COTESTORRES (2004).
Analysis of genotype x environment interaction in the improvement of plants has improved sufficiently in the last decade for the introductions of the new methods of analysis, having improved the efficiency in the selection of genotypes tested in different environment conditions. In this research some statistical analysis of genotype x environment interactions methods had been studied, evaluated eight genotypes of rices in different environments from Colombiam. Were made the identifications of genotypes with adaptability and stability in the studied regions. The methods used were SREG (CORNELIUS, et al, 1996), ANNICCHIARICO (1992), EBERHART & Russell (1966), Shukla and Bayesiano Method according to COTES-TORRES (2004).
Quiroga, Mancini Andrés Eduardo Enrique. "Estimación del coeficiente de traspaso de promociones comerciales en el canal proveedores-supermercados." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140377.
Full textLos productores no integrados verticalmente con sus vendedores minoristas no tienen control directo sobre el precio que enfrentan sus consumidores, por lo que, para estimular la demanda, hacen descuentos a los intermediarios de su canal, esperando que ellos los traspasen a los clientes finales. Ésta técnica, conocida como promociones comerciales, es utilizada por empresas manufactureras alrededor de todo el mundo, en particular por los proveedores de los supermercados. A pesar de su uso predominante, la efectividad de las promociones comerciales ha sido motivo de disputa durante décadas. Estudios empíricos recientes sugieren que el porcentaje del descuento que efectivamente traspasa al intermediario es en general bajo, obteniendo los productores pérdidas en la mayoría de los casos. Si las promociones comerciales cumplen sus expectativas es debatible, pero a pesar de que la efectividad de las promociones termina estando en manos del intermediario, utilizar estimadores detallados permitirá a manufactureros evitar malos acuerdos y aumentar su rentabilidad (Nijs et al, 2010). Éste trabajo estima el traspaso de las promociones comerciales en su paso a través de los supermercados y hacia el consumidor. Esto con el fin de extender la literatura existente al mercado chileno y así abrir camino a una toma de decisiones mejor informada por parte de los productores nacionales. Los datos utilizados con éste fin incluyen observaciones semanales de precios cobrados por empresas manufactureras y retailers para 1080 productos, además de las cantidades vendidas a los consumidores. La muestra comprende tres importantes cadenas de supermercados del Gran Santiago y abarca un periodo de 68 semanas, comprendidas entre los años 2006 y 2007. Mediante el uso de regresiones sobre las bases de datos de cada uno de los grupos empresariales independientemente, se obtienen estimaciones de un traspaso promedio de 0,86 para DyS (supermercados Líder) y 0,46 para Cencosud (supermercados Santa Isabel y Jumbo). El hecho de que el promedio de éste indicador sea menor que uno implica que, en promedio, un cambio porcentual en el precio cobrado por el productor causará un cambio porcentual de menor envergadura en el precio al que vende el retailer. La gran diferencia encontrada en el traspaso de ambas empresas puede ser explicada por sus distintas políticas de precios (Every Day Low Prices vs High-Low) o las distintas métricas de costos utilizadas en cada caso. En general la interacción de las variables utilizadas es baja, aunque se encuentra una pequeña correlación positiva entre el traspaso y la participación de mercado del proveedor en cuestión, estando esto acorde con la literatura.
Vargas, Courbis Juan Francisco. "Comparación de métodos para la estimación de la lixiviación de nitratos en suelos de textura gruesa." Tesis, Universidad de Chile, 2013. http://repositorio.uchile.cl/handle/2250/148594.
Full textLa demanda por alimentos en la zona centro de Chile está aumentando y la superficie arable se expande rápidamente, donde incluso terrazas aluviales que se inundan ocasionalmente han sido habilitadas para sistemas de producción de monocultivo de maíz, los que reciben dosis altas de fertilización nitrogenada. Sin embargo, un monto significativo de nitrógeno (N) residual podría estar disponible en el suelo durante el periodo de barbecho (otoño-invierno), reflejando un riesgo alto de lixiviación de nitratos (NO3-N) durante eventos de precipitación o inundación que generen una percolación rápida de agua en el suelo. El objetivo de este estudio fue comparar la efectividad de cuatro métodos: barreno agrológico (T0), pozo de observación (T1), cápsulas de succión (T2) y un lisímetro de drenaje FullStopTM (T3) para monitorear la lixiviación de NO3-N durante el periodo otoño-invierno en un suelo aluvial de textura gruesa que ha sido habilitado para el cultivo de maíz. La comparación de los diferentes métodos mostró que los métodos T0 y T3 pueden ser usados para monitorear lixiviación de NO3-N en suelos de textura gruesa con alta variabilidad de precipitaciones intra e inter anuales; mientras que los métodos T1 y T2 no fueron apropiados para las condiciones del sitio. Se encontró una relación entre las concentraciones de NO3-N y sales solubles (Cl- y CE) sólo en las primeras mediciones luego del periodo seco estival.
In Central Chile demand for food is increasing and arable land is rapidly expanding even floodplain soils have been clear for maize cultivation. However, a significant amount of residual N may be still present in the soil in autumn-winter reflecting a high risk of nitrate-nitrogen (NO3-N) leaching during flush flooding events. This study compare the effectiveness of four different methods: soil coring (T0), observation well (T1), ceramic suction cup lysimeters (T2) and a capillary lysimeter FullStopTM wetting front detector (T3) for monitoring NO3-N leaching during autumn-winter in a typical coarse-textured alluvial floodplain soil that has been clear for maize cultivation. The comparison of different methods showed that T0 and T3 can be used for monitoring NO3-N leaching in floodplain coarse textured soils with a high intra-and inter annual precipitation variability; whereas T1 and T2 were not appropriated for site conditions. There was found correlation between NO3-N and soluble salt measurements (Cl- and EC) only in first measurements after the dry summer period.
Rodríguez, Rogel Claudio Marcelo. "Mejora del proceso de estimación de costos mediante la aplicación de métodos de minería de datos |." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/171802.
Full textLa industria de la Construcción es uno de principales motores que impulsan a la economía nacional. Es altamente sensible a los cambios en los ciclos económicos entre los períodos de expansión y de recesión, también es altamente competitiva debido a la gran cantidad de actores en el sector. La demanda de los servicios de construcción proviene de todos los sectores de la economía que se resumen en sectores público y privado. Por un lado, el sector público requiere infraestructura para su funcionamiento, mientras que en el sector privado la demanda es por vivienda e infraestructura para la producción de bienes y servicios. La compañía Empresa Constructora participa en propuestas para desarrollar proyectos de gran complejidad y su nivel de ingresos está dado por el éxito en sus proyectos. En la etapa de licitación es posible que no exista una certeza absoluta acerca de la estimación de los costos debido a la complejidad de los proyectos y a la diversidad de recursos que determinan el costo total. Una deficiente estimación de costos constituye un gran peligro para el cumplimiento de los proyectos y puede causar grandes pérdidas económicas amenazando la continuidad del negocio. El presente trabajo está enfocado en mejorar el proceso de estimación de costos de proyectos, para aumentar la precisión de los costos en la etapa de propuestas y evitar los mayores costos durante el proceso productivo. Desde el punto de vista de diseño del negocio, el presente trabajo impacta directamente en la Cadena de Valor, abordando los procesos de Planificación de Ventas y Generación de Propuestas, además de otros procesos que se verán beneficiados por los nuevos flujos de información, por ejemplo, el proceso Planificación y Control de la Producción, que podrá contar con información más precisa para la planificación de producción y adquisiciones, entre otros. Desde el punto de vista financiero, la justificación está dada por el cumplimiento de los objetivos financieros generado por una mejor planificación de la venta, con estimaciones de costos más precisas que impactan positivamente en la rentabilidad. El resultado de este proyecto de tesis es la confirmación de que el proceso de estimación de costos puede ser mejorado con el uso de las tecnologías de información y la incorporación de herramientas de minería de datos. Se puede obtener beneficios como la reducción en el tiempo de estimación de costos y la reducción de la variación de costos debido a una mayor precisión al presentar una propuesta al cliente.
Villa, Palomino Dayssi Susam. "Métodos basados en medidas craneofaciales y odontométricas empleados en la estimación de la estatura en humanos." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/13726.
Full textAnaliza estudios sobre diversos grupos poblacionales en los cuales se usaron las medidas de las piezas dentales, métodos odontométricos y craneofaciales, empleadas en la estimación de la estatura en humanos. El estudio es descriptivo y observacional. Realiza una búsqueda bibliográfica en base de datos electrónicas y una revisión manual de literatura de estudios descriptivos comparativos simples y estudios descriptivos correlacionales forenses. Obtiene como resultado que el método de mayor efectividad para estimar la estatura humana es la técnica del Dr. Carrea con 32%, seguido de las medidas craneofaciales con 23 %. Concluye que debe utilizarse la técnica del Dr. Carrea en la estimación de la estatura en humanos.
Trabajo académico
Saraiva, Erlandson Ferreira. "Métodos estatísticos aplicados à análise da expressão gênica." Universidade Federal de São Carlos, 2006. https://repositorio.ufscar.br/handle/ufscar/4596.
Full textFinanciadora de Estudos e Projetos
The technology of the DNA-Arrays is a tool used to identify and to compare levels of expression of a great number of genes or fragments of genes, in di¤erent conditions. With this comparison, it is possible to identify genes possibly causing illnesses of genetic origin (cancer for example). Great amounts of numerical data (related the measures of levels of expression of the genes) are generated and statistical methods are important for analysis of this data with objective to identify the genes that present evidences for di¤erent levels of expression. The objective of our research is to develop and to describe methods statistical, capable of identifing genes that present evidences for di¤erent levels of expression. We describe the test t, considered for Baldi and Long (2001) and consider three others methods. The first method considered is based on the use of parametric Bayes inference and the methods for selection of models, Bayes factor and DIC; the second method is based an semi-parametric bayesian inference, model of mixtures of Dirichlet processes. The third method is based on the use of a model with infinite mixtures of distributions that applied the analysis of the genica expression determines groups of similar levels of expression.
A tecnologia dos arranjos de DNA (DNA-array) é uma ferramenta utilizada para identificar e comparar níveis de expressão de um grande número de genes ou fragmentos de genes simultaneamente, em condições diferentes. Com esta comparação, é possível determinar possíveis genes causadores de doenças de origem genética (por exemplo, o câncer). Nestes experimentos, grandes quantidades de dados numéricos (relacionados às medidas de níveis de expressão dos genes) são gerados e métodos estatísticos são im- portantes para análise dos dados, com objetivo de identificar os genes que apresentam evidências para níveis de expressão diferentes. O objetivo de nossa pesquisa é comparar o desempenho e desenvolver métodos estatísticos, capazes de identificar genes que apresentam evidências para níveis de expressão diferentes, quando comparamos situações de interesse (tratamentos) com uma situação de controle. Para isto, descrevemos o teste t, proposto por Baldi e Long (2001) e propomos três métodos para identificar genes com evidências para níveis de expressão diferentes. O primeiro método proposto é baseado na utilização da inferência bayesiana paramétrica e dos métodos de seleção de modelos, fator de Bayes e DIC; o segundo método é baseado na inferência bayesiana semi-paramétrica conhecida como modelo de misturas de processos Dirichlet; e o terceiro método é baseado na utilização de um modelo com mistura infinita de distribuições, que aplicado à análise da expressão gênica determina grupos de níveis de expressão gênica similares, baseados nos efeitos de tratamento.
Ramos, Molina Lina Maria. "Um estudo sobre métodos estatísticos na avaliação da interação genótipo x ambientes em genótipos de arroz (Oryza sativa L.) /." Jaboticabal : [s.n.], 2007. http://hdl.handle.net/11449/92674.
Full textAbstract: Analysis of genotype x environment interaction in the improvement of plants has improved sufficiently in the last decade for the introductions of the new methods of analysis, having improved the efficiency in the selection of genotypes tested in different environment conditions. In this research some statistical analysis of genotype x environment interactions methods had been studied, evaluated eight genotypes of rices in different environments from Colombiam. Were made the identifications of genotypes with adaptability and stability in the studied regions. The methods used were SREG (CORNELIUS, et al, 1996), ANNICCHIARICO (1992), EBERHART & Russell (1966), Shukla and Bayesiano Method according to COTES-TORRES (2004).
Orientador: Adhemar Sanches
Coorientador: Alberto Cargnelutti Filho
Coorientador: Jose Miguel Cotes Torres
Banca: Rinaldo César de Paula
Banca: Sandra Helena Unêda Trevisoli
Mestre
Perassa, Eder Arnedo 1982. "Métodos de estatística bayesiana e máxima entropia aplicados na análise de dados em eventos de raios cósmicos." [s.n.], 2017. http://repositorio.unicamp.br/jspui/handle/REPOSIP/331058.
Full textTese (doutorado) - Universidade Estadual de Campinas, Instituto de Física Gleb Wataghin
Made available in DSpace on 2018-09-03T07:30:39Z (GMT). No. of bitstreams: 1 Perassa_EderArnedo_D.pdf: 3556275 bytes, checksum: c4e6180df4a4a5dcbfe476b7d331bee4 (MD5) Previous issue date: 2017
Resumo: Neste trabalho, estudamos os métodos de estatística bayesiana e máxima entropia na análise de dados em eventos de raios cósmicos. Inicialmente, fizemos um resumo sobre o desenvolvimento da física de raios cósmicos em que descrevemos alguns resultados teóricos e experimentais recentes. A seguir, apresentamos uma breve revisão do método bayesiano e o aplicamos na determinação da composição em massa dos primários em eventos de raios cósmicos. Além disso, introduzimos o método de máxima entropia e propomos um método de parametrização do perfil longitudinal de chuveiros atmosféricos extensos. Em todas as aplicações, foram mostrados os algoritmos desenvolvidos e os resultados obtidos a partir de dados de eventos simulados. Os resultados indicaram que tais métodos podem ser utilizados satisfatoriamente como ferramentas na análise de dados em eventos de raios cósmicos
Abstract: In this work, we study bayesian statistics and maximum entropy methods in cosmic ray events data analysis. At first, we summarized developments in cosmic rays physics, describing some recent theoretical and experimental results. We present briefly a review of bayesian method and apply it to the problem of determining mass composition primary cosmic ray events. Moreover, we introduce the maximum entropy method and propose a method for the parametrization of the longitudinal profile of extensive air showers. In all applications, the algorithms developed and the results obtained from simulated event data were shown. The results suggested that such methods can be satisfactorily used as tools in cosmic rays events data analysis
Doutorado
Física
Doutor em Ciências
277612/2007
CAPES
Nogarotto, Danilo Covaes 1987. "Inferência bayesiana em modelos de regressão beta e beta inflacionados." [s.n.], 2013. http://repositorio.unicamp.br/jspui/handle/REPOSIP/306790.
Full textDissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática Estatística e Computação Científica
Made available in DSpace on 2018-08-23T07:11:52Z (GMT). No. of bitstreams: 1 Nogarotto_DaniloCovaes_M.pdf: 12817108 bytes, checksum: 0e5e0de542d707f4023f5ef62dc40a82 (MD5) Previous issue date: 2013
Resumo: No presente trabalho desenvolvemos ferramentas de inferência bayesiana para modelos de regressão beta e beta inflacionados, em relação à estimação paramétrica e diagnóstico. Trabalhamos com modelos de regressão beta não inflacionados, inflacionados em zero ou um e inflacionados em zero e um. Devido à impossibilidade de obtenção analítica das posteriores de interesse, tais ferramentas foram desenvolvidas através de algoritmos MCMC. Para os parâmetros da estrutura de regressão e para o parâmetro de precisão exploramos a utilização de prioris comumente empregadas em modelos de regressão, bem como prioris de Jeffreys e de Jeffreys sob independência. Para os parâmetros das componentes discretas, consideramos prioris conjugadas. Realizamos diversos estudos de simulação considerando algumas situações de interesse prático com o intuito de comparar as estimativas bayesianas com as frequentistas e também de estudar a sensibilidade dos modelos _a escolha de prioris. Um conjunto de dados da área psicométrica foi analisado para ilustrar o potencial do ferramental desenvolvido. Os resultados indicaram que há ganho ao se considerar modelos que contemplam as observações inflacionadas ao invés de transformá-las a fim de utilizar modelos não inflacionados
Abstract: In the present work we developed Bayesian tools, concerning parameter estimation and diagnostics, for noninflated, zero inflated, one inflated and zero-one inflated beta regression models. Due to the impossibility of obtaining the posterior distributions of interest, analytically, all these tools were developed through MCMC algorithms. For the regression and precision parameters we exploited the using of prior distributions commonly considered in regression models as well as Jeffreys and independence Jeffreys priors. For the parameters related to the discrete components, we considered conjugate prior distributions. We performed simulation studies, considering some situations of practical interest, in order to compare the Bayesian and frequentist estimates as well as to evaluate the sensitivity of the models to the prior choice. A psychometric real data set was analyzed to illustrate the performance of the developed tools. The results indicated that there is an overall improvement in using models that consider the inflated observations compared to transforming these observations in order to use noninflated models
Mestrado
Estatistica
Mestre em Estatística
Silva, Valdeir Antonio da. "Estudo de matrizes vítreas dopadas com íons de terras raras e/ou pontos quânticos de sais de chumbo." reponame:Repositório Institucional da UnB, 2017. http://repositorio.unb.br/handle/10482/24620.
Full textSubmitted by Raquel Almeida (raquel.df13@gmail.com) on 2017-08-10T16:47:56Z No. of bitstreams: 1 2017_ValdeirAntoniodaSilva.pdf: 10112031 bytes, checksum: 0cfe3a30aa04fa0b1b14b285c6d728a0 (MD5)
Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-09-22T18:11:17Z (GMT) No. of bitstreams: 1 2017_ValdeirAntoniodaSilva.pdf: 10112031 bytes, checksum: 0cfe3a30aa04fa0b1b14b285c6d728a0 (MD5)
Made available in DSpace on 2017-09-22T18:11:17Z (GMT). No. of bitstreams: 1 2017_ValdeirAntoniodaSilva.pdf: 10112031 bytes, checksum: 0cfe3a30aa04fa0b1b14b285c6d728a0 (MD5) Previous issue date: 2017-09-22
Nesse estudo matrizes vítreas baseadas em óxidos, dopadas com íons de terras raras e/ou pontos quânticos de sais de chumbo, foram sintetizadas pelo tradicional método de fusão e investigadas por medidas experimentais. A matriz vítrea LBA foi sintetizada e dopada com íons de Nd3+. Os parâmetros espectroscópicos correspondentes foram obtidos pela teoria de Judd-Ofelt (JO) utilizando o método dos mínimos quadrados. Além disso, essa mesma matriz com 2% de Nd2O3 (concentração fixa) foi co-dopada com diferentes concentrações de TiO2, sendo esse um agente de variação do campo cristalino. Os parâmetros espectroscópicos foram investigados utilizando Inferência Bayesiana. Uma abordagem inovadora que não é apresentada na literatura. A matriz SNABP foi sintetizada com dopagem de íons de Yb3+ e/ou pontos quânticos de sais de chumbo e investigada. Essas amostras foram avaliadas quanto à possibilidade de desenvolvimento de dispositivos refrigeradores ópticos de estado sólido. Sendo essa a segunda inovação apresentada nessa tese. As amostras foram caracterizadas experimentalmente por medidas de densidade, índice de refração, absorção óptica, fotoluminescência, análise térmica diferencial e micro espectroscopia Raman. Os parâmetros de intensidade de JO, Ωλ, para amostras dopadas com Nd3+ e/ou co-dopadas com TiO2, se mostraram sensíveis às variações do campo cristalino, sugerindo que íons de TR podem atuar como sondas estruturais. As amostras dopadas com Yb3+ apresentaram cauda de refrigeração significativa, em torno de 1007 nm, revelando-se promissoras para aplicação em refrigeração óptica. Nanocristais de PbS foram sintetizados com sucesso e apresentaram propriedades de confinamento quântico, com o deslocamento da emissão para maiores comprimentos de onda em função do aumento do tamanho. Foi observado deslocamento Stokes relativamente grande (~140 nm), que pode comprometer a refrigeração óptica em PQs de PbS em específico. Contudo, a co-dopagem (PQs + Yb3+), mostrou-se interessante, uma vez que essas amostras apresentaram processo de transferência de energia (PQs→Yb3+) podendo potencializar a refrigeração óptica com íons de Yb3+ como centros refrigeradores.
In this study, oxide-based vitreous matrices were synthesized and investigated by the traditional fusion method and investigated by experimental measures, doped with rare earth ions (TR) and/or quantum dots (PQs) of lead salts. The LBA vitreous matrix was synthesized and doped with Nd3+ ions. The spectroscopic parameters were obtained by Judd-Ofelt (JO) theory using the least squares method. The LBA matrix doped with 2% Nd2O3 (fixed concentration) was co-doped with different TiO2 content, which is a variant of the crystalline field. The spectroscopic parameters were investigated using Bayesian inference as a new approach. An innovative approach that is not presented in the literature. The SNABP glass matrix was synthesized with Yb3+ ion and/or quantum dots of lead salts doping and investigated. These samples were evaluated for exploring the development of solid state optical refrigeration devices. This is another innovation presented in this thesis. The samples were experimentally characterized by mass density, refractive index, optical absorption, photoluminescence, differential thermal analysis and micro Raman spectroscopy measurements. The JO intensity parameters, Ωλ, for samples doped with Nd3+ and/or co-doped with TiO2, were sensitive to variations of the crystalline field, suggesting that TR ions could act as structural probes. Samples doped with Yb3+ showed significant refrigeration tail, around 1007 nm, suggesting promising application in optical refrigeration. Nanocrystals of PbS were successfully synthesized and presented quantum confinement properties as the emission shift for longer wavelengths as the size increases. A relatively large Stokes shift (~140 nm) was observed that could compromise optical cooling in PQs of PbS. However, the co-doping, QDs + Yb3+, proved to be of interest, once these samples showed energy transfer process (QDs→Yb3+) which could enhance optical refrigeration with Yb3+ ions as cooling centers.
Miquelluti, Daniel Lima. "Métodos alternativos de previsão de safras agrícolas." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/11/11134/tde-06042015-153838/.
Full textThe agriculture is, historically, one of Brazil\'s economic pillars, and despite having it\'s importance diminished with the development of the industry and services it still is responsible for giving dynamism to the country inland\'s economy, ensuring food security, controlling inflation and assisting in the formation of monetary reserves. In this context the agricultural crops exercise great influence in the behaviour of the sector and agricultural market balance. Diverse crop forecast methods were developed, most of them being growth simulation models, however, recently the statistical models are being used due to its capability of forecasting early when compared to the other models. In the present thesis two of these methologies were evaluated, ARIMA and Dynamic Linear Models, utilizing both classical and bayesian inference. The forecast accuracy, difficulties in the implementation and computational power were some of the caracteristics utilized to assess model efficiency. The methodologies were applied to Soy production data of Mamborê-PR, in the 1980-2013 period, also noting that planted area (ha) and cumulative precipitation (mm) were auxiliary variables in the dynamic regression. The ARIMA(2,1,0) reparametrized in the DLM form and adjusted through maximum likelihood generated the best forecasts, folowed by the ARIMA(2,1,0) without reparametrization.
Atem, Guilherme Muniz. "Métodos bayesianos em alocação de ativos: avaliação de desempenho." reponame:Repositório Institucional do FGV, 2013. http://hdl.handle.net/10438/10630.
Full textApproved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2013-03-19T16:04:40Z (GMT) No. of bitstreams: 1 Dissertação - Guilherme Atem.pdf: 2045602 bytes, checksum: 3d2427a0fdd1376baf5c274252a390a2 (MD5)
Made available in DSpace on 2013-03-19T16:24:11Z (GMT). No. of bitstreams: 1 Dissertação - Guilherme Atem.pdf: 2045602 bytes, checksum: 3d2427a0fdd1376baf5c274252a390a2 (MD5) Previous issue date: 2013-02-05
Neste trabalho, comparamos algumas aplicações obtidas ao se utilizar os conhecimentos subjetivos do investidor para a obtenção de alocações de portfólio ótimas, de acordo com o modelo bayesiano de Black-Litterman e sua generalização feita por Pezier e Meucci. Utilizamos como medida de satisfação do investidor as funções utilidade correspondentes a um investidor disciplinado, isto é, que é puramente averso a risco, e outro que procura risco quando os resultados são favoráveis. Aplicamos o modelo a duas carteiras de ações que compõem o índice Ibovespa, uma que replica a composição do índice e outra composta por pares de posições long&short de ações ordinárias e preferenciais. Para efeito de validação, utilizamos uma análise com dados fora da amostra, dividindo os dados em períodos iguais e revezando o conjunto de treinamento. Como resultado, foi possível concluir que: i) o modelo de Black-Litterman não é suficiente para contornar as soluções de canto quando o investidor não é disciplinado, ao menos para o modelo utilizado; ii) para um investidor disciplinado, o P&L médio obtido pelos modelos de média-variância e de Black-Litterman é consideravelmente superior ao do benchmark para as duas carteiras; iii) o modelo de Black Litterman somente foi superior ao de média-variância quando a visão do investidor previu bem os resultados do mercado.
On this work, we compare results obtained when the investor chooses to use his subjective views on the market to calculate the allocation optimization of a given portfolio, according to the bayesian model of Black-Litterman (BLACK; LITTERMAN, 1992) and the generelization provided by Pezier (PEZIER, 2007) and Meucci (MEUCCI, 2008). As a measure of satisfaction of the investor, we use utility functions describing an investor with discipline that is always risk-averse and other function for an investor who seeks risk when the results are favourable. The model is applied to two portfolios consisting of stock from the Ibovespa index: one of them consists of all stocks from the index, with time horizon of half an year, and the other presents four long short positions betwen ordinary and preferential stocks and time horizon of one month. The results are validated with out of sample data, according to a 10-fold cross validation. As a result, we conclude that: i) the Black-Litterman model may not be enougth to avoid corner solutions when the investor has no discipline, according to our model; ii) both the Black-Litterman and the Mean-Variance models perform better then the benchmarks; iii) but the winner model depends on the forecast power of the investor views.
Valderrama, Torres José Artemio. "Estimación de una tabla de vida para el sistema nacional de pensiones peruano." Master's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/17043.
Full textLuengo, García David. "Estimación óptima de secuencias caóticas con aplicación en comunicaciones." Doctoral thesis, Universidad de Cantabria, 2006. http://hdl.handle.net/10803/10663.
Full textThis Thesis studies the optimal estimation of chaoticsignals generated iterating unidimensional maps and contaminated by additive white Gaussian noise, from the point of view of the two most common frameworks in statistical inference: maximum likelihood (ML) and Bayesian. Due to the high computational cost of optimum estimators, several suboptimal but computationally efficient estimators are proposed, which attain a similar performance as the optimum ones. Additionally, the estimation of the parameters of a chaotic map is analyzed, exploiting the known relation between consecutive samples of the chaotic sequence. Finally, we consider the application of the estimators developed in the design of receivers for two different schemes of chaotic communications: chaotic switching and symbolic or chaotic coding.
Ferreira, Flávia. "Uma abordagem clássica e bayesiana para o modelo de Tweedie." Universidade Federal de São Carlos, 2005. https://repositorio.ufscar.br/handle/ufscar/4516.
Full textUniversidade Federal de Sao Carlos
The goal of this work is to present a classic and a bayesian approach to the Tweedie Compound Poisson model considering the form and application shown at Jorgensen & Souza (1992). A speci.c goal is to estimate the individual claim mean values. Newton- Raphson iterative method is used in the classic inference in order to obtain the estimatives for the parameters. Non-informative priors are used to obtain the bayesian estimatives for the parameters. In the bayesian approach two di¤erent methodologies are considered: i) without the presence of covariance and ii) with the presence of covariance. The per- formance of both methods, classic and bayesian inference, are compared via simulated data.
Nesse trabalho apresentamos uma abordagem clássica e Bayesiana para o modelo de Tweedie Poisson Composto na forma e aplicação apresentada por Jorgensen & Souza (1992). O objetivo especí.co é a estimação do custo médio individual de sinistro. Na obtenção dos estimadores clássicos é utilizado o método iterativo de Newton-Raphson. Na obtenção de estimadores Bayesianos são utilizadas densidades a priori não informa- tivas para os parâmetros de interesse. Sob o enfoque Bayesiano duas metodologias são estudadas: i) sem a presença de covariáveis ii) com a presença de covariáveis. Uma com- paração dos desempenhos dos estimadores clássicos e Bayesianos é veri.cada através de dados simulados.
Neira, Bravo Daniel Alexis. "Aplicación de Métodos Secuenciales de Monte Carlo Sensibles al Riesgo en la Estimación de Vida Útil de Componentes." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104054.
Full textAngulo, López Orlando Leonidas. "Métodos de estimación basados en el muestreo por áreas para la población pecuaria en el departamento de Huánuco." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/14459.
Full textProporciona un procedimiento de estimación basado en el muestreo de áreas abiertas, cerradas y ponderadas. En ella, se describe y compara la calidad de la estimación que proporcionan los tres métodos de muestreo. Finalmente se realizó la aplicación de los métodos descritos, para la estimación de la población pecuaria en el departamento de Huánuco.
Trabajo de suficiencia profesional
Hurtado, Lagos Sebastián Octavio. "Simulación de Variables Categóricas Considerando Estadísticas de Patrones." Tesis, Universidad de Chile, 2009. http://repositorio.uchile.cl/handle/2250/103562.
Full textJofré, Ortega Pablo Eduardo. "Asignación eficiente de la fuerza de venta en tiempo real: aplicación en una tienda de retail." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144608.
Full textPara las tiendas de retail los costos relacionados a la mano de obra son un porcentaje importante de los costos operacionales (Ton 2009\cite{ton}). "Después del costo de los bienes vendidos, el gasto relacionado en contratar, capacitar y la mano de obra de la tienda constituyen por lejos la mayor componente del costo de los retailers" (Netessine et al. 2010\cite{netessine}). Por lo tanto, es sumamente importante lograr el mejor rendimiento posible de esta gran inversión. El objetivo principal de este estudio es optimizar la eficiencia de la fuerza de venta de una tienda de retail, decidiendo la ubicación de los vendedores en tiempo real, utilizando información de las cámaras de seguridad de la tienda. La metodología utilizada se compone de dos partes. En primer lugar, se proponen diferentes modelos de \textit{Poisson} que explican las transacciones ocurridas durante un periodo de 30 minutos, dentro de un departamento, como un proceso de conteo que depende de distintas variables y controles. Estos se estiman por el método jerárquico bayesiano, complementado con una función de control para solucionar la endogeneidad del número de vendedores. En segundo lugar, con el resultado del análisis econométrico, se genera una heurística que tiene como objetivo maximizar las transacciones de la tienda, esta heurística decide cada 30 minutos el número de vendedores asignados a cada departamento dependiendo de la cantidad de clientes, el día, la hora y un conjunto de variables que permite controlar las estacionalidades de las ventas. Usando herramientas de simulación se estudia el incremento en las transacciones al incorporar flexibilidad en la movilidad de los vendedores a lo largo de distintos departamentos, es decir, incorporar vendedores capaces de atender en más de un departamento. El resultado del análisis econométrico, muestra que el efecto del número de vendedores en las transacciones presenta heterogeneidad entre departamentos y depende de la hora. Se muestra que existe un grado de congestión, ya que el parámetro asociado al número de vendedores al cuadrado es negativo, lo que significa que llega un momento en que agregar un vendedor más a algún departamento tiene un efecto negativo en las transacciones. La cantidad de clientes está relacionada positivamente con las transacciones. En relación al proceso de simulación, se encuentra que las ventas aumentan a medida que los vendedores son capaces de atender en más departamentos, llegando a aumentar en 11.4\% si los vendedores fueran capaces de atender en toda la tienda, en comparación a que atiendan en sólo un departamento. Se concluye que la heterogeneidad del efecto de los vendedores en los distintos departamentos, permite que la heurística desarrollada aumente las transacciones en la tienda ubicando a los vendedores de manera estratégica, aprovechando la información que entregan las cámaras de seguridad. Además la incorporación de vendedores polifuncionales brindan mayor flexibilidad al proceso de ubicación de la fuerza de venta, lo que se traduce en un mejor desempeño de la tienda
Este trabajo ha sido parcialmente financiado por CONICYT-PCHA / Magíster Nacional /2014 - 22141193 CONICYT /Proyecto FONDEF/IT13I20031
Hsien, Yin. "Extração de forma compacta de regras fuzzy de uma rede Bayesiana." Universidade Federal de São Carlos, 2010. https://repositorio.ufscar.br/handle/ufscar/453.
Full textUniversidade Federal de Minas Gerais
The decision support tools are importants in many domains of our society. But there is a need to make users understand the decisions made by those tools in order to increase the faith of the users on the results. In the literature, Bayesian networks are considered as a probabilistic classification system with good performance. But it still need a better presentation of it results to make it more understandable to the users. In other hand, the fuzzy logic ofer potential to deal with imprecision and uncertainty, as well as a linguistic representation, which facilitates user's understanding. The combination of Bayesian networks and fuzzy logic is proposed by the method BayesFuzzy, which make use of fuzzy rules as a form of explanation of a Bayesian network, it aims to obtain a decision support tool with good performance and easy to be understood by users. So we are proposiing the method Pruned BayesFuzzy (PBF), it is a BayesFuzzy incorporated with minimum certainty degree, default rule and Rule Post-Pruning as a form to select the most important rules for classification between all the rules generated, it also simplifies those rules. The results of PBF show an improvement in understanding but a loss in correct classification rate. But the improvement in understanding is promising enough to further research and enhance of the PBF. Then beside PBF, we also propose the Pruned BayesFuzzy 2 (PBF2), which is PBF incorporated with a feature selection technique based on Markov Blanket. With the incorporation of this technique, it's possible to deal with situations that contains a large amount of variables inside of the Markov Blanket of the class variable. The results show a loss in correct classification rate, that is already expected when we try to simplify further more the Markov Blanket. However, the availability to be able to deal with big scale problems is something to be considered.
As ferramentas de apoio à decisão são importantes em diversos domínios da nossa sociedade. Porém há uma necessidade do usuário entender as decisões feitas por tais ferramentas para ter uma confiança maior sobre os resultados. Na literatura técnica, as redes Bayesianas são consideradas como um sistema probabilístico de classificação com bom desempenho em termos de precisão. Mas ainda necessitam de uma forma de apresentação mais compreensível para os usuários. Por outro lado, a lógica fuzzy oferece potencial para lidar com imprecisão e incerteza, assim como a representação linguística, o que facilita a compreensão dos usuários. A combinação das redes Bayesianas com a lógica fuzzy é proposta pelo método BayesFuzzy que utiliza regras fuzzy como explicação de uma rede Bayesiana, com o objetivo de obter uma ferramenta de apoio à decisão de bom desempenho e que seja fácil de ser compreendida pelos usuários. O BayesFuzzy, entretanto, apresenta limitações com relação ao número de regras geradas e isto torna seus resultados, muitas vezes, de difícil interpretação. Assim, neste trabalho de mestrado é proposto o método Pruned BayesFuzzy (PBF). O PBF tem como base o BayesFuzzy e incorpora algumas técnicas de minimização do número de regras para otimizar a compreensibilidade dos resultados gerados. Dentre as técnicas incorporadas estão o mínimo grau de certeza, a regra default e a poda Rule Post- Pruning como formas de selecionar dentre as regras geradas, as mais importantes para a classificação e ao mesmo tempo simplificando estas regras. Os resultados do PBF mostram que houve um ganho grande em relação à compreensibilidade, mas também uma perda na taxa de classificação correta. Porém o ganho de compreensibilidade é bastante promissor o que estimula a pesquisa e a seqüência dos trabalhos com o PBF. Além do PBF, este trabalho propõe também o Pruned BayesFuzzy 2 (PBF2) que é o PBF incorporando uma técnica de seleção de atributos baseado em Markov Blanket. Com a incorporação desta técnica, é possível lidar com situações que contém uma quantidade grande de variáveis dentro do Markov Blanket da variável classe. Os resultados mostram que houve perda na taxa de classificação correta, o que é de se esperar quando tentamos simplificar mais ainda o Markov Blanket. A viabilidade de poder resolver problemas reais de grande escala e com algumas características específicas é ainda algo a ser considerado.
Polli, Demerson Andre. "Um estudo de métodos bayesianos para dados de sobrevivência com omissão nas covariáveis." Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/45/45133/tde-05052007-174318/.
Full textThe development of methods dealing with missing data is recent in Statistics and is the target of many researchers. The presence of missing values in the covariates is very common in statistical analysis and, in particular, in clinical, epidemiological and enviromental studies for survival data. This work considers a bayesian approach to analise data with missing covariates for parametric models in the Weibull family and for the Cox semiparametric model. The studied methods are evaluated for the parametric and semiparametric approaches considering a dataset of patients with heart insufficiency. Also, the impact of different omission proportions is assessed.