Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Estadística – Modelos matemáticos.

Dissertationen zum Thema „Estadística – Modelos matemáticos“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Estadística – Modelos matemáticos" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Saavedra, López Ricardo Elías. „El análisis de correspondencias conjunto y múltiple ajustado“. Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/1466.

Der volle Inhalt der Quelle
Annotation:
Esta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Cabbada, Bergez Aníbal Alexis. „Análisis microeconométrico del grado de sustitución en el mercado de la salud en Chile“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/145934.

Der volle Inhalt der Quelle
Annotation:
Magíster en Economía Aplicada
Este trabajo es un estudio descriptivo y exploratorio del grado de sustitución por parte de la demanda en el mercado de la salud en Chile. Para realizar este estudio se utilizaron archivos maestros facilitados por la Superintendencia de Salud de Chile. A través de estadísticas descriptivas y la construcción de matrices de Markov se estiman probabilidades tales como: La probabilidad de persistencia hospitalaria (2 visitas consecutivas en el mismo prestador de salud) y la probabilidad de persistencia en aseguradoras (afiliación por 2 años consecutivos en la misma isapre). Se halla que en promedio, los pacientes persisten en su prestador el 64,08% de los casos y en su aseguradora el 92,37% de los casos. Se hallan estas probabilidades por prestador y por isapre, y además, se exponen estas probabilidades con respecto a diferentes características de los beneficiarios, con el fin de hallar heterogeneidad entre ellas. Por otro lado, se caracteriza esta decisión a través de atributos tanto de los pacientes (sexo, edad, cotizante/carga, diagnóstico, índice de Charlson, región, etc), de los prestadores (verticalmente integrado, público/privado) y las aseguradoras (abierta/cerrada) ajustando en primera instancia un modelo lineal con efectos fijos por paciente, por prestador y por isapre, y luego un modelo logit con enfoque de verosimilitud condicional. De estas regresiones se concluye que las características de los pacientes tales como el sexo, la edad y el tipo de beneficiario (cotizante/carga) no generan ningún impacto en la persistencia hospitalaria, no así la presencia de comorbilidades, las cuales generan una disminución significativa y enfermedades específicas, las cuales son determinantes. Se observa que la pertenencia al sistema público del prestador genera una disminución significativa al igual que la condición de estar verticalmente integrado a una aseguradora. Con respecto a la persistencia en aseguradoras, se concluye que las características de los beneficiarios tales como el sexo y la edad resultan ser significativas solo en el modelo lineal. Se observa que los trabajadores independientes persisten más que los trabajadores dependientes, mientras más ingresos percibe el beneficiario, más tiende a persistir y a mayor número de cargas, menor es la persistencia. Además, la presencia de comorbilidades impacta positivamente en la persistencia en aseguradoras. Por último, realizando una descomposición de la varianza del modelo lineal de probabilidad, se concluye que las características de los pacientes son las que explican con mayor magnitud la varianza de la persistencia hospitalaria y por lo tanto, son las características de los beneficiarios las que son mayormente consideradas al momento de la toma de decisión.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ruíz, Arias Raúl Alberto. „Un enfoque de credibilidad bajo espacios de Hilbert y su estimación mediante modelos lineales mixtos“. Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4474.

Der volle Inhalt der Quelle
Annotation:
La teoría de la credibilidad provee un conjunto de métodos que permiten a una compañía de seguros ajustar las primas futuras, sobre la base de la experiencia pasada individual e información de toda la cartera. En este trabajo presentaremos los principales modelos de credibilidad utilizados en la práctica, como lo son los modelos de Bühlmann (1967), Bühlmann-Straub (1970), Jewell (1975) y Hachemeister (1975), todos ellos analizados en sus propiedades desde un punto de vista geométrico a través de la teoría de espacios de Hilbert y en su estimación mediante el uso de los modelos lineales mixtos. Mediante un estudio de simulación se mostrará la ventaja de utilizar este último enfoque de estimación.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Pantoja, Marin Luis. „Modelos de regresión binaria Skew probit para el calculo de probabilidad de default en el ámbito del sistema financiero“. Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/1716.

Der volle Inhalt der Quelle
Annotation:
La presente investigación se fundamenta en el uso o aplicación de Modelos Skew Probit con enlace asimétrico desde un enfoque Bayesiano. Los modelos a usar incorporan la posibilidad de usar enlaces asimétricos para estimar la probabilidad de y i =1 en muestras no balanceadas (alta proporción de ceros y por ende pequeña proporción de unos). La formulación general de esto modelos es debida a Bazán, Bolfarine y Branco (2010). Aunque en estos modelos inicialmente su computación es complicada se usaron Cadenas de Markov por Monte Carlo (MCMC) o muestreo Gibbs (para la aplicación de estos procedimientos ver Carlin y Polson, 1992) que hacen simple la formulación del modelo y por tanto simple su implementación usando el software WinBugs (los códigos de los diferentes modelos utilizados fueron obtenidos en el programa BRMUW propuesto por Bazán y Bayes, 2010). De acuerdo al análisis y estudio de aplicación realizado sobre una muestra de clientes de préstamos pertenecientes a una entidad micro financiera, aquellos modelos Skew Probit BBB y Estándar presentan los mejores indicadores de eficiencia. El análisis sobre datos reales señala que el modelo tradicional Probit presenta un 56.6% (371/664) de mala clasificación versus los modelos Estándar y BBB que en promedio muestran dicho indicador alrededor de 43% (290/664). El análisis mediante curvas COR (Receiver Operating Characteristic) ratifica lo mencionado; el área debajo de las curvas superan el 0.74 de 1 para el modelo BBB, mientras que dicho dato es de 0.70 para el caso del modelo simétrico tradicional probit. Por tanto la sensibilidad y especificidad (eficiencia) es mayor para aquellos modelos Skew Probit (mejor modelo BBB). Dentro de los modelos con Enlaces Asimétricos los modelos (SP) BBB y Estándar son los que presentan mejores indicadores de ajuste e información as__ como mejoran la sensibilidad y especificidad de un determinado modelo. Finalmente, se pretende la sistematización de la propuesta a nivel de la entidad micro financiera y su aplicación en la estimación de la probabilidad de default de créditos pero aplicado en todos los tipos de créditos.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Fernández, Villegas Renzo. „A beta inflated mean regression model with mixed effects for fractional response variables“. Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8847.

Der volle Inhalt der Quelle
Annotation:
In this article we propose a new mixed effects regression model for fractional bounded response variables. Our model allows us to incorporate covariates directly to the expected value, so we can quantify exactly the influence of these covariates in the mean of the variable of interest rather than to the conditional mean. Estimation is carried out from a Bayesian perspective and due to the complexity of the augmented posterior distribution we use a Hamiltonian Monte Carlo algorithm, the No-U-Turn sampler, implemented using Stan software. A simulation study for comparison, in terms of bias and RMSE, was performed showing that our model has a better performance than other traditional longitudinal models for bounded variables. Finally, we applied our Beta Inflated mixed-effects regression model to real data which consists of utilization of credit lines in the peruvian financial system.
En este artículo proponemos un nuevo modelo de regresión con efectos mixtos para variables acotadas fraccionarias. Este modelo nos permite incorporar covariables directamente al valor esperado, de manera que podemos cuantificar exactamente la influencia de estas covariables en la media de la variable de interés en vez de en la media condicional. La estimación se llevó a cabo desde una perspectiva bayesiana y debido a la complejidad de la distribución aumentada a posteriori usamos un algoritmo de Monte Carlo Hamiltoniano, el muestreador No-U-Turn, que se encuentra implementado en el software Stan. Se realizó un estudio de simulación que compara, en términos de sesgo y RMSE, el modelo propuesto con otros modelos tradicionales longitudinales para variables acotadas, resultando que el primero tiene un mejor desempeño. Finalmente, aplicamos nuestro modelo de regresión Beta Inflacionada con efectos mixtos a datos reales los cuales consistían en información de la utilización de las líneas de crédito en el sistema financiero peruano.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Cortés, Tejada Fernando Javier. „Jointly modelling of cluster dependent pro les of fractional and binary variables from a Bayesian point of view“. Master's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17386.

Der volle Inhalt der Quelle
Annotation:
En la presente tesis se proponen modelos de clasificación basados en regresiones beta inflacionadas cero-uno con efectos mixtos para modelar perfiles longitudinales de variables fraccionarias mixtas y variables binarias de forma conjunta con formación de clústeres. Las distintas parametrizaciones de los modelos propuestos permiten modelar distintos efectos, como modelar directamente la media marginal a través de covariables e interpretar fácilmente su efecto sobre ella o modelar la media condicional y las probabilidades de inflación de forma separada. Además, se forman clústeres de grupos de individuos con perfiles longitudinales similares a través de una variable latente, asumiendo que las variables respuesta siguen un modelo de mixtura finita. Debido a la complejidad de los modelos, los parámetros se estiman desde un punto de vista bayesiano, a partir de simulaciones MCMC utilizando el software JAGS en R. Se prueban los modelos propuestos sobre diferentes bases de datos simulados para medir el desempeño de los mismos y se comparan con otros modelos a fin de verificar cual ajusta mejor los perfiles longitudinales de variables fraccionarias mixtas y variables binarias. Por último, se aplican los modelos propuestos a datos reales de un banco peruano, con información del ratio de uso de tarjetas de crédito en el periodo de un año, estado de default del cliente y otras covariables correspondientes al cliente poseedor de la tarjeta, con el objetivo de obtener clústeres de individuos con similar ratio de uso de tarjeta de crédito y relacionarlos con la probabilidad de caer en default que presenta cada grupo.
The following thesis proposes classi cation models that consist of jointly tting longitudinal pro les of mixed fractional and binary variables modelled by zero-one beta in ated mixed regressions with cluster formation. The distinct proposed parametrizations allow di erent effects to be modelled, such as modelling the marginal mean directly through independent variables and easily interpret its e ect on it or modelling the conditional mean and the in- ation probabilities separately. In addition, individuals with similar fractional longitudinal pro les are grouped into a cluster through a latent variable, assuming that the response variables follow a nite mixture model. Due to the complexity of the models, the parameters are estimated from a Bayesian point of view by simulating a MCMC using JAGS software in R. The proposed models are tted in various simulated datasets and are compared against other models to measure performance in tting fractional longitudinal pro les and binary variables. Finally, an application on real data is conducted, consisting on longitudinal information of credit card utilization ratio and default status as dependants variables and covariates corresponding to client information, aiming to obtain clusters of clients with similar behaviour in evolution of credit card utilization and relate them to their probability of default.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Contreras, Vilca Norma. „Análisis de votos electorales usando modelos de regresión para datos de conteo“. Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4472.

Der volle Inhalt der Quelle
Annotation:
Se presentan dos modelos de regresión para datos de conteo: el modelo de regresión Poisson y modelo de regresión Binomial Negativa dentro del marco de los Modelos Lineales Generalizados. Los modelos son aplicados inicialmente a un conjunto de datos conocido como ((The Aircraft Damage)) presentado en Montgomery (2006) referido al número de daños en las aeronaves durante la guerra de Vietnam. La principal aplicación de este trabajo sería el análisis de los votos obtenidos por el candidato Ollanta Humala Tasso en los resultados de las ((Elecciones Generales y Parlamento Andino 2011)), analizamos los datos de la primera vuelta a nivel de regiones considerando diversos predictores. Ambos conjunto de datos, presentan sobredispersión, esto es una varianza mayor que la media, bajo estas condiciones el modelo de Regresión Binomial Negativa resulta m as adecuado que el modelo de Regresión Poisson. Adicionalmente, se realizaron estudios de diagnósticos que confirman la elección del modelo Binomial Negativa como el más apropiado para estos datos.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Soto, Vaquero José Ricardo. „Evaluación de una prueba estadística para detectar endogeneidad en modelos Bid de uso de suelo“. Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/170778.

Der volle Inhalt der Quelle
Annotation:
Memoria para optar al título de Ingeniero Civil
Los modelos de uso de suelo permiten analizar la interacción entre los sistemas de transporte y el mercado inmobiliario. Esto los vuelve una herramienta de gran importancia para la toma de decisiones que concluye en proyectos como una línea de metro, un edificio comercial o un nuevo plano regulador. Considerando el alcance y consecuencias que tienen esta clase de proyectos en la sociedad, resulta fundamental que los modelos propuestos sean consistentes y permitan realizar pronósticos que reflejen la realidad en escenarios futuros. Los modelos de uso de suelo actuales son desarrollados bajo un enfoque Bid de máxima postura aleatoria, que podrían sufrir de endogeneidad debido, entre otras cosas, a la omisión de atributos, difíciles de medir pero muy influyentes en lo observado. La detección y correc- ción de endogeneidad ha sido estudiada ampliamente en el contexto de elecciones discretas (Louviere et al., 2005; Guevara, 2015), pero no en el caso particular del modelo Bid. Se han desarrollado múltiples metodologías para estimar modelos Bid (Ellickson, 1981; Lerman y Kern, 1983) que varían en términos de eficiencia. En consideración de lo anterior, esta memoria propone el desarrollo de una prueba de hipótesis basada en la prueba de especificación de Hausman y McFadden (1984) que logre detectar endogeneidad en modelos Bid. La principal ventaja que presenta el test propuesto frente a otras opciones es el no requerir de supuestos adicionales ni del uso de variables instrumentales para ser aplicado. Para estudiar el test propuesto se desarrolla un experimento de Monte Carlo donde se evalúan los indicadores de size distortion y poder empírico del test, los que son contrastados con el método de funciones de control. Este último se propone como alternativa pese al inconveniente de exigir el uso de variables instrumentales. El experimento simula una ciudad monocéntrica compuesta por hogares de dos estratos socioeconómicos donde se realiza un remate de viviendas a partir de un conjunto de atributos dado, logrando un equilibrio de mercado controlando la distribución de hogares por estrato y suponiendo un precio pagado igual a la máxima postura observada. Luego, se procede a estimar el modelo omitiendo un atributo de la simulación, que deriva en una fuente de endogeneidad que permite evaluar el test. La simulación concluye que la prueba desarrollada es capaz de detectar endogeneidad bajo ciertas condiciones. No obstante, existen casos donde el test puede fallar. En particular, cuando la valoración del atributo omitido es diferente para cada estrato se observan caídas en el poder empírico del test. Por otra parte, la comparación realizada con funciones de control muestra que este último posee mayor poder, mas el uso de variables instrumentales sigue representando un inconveniente que el test propuesto logra subsanar.
Fondecyt No. 1150590
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Manrique, Pachas Christian Fernando. „Análisis comparativo de los modelos de elección discreta, regresión logística y Probit“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/10671.

Der volle Inhalt der Quelle
Annotation:
El documento digital no refiere asesor
Presenta la teoría y aplicación de los modelos de regresión logística y los modelos Probit a fin de conocer los factores de riesgo que influyen en la enfermedad angina de pecho. La razón principal de este estudio es identificar los factores más significativos de riesgo y prevención para dicha enfermedad dentro de la población en estudio. El trabajo presenta el desarrollo de ambos métodos y ha finalizado con la aplicación en la cual se compararon las dos metodologías, demostrando que los mejores resultados son obtenidos con el modelo Probit. La aplicación fue desarrollada con los programas SPSS versión 22 y el Minitab 17.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Malaspina, Quevedo Martín Ludgardo. „Modelos de teoría de respuesta al ítem multidimensional con una aplicación psicológica“. Master's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7494.

Der volle Inhalt der Quelle
Annotation:
La presente investigación, dentro del contexto de la Teoría de Respuesta al Ítem (TRI), estudia un modelo multidimensional logístico compensatorio de dos parámetros (M2PL) para ítems dicotómicos. Para ello, se explican teóricamente los métodos de estimación más conocidos para los parámetros de los ítems y de los rasgos latentes de las personas, priorizando el método bayesiano mediante Cadenas de Markov de Monte Carlo (MCMC). Estos métodos de estimación se exploran mediante implementaciones computacionales con el software R y R2WinBUGS. La calidad de las respectivas estimaciones de los parámetros se analiza mediante un estudio de simulación, en el cual se comprueba que el método de estimación más robusto para el modelo propuesto es el bayesiano mediante MCMC. Finalmente, el modelo y el método de estimación elegidos se ilustran mediante una aplicación que usa un conjunto de datos sobre actitudes hacia la estadística en estudiantes de una universidad privada de Colombia.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Flores, Ari Sandra Elizabeth. „Modelos testlet logísticos y logísticos de exponente positivo para pruebas de compresión de textos“. Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/1469.

Der volle Inhalt der Quelle
Annotation:
Los modelos de Teoría de Respuesta al Item (TRI) para datos binarios multivariados, permiten estimar una medida latente (de habilidad) a partir de información observada, que puede ser respuestas dicotómicas (de éxito y fracaso) a un conjunto de ítems de una determinada prueba. Uno de los supuestos críticos en los modelos TRI es la independencia condicional de los ítems, que permite el cálculo directo de la verosimilitud del modelo. En muchas situaciones de evaluación este supuesto no se cumple, como es el caso de pruebas de comprensión de textos, en la que se presenta un texto y luego varias preguntas relacionadas con ese texto. Este tipo de estructuras son denominadas como testlets. Bradlow et al. (1999) desarrollaron una parametrización adicional para recoger el efecto de esta dependencia. A partir de este trabajo se presenta el modelo Testlet logístico y se propone el modelo Testlet logístico de exponente positivo (2LPET), que es una extensión del modelo LPE propuesto por Samejima (1999) y Bazan y Bolfarine (2010) y considera enlaces asimétricos. Se desarrollaron varios estudios de simulación en los que se muestra que cuando se tiene testlets, los modelos Testlet recuperan mejor los parámetros respecto a los modelos TRI. Finalmente se realizó una aplicación con datos del Ministerio de Educación, específicamente con los resultados de la prueba de comprensión de textos de la Evaluación Censal de Estudiantes (ECE) dirigido a estudiantes de segundo grado de primaria, en un conjunto de escuelas de Lima metropolitana. De los resultados obtenidos se concluye que los modelos TRI sobreestiman la medida de habilidad respecto a los modelos Testlets y además la información de la prueba es mejor distribuida por el modelo propuesto.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Quintos, Choy Manuel Alejandro. „Inferencia bayesiana en un modelo de regresión cuantílica autorregresivo“. Master's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/19467.

Der volle Inhalt der Quelle
Annotation:
El modelo de regresión cuantílica autorregresivo permite modelar el cuantil condicional de una serie de tiempo a partir de los rezagos de la serie. En el presente trabajo se presenta la estimación de este modelo desde la perspectiva bayesiana asumiendo que los errores se distribuyen según la distribución asimétrica de Laplace (ALD). Luego, el proceso de generación de muestras de la distribución a posteriori es simplificado utilizando una representación estocástica de la ALD propuesta por Kotz et al. (2001) y el algoritmo de datos aumentados de Tanner y Wong (1987), siguiendo la propuesta de Kozumi y Kobayashi (2011), así como las adaptaciones para el modelamiento de series de tiempo de Cai et al. (2012) y Liu y Luger (2017). Los estudios de simulación demuestran que el supuesto sobre la distribución del término error no es limitante para estimar el cuantil condicional de series de tiempo con otras distribuciones. El modelo es aplicado en la predicción del Valor en Riesgo (VaR) en la serie de tiempo de los retornos diarios de la tasa de cambio de PEN a USD, y sus resultados son comparados con las predicciones obtenidas por las metodologías RiskMetrics, GARCH(1,1) y CAVIaR. Al respecto, la evidencia numérica permite concluir que el modelo QAR es una alternativa válida para estimar el VaR.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Rodríguez, Alcócer Augusto Fernando. „Combinación de reglas de portafolio con la asignación 1/N y la ponderada por capitalización bursátil“. Master's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/7493.

Der volle Inhalt der Quelle
Annotation:
La teoría del portafolio estudia el proceso a través del cual se realiza la asignación óptima de activos. El análisis Media - Varianza (MV) propone que los agentes estructuran portafolios de inversión optimizando el retorno esperado o el riesgo. Así, fijando el nivel deseado de una de estas variables, es posible elaborar una frontera eficiente compuesta por portafolios óptimos. Sin embargo, si bien el análisis MV ha sido trabajado de manera extensa presenta una limitación: los parámetros reales no son conocidos sino estimados a partir de la observación de datos. Ello incorpora el problema de incertidumbre en la modelación, por lo que las reglas de portafolio óptimo están sujetas a errores aleatorios que pueden generar que los parámetros estimados se alejen de los reales. El objetivo del presente trabajo es revisar dicho análisis bajo el enfoque de reglas de portafolio, y si existe la posibilidad de reducir el riesgo de estimación a través de la combinación de las reglas con el portafolio de pesos iguales y con el portafolio ajustado por capitalización bursátil. Para la programación se utiliza el paquete estadístico R - project. Los resultados sugieren que la combinación de las reglas con los dos portafolios seleccionados puede mejorar los resultados fuera de muestra esperados y que bajo ciertas circunstancias, combinar con el portafolio de capitalización bursátil puede ser más eficiente que con el portafolio de pesos iguales.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Huaraz, Zuloaga Diego Eduardo. „Inferencia bayesiana en el modelo de regresión spline penalizado con una aplicación a los tiempos en cola de una agencia bancaria“. Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/4473.

Der volle Inhalt der Quelle
Annotation:
En diversos campos de aplicación se requiere utilizar modelos de regresión para analizar la relación entre dos variables. Cuando esta relación es compleja, es difícil modelar los datos usando técnicas paramétricas tradicionales, por lo que estos casos requieren de la flexibilidad de los modelos no paramétricos para ajustar los datos. Entre los diferentes modelos no paramétricos está la regresión spline penalizada, que puede ser formulada dentro de un marco de modelos lineales mixtos. De este modo, los programas computacionales desarrollados originalmente para la inferencia clásica y Bayesiana de modelos mixtos pueden ser utilizados para estimarlo. La presente tesis se centra en el estudio de la inferencia Bayesiana en el modelo de regresión spline penalizado. Para lograr esto, este trabajo proporciona un marco teórico breve de este modelo semiparamétrico y su relación con el modelo lineal mixto, la inferencia Bayesiana de este modelo, y un estudio de simulación donde se comparan la inferencia clásica y Bayesiana en diferentes escenarios considerando diversos valores del n umero de nodos, tamaños de muestra y niveles de dispersión en la data simulada. Finalmente, en base a los resultados del estudio de simulación, el modelo se aplica para estimar el tiempo de espera en cola de los clientes en agencias bancarias con el fin de calcular la capacidad de personal óptima bajo determinadas metas de nivel de servicio.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Quintos, Choy Manuel Alejandro. „Inferencia bayesiana en un modelo de regresión cuantílica autorregresivo tesis para optar por el grado de magister en estadística“. Master's thesis, Pontificia Universidad Católica del Perú, 2006. http://hdl.handle.net/20.500.12404/19467.

Der volle Inhalt der Quelle
Annotation:
El modelo de regresión cuantílica autorregresivo permite modelar el cuantil condicional de una serie de tiempo a partir de los rezagos de la serie. En el presente trabajo se presenta la estimación de este modelo desde la perspectiva bayesiana asumiendo que los errores se distribuyen según la distribución asimétrica de Laplace (ALD). Luego, el proceso de generación de muestras de la distribución a posteriori es simplificado utilizando una representación estocástica de la ALD propuesta por Kotz et al. (2001) y el algoritmo de datos aumentados de Tanner y Wong (1987), siguiendo la propuesta de Kozumi y Kobayashi (2011), así como las adaptaciones para el modelamiento de series de tiempo de Cai et al. (2012) y Liu y Luger (2017). Los estudios de simulación demuestran que el supuesto sobre la distribución del término error no es limitante para estimar el cuantil condicional de series de tiempo con otras distribuciones. El modelo es aplicado en la predicción del Valor en Riesgo (VaR) en la serie de tiempo de los retornos diarios de la tasa de cambio de PEN a USD, y sus resultados son comparados con las predicciones obtenidas por las metodologías RiskMetrics, GARCH(1,1) y CAVIaR. Al respecto, la evidencia numérica permite concluir que el modelo QAR es una alternativa válida para estimar el VaR.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Huertas, Quispe Anthony Enrique. „Modelamiento del tiempo a la ocurrencia de un evento con tiempos discretos“. Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://hdl.handle.net/20.500.12404/17875.

Der volle Inhalt der Quelle
Annotation:
En este trabajo de tesis, se plantea estudiar el tiempo a la ocurrencia de un evento en un proceso discreto. Para ello, se considera un modelo mixtura de fracción de cura sobre una población segmentada en dos tipos de individuos: sujetos curados, o también denominados sobrevivientes a largo plazo, haciendo referencia a aquellos sujetos que no alcanzarán el evento de interés en estudio; y sujetos no curados, o también denominados sujetos susceptibles, quienes en un tiempo específico, experimentarán dicho evento de interés. Los objetivos principales de esta tesis, son el de estimar la fracción de cura, la cual está definida como la proporción de individuos curados al final del estudio, y estimar el tiempo de falla para los individuos susceptibles, entendiéndose como el tiempo a la ocurrencia del evento. Este análisis se llevará a cabo con la presencia de covariables y datos censurados, siendo la simulación e inferencia de los datos efectuados vía el software estadístico R, en donde los procesos de simulación abordarán distintos escenarios para evaluar la performance del modelo propuesto.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Giaconi, Smoje Valentina Sofía. „Modelación estadística del impacto de contextos académicos en las creencias y el desempeño de estudiantes de Chile“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/148479.

Der volle Inhalt der Quelle
Annotation:
Doctora en Ciencias de la Ingeniería, Mención Modelación Matemática. En Cotutela con la Universidad Grenoble Alpes
This PhD thesis is dedicated to the statistical modeling of the impact of academic en- vironments on student s beliefs and achievement in Chile. We contribute to the field of educational effectiveness with a statistical discussion regarding how to combine multilevel models with methods for selection bias and missing data and two empirical studies. The statistical discussion was used to take methodological decisions in the empirical studies. The first empirical study evaluates the impact of science courses on students beliefs. The second empirical study is about school effects on students trajectories in mathematics and reading scores. In the statistical part, we analyze linear adjustment and propensity score matching to address selection bias. Regarding the missing data problem, we considered multiple imputation techniques. Each of these methods is compatible with multilevel models. However, the problem of addressing selection bias and missing data simultaneously with hierarchical data is not resolved. We present a statistical discussion that classifies and analyzes strategies to combine the methods. The first empirical study regards the influence of Life and Non-life science courses in secondary students epistemic and self-efficacy beliefs related to sciences. We compared students that took summer science courses with a control group in a post and follow-up beliefs questionnaire. We found positive effects of Life courses and courses with laboratory work, controlling for confounding variables. The results show differences between Life and Non-life scientific disciplines that should be explored. The second empirical study concerns school effects on trajectories of Chilean students. It has two aims. The first aim is to describe the characteristics of the trajectories in mathematics and reading scores and the variation explained by primary and secondary schools. The second aim is to measure the effect of public schools in comparison with voucher schools on students trajectories in mathematics and reading scores. We used a longitudinal national database which included measures for the same students at 4th, 8th and 10th grade. Multilevel growth models were used to model the trajectories. We found effects of secondary and primary schools on intercepts and slopes. In addition, we found negative effects from public education, which became not significant after control- ling for school socioeconomic composition and selection practices. The results illustrate the stratification between the public system and voucher system and the need to study inside each system which schools are more efficient.
Este trabajo ha sido parcialmente financiado por CONICYT- Beca Doctorado Nacional 2013
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Astete, Morales Sandra Cecilia. „Desarrollo de indices de temor al crimen y sus factores influyentes relevantes“. Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113835.

Der volle Inhalt der Quelle
Annotation:
Ingeniera Civil Matemática
Esta memoria tiene como objetivo la construcción de uno o más índices de temor al crimen, además del análisis de la influencia de variables sociodemográficas y de victimi- zación sobre éste o estos índices. El temor al crimen es un concepto desarrollado por criminólogos internacionales durante el siglo XX. La subjetividad de la definición del temor al crimen y la multidimensionalidad que presenta lo hacen difícil de medir. En esta memoria de título se explora la posibilidad de obtener índices que contengan la mayor cantidad de información posible respecto a la percepción de inseguridad de los individuos. Para esto, se intenta representar variados aspectos del temor al crimen, todos ellos introducidos por expertos. Estos aspectos corresponden a niveles de temor afectivo, cognitivo, de comportamiento y de percepción. Y engloban varias aristas, tales como reac- ciones instintivas, acciones que los individuos realizan para evitar los delitos y percepciones sociales. Para la medición de estos aspectos del temor al crimen se analizan las bases de datos de la Encuesta Nacional Urbana de Seguridad Ciudadana, realizada anualmente en Chile, la cual es representativa a nivel país y contiene una sección completa de Percepción y reac- ción frente al delito. Las variables medidas en esta sección son seleccionadas dependiendo de su competencia en cada aspecto del temor al crimen. A partir de esta selección se aplican desarrollan tres métodos estadísticos para la obtención de los índices: CATPCA, SEM y clasificación de grupos. Se obtienen resultados consistentes para los cuatro años considerados (2008, 2009, 2010, 2011). Para el análisis descriptivo de los índices obtenidos, observando la influencia de factores sociodemográficos y de victimización, se utilizan Regresiones Lineales, Test χ2 y Modelos Mixtos. Sostenidamente, considerando los diferentes índices obtenidos y los métodos descripti- vos utilizados, se hallan las variables de Nivel Socioeconómico y algunas variables de victimización (como Victimización General o Robo en el hogar) como las más relevantes dentro del análisis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Cereceda, Cáceres José Manuel. „Análisis estadístico de datos geo-referenciados: estudio de efectos ambientales en asma y neumonía en Chile“. Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139757.

Der volle Inhalt der Quelle
Annotation:
Ingeniero Civil Matemático
El presente estudio tiene como objetivo principal la construcción de una plataforma GIS (Sistema de Información Geo-referenciada) para el análisis estadístico de procesos temporales y geo-referenciados, dicha plataforma consiste en la visualización geográfica de una zona de estudio, en la cual se pueden realizar análisis estadísticos de variables asociadas a la región. Asimismo, se describe y profundiza el modero ARIMA, integrado como metodología estadística en dicha plataforma. Para la realización del estudio se seleccionaron cinco comunas de la región Metropolitana, Santiago de Chile, incluyendo variables clínicas y ambientales. Datadas en orden temporal, los ingresos hospitalarios por asma y neumonía quedan contrastados respecto a condiciones ambientales de Ozono, material particulado y precipitaciones. Como herramientas para la construcción de la plataforma, se utilizaron los lenguajes R y PHP, como interfase de esta se construye un mapa interactivo. Con ello provee a un usuario, con o sin conocimientos previos en estadística, información exploratoria de los datos almacenados y resultados estadísticos que comparan o relacionan variables dentro de la región. El mapa interactivo, contiene la distribución geográfica de la región y distribución de estaciones meteorológicas que pueden ser seleccionadas para obtener información, así como la posibilidad de realizar interacciones usuario-plataforma, que mediante acciones del usuario producen análisis y gráficas mostradas en el GIS. Las aplicaciones GIS suelen ser utilizadas en distintas disciplinas e investigaciones científicas, por ejemplo, pueden ser utilizadas para la gestión de los recursos, para la evaluación del impacto ambiental, para la planificación urbana, en la sociología, entre otros. Dentro de los principales aportes de este trabajo de titulo, cabe mencionar que el formato de la plataforma GIS construida facilita la incorporación de aspectos socio-culturales, económicos y ambientales que contribuyen a la toma de decisiones de una manera más eficaz. Para futuras investigaciones, se propone implementar el modelo ARIMA para series bivariadas en R, lo que permitiría realizar un Test de independencia dos de series temporales
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Ancco, Cayllahua Adolfo Aldo. „Factores asociados al rendimiento académico en los cursos de Matemática Básica y Cálculo I de los alumnos ingresantes de la FCM-UNMSM utilizando regresión logística binaria“. Master's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/14574.

Der volle Inhalt der Quelle
Annotation:
Identifica los factores que influyen en el rendimiento académico de los alumnos ingresantes de la Facultad de Ciencias Matemática (F.C.M) de la Universidad Nacional Mayor de San Marcos (UNMSM) en los cursos de Matemática Básica y Cálculo I utilizando el modelo estadístico de regresión logística binaria; para identificar los principales factores influyentes se realizó una encuesta dirigida a los alumnos que ingresan a la Facultad de Ciencias Matemáticas matriculados en el semestre 2015-I en los cursos de Matemática Básica y Cálculo I.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Chumpitaz, Vásquez Miguel Angel. „Factores que caracterizan a los estudiantes sanmarquinos de pregrado que trabajan, y que influyen en su bajo rendimiento académico“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2003. https://hdl.handle.net/20.500.12672/15809.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Busca investigar la relación entre dicha situación con algunos aspectos socioeconómicos, demográficos y académicos de los estudiantes sanmarquinos de pregrado. Para cumplir con los objetivos de investigación no sólo se utilizó el análisis de tablas de contingencia, sino además dos métodos multivariantes uno exploratorio y otro confirmatorio- En primer lugar, el análisis de correspondencia múltiple para caracterizar a los estudiantes de pregrado que trabajan y en segundo lugar el análisis de regresión logística para encontrar dos modelos, uno que permita explicar la situación laboral y otro el rendimiento académico de los estudiantes de pregrado. La información con la que se trabajó corresponde a los datos del Censo Universitario Sanmarquino 2002, para lo cual seleccionamos una muestra de 718 estudiantes de pregrado. Para analizar los datos se utilizaron los siguientes softwares estadísticos, SPSS, STATISTICA además del programa EXCEL.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Brito, Pizarro Camila Fernanda. „Teoría de matrices aleatorias aplicada al análisis estadístico de un modelo de factores“. Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140486.

Der volle Inhalt der Quelle
Annotation:
Magíster en Ciencias de la Ingeniería, Mención Matemáticas Aplicadas. Ingeniera Civil Matemática
Las matrices aleatorias y su reciente teoría están jugando un papel fundamental como herramienta estadística en áreas tales como finanzas, meteorología y procesamiento de señales e imágenes. Algunas de las aplicaciones que han adquirido mayor desarrollo se encuentran en el sector financiero y en el área de las comunicaciones inalámbricas. El desafío planteado en este trabajo de tesis consiste en realizar un análisis estadístico basado en la teoría de matrices aleatorias referido a un modelo de factores. A través de la experimentación computacional, se pretende alcanzar dos metas. La primera de ellas consiste en contrastar dos versiones de un mismo test de hipótesis, las cuales se definen a partir de estadísticos provenientes de dos de las más conocidas familias gaussianas de matrices aleatorias: GUE y GOE. Esta comparación surge del hecho de que la familia GOE es menos estudiada en las aplicaciones de matrices aleatorias a considerar, de modo que se busca ampliar el conocimiento que de ella se tiene. Para hacer efectivo el contraste entre ambas versiones, estas se implementan para luego analizarlas en términos de sus comportamientos frente a errores y aciertos. Así, se logra probar empíricamente que no existe diferencia alguna entre ellas, por lo que la versión GOE del test es la que asume el protagonismo. Alcanzada la meta anterior, la segunda consiste en dar utilidad al test en su versión GOE, mediante el desarrollo de un procedimiento que lo aplica iteradas veces para estimar el número de factores de una muestra sujeta al modelo de factores. Posteriormente, el procedimiento es sometido a una serie de pruebas empíricas que buscan validarlo como método de estimación del número de factores. Finalmente, es preciso mencionar que, si bien, este trabajo posee un carácter fundamentalmente experimental, no se aparta del estudio, análisis y manejo abstracto de la teoría de matrices aleatorias que se requieren necesariamente para llevarlo a cabo.
Este trabajo ha sido parcialmente financiado por Núcleo Milenio: "Modelos estocásticos de sistemas complejos y desordenados"
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Landaure, Olavarría Juancarlos Rafael. „Modelos matemáticos para el precio del suelo urbano“. Master's thesis, Pontificia Universidad Católica del Perú, 2013. http://tesis.pucp.edu.pe/repositorio/handle/123456789/5049.

Der volle Inhalt der Quelle
Annotation:
La presente tesis revisa la literatura que se ha desarrollado sobre modelos matemáticos para la determinación de los precios del suelo urbano. La tesis se centra de forma específica en tres artículos del Journal of Urban Economics que desarrolló Denis Capozza, en los que se analizan, tres modelos: el modelo determinista, el modelo estocástico y el modelo de valoración de opciones. El primer capítulo, tiene carácter introductorio y panorámico. Hace una revisión general de los primeros modelos, luego se presenta de manera sucinta los tres modelos que son la materia fundamental de la tesis, y culmina con las tendencias y nuevos enfoques de investigación que existen para modelar los precios de la tierra y las ciudades en general. El segundo capítulo, presenta el modelo determinista, basado en el artículo The Fundamentals of Land Prices and Urban Growth. Se parte de algunas asunciones para construir un modelo dinámico sencillo de ciudad circular que determina los precios urbanos y agrícolas en función del tiempo y de la distancia al centro urbano. Nos enfocaremos en la primera parte del artículo, de donde se extrae la principal conclusión, que el precio del suelo urbano tiene cuatro componentes: el valor de la renta agrícola, el costo de conversión, el valor de accesibilidad, y la prima de crecimiento. Se hace una aplicación para el caso en que la población crece geométricamente. Se cierra el capítulo haciendo, como aporte propio, un ajuste: se desarrolla el mismo modelo determinista pero considerando crecimiento geométrico de las rentas. El tercer capítulo, presenta el modelo estocástico, basado en el artículo The Stochastic City. Tiene las mismas asunciones del modelo determinista excepto que se asume que el crecimiento de los ingresos y de las rentas sigue un movimiento browniano lineal. Se destaca que la conversión de la tierra de rural a urbana es irreversible y el tiempo óptimo de conversión es una variable aleatoria (un tiempo de parada). La conclusión principal es que el precio urbano tiene cinco componentes: los cuatro primeros idénticos al del caso determinista más un quinto componente llamado prima de irreversibilidad que es el que contiene la incertidumbre. Además, se prueba que la incertidumbre retrasa la conversión de la tierra agrícola a urbana y reduce el tamaño de equilibrio de la ciudad. Al _nal, como aporte propio, se hace un ajuste: se desarrolla el mismo modelo estocástico pero con crecimiento geométrico de las rentas. El cuarto capítulo, presenta el modelo de valoración de opciones, basado en el artículo Optimal Land Development Decisions. Se asume que las rentas crecen estocásticamente siguiendo un movimiento browniano geométrico. El artículo tiene, a diferencia de los dos anteriores, un enfoque desde la oferta, y la mayor parte se dedica a analizar la rentabilidad de la empresa comparando el método ortodoxo, basado en el valor actual neto y la tasa interna de retorno, con el método de valoración de opciones que proporciona resultados más refinados. Ya que el objetivo de esta tesis apunta al estudio del precio del suelo urbano más desde un punto de vista del conjunto de toda la ciudad, el estudio se enfocará más en estimar el valor de la opción que se ejerce cuando el propietario de un terreno decide construir sobre él. Posteriormente, como aporte propio, se hace un ajuste para estimar el valor de la opción de conversión de la tierra agrícola a urbana, concluyéndose que el valor de dicha opción es igual a suma de las primas de crecimiento e irreversibilidad estimadas en los modelos anteriores. El quinto capítulo, presenta un análisis comparativo de los tres modelos. Para lograr una comparación consistente, previamente se tuvieron que hacer en cada modelo los ajustes que se han explicado en los párrafos anteriores. La gran conclusión de este trabajo es que el modelo estocástico es una extensión del modelo determinista cuando no existe incertidumbre, y el modelo de valoración de opciones proporciona los mismos resultados para el valor de la prima de la tierra agrícola. Además, el modelo de opciones, al incorporar variables de la oferta, permitiría un enfoque más completo del equilibrio del mercado inmobiliario en la ciudad. En los apéndices se presenta un ejemplo aplicativo por cada modelo.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Gálvez, Parra Ignacio Patricio. „Cosimulación de variables composicionales“. Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/111289.

Der volle Inhalt der Quelle
Annotation:
Magíster en Minería
Las variables composicionales corresponden a las que son positivas y suman una constante en todos los puntos del espacio. El problema del modelamiento de este tipo de variables no es trivial dada la restricción sobre la suma constante, lo que trae consigo una serie de implicancias, siendo la más evidente la inadecuación de métodos clásicos de cokriging y simulaciones condicionales. Como objetivos de este trabajo se plantea proponer un modelo específico de simulaciones condicionales para variables composicionales, concluir sobre las ventajas y dificultades de su aplicabilidad e integrar el modelo a una aplicación minera. El modelo propuesto se define como una generalización del modelo plurigaussiano utilizado para simular variables indicadoras. La aplicación del modelo se divide en dos etapas: en la primera se calibra el modelo, mientras que en la segunda se hace el condicionamiento de los datos y se simula condicionalmente. La primera etapa tiene por objetivo ajustar las medias, histogramas, varianzas, covarianzas y variogramas de las variables composicionales, mientras que en la segunda se simulan valores Gaussianos primero en los sitios con datos y luego en el resto del espacio, para realizar simulaciones condicionales de variables composicionales. El modelo se logra aplicar satisfactoriamente a una base de datos de un pórfido de cobre que contiene mineralogías de bornita, calcopirita y resto de minerales sulfurados. El resultado del modelo es la integración de un plan minero de rajo abierto con el modelo de simulación de variables composicionales, lo que logra entregar el perfil de mineralogías de alimentación a planta en el tiempo junto con la posibilidad de hacer una serie de análisis probabilísticos asociados.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Luis, Bazán Jorge, und Ana Sofía Aparicio. „Las actitudes hacia la Matemática-Estadística dentro de un modelo de aprendizaje“. Pontificia Universidad Católica del Perú, 2012. http://repositorio.pucp.edu.pe/index/handle/123456789/116928.

Der volle Inhalt der Quelle
Annotation:
La importancia de las actitudes en el aprendizaje de la Matemática-Estadística ha sido reconocida en la literatura a través de diversos trabajosempíricos que las relacionan. No obstante, en las concepciones acerca de las actitudes se la identifica comoparte del dominio afectivo. En este trabajo hacemos una revisión acerca de las concepciones predominantessobre la afectividad y las actitudes en la educación y, presentamos una propuesta que ubica las actitudes dentrode un modelo de aprendizaje de la Matemática-Estadística. Este modelo nos permite brindar una definiciónde las actitudes, que resulta más útil para explicar diversos resultados de la literatura, así como para el trabajoeducativo, al reconocer que esta se organiza en el plano de las representaciones, considerando los dominioscognitivo, afectivo y conativo, y que determina aprendizajes a través de procedimientos productivos, emotivosy volitivos, elaborados a través de información psíquica; y a su vez al reconocer que los aprendizajespueden mediar como información social futura para la estabilidad o no de la actitud.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Fiestas, Pazo José Humberto. „Caracterización de los hogares del departamento de Piura, según niveles de pobreza, usando variables categóricas“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/9545.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Señala que en la caracterización de los hogares según sus niveles de pobreza no existe una forma única de medirla, en la literatura es usual hacerlo de forma objetiva recurriendo generalmente a líneas de pobreza. Sin embargo, en los últimos años ha surgido una línea de análisis alternativa que evalúa la percepción que tienen los pobres de su situación, llamada pobreza subjetiva. Si bien no intenta reemplazar los estudios tradicionales, conjuntamente con la metodología no monetaria que tiene en cuenta las medidas antropométricas y las necesidades básicas insatisfechas se constituyen en un análisis complementario que permite caracterizar el fenómeno y contribuir al diseño de políticas más eficientes y adecuadas para combatir la pobreza. Este trabajo está basado en un conjunto de preguntas, en formato de encuesta, recogida por la Encuesta Nacional de Hogares 2004 del módulo Gobernabilidad, Democracia y Transparencia, relacionada con la percepción del hogar para analizar la pobreza desde un enfoque subjetivo, el cual se caracterizará de acuerdo a la percepción de los ingresos y gastos de los hogares, la cual pueda ser susceptible de replicar en diferentes ciudades del país como a nivel internacional. Para lograr nuestros objetivos se utiliza una técnica multivariante muy eficaz como es el análisis de correspondencias.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Bazán, Guzmán Jorge Luis. „Introducción al modelo psicométrico de la teoría clásica de los tests (Parte 1)“. Pontificia Universidad Católica del Perú, 2014. http://repositorio.pucp.edu.pe/index/handle/123456789/96037.

Der volle Inhalt der Quelle
Annotation:
Se hace un esbozo de la justificación estadística y matemática propia de la Psicometría para el problema de medición psicológica, con una introducción a la axiomática y principales relaciones de la teoría clásica de los tests. Nuestro abordaje se basa en una revisión de la literatura pertinente, pero, adicionalmente, contiene resultados y derivaciones propias. Un valor adicional está constituido por el tratamiento como modelo y su conexión desde la teoría matemática de medición y la justificación de la aleatoriedad de los puntajes observados, así como incorporar la propuesta de Zimmerman sobre la definición de validez. El presente estudio pretende ofrecer una presentación del modelo psicométrico de la Teoría clásica de los tests, el cual contiene parte del modelo lineal clásico para una medición en una población de sujetos.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Canseco, Valdez Patricia Gianina. „Modelo de respuesta aleatorizada : una aplicación a estudiantes de la Facultad de Ciencias Matemáticas de la Universidad Nacional Mayor de San Marcos“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/15323.

Der volle Inhalt der Quelle
Annotation:
Presenta la teoría y la aplicación del modelo de respuesta aleatorizada. El modelo de respuesta aleatorizada estratificada propuesto por Kim y Elam (2003) se aplicó en una encuesta realizada en la Facultad de Ciencias Matemáticas, para investigar el comportamiento de los jóvenes con respecto a las drogas, sexo, alcohol y hurto, estos resultados fueron comparados con el Método Convencional de entrevista directa. La población en estudio comprende a los alumnos matriculados en el semestre 2009-II.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Sosa, Paredes Yuriko Kirilovna. „Modelo Dina aplicado a la evaluación de matemática en estudiantes de segundo grado de secundaria“. Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8717.

Der volle Inhalt der Quelle
Annotation:
Los modelos de diagnóstico cognitivo (MDC) tienen como finalidad describir o diagnosticar el comportamiento de los evaluados por medio de clases o perfiles latentes, de tal manera que se obtenga información más específica acerca de las fortalezas y debilidades de ellos. Uno de los modelos más populares de esta gran familia es el llamado modelo DINA, el cual tuvo su primera aparición en Haertel (1989) enfocado principalmente en el campo educacional. Este modelo considera solo respuestas observadas dicotómicas de parte de los individuos y tiene como restricción principal que ellos deben dominar necesariamente todas las habilidades requeridas por cada ítem; aquellas que se resumen en una matriz llamada Q. Asimismo, el modelo estima parámetros para los ítems, los cuales son denominados de \ruido": Adivinación y Desliz. En este trabajo desarrolla teóricamente el modelo expuesto; es decir, sus fundamentos y principales propiedades desde el enfoque bayesiano. Específicamente, las estimaciones se realizan mediante el Muestreador de Gibbs. Se realizaron 8 estudios de simulación, cada uno de ellos con tres diferentes tamaños de población, donde se probaron combinaciones de los parámetros en estudio con el fin de comparar la recuperación de parámetros mediante el enfoque clásico y el bayesiano. El análisis de ambos enfoques se realizó con rutinas de código del software libre R, usando los paquetes CDM y dina para el enfoque clásico y el bayesiano, respectivamente. En líneas generales, los resultados muestran estimaciones insesgadas y con valores pequeños de la raíz del error cuadrático medio (RMSE) para ambos enfoques. Incluso, conforme el tamaño de la población incrementa, las estimaciones no tienen mayores diferencias. Aunque en tamaños de población más pequeños el enfoque bayesiano obtiene ligeras ventajas con respecto al otro, especialmente en el parámetro de probabilidad de pertenencia a las clases (π). Además, es necesario mencionar que los parámetros de ruido de los ítems son estimados más precisamente con el enfoque clásico en varios de los estudios. Finalmente, se presenta una aplicación enfocada en educación, donde se analiza una muestra de 3040 alumnos del 2do grado de secundaria, evaluados en una prueba de 48 ítems de la competencia matemática realizada por la Oficina de Medición de la Calidad de los Aprendizajes (UMC) en el 2015. A esta prueba se le aplica el modelo de Rasch y el modelo DINA bajo el enfoque bayesiano, con el _n de estudiar la correspondencia entre indicadores de ambos modelos, tanto para los parámetros de los alumnos (habilidad y per_les latentes) como de los ítems (dificultad y parámetros de ruido).
Trabajo de investigación
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Madaniesfahani, Nasser. „Plurigaussian simulation of non-stationary categorical variables and its application to ore body modeling“. Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139158.

Der volle Inhalt der Quelle
Annotation:
Doctor en Ingeniería de Minas
The conditional simulation of geological domains, coded through categorical regionalized variables, allows constructing outcomes (realizations) of the layout of these domains that reproduce their spatial continuity and dependence relationships. These realizations can be further processed to quantify geological uncertainty and to determine the probability that a given domain prevails at any unsampled location or jointly over several locations. This information is essential to geological control in order to take proper decisions when mining an ore deposit. Among the existing approaches for simulating geological domains, the plurigaussian model has become popular in the petroleum and mining industries. In this model, the domains are obtained by truncating one or more Gaussian random fields. Even so, the model is well-established only in the stationary case, when the spatial distribution of the domains is homogeneous in space, and suffers from theoretical and practical impediments in the non-stationary case. To overcome these limitations, this thesis proposes several improvements in plurigaussian modeling. The main one is the extension of the model to the truncation of intrinsic random fields of order k with Gaussian generalized increments, instead of stationary Gaussian random fields, which allows reproducing spatial trends and zonal patterns in the distribution of the geological domains, a feature commonly met in practice with lithological, mineralogical and alteration domains. To this end, methodological proposals are made in relation to the definition of geostatistical tools and algorithms for inferring the model parameters (truncation rule based on considerations of the domain chronology and contact relationships, truncation thresholds, and generalized covariance functions of the underlying intrinsic random fields of order k) and for the construction of realizations conditioned to existing data. Also, the proposals are put in practice through synthetic case studies and a real case study (Río Blanco ore deposit) to demonstrate their applicability. The benefits of the proposed non-stationary plurigaussian model are twofold: (i) it allows reproducing trends in the spatial distribution of the geological domains, and (ii) the local proportions of the domains are not needed in the simulation process, thus the model is not affected by possible misspecifications of these proportions. Despite the very limited number of conditioning data, the Río Blanco case study shows a remarkable agreement between the simulated rock type domains and the lithological model interpreted by geologists, and proves to be much more successful than the conventional stationary plurigaussian model. The proposal thus appears as an attractive alternative for stochastic geological domaining, based on a sound theoretical background and on the incorporation of qualitative geological knowledge, such as the chronology, contact relationships or spatial trends of the domains to be simulated, which is helpful for guiding the modeling process and validating it.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Llactas, Abanto Rudy Eduardo. „Introducción a los modelos de ecuaciones estructurales“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/12784.

Der volle Inhalt der Quelle
Annotation:
Describe la herramienta estadística Modelo de ecuaciones estructurales, da a conocer su marco teórico y adicionalmente mostrar de manera básica como es usado en el programa LISREL.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Henríquez, Arratia María Pilar. „Desarrollo de un modelo lexicográfico de ordenamiento parcial de atributos“. Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/132030.

Der volle Inhalt der Quelle
Annotation:
Ingeniera Civil Industrial
Magíster en Gestión de Operaciones
Los modelos de elección compensatorios han sido los modelos más utilizados para representar la toma de decisiones de compra de los consumidores. Sin embargo, diferentes escenarios puede motivar la toma de decisiones evitando compensaciones. Para representar este tipo de situaciones, los modelos lexicográficos se convierten en una alternativa que puede reportar beneficios por ahorro de tiempo y esfuerzo. Los modelos lexicográficos desarrollados asumen que los individuos tienen total conocimiento respecto a los atributos con los que aparecen descritas las alternativas y son capaces de valorizarlos y utilizarlos para decidir la alternativa preferida. En esta tesis se propone un modelo de elección lexicográfico que elimina el supuesto de capacidad de ordenamiento completa de atributos. El modelo propuesto admite incertidumbre en el orden de atributos y también errores de elección por parte de los consumidores a la hora de declarar la alternativa preferida. Se proponen dos enfoques de estimación: homogéneo y heterogéneo en la capacidad individual de ordenamiento de atributos. En cada uno de ellos, se utiliza el procedimiento Bayesiano para estimar las probabilidades lexicográficas individuales de elección. Mediante simulación, se confirma la robustez del modelo propuesto en términos de conseguir estimar la cantidad de atributos que los individuos están realmente considerando para tomar sus decisiones, recuperar los parámetros del modelo y predecir las elecciones de los consumidores. Este trabajo finaliza con una aplicación a una muestra real encuestada respecto al mercado de tablets. En esta parte, se compara el modelo heterogéneo con un modelo lineal. Si bien el segundo logra mejores tasas de acierto, el modelo heterogéneo es a su vez mejor que cualquier variante al modelo lineal del tipo q-compensatorio. Se concluye que con el modelo propuesto es posible obtener más información respecto a cómo los consumidores toman decisiones, transformándose en un modelo que logra explicar de mejor forma los procesos de elección sin perder con ello capacidad predictiva.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Barriga, Pozada Alfonso Carlos Cesar. „Modelo bayesiano geoestadístico beta-inflacionado utilizando NNGP con aplicación a datos de cobertura forestal“. Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/17145.

Der volle Inhalt der Quelle
Annotation:
En esta tesis proponemos un nuevo modelo geoestadístico beta inflacionado en ceros y unos utilizando NNGP (del inglés Nearest Neighbor Gaussian Process). La ventaja principal de modelar los efectos espaciales utilizando NNGP es la reducción del elevado tiempo computacional que con lleva modelar un proceso gaussiano, ya que no necesita trabajar con todos los vecinos sino solo con un grupo reducido. La estimación de los parámetros se llevó a cabo desde una perspectiva bayesiana. Además, se llevó a cabo un estudio de simulación en el cual se hicieron pruebas con diferentes cantidades de vecinos para evaluar en términos de RMSE y tiempo computacional la ganancia en la estimación del modelo al agregar más vecinos. Finalmente, se modeló la proporción de cobertura forestal en Hiroshima utilizando el modelo geoestadístico desarrollado, obteniendo buenos resultados.
In this thesis, we propose a new geostatistical beta inflated zero-one model using NNGP (Nearest Neighbor Gaussian Process). The main advantage of using NNGP in the modeling of spatial effects is the reduction of the large computing time it takes to model a Gaussian process since it does not need to work with all the neighbors, but only with a small group. The estimation of the parameters is done from a bayesian perspective since the posterior distribution does not have a known shape. In addition, a simulation studywas carried out inwhich testswere donewith different amounts of neighborstoevaluateintermsofRMSEandcomputational timethegaininthemodels whenaddingmore neighbors.Finally, the proportionof forest cover inHiroshimawas modeled using the developed geostatistical model, obtaining good results.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Matos, Zarsoza José Ignacio. „Modelo de Respuesta Aleatorizada Mixto de Kim y Warde: aplicación a estudiantes de la Facultad de Ciencias Matemáticas de la UNMSM – 2015“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/5508.

Der volle Inhalt der Quelle
Annotation:
Estudia el Modelo de Respuesta Aleatorizada Mixto (MRAM) propuesto por Kim y Warde (2004), el cual se aplicó en una encuesta realizada en la Facultad de Ciencias Matemáticas, para investigar el comportamiento de los jóvenes estudiantes con respecto a las malas prácticas académicas, realizar copias y consumo de drogas para mejorar el rendimiento académico en un examen. La población estudiada comprende a los alumnos matriculados en el Semestre 2015-I pertenecientes a las cuatro escuelas académico profesionales de la Facultad de Ciencias Matemáticas de la UNMSM.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Roque, Roque Daniel Octavio. „Forma funcional de covariables en el modelo de Cox“. Master's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/979.

Der volle Inhalt der Quelle
Annotation:
El análisis de supervivencia consiste en una colección de procedimientos estadísticos que permiten analizar y modelar, a los datos relacionados a la variable respuesta T, que a partir de un tiempo inicial pre-establecido; T representa el tiempo de seguimiento hasta la ocurrencia de un determinado suceso o evento de interés previamente fijado por el investigador, de modo que este evento de interés puede ser: muerte, fallo de un injerto renal, efectividad de un tratamiento, aparición de una complicación clínica, etc. Dichos procedimientos son hoy en día, una metodología fundamental en gran parte de los ensayos clínicos y de los estudios epidemiológicos que son experimentos de tipo longitudinal y prospectivo. El análisis de supervivencia se aplica a los datos biomédicos obtenidos según un protocolo que consiste en definir de manera precisa el momento inicial de la observación y el momento final, ya que la variable aleatoria T representa el tiempo transcurrido entre el inicio del tratamiento u observación y la consecución de un cierto evento de interés llamado falla o muerte. Sin embargo, puede haber individuos que no presentan el evento respectivo pre-establecido mientras dure el periodo de seguimiento, a los cuales, se les denomina individuos censurados o datos censurados; por eso, el objetivo principal del análisis de supervivencia es incorporar a su análisis ésta información parcial proporcionada por los individuos censurados mediante métodos desarrollados para ese fin.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Dionisio, Reyes Yudalia Juana. „Control estadístico de la calidad aplicado al programa de extensión social de EsSalud, caso : préstamos bancarios a sus trabajadores, período 2006-2009“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2014. https://hdl.handle.net/20.500.12672/3879.

Der volle Inhalt der Quelle
Annotation:
La presente Tesis tiene como objetivo describir los conceptos y procedimientos del Control Estadístico de la Calidad y aplicarlos en el análisis de la gestión del servicio de préstamos bancarios del Programa de Extensión Social de ESSALUD, en el periodo 2006-2009. Primeramente, se revisa los conceptos y avances relacionados a la calidad, sistemas de gestión de la calidad, normas internacionales ISO y principalmente las herramientas del Control Estadístico de la Calidad. Estas herramientas contienen técnicas cualitativas y métodos cuantitativos. Entre las técnicas cualitativas se tiene la Tormenta de Ideas y el Diagrama de Causa – Efecto útiles para comprender mejor el caso de estudio. Entre los métodos cuantitativos básicos tenemos el análisis exploratorio inicial de la base de datos y el Diagrama de Pareto, que identifica las causas principales del problema de calidad. Una de las principales herramientas estadísticas del Control Estadístico de la Calidad es el Gráfico de Control p. Una de las novedades de la presente aplicación es considerar muestras aleatorias sin reemplazo de una población finita. Para un mejor entendimiento e implementación de este gráfico también se revisa conceptos básicos de la teoría de probabilidades, inferencia y muestreo. Finalmente, se presenta algunas conclusiones y recomendaciones.
--- This thesis aims to describe the concepts and procedures of Statistical Quality Control and to apply this to the analysis of the management of the service of bank loan Social Outreach Program ESSALUD in the period 2006-2009. First it reviews the concepts and developments related to quality systems, quality management, ISO international standards and tools primarily Statistical Quality Control. These tools contain qualitative techniques and quantitative methods. Among the qualitative techniques we have Brainstorming and Diagram Cause - Effect useful to better understand the case study. The basic quantitative methods are the initial exploratory and descriptive analysis of the database and the Pareto diagram, which identifies the main causes of quality problems. One of the main statistical tools of Statistical Quality Control is the Control Chart p. One of the new features of the present application is to consider random sampling without replacement from a finite population. For a better understanding and implementation of this graph it also reviews basic concepts of probability theory, inference and sampling. Finally, it presents some conclusions and recommendations. KEY WORDS: QUALITY, CONTROL CHART, FINITE POPULATION, ATTRIBUTE, SIMPLE RANDOM SAMPLING, PROPORTION.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Castañeda, Guillén Celina Julia. „Tasa de cesáreas aplicando el modelo de clasificación de Robson en el Instituto Nacional Materno Perinatal, periodo enero - diciembre 2015“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/6134.

Der volle Inhalt der Quelle
Annotation:
Analiza las tasas de cesáreas en el Instituto Nacional Materno Perinatal (INMP) utilizando el modelo de clasificación de cesáreas de Robson con el objetivo de determinar en qué grupo o categoría se encuentra el mayor porcentaje de tasa de cesáreas. La muestra censal estuvo integrada por 8970 mujeres quienes culminaron la gestación por cesárea en el periodo enero - diciembre 2015 de un total de 20243 partos, representando una tasa de cesárea de 44.3%. La aplicación del modelo de Robson permite identificar que los grupos que más contribuyeron a la tasa de cesáreas fueron el grupo 1 con el 29.2%, el grupo 5 con el 21.3% y el grupo 3 con el 14.6%. El uso de este modelo de clasificación de cesáreas en factible, reproducible y permite implementar estrategias dirigidas a optimizar las tasas de cesáreas.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Flores, Flores Claudio Jaime, und Flores Claudio Jaime Flores. „Modelo de regresión de Cox usando splines“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. http://cybertesis.unmsm.edu.pe/handle/cybertesis/211.

Der volle Inhalt der Quelle
Annotation:
En muchos estudios clínicos es muy frecuente el uso de modelo de riesgos proporcionales de Cox; el cual asume riesgos proporcionales y restringe a que el logaritmo de la razón de riesgo sea lineal en las covariables, lo cual en muchos casos no se verifica. En este sentido, una forma funcional no lineal del efecto de las covariables puede ser aproximada por una función spline. En este trabajo, se presenta la metodología del modelo de regresión de Cox usando splines, particularmente regresión splines y P-splines, para aproximar la forma funcional no-lineal de los efectos de las covariables en la función de riesgo. Como una aplicación, se analiza los datos de pacientes con LNH para determinar los factores pronósticos para la supervivencia global. Los resultados muestran que el efecto de las covariables contínuas como hemoglobina, leucocitos, linfocitos y DHL presentan una forma funcional no lineal en el logaritmo de la razón de riesgo. -- Palabras claves: Modelo de Cox, regresión splines, P-splines, LNH.
-- In many clinical studies, Cox proportional hazard model is very common to use, it assumes proportional hazard and restricts the log hazard ratio to be linear in the covariates; these asumptions can not be verified. In this way, a nonlinear functional form of the covariates effect can be approximated by a spline function. In this paper, we present the methodology and an application of Cox model using splines, particularly regression splines and P-splines, to approximate the nonlinear functional form of the effect of covariates on the hazard function. As an application, we analyse data from patients with NHL to determine prognostic factors for overall survival. These results show that the effect of continuous covariates as: hemoglobin, leukocytes, lymphocytes and LDH have a nonlinear form with the log hazard ratio. -- Keywords: Cox model, regression splines, P-spline, NHL.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Forné, Izquierdo Carles. „Models matemàtics i estadístics aplicats a la presa de decisions en salut“. Doctoral thesis, Universitat de Lleida, 2020. http://hdl.handle.net/10803/670064.

Der volle Inhalt der Quelle
Annotation:
La presa de decisions en salut ha de basar-se en la millor evidència rellevant disponible, més si aquestes decisions incideixen en tota la societat mitjançant l’aplicació de polítiques públiques de salut i, donat que totes les persones són pacients potencials —presents o futurs—, també en les decisions clíniques. Prendre la decisió òptima depèn de molts factors que han de ser degudament identificats i minuciosament mesurats en les diferents alternatives d’elecció, entre els quals, l’escassetat de recursos disponibles per a cobrir una il·limitada demanda de salut. L’avaluació econòmica en salut té per objecte informar i facilitar decisions sobre quin és el millor ús dels recursos limitats disponibles, amb la finalitat de maximitzar-ne els beneficis en salut, prioritzant les alternatives d’elecció mitjançant criteris d’eficiència. Actualment, les agències nacionals d’avaluació de tecnologies sanitàries basen les seves recomanacions de finançament en estudis d’avaluació econòmica fonamentats en la millor evidència disponible i metodològicament correctes. Això inclou des d’un disseny adequat a l’objectiu, fins a un report complet i transparent que permeti la reproductibilitat dels resultats, passant pel rigorós tractament analític de les dades d’estudi. En aquest marc, els models analítics són una font d’evidència vàlida per a la presa de decisions, com ho són els assajos clínics i els estudis observacionals, també ben dissenyats i ben realitzats. En aquesta tesi s’inclouen quatre treballs en què l’aplicació dels mètodes analítics adequats van permetre donar resposta a uns objectius que d’altra manera no podrien resoldre’s, o només parcialment o amb majors limitacions. Gràcies a l’ús de models probabilístics es va poder avaluar el cost-efectivitat i el dany-benefici de 2.625 escenaris diferents de cribratge de càncer de mama, i es mostrà que les estratègies basades en el risc poden reduir els danys i els costos en comparació amb les estratègies uniformes. Donat que per avançar en l’organització de programes de cribratge basats en el risc cal desenvolupar mesures precises de risc individual de càncer de mama, es va formular un model conjunt bayesià que combina la història longitudinal de la densitat mamària i l’edat en el diagnòstic de càncer de mama. La metodologia proposada podria aplicar-se per obtenir mesures més precises del risc individual de càncer de mama. Per això caldria realitzar estudis de cohorts de base poblacional més grans, amb disposició de mesures longitudinals de la densitat mamària, així com d’altres factors de risc coneguts, com les lesions de mama benignes i el risc poligènic. D’aquesta manera, seria possible assolir capacitats predictives aplicables a la personalització del cribratge de càncer de mama, o per establir estratègies de prevenció per a dones amb risc elevat. En aquesta tesi també s’inclou una anàlisi de dinou potencials biomarcadors cardiovasculars en població amb malaltia renal mitjançant l’aplicació d’algorismes d’aprenentatge automàtic. En concret, aplicant l’algorisme de bosc aleatori de supervivència per a esdeveniments competitius, va ser possible avaluar la capacitat predictiva de tots els biomarcadors alhora, junt amb tota la resta de factors de risc coneguts, altrament impossible donat el limitat nombre d’esdeveniments cardiovasculars disponibles per ajustar els habituals models de supervivència multivariables. Si bé l’addició dels biomarcadors potencials va millorar marginalment la capacitat de discriminació obtinguda amb només els factors de risc cardiovascular coneguts, es van identificar els biomarcadors més prometedors, als quals idealment haurien de ser destinats els recursos de la futura recerca, sempre que el benefici potencial de la nova evidència superi els costos de la investigació. Per acabar, s’inclou l’avaluació de l’impacte en costos i en salut de l’augment de l’ús de la intervenció coronària percutània en pacients ingressats amb síndrome coronària aguda mitjançant un model analític semi-Markov, ja que els registres poblacionals mostren una infrautilització de la intervenció en ancians, possiblement deguda a la manca d’estimacions de la seva eficiència o del seu cost-utilitat. El model desenvolupat conceptualitza el curs de la malaltia en un horitzó temporal de 8 anys des de l’ingrés hospitalari, i proporciona resultats molt robustos que indiquen que augmentar el nombre de pacients ancians que es beneficiïn de la intervenció és rendible en un llindar de disposició a pagar molt inferior als estàndards en països europeus. Per tant, el cost-utilitat no hauria de ser un motiu per no incrementar l’ús de la intervenció en aquesta població. Al llarg dels treballs inclosos en aquesta tesi han quedat palesos el paper i la utilitat de la modelització matemàtica i estadística, aplicada de manera adequada i rigorosa segons els objectius de cada estudi, per proporcionar evidència útil que faciliti la presa de decisions, la planificació i la gestió en salut.
La toma de decisiones en salud debe basarse en la mejor evidencia relevante disponible, más si estas decisiones inciden en toda la sociedad mediante la aplicación de políticas públicas de salud y, dado que todas las personas son pacientes potenciales —presentes o futuros—, también en las decisiones clínicas. Tomar la decisión óptima depende de muchos factores que deben ser debidamente identificados y minuciosamente medidos en las diferentes alternativas de elección, entre ellos, la escasez de recursos disponibles para cubrir una ilimitada demanda de salud. La evaluación económica en salud tiene por objeto informar y facilitar decisiones sobre cuál es el mejor uso de los recursos limitados disponibles, con el fin de maximizar los beneficios en salud, priorizando las alternativas de elección mediante criterios de eficiencia. Actualmente, las agencias nacionales de evaluación de tecnologías sanitarias basan sus recomendaciones de financiación en estudios de evaluación económica fundamentados en la mejor evidencia disponible y metodológicamente correctos. Esto incluye desde un diseño adecuado al objetivo, hasta una comunicación completa y transparente que permita la reproducibilidad de los resultados, pasando por el riguroso tratamiento analítico de los datos de estudio. En este marco, los modelos analíticos son una fuente de evidencia válida para la toma de decisiones, como lo son los ensayos clínicos y los estudios observacionales, también bien diseñados y bien realizados. En esta tesis se incluyen cuatro trabajos en que la aplicación de los métodos analíticos adecuados permitió dar respuesta a unos objetivos que de otra manera no podrían resolverse, o sólo parcialmente o con mayores limitaciones. Gracias al uso de modelos probabilísticos se pudo evaluar el coste-efectividad y el daño-beneficio de 2.625 escenarios diferentes de cribado de cáncer de mama, y se mostró que las estrategias basadas en el riesgo pueden reducir el daño y los costes en comparación con las estrategias uniformes. Dado que para avanzar en la organización de programas de cribado basados en el riesgo es necesario desarrollar medidas precisas de riesgo individual de cáncer de mama, se formuló un modelo conjunto bayesiano que combina la historia longitudinal de la densidad mamaria y la edad en el diagnóstico de cáncer de mama. La metodología propuesta podría aplicarse para obtener medidas más precisas del riesgo individual de cáncer de mama. Para ello sería necesario realizar estudios de cohortes de base poblacional más grandes, con disposición de medidas longitudinales de la densidad mamaria, así como de otros factores de riesgo conocidos, como las lesiones de mama benignas y el riesgo poligénico. De este modo sería posible alcanzar capacidades predictivas aplicables a la personalización del cribado de cáncer de mama, o para establecer estrategias de prevención para mujeres con riesgo elevado. En esta tesis también se incluye un análisis de diecinueve potenciales biomarcadores cardiovasculares en población con enfermedad renal mediante la aplicación de algoritmos de aprendizaje automático. En concreto, aplicando el algoritmo de bosque aleatorio de supervivencia para eventos competitivos, fue posible evaluar la capacidad predictiva de todos los biomarcadores al mismo tiempo, junto con todo el resto de factores de riesgo conocidos, de otro modo imposible dado el limitado número de eventos cardiovasculares disponibles para ajustar los habituales modelos de supervivencia multivariables. Si bien la adición de los biomarcadores potenciales mejoró marginalmente la capacidad de discriminación obtenida con sólo los factores de riesgo cardiovascular conocidos, se identificaron los biomarcadores más prometedores, a los que idealmente deberían ser destinados los recursos de la futura investigación, siempre que el beneficio potencial de la nueva evidencia supere los costes de la investigación. Para acabar, se incluye la evaluación del impacto en costes y en salud del aumento del uso de la intervención coronaria percutánea en pacientes ingresados con síndrome coronario agudo mediante un modelo analítico semi-Markov, ya que los registros poblacionales muestran una infrautilización de la intervención en ancianos, posiblemente debida a la falta de estimaciones de su eficiencia o de su coste-utilidad. El modelo desarrollado conceptualiza el curso de la enfermedad en un horizonte temporal de 8 años desde el ingreso hospitalario, y proporciona resultados muy robustos que indican que aumentar el número de pacientes ancianos que se beneficien de la intervención es rentable en un umbral de disposición a pagar muy inferior a los estándares en países europeos. Por tanto, el coste-utilidad no debería ser un motivo para no incrementar el uso de la intervención en esta población. A lo largo de los trabajos incluidos en esta tesis han quedado patentes el papel y la utilidad de la modelización matemática y estadística, aplicada de manera adecuada y rigurosa según los objetivos de cada estudio, para proporcionar evidencia útil que facilite la toma de decisiones, la planificación y la gestión en salud.
Health decision-making should be based on the best relevant evidence available, even more so when these decisions impact society through the application of public health policies, and given that all people are also potential—present or future—patients in clinical decisions. Optimal decision-making depends on many factors that must be properly identified and precisely measured for each alternative choice. These include the scarce resources available to meet unlimited healthcare demand. The economic evaluation in health aims to inform and facilitate decision-making on the best use of the limited resources available, in order to maximize health benefits, prioritizing the alternative choices following efficiency criteria. Currently, national agencies for health technology assessment base their recommendations about whether or not to fund particular interventions on economic evaluation studies that incorporate the best relevant evidence available and are methodologically correct. This ranges from a proper study design suited to the objective, to a complete and transparent report allowing reproducibility of results, undertaking a rigorous analytical handling of the study data. In this framework, analytical models are a valid source of evidence for decision-making, such as well-designed and well-conducted clinical trials and observational studies. Four works are included in this thesis, in which the application of appropriate analytical methods allowed us to provide answers to objectives that otherwise could not be solved, or only partially or with greater limitations. Thanks to the use of probabilistic models, the cost-effectiveness and harm-benefit of 2,625 different scenarios of screening for breast cancer were assessed, showing that risk-based strategies can reduce harm and costs compared to uniform strategies. Given that precise measures of individual breast cancer risk must be developed in order to shift toward personalized screening strategies based on breast cancer risk, a Bayesian joint model that combines the longitudinal history of breast density and age at diagnosis of breast cancer was formulated. The proposed methodology could be applied to obtain more precise measures of the individual risk of breast cancer. To achieve this objective, it would be necessary to conduct studies of larger population-based cohorts, with longitudinal measurements of breast density as well as other known risk factors, such as benign breast disease and polygenic risk. In this way, it would be possible to achieve a predictive ability that makes it possible to personalize screening for breast cancer, or to establish prevention strategies for women at high risk. An analysis of 19 potential cardiovascular biomarkers in patients with renal disease by means of machine learning algorithms is also included in this thesis. Specifically, by applying a random survival forest for competing risks, it was possible to evaluate the predictive ability of all biomarkers at the same time, along with all other known risk factors, otherwise impossible given the limited number of cardiovascular events to fit classic multivariable survival models. Although the addition of potential biomarkers marginally improved the predictive ability obtained with only the known cardiovascular risk factors, the most promising biomarkers were identified, where resources for future research should ideally be allocated, whenever the benefit of new evidence exceeds the costs of research. Finally, the evaluation of costs and health outcomes of increasing the use of percutaneous coronary intervention in patients admitted with acute coronary syndrome through a semi-Markov analytical model is included, since population-based registries have described lower use of the intervention in the elderly, possibly due to the lack of estimates of their efficiency or cost-utility. The model developed conceptualizes the course of the disease over an 8-year time horizon from hospital admission, and provides very robust results showing that increasing the number of elderly patients who benefit from the intervention is cost-effective on a threshold of willingness-to-pay far below the standards in European countries. Therefore, cost-utility should not be a reason not to increase the use of percutaneous coronary intervention in this population. Throughout the work included in this thesis, the role and usefulness of mathematical and statistical modeling has been shown, properly and rigorously applied according to the objectives of each study, to provide useful evidence that facilitates decision-making, planning and healthcare management.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Pesantez, Narvaez Jessica Estefania. „Risk Analytics in Econometrics“. Doctoral thesis, Universitat de Barcelona, 2021. http://hdl.handle.net/10803/671864.

Der volle Inhalt der Quelle
Annotation:
This thesis addresses the framework of risk analytics as a compendium of four main pillars: (i) big data, (ii) intensive programming, (iii) advanced analytics and machine learning, and (iv) risk analysis. Under the latter mainstay, this PhD dissertation reviews potential hazards known as “extreme events” that could negatively impact the wellbeing of people, profitability of firms, or the economic stability of a country, but which also have been underestimated or incorrectly treated by traditional modelling techniques. The objective of this thesis is to develop econometric and machine learning algorithms that can improve the predictive capacity of those extreme events and improve the comprehension of the phenomena contrary to some modern advanced methods which are black boxes in terms of interpretation. This thesis presents seven chapters that provide a methodological contribution to the existing literature by building techniques that transform the new valuable insights of big data into more accurate predictions that support decisions under risk, and increase robustness for more reliable and real results. This PhD thesis focuses uniquely on extremal events which are trigged into a binary variable, mostly known as class-imbalanced data and rare events in binary response, in other words, whose classes that are not equally distributed. The scope of research tackle real cases studies in the field of risk and insurance, where it is highly important to specify a level of claims of an event in order to foresee its impact and to provide a personalized treatment. After Chapter 1 corresponding to the introduction, Chapter 2 proposes a weighting mechanism to incorporated in the weighted likelihood estimation of a generalized linear model to improve the predictive performance of the highest and lowest deciles of prediction. Chapter 3 proposes two different weighting procedures for a logistic regression model with complex survey data or specific sampling designed data. Its objective is to control the randomness of data and provide more sensitivity to the estimated model. Chapter 4 proposes a rigorous review of trials with modern and classical predictive methods to uncover and discuss the efficiency of certain methods over others, and which and how gaps in machine learning literature can be addressed efficiently. Chapter 5 proposes a novel boosting-based method that overcomes certain existing methods in terms of predictive accuracy and also, recovers some interpretation of the model with imbalanced data. Chapter 6 develops another boosting-based algorithm which is able to improve the predictive capacity of rare events and get approximated as a generalized linear model in terms of interpretation. And finally, Chapter 7 includes the conclusions and final remarks. The present thesis highlights the importance of developing alternative modelling algorithms that reduces uncertainty, especially when there are potential limitations that impede to know all the previous factors that influence on the presence of a rare event or imbalanced-data phenomenon. This thesis merges two important approaches in modelling predictive literature as they are: “econometrics” and “machine learning”. All in all, this thesis contributes to enhance the methodology of how empirical analysis in many experimental and non-experimental sciences have being doing so far.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Flores, Flores Claudio Jaime. „Modelo de regresión de Cox usando splines“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/211.

Der volle Inhalt der Quelle
Annotation:
En muchos estudios clínicos es muy frecuente el uso de modelo de riesgos proporcionales de Cox; el cual asume riesgos proporcionales y restringe a que el logaritmo de la razón de riesgo sea lineal en las covariables, lo cual en muchos casos no se verifica. En este sentido, una forma funcional no lineal del efecto de las covariables puede ser aproximada por una función spline. En este trabajo, se presenta la metodología del modelo de regresión de Cox usando splines, particularmente regresión splines y P-splines, para aproximar la forma funcional no-lineal de los efectos de las covariables en la función de riesgo. Como una aplicación, se analiza los datos de pacientes con LNH para determinar los factores pronósticos para la supervivencia global. Los resultados muestran que el efecto de las covariables contínuas como hemoglobina, leucocitos, linfocitos y DHL presentan una forma funcional no lineal en el logaritmo de la razón de riesgo. -- Palabras claves: Modelo de Cox, regresión splines, P-splines, LNH.
-- In many clinical studies, Cox proportional hazard model is very common to use, it assumes proportional hazard and restricts the log hazard ratio to be linear in the covariates; these asumptions can not be verified. In this way, a nonlinear functional form of the covariates effect can be approximated by a spline function. In this paper, we present the methodology and an application of Cox model using splines, particularly regression splines and P-splines, to approximate the nonlinear functional form of the effect of covariates on the hazard function. As an application, we analyse data from patients with NHL to determine prognostic factors for overall survival. These results show that the effect of continuous covariates as: hemoglobin, leukocytes, lymphocytes and LDH have a nonlinear form with the log hazard ratio. -- Keywords: Cox model, regression splines, P-spline, NHL.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Gómez, Camacho Sandra América. „Aplicación de análisis de homogeneidad “Homals”“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2005. https://hdl.handle.net/20.500.12672/12128.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
El documento digital no refiere asesor
Expone el desarrollo y aplicación del Análisis de Homogeneidad más conocido como Homals, debido a las soluciones mediante el Método de Mínimos Cuadrados Alternados, el cual tiene como objetivo principal encontrar asociaciones entre variables, entre categorías de las variables, así como también trata de caracterizar a los objetos mediante ciertas características que presentan. Para la aplicación del método se utilizó los indicadores demográficos y de educación de los resultados del Censo de Población y vivienda del año 1993 del INEI, porque es posible identificar a las provincias por niveles de pobreza (extrema pobreza, pobre y no pobre). Se observó que la mayoría de las provincias que se caracterizan por tener bajo desarrollo humano, se ubican en la región de la sierra; entretanto, las provincias caracterizadas como pobres son provincias de la región selva, mientras que las provincias no pobres generalmente se ubican en la costa del Perú.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Pino, Romero Neisser. „Modelo matemático de la dinámica de transmisión sexual del VIH/SIDA en una población heterosexual activa en el Perú“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/6375.

Der volle Inhalt der Quelle
Annotation:
Presenta un modelo que explica la dinámica de transmisión de la enfermedad del Síndrome de Inmunodeficiencia Adquirida (SIDA) entre parejas heterosexualmente activas. Se incluyen los supuestos, las variables, el sistema de ecuaciones diferenciales ordinarias que representan al modelo, el análisis cualitativo y la sensibilidad del modelo con su respectiva estabilidad local, y una estrategia de control. Se implementa computacionalmente el modelo para un entendimiento dinámico del mismo mediante una interfaz gráfica.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Vigo, Chacón Geraldine Judith. „Método de clasificación para evaluar el riesgo crediticio : una comparación“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/3327.

Der volle Inhalt der Quelle
Annotation:
Se comparan dos métodos clásicos de clasificación: Análisis de Regresión Logística y Árboles de Clasificación, con el método de Redes Neuronales. La comparación se realizó en base al poder de clasificación y predicción de los modelos obtenidos en la evaluación del Riesgo Crediticio, siendo Redes Neuronales el mejor método por tener mayor poder de clasificación y predicción. Para el análisis se utilizó una Base de Datos de Riesgo Crediticio. Asimismo, se establecen las ventajas y desventajas en el empleo de cada método. -- Palabras Claves: Análisis de Regresión Logística, Árboles de Clasificación, Redes Neuronales.
--- Two classics methods of classification are compared: Analysis of Logistic Regression and Classification Trees with the method of Neural Networks. The comparison realized through his power of classification and prediction of the models obtains in the evaluation of credit risk, Neural Networks is the best method, because it has high power of classification and prediction. For the analysis used a database of credit risk. Likewise found the advantages and disadvantages in the use of each method. -- Key Words: Analysis Logistic Regression, Classification Trees, Neural Networks.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Rodriguez, Castro Maricela Mercedes. „Modelo de Score para clientes que presentan días de atraso en su crédito aplicando regresión logística“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/6544.

Der volle Inhalt der Quelle
Annotation:
El documento digital no refiere un asesor
Publicación a texto completo no autorizada por el autor
Desarrolla un modelo de Score (calificación) para clientes de una financiera que presentan días de atraso entre 1 a 29 días, cuyo análisis se realiza mediante un modelo predictivo de regresión logística binaria. La finalidad es predecir la probabilidad de que un cliente llegue a caer en default (mayor a 30 días de atraso) y que no llegue a recuperarse, para así poder tomar medidas preventivas.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Quinto, Calderón Elizabeth Shirley. „Comparación entre el análisis discriminante y la regresión logística aplicado a la base de datos HATCO“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/6862.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
El documento digital no refiere asesor
Emplea la teoría y aplicación del método de análisis discriminante y del modelo de regresión logística, para trabajar con los datos de la Compañía Hair, Anderson y Tatham (HATCO), donde se explican los motivos por los que algunas empresas recurren a ella con más intensidad que otras, además de contar con una mejor comprensión del comportamiento de los clientes. Presenta los resultados obtenidos durante la aplicación del modelo de regresión logística, asimismo se compararon los resultados obtenidos con el método de análisis discriminante, bajo el enfoque predictivo y/o explicativo a fin de poder determinar el mejor modelo. Evidencia que el modelo de regresión logística es mejor en comparación con el método de análisis discriminante.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Carbajal, Orihuela Sandy Giulianna. „Comparación de dos métodos de regresión al modelar los gastos mensuales brutos, en presencia de valores atípicos, de los hogares de la sierra central del Perú – 2013“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/7603.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
El documento digital no refiere asesor
Se comparan los resultados de ajuste al aplicar dos métodos de regresión múltiple, el método de máxima verosimilitud y el método robusto, cuyo objetivo es conocer cuál de los dos tienen mejores resultados al aplicarlos al modelo de regresión que explica los gastos mensuales de los peruanos de la sierra central, en presencia de observaciones atípicas e incumpliendo el supuesto de la normalidad de los residuos. Se realiza un análisis exploratorio previo de los datos para las diferentes variables y se analizarán usando los paquetes estadísticos SPSS y MATLAB; los datos usados en este trabajo corresponden a la Sumaria del Dominio Sierra Centro de la Encuesta Nacional de Hogares (ENAHO) del año 2013.
Tesina
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Moreno, Zapata Carla Natalí. „Comparación de modelos perceptrón multicapa y función de base radial para la clasificación de clientes de alto valor de una entidad financiera“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7480.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Compara dos métodos de redes neuronales: perceptrón multicapa y función de base radial para la clasificación de los clientes más rentables de una entidad financiera que permita la gestión del riesgo crediticio como apoyo a la toma de decisiones. La comparación se realizó en base al poder de predicción y clasificación de los modelos, siendo el perceptrón multicapa el mejor método por tener mayor poder de predicción y clasificación. Para el análisis se utilizó una base de datos de una entidad financiera. Desarrolla una investigación aplicada, de diseño no experimental de corte transversal. Los datos utilizados son clientes de la entidad financiera que desembolsaron créditos de julio a octubre del 2014.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Gutiérrez, Escudero Jonathan José. „Cuantificación de los costos de los límites de inversión con incertidumbre de parámetros para el sistema privado de pensiones peruano“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2016. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8079.

Der volle Inhalt der Quelle
Annotation:
Desde la entrada en vigencia de las Administradoras de Fondos de Pensiones (AFP) en el Perú sus decisiones de inversión estuvieron restringidas por límites cuantitativos impuestos por la regulación vigente en cada periodo. En este estudio, desde un enfoque estrictamente financiero, se cuantifica los costos implícitos de dicha regulación, especialmente aquella que restringe la asignación de recursos hacia activos del exterior. Para ello, se emplea la metodología desarrollada por Tu y Zhou (2011), la cual combina dos estrategias de portafolio, a diferencia de la mayoría de estudios previos relacionados basados en la teoría clásica. Se obtiene, para el periodo 1997-2014, que el valor cuota promedio obtenido por las AFP fue 3% menor respecto a un escenario de referencia sin límites de inversión. Asimismo, se analizan otros factores que influyen en las decisiones de inversión de las AFP como lo son el horizonte temporal y la riqueza humana; así como ciertas condiciones bajo las cuales un inversionista de largo plazo termina escogiendo el mismo portafolio óptimo que un inversionista de corto plazo.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Cjahua, Ramírez Christeen Lovisette. „Componentes principales categóricos y modelos de minería de datos, para determinar los factores que más influyen en la percepción de la calidad de vida de los limeños, 2014“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7473.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Determinar los factores más importantes en la percepción de la calidad de vida de los limeños mayores de 18 años que residen en la capital del Perú. Con la base de datos de la encuesta Lima Como Vamos 2014 proporcionada por el Observatorio Ciudadano, se construyeron 10 índices sintéticos multivariados para la percepción de la calidad de vida de los limeños, identificación con la ciudad, movilidad y transporte, violencia e inseguridad ciudadana, medio ambiente, vivienda, economía y salud, cultura ciudadana, gestión pública, participación ciudadana, y responsabilidad, y cultura ciudadana. Para la obtención de los resultados se emplearon componentes principales categóricos, clúster k-medias ponderada por entropía y redes neuronales artificiales con función de base radial. Además, se utilizó los softwares IBM SPSS Statistics 24, Rstudio, librería Rattle de R Project for Statistical Computing. Finalmente el resultado fue que los factores que más influyen en la percepción de la calidad de vida de los limeños son: la cultura ciudadana, medio ambiente, educación y salud.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie