Academic literature on the topic 'Modelos lineales (Estadística), Análisis multivariante'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Modelos lineales (Estadística), Análisis multivariante.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Modelos lineales (Estadística), Análisis multivariante"

1

Morales-Jinez, Alejandro, Esther Gallegos Cabriales, Karen D'Alonzo, Alicia Ugarte-Esquivel, Francisco López-Rincón, and Bertha Cecilia Salazar-González. "Social Factors Contributing to the Development of Allostatic Load in Older Adults: A Correlational- Predictive Study." Aquichan 18, no. 3 (2018): 298–310. http://dx.doi.org/10.5294/aqui.2018.18.3.5.

Full text
Abstract:
Objetivo: determinar si factores sociales como las condiciones de vivienda, la satisfacción con la casa, las características del vecindario, el apoyo social, las relaciones familiares y la asistencia a la iglesia contribuyen al desarrollo de la carga alostática en los adultos mayores. Materiales y método: se realizó un estudio correlacional y predictivo de corte transversal. Los instrumentos utilizados fueron una hoja de datos sociodemográficos, el instrumento de relaciones familiares percibidas, el cuestionario de Apoyo Social y la Escala de Movilidad Activa en el Entorno Comunitario, versión corta. Los biomarcadores de carga alostática utilizados fueron: presión arterial sistólica y diastólica, índice de masa corporal, circunferencia de la cintura, relación cintura-cadera, colesterol total, lipoproteína de alta densidad, hemoglobina glicosilada, fibrinógeno y proteína C-Reactiva. La muestra se calculó para para el contraste de la hipótesis de no relación (R2 = 0), en un modelo de regresión lineal múltiple con 11 covariables, con un nivel de significancia del .05 y una potencia del 90 % (.90), cuando el coeficinete de determinación poblacional (R2) es .15, tamaño de muestra que resultó en 131 adultos mayores. El análisis estadístico incluyó medidas descriptivas y modelos lineales generalizados. Resultados: los participantes tenían un riesgo medio o alto de carga alostática. El análisis del modelo de regresión lineal multivariante mostró que las mejores condiciones de vivienda, la satisfacción con la propia casa, la presencia de calles sin salida y la asistencia a la iglesia reducen la carga alostática y que el tráfico peligroso aumenta la carga alostática. Conclusiones: existen varios factores sociales que contribuyen al desarrollo de la carga alostática en adultos mayores. Es necesario crear estrategias de cuidado de enfermería hacia el entorno social para disminuir la carga alostática en el adulto mayor.
APA, Harvard, Vancouver, ISO, and other styles
2

Palacio-Salazar, Juan Esteban, and Elkin Argemiro Castaño-Vélez. "DETECCIÓN DE DATOS EXTREMOS Y DE MULTICOLINEALIDAD EN MODELOS NO LINEALES UNA INTERFAZ GRÁFICA EN RR." Revista de la Facultad de Ciencias 5, no. 1 (2016): 111–23. http://dx.doi.org/10.15446/rev.fac.cienc.v5n1.55358.

Full text
Abstract:
El análisis de regresión es una herramienta ampliamente usada en el trabajo estadístico aplicado. En este análisis, la presencia de datos extremos o la existencia de multicolinealidad pueden introducir serias distorsiones en la estimación de parámetros y la inferencia estadística; dichos efectos han sido estudiados ampliamente en la literatura. En este artículo se presenta una herramienta construida bajo la librería shiny del paquete computacional R con el objeto de detectar este tipo de problemas en modelos de regresión no lineal, cuando se emplea estimación por mínimos cuadrados no lineales. La interfaz gráfica presentada permite especificar el modelo de regresión no lineal, realizar su estimación por mínimos cuadrados no lineales, y diagnosticar la presencia de datos extremos, o la existencia y severidad de problemas de multicolinealidad.
APA, Harvard, Vancouver, ISO, and other styles
3

Madroñero Madroñero, Duver, Eduardo Ibarguen Mondragón, and Mawency Vergel-Ortega. "Análisis estadístico para validar parámetros de modelos matemáticos por medio método de mínimos cuadrados." Revista Boletín Redipe 10, no. 5 (2021): 343–59. http://dx.doi.org/10.36260/rbr.v10i5.1309.

Full text
Abstract:
En el presente artículo se aborda la estimación de parámetros en estadística frecuentista; por medio de regresiones lineales se estiman parámetros asociados a modelos matemáticos determinísticos, para dicho proceso se utiliza el método de mínimos cuadrados. Además, para la validación de los parámetros estimados mediante el método de mínimos cuadrados, se realiza un análisis estadístico en el cual se incluyen el coeficiente de determinación, desviación estándar, la prueba de t-student, entre otros. En otras palabras, este artículo pretende dar al lector una base de partida para aplicar un método sencillo y muy eficaz para estimar parámetros en modelos matemáticos.
APA, Harvard, Vancouver, ISO, and other styles
4

López-González, Emelina, Enrique Navarro-Asencio, María José García-San Pedro, Luis Lizasoain, and Javier Tourón. "Estudio de la eficacia escolar en centros educativos de primaria mediante el uso de Modelos Jerárquicos Lineales." Bordón. Revista de Pedagogía 73, no. 1 (2021): 59–80. http://dx.doi.org/10.13042/bordon.2021.80530.

Full text
Abstract:
INTRODUCCIÓN. Se presenta un estudio censal sobre la eficacia escolar en los centros educativos de primaria de la comunidad autónoma de La Rioja, un análisis secundario de una evaluación diagnóstica (ED) previa en esa comunidad. Se valoró el impacto de variables contextuales en los rendimientos de las asignaturas evaluadas no usando las puntuaciones medias brutas obtenidas en la ED, sino las puntuaciones medias ajustadas una vez controlado el efecto de variables contextuales. MÉTODO. El control se realizó por modelización estadística multinivel con modelos jerárquicos lineales en dos niveles: estudiantes y centros. Los residuos de los modelos se usaron como criterio de eficacia escolar. RESULTADOS. Se realizó un análisis descriptivo por niveles de las variables contextuales y de los rendimientos, además de un análisis detallado de los modelos jerárquicos por asignaturas. A partir de los residuos de los modelos se logró una ordenación de los centros según su eficacia. DISCUSIÓN. Los modelos jerárquicos lineales resultaron ser una herramienta adecuada para conocer el impacto de las variables contextuales en el aprendizaje escolar, más allá del rendimiento de los centros aportado previamente en la ED. Los modelos posibilitaron conocer los centros escolares con los mejores y peores resultados de eficacia controlado el efecto del contexto. La estrategia jerárquica detectó que en la relación de centros se encuentran escuelas de ambas redes y de muy diverso nivel socioeconómico, así como que en centros en los que en una asignatura obtienen un residuo muy alto (o muy bajo) no les ocurre lo mismo en otras asignaturas, informaciones imposibles de lograr con herramientas de análisis más convencionales.
APA, Harvard, Vancouver, ISO, and other styles
5

Pérez-Planells, Ll, J. Delegido, J. P. Rivera-Caicedo, and J. Verrelst. "Análisis de métodos de validación cruzada para la obtención robusta de parámetros biofísicos." Revista de Teledetección, no. 44 (December 22, 2015): 55. http://dx.doi.org/10.4995/raet.2015.4153.

Full text
Abstract:
<p class="Bodytext">Los métodos de regresión no paramétricos son una gran herramienta estadística para obtener parámetros biofísicos a partir de medidas realizadas mediante teledetección. Pero los resultados obtenidos se pueden ver afectados por los datos utilizados en la fase de entrenamiento del modelo. Para asegurarse de que los modelos son robustos, se hace uso de varias técnicas de validación cruzada. Estas técnicas permiten evaluar el modelo con subconjuntos de la base de datos de campo. Aquí, se evalúan dos tipos de validación cruzada en el desarrollo de modelos de regresión no paramétricos: hold-out y k-fold. Los métodos de regresión lineal seleccionados fueron: Linear Regression (LR) y Partial Least Squares Regression (PLSR). Y los métodos no lineales: Kernel Ridge Regression (KRR) y Gaussian Process Regression (GPR). Los resultados de la validación cruzada mostraron que LR ofrece los resultados más inestables, mientras KRR y GPR llevan a resultados más robustos. Este trabajo recomienda utilizar algoritmos de regresión no lineales (como KRR o GPR) combinando con la validación cruzada k-fold con un valor de k igual a 10 para hacer la estimación de una manera robusta.</p>
APA, Harvard, Vancouver, ISO, and other styles
6

Ballesteros, Francisco, Erika Hurtado, and Sandra García. "MÉTODOS ESTADÍSTICOS PARAMÉTRICOS EN EL ANÁLISIS DE LA VARIABILIDAD DEL TORQUE, DURANTE EL PROCESO DE ENCAPSULADO PARA LA ELABORACIÓN DE BEBIDAS CARBONATADAS." Universidad Ciencia y Tecnología 24, no. 102 (2020): 55–65. http://dx.doi.org/10.47460/uct.v24i102.343.

Full text
Abstract:
La propuesta presentada en el estudio busca ajustar el rango usado tradicionalmente para la aplicación del torque en el proceso de capsulado en bebidas carbonatadas. Se ha logrado identificar, mediante el uso de indicadores y pruebas estadísticas, que el proceso de producción efectivamente tenía un descontrol. Se aplicó un diseño experimental por bloques con el fin de identificar el efecto principal que tiene el rango nuevo, el cual ha sido propuesto por la investigación, dentro de las capsuladoras. Mediante el uso de un modelo de regresión lineal y de variables de control de tipo Dummy, las cuales describan características específicas de cada una de las capsuladoras, se ha logrado el efecto limpio, o también considerado neto, sobre cada una de las capsuladoras y el torque aplicado a ellas. Disminuyendo de ésta manera la variabilidad presente en el proceso de capsulado en la elaboración de bebidas carbonatadas.
 Palabras Clave: torque, variabilidad, encapsulado, estadística paramétrica.
 Referencias
 [1]E. Córdova y L. Rodríguez, «Universidad Católica Andrés Bello,» MARZO 2016. [En línea]. [Último acceso: 04 julio de 2020].
 [2]S. López, D. Pincay y J. Silva, «Diseño de un Sistema de Control Estadístico del Proceso de Encapsulado,» 8 Noviembre 2016. [En línea]. Disponible en: http://www.dspace.espol.edu.ec/xmlui/bitstream/handle/123456789/36333/D-CD88338.pdf?sequence=-1&isAllowed=y. [Último acceso: 2 julio 2020].
 [3]E. Malvais y R. Delgado, «Universidad Autónoma del Estado de México,» MAYO 2017. [En línea]. [Último acceso: 04 julio 2020].
 [4]J. Fermín, S. Valdivieso, M. Orlandoni y G. Barreto, «Control estadístico de procesos multivariantes en la industria Alimentaria: implementación a través del estadístico t2-hotelling,» Agroalimentaria, vol. 1, nº ISSN 1316-0354, 2010.
 [5]A. Pineda y A. Cecilia, «Universidad Veracruzana,» agosto 2019. [En línea]. [Último acceso: 04 julio 2020].
 [6]M. Gras, «Estimación estadística, modelado y análisis de la transmisión y coste de la variabilidad en procesos multi - etapa. Aplicación en la fábrica de baldosas cerámicas.,» Marzo 2010. [En línea]. Disponible en: https://d1wqtxts1xzle7.cloudfront.net/56452330/Tesis_doctoral.pdf?1525041898=&response-content-disposition=inline%3B+filename%3DTesis_doctoral.pdf&Expires=1593745763&Signature=V77nsxCSH-1IuOu4~78gq-CM8Hk3nm5mHLtSCG7YIToMFDskiPxu9TZfiXlX4gbXAHCkrg-pU0BRSsB. [Último acceso: julio 2020].
 [7]M. Palacios y V. Gisbert, «Control Estadística de la calidad: Una aplicación práctica,» 3 Ciencias, vol. 1, p. 22, 2018.
 [8]G. Martínez y A. Sobenis, «ESPOL, Determinación de la durabilidad de una resina de DE tereftalato de polietileno, Af - 626, en envases retornables por inyección para bebidas carbonatadas de alta rotación.,» Mayo 2014. [En línea]. Disponible en: http://www.dspace.espol.edu.ec/xmlui/handle/123456789/30685.[Último acceso: 04 julio 2020].
 [9]A. Navarro, E. Jiménez, S. Rapport y B. Thoilliez, «Fundamentos de la investigación y la innovación educativa,» UNIR EDITORIAL, vol. 1, p. 106, 2017.
APA, Harvard, Vancouver, ISO, and other styles
7

Herrera Hurtado, José Camilo. "Modelado Matemático de Zombis, una presentación divertida de modelos epidemiológicos (reseña)." Revista de la Escuela de Ingenierías y Tecnologías Unimonserrate, no. 1 (February 18, 2021): 38–45. http://dx.doi.org/10.29151/reit.n1a4.

Full text
Abstract:
Se presenta el libro editado por Robert Smith en 2014, llamado “Mathematical Modelling of Zombies”, el cual realiza un análisis epidemiológico comparando el efecto de zombis y vampiros como agentes propagadores de enfermedad. Con base en ese caso hipotético, presenta una introducción a la inferencia estadística, al modelamiento basado en agente, enjambres de organismos biológicos, técnicas de difusión, modelos lineales evolutivos, toma de decisiones por lógica difusa, métodos de regresión estadística, y redes sociales; entre otros modelos matemáticos. Para esta reseña nos enfocaremos en el capítulo “The Undead: A Plague on Humanity or a Powerful New Tool for Epidemiological Research” escrito por Jane M. Heffernan y Derek J. Wilson. Este capítulo trata con dos situaciones diferentes: enfermedades epidémicas y enfermedades endémicas, cuya diferencia consiste en que la primera se refiere a una condición ocasional, mientras que la otra consiste en una condición permanente con la que toca convivir. Se tratará con el modelo de propagación de enfermedades SIR, cuyas ecuaciones diferenciales se resolverán con ayuda del programa libre GNU Octave.
APA, Harvard, Vancouver, ISO, and other styles
8

Dicovskiy Riobóo, L. M., and M. E. Pedroza Pacheco. "MODELOS LINEALES GENERALES Y MIXTOS EN LA CARACTERIZACIÓN DE LA VARIABLE CALIFICACIÓN, INGENIERÍA AGROINDUSTRIAL, UNI-NORTE." Nexo Revista Científica 30, no. 2 (2018): 84–95. http://dx.doi.org/10.5377/nexo.v30i2.5527.

Full text
Abstract:
Los modelos mixtos son una propuesta de modelación estadística avanzada, que permiten mejorar la calidad del análisis de los factores fijos y factores aleatorios, modelando la variabilidad aleatoria y la correlación de los errores, siendo muy útiles en el análisis de datos desbalanceado, datos con pseudoréplicas, o datos con algún tipo de estructura jerárquica o de agrupación. En esta investigación, con el software InfoStat se realizó una aplicación de los modelos generales y mixtos, sobre la variable “Calificación de los estudiantes Aprobados”, de Ingeniería Agroindustrial, con datos de 11 años. Se respondió preguntas estadísticas sobre el comportamiento del rendimiento académico, en función del Año académico y del Género de los estudiantes. Al modelar el Año Académico, el Género y la interacción como factores fijos, en relación con la nota de los estudiantes aprobados, se determinó que la inclusión de los factores aleatorios: Estudiante y Docente, mejoraron los: AIC, BIC del modelo, la normalidad y homocedasticidad de los residuos, mejorándose así la calidad del análisis estadístico. El modelo con factores mixtos, encontró diferencias significativas en las notas de los estudiantes aprobados por los factores: “Año Académico” y “Género”. Sin embargo, no se determinó efecto de interacción entre ambos factores.
APA, Harvard, Vancouver, ISO, and other styles
9

Peña Cornejo, Alberto. "Función de volumen y altura/Diámetro para monte bajo de Eucalyptus globulus en la Provincia de Limarí, IV Región." Ciencia & Investigación Forestal 6, no. 1 (1992): 125–35. http://dx.doi.org/10.52904/0718-4646.1992.168.

Full text
Abstract:
A partir de los datos obtenidos durante la cosecha de un bosque pequeño de Eucalyptus globulus, situado cerca de Ovalle, Región de Coquimbo, se logra construir funciones de altura y volumen para monte bajo, aplicando modelos lineales y simples y establecer un análisis comparativo entre los distintos modelos aplicados. La mejor función para la altura correspondió a: H=21,92110476 +13,68965982 Ln DAP Luego de la corrección del sesgo variable determinado en el análisis de bondad de ajuste, quedó definida como: H=-24,80068023 + 17,42034911 Ln DAP La mejor función para el volumen correspondió a: V=0,037209753 + 0,00002662916735 (DAP)²H Sin embargo, se sugiere utilizar, dependiendo de condiciones de medición de H, la siguiente función: V= -0,053692893 + 0,0008713354484 (DAP)² Es necesario considerar que las funciones de volumen se elaboraron solo con 20 árboles por lo que su consistencia estadística puede ser baja y su aplicabilidad tiene un carácter muy local.
APA, Harvard, Vancouver, ISO, and other styles
10

Murata, Chiharu, Ana Belén Ramírez, Alonso Cruz, José Luis Morales, and Saúl Oswaldo Lugo-Reyes. "Análisis discriminante para predecir el diagnóstico clínico de inmunodeficiencias primarias: reporte preliminar." Revista Alergia México 62, no. 2 (2015): 125–33. http://dx.doi.org/10.29262/ram.v62i2.66.

Full text
Abstract:
Antecedentes: las características clínicas de un paciente con sospecha de inmunodeficiencia primaria orientan el diagnóstico diferencial por medio del reconocimiento de patrones. Las inmunodeficiencias primarias son un grupo heterogéneo de más de 250 enfermedades congénitas con mayor susceptibilidad a padecer infecciones, autoinflamación, autoinmunidad, alergia y cáncer. El análisis discriminante lineal es un método multivariante de clasificación supervisada para agrupar a los sujetos a partir de encontrar combinaciones lineales de un número de variables.Objetivo: identificar las características que mejor explican la pertenencia de pacientes pediátricos con inmunodeficiencias primarias a un grupo de defectos o a una enfermedad.Material y método: estudio analítico transversal en el que a partir de una base de datos preexistente, con registros clínicos y de laboratorio de 168 pacientes con inmunodeficiencia primaria, seguidos en el Instituto Nacional de Pediatría de 1991 a 2012, construimos modelos discriminantes lineales para explicar la pertenencia de cada paciente a los diferentes grupos de defectos y a las inmunodeficiencias primarias más prevalentes en nuestro registro. Luego de una corrida preliminar se incluyeron únicamente las 30 variables (4 demográficas, 10 clínicas, 10 de laboratorio y 6 gérmenes) de mayor peso, a partir de las que se construyeron los modelos de entrenamiento con el algoritmo paso-a-paso (stepwise) hacia atrás, utilizando selección automatizada de variables e incorporación manual “teórica” por un experto humano. Se evaluó la utilidad clínica de los modelos resultantes (sensibilidad, especificidad, exactitud y coeficiente kappa), con intervalos de confianza de 95%.Resultados: los modelos incluyeron 6 a 14 variables para explicar la pertenencia de 168 pacientes con inmunodeficiencias primarias a los cinco grupos más numerosos (combinados, anticuerpos, bien definidos, desregulación y fagocitosis) y las cuatro enfermedades más prevalentes (agammaglobulinemia ligada al cromosoma X, enfermedad granulomatosa crónica, inmunodeficiencia común variable y ataxia-telangiectasia). Prácticamente en todos los casos el desempeño de la máquina fue superior al del experto humano en lo que respecta a la selección de los atributos más pertinentes para incorporar en los modelos. La predicción del diagnóstico con base en las ecuaciones construidas tuvo exactitud global de 83 a 94%, con sensibilidad de 60 a 100%, especificidad de 83 a 95% y coeficiente kappa de 0.37 a 0.76.Conclusiones: la selección de variables, en general, tiene plausibilidad clínica y tiene la ventaja práctica de utilizar solamente atributos clínicos, gérmenes encontrados y estudios de laboratorio de rutina (biometría hemática e inmunoglobulinas séricas). El desempeño del modelo como herramienta de predicción fue aceptable. Las principales limitaciones del estudio incluyen un tamaño de muestra limitado, lo que no permitió que realizáramos validación cruzada en la evaluación. Éste es solamente un primer paso en la construcción de un sistema de aprendizaje automático, con un abordaje más amplio que incluya una base de datos más grande y diferentes metodologías, para asistir el diagnóstico clínico de las inmunodeficiencias primarias.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Modelos lineales (Estadística), Análisis multivariante"

1

Gonzales, King-Keé Karin Cecilia. "Estimación por mínimos cuadrados ponderados en modelos lineales generalizados." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2001. https://hdl.handle.net/20.500.12672/608.

Full text
Abstract:
En este trabajo se aplica el método de Mínimos Cuadrados Ponderados como un método alternativo de estimación de parámetros en los Modelos Lineales Generalizados, y en particular para el caso de variables respuesta con distribución Multinomial y de Poisson, usando el enfoque desarrollado por Grizzme, Starmer y Koch (GSK). Se estudia la formación de funciones respuesta de variables dependientes con distribución Multinomial y Poisson.<br>-- In this work the metod of weighted least squares is applied as an alternative for estimating parameters in the Generalized Linear Models, and particularly, for the case of response variable with multimomial and Poisson distributions using the theory developed by Grizzme, Starmer y Koch. Beginning with the General linear model it is introduced the Generalized linear models and it is stablished the funtion formations for the response variables with multinomial and poisson distributions.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
2

Ríos, Alcolea Martín. "Métricas entre modelos lineales y su aplicación al tratamiento de datos en medicina." Doctoral thesis, Universitat de Barcelona, 1986. http://hdl.handle.net/10803/32120.

Full text
Abstract:
En esta tesis se desarrolla una metodología estadística que permite obtener clasificaciones de modelos linalizables a través de una distancia basada en el concepto de información de Shamon. Se han obtenido explícitamente expresiones algebraicas de los estimadores que nos sirvieron para comparar dos o mas de dichas curvas estableciendo su relación con los contrastes de hipótesis propias del análisis de la varianza en el caso de que las curvas fueran asociadas a un modelo lineal normal de varianzas iguales. Finalmente, y como aplicación, se hace un análisis y una clasificación de distintos tipos de respuesta al TTOG en una muestra de niños, dando posteriormente un método de diagnostico automatizado que cuantifica sus errores.
APA, Harvard, Vancouver, ISO, and other styles
3

Melo, Martínez Sandra Esperanza. "Análisis de datos longitudinales y multivariantes mediante distancias con modelos lineales generalizados." Doctoral thesis, Universitat de Barcelona, 2012. http://hdl.handle.net/10803/101150.

Full text
Abstract:
Se propusieron varias metodologías para analizar datos longitudinales (en forma univariante, mediante MANOVA, en curvas de crecimiento y bajo respuesta no normal mediante modelos lineales generalizados) usando distancias entre observaciones (o individuos) con respecto a las variables explicativas con variables respuesta de tipo continuo. En todas las metodologías propuestas al agregar más componentes de la matriz de coordenadas principales se encuentra que se gana en las predicciones con respecto a los modelos clásicos. Por lo cual resulta ser una metodología alternativa frente a la clásica para realizar predicciones. Se probó que el modelo MANOVA con DB y la aproximación univariante longitudinal con DB generan resultados tan robustos como la aproximación de MANOVA clásica y univariante clásica para datos longitudinales, haciendo uso en la aproximación clásica de máxima verosimilitud restringida y mínimos cuadrados ponderados bajo condiciones de normalidad. Los parámetros del modelo univariante con DB fueron estimados por el método de máxima verosimilitud restringida y por mínimos cuadrados generalizados. Para la aproximación MANOVA con DB se uso mínimos cuadrados bajo condiciones de normalidad. Además, se presentó como realizar inferencia sobre los parámetros involucrados en el modelo para muestras grandes. Se explicó también una metodología para analizar datos longitudinales mediante modelos lineales generalizados con distancias entre observaciones con respecto a las variables explicativas, donde se encontraron resultados similares a la metodología clásica y la ventaja de poder modelar datos de respuesta continua no normal en el tiempo. Inicialmente, se presenta el modelo propuesto, junto con las ideas principales que dan su origen, se realiza la estimación de parámetros y el contraste de hipótesis. La estimación se hace aplicando la metodología de ecuaciones de estimación generalizada (EEG). Por medio de una aplicación en cada capítulo se ilustraron las metodologías propuestas. Se ajusto el modelo, se obtuvo la estimación de los diferentes parámetros involucrados, se realizó la inferencia estadística del modelo propuesto y la validación del modelo propuesto. Pequeñas diferencias del método DB con respecto al clásico fueron encontradas en el caso de datos mixtos, especialmente en muestras pequeñas de tamaño 50, resultado obtenido de la simulación. Mediante simulación para algunos tamaños de muestra se encontró que el modelo ajustado DB produce mejores predicciones en comparación con la metodología tradicional para el caso en que las variables explicativas sean mixtas utilizando la distancia de Gower. En tamaños de muestras pequeñas 50, independiente del valor de la correlación, las estructuras de autocorrelación, la varianza y el número de tiempos, usando los criterios de información Akaike y Bayesiano (AIC y BIC). Además, para muestras pequeñas de tamaño 50 se encuentra más eficiente (eficiencia mayor a 1) el método DB en comparación con el método clásico, bajo los diferentes escenarios considerados. Otro resultado importante es que el método DB presenta mejor ajuste en muestras grandes (100 y 200), con correlaciones altas (0.5 y 0.9), varianza alta (50) y mayor número de mediciones en el tiempo (7 y 10). Cuando las variables explicativas son solamente de tipo continuo o categórico o binario, se probó que las predicciones son las mismas con respecto al método clásico. Adicionalmente, se desarrollaron los programas en el software R para el análisis de este tipo de datos mediante la metodología clásica y por distancias DB para las diferentes propuestas en cada uno de los capítulos de la tesis, los cuales se anexan en un CD dentro de la tesis. Se esta trabajando en la creación de una librería en R con lo ya programado, para que todos los usuarios tengan acceso a este tipo de análisis. Los métodos propuestos tienen la ventaja de poder hacer predicciones en el tiempo, se puede modelar la estructura de autocorrelación, se pueden modelar datos con variables explicativas mixtas, binarias, categóricas o continuas, y se puede garantizar independencia en las componentes de la matriz de coordenadas principales mientras que con las variables originales no se puede garantizar siempre independencia. Por último, el método propuesto produce buenas predicciones para estimar datos faltantes, ya que al agregar una o más componentes en el modelo con respecto a las variables explicativas originales de los datos, se puede mejorar el ajuste sin alterar la información original y por consiguiente resulta ser una buena alternativa para el análisis de datos longitudinales y de gran utilidad para investigadores cuyo interés se centra en obtener buenas predicciones.<br>LONGITUDINAL AND MULTIVARIATE DATA ANALYSIS THROUGH DISTANCES WITH GENERALIZED LINEAR MODELS We are introducing new methodologies for the analysis of longitudinal data with continuous responses (univariate, multivariate for growth curves and with non-normal response using generalized linear models) based on distances between observations (or individuals) on the explicative variables. In all cases, after adding new components of the principal coordinate matrix, we observe a prediction improvement with respect to the classic models, thus providing an alternative prediction methodology to them. It was proven that both the distance based MANOVA model and the univariate longitudinal models are as robust as the classical counterparts using restricted maximum likelihood and weighted minimum squares under normality assumptions. The parameters of the distance based univariate model were estimated using restricted maximum likelihood and generalized minimum squares. For the distance based MANOVA we used minimum squares under normality conditions. We also showed how to perform inference on the model parameters on large samples. We indicated a methodology for the analysis of longitudinal data using generalized linear models and distances between the explanatory variables, where the results were similar to the classical approach. However, our approach allowed us to model continuous, non-normal responses in the time. As well as presenting the model and the motivational ideas, we indicate how to estimate the parameters and hypothesis test on them. For this purpose we use generalized estimating equations (EEG). We present an application case in each chapter for illustration purposes. The models were fit and validated. After performing some simulations, we found small differences in the distance based method with respect to the classical one for mixed data, particularly in the small sample setting (about 50 individuals). Using simulation we found that for some sample sizes, the distance based models improve the traditional ones when explanatory variables are mixed and Gower distance is used. This is the case for small samples, regardless of the correlation, autocorrelation structure, the variance, and the number of periods when using both the Akaike (AIC) and Bayesian (BIC) Information Criteria. Moreover, for these small samples, we found greater efficiency (>1) in our model with respect to the classical one. Our models also provide better fits in large samples (100 or 200) with high correlations (0.5 and 0.9), high variance (50) and larger number of time measurements (7 and 10). We proved that the new and the classical models coincide when explanatory variables are all either continuous or categorical (or binary). We also created programs in R for the analysis of the data considered in the different chapters of this thesis in both models, the classical and the newly proposed one, which are attached in a CD. We are currently working to create a public, accessible R package. The main advantages of these methods are that they allow for time predictions, the modelization of the autocorrelation structure, and the analysis of data with mixed variables (continuous, categorical and binary). In such cases, as opposed to the classical approach, the independency of the components principal coordinate matrix can always be guaranteed. Finally, the proposed models allow for good missing data estimation: adding extra components to the model with respect to the original variables improves the fit without changing the information original. This is particularly important in the longitudinal data analysis and for those researchers whose main interest resides in obtaining good predictions.
APA, Harvard, Vancouver, ISO, and other styles
4

Saavedra, López Ricardo Elías. "El análisis de correspondencias conjunto y múltiple ajustado." Master's thesis, Pontificia Universidad Católica del Perú, 2012. http://tesis.pucp.edu.pe/repositorio/handle/123456789/1466.

Full text
Abstract:
Esta tesis presenta una revisión de los fundamentos teóricos de dos de las más recientes extensiones de la técnica estadística conocida como análisis de correspondencia (AC): el análisis de correspondencia conjunto (ACC) y el análisis de correspondencia múltiple ajustado (ACMA); y muestra una aplicación práctica de éstas a una encuesta de egresados de la Pontificia Universidad Católica del Perú. El análisis de correspondencia simple (ACS) es el primer alcance del análisis de correspondencias y se presenta cuando cada categoría de una variable se describe en función de la dependencia existente de los valores de otra única variable. Su extensión a más de 2 variables es conocida como el análisis de correspondencia múltiple (ACM). Si bien se puede encontrar literatura sobre el ACS y el ACM, es importante destacar que el ACC y el ACMA han sido poco difundidos, encontrándose escasa literatura sobre el tema, más aún, en nuestro idioma. Por lo tanto, se hace necesaria una revisión de las dos primeras a modo de contexto y una presentación metodológica y detallada de las dos últimas. Con la aplicación práctica se pretende obtener una representación de las facultades de los egresados de la PUCP en función del ingreso en su primer empleo relacionado con la formación recibida en la universidad y la percepción del grado de desarrollo de la competencia de comunicación recibida en la universidad. Esta aplicación consistiría en aplicar los 4 métodos descritos, comparándolos mediante nuevas técnicas que permiten reproducir las tablas de contingencia originales a partir de las representaciones obtenidas por los métodos indicados.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
5

Mendoza, Pinto Lizeth Mayra. "Regresión lineal con datos censurados por intervalos." Universidad Mayor de San Andrés. Programa Cybertesis BOLIVIA, 2008. http://www.cybertesis.umsa.bo:8080/umsa/2008/mendoza_pl/html/index-frames.html.

Full text
Abstract:
Las observaciones intervalo censuradas se presentan en estudios donde no se puede precisar exactamente la observación, solamente se conoce un rango de ocurrencia, dentro del cual se supone recae la información, como por ejemplo, datos de estudios médicos, económicos, etc. En este documento se consideran modelos de regresión lineal en los cuales la variable respuesta es intervalo censurada y/o la variable covariante. El uso de un método ad hoc de análisis para dichos datos, como el que emplea los puntos medios de los intervalos de las variables intervalo censuradas en mínimos cuadrados ordinarios para la estimación de parámetros, no es válido en general, pues da lugar a estimaciones sesgadas. En este documento se emplea, una aproximación de máxima verosimilitud semiparamétrica, junto a un algoritmo condicional de dos fases, para estimar conjuntamente los coeficientes de regresión así como la distribución marginal de la covariante intervalo censurada. El método se aplica a la estimación del Gasto familiar en alimentación dependiente del Gasto total familiar, tomando datos censurados por intervalos. Se comparan las estimaciones obtenidas por el método con las estimaciones obtenidas por el procedimiento que emplea puntos medios, para analizar las bondades del método propuesto.
APA, Harvard, Vancouver, ISO, and other styles
6

Llactas, Abanto Rudy Eduardo. "Introducción a los modelos de ecuaciones estructurales." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/12784.

Full text
Abstract:
Describe la herramienta estadística Modelo de ecuaciones estructurales, da a conocer su marco teórico y adicionalmente mostrar de manera básica como es usado en el programa LISREL.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
7

Ríos, Varillas Cecilia Constanza. "Combinación del modelo log-lineal y el análisis de correspondencia para analizar variables cualitativas." Master's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/8978.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Determina las relaciones entre el análisis de correspondencia y el análisis log-lineal para obtener un método combinado de análisis de Tablas de Contingencia, en este enfoque el análisis de correspondencia es visto como una técnica que sirve para la exploración de residuos en modelos log- lineales. Las relaciones entre los modelos log-lineales y el análisis de correspondencias permiten desarrollar una metodología apropiada para el análisis de variables cualitativas mediante la combinación de ambas técnicas. En este enfoque, los modelos log-lineales se usan para evaluar la importancia de los efectos de interacción destacando los efectos que presenten diferencias significativas y luego se emplea el análisis de correspondencias para presentar las relaciones entre las categorías de las variables, de tal manera que evidencie la complementariedad entre estos dos modelos. En este estudio se resume esta metodología de análisis y se presenta una aplicación donde se estudia la relación entre el nivel de satisfacción del usuario de la consulta externa del servicio de pediatría del Hospital Nacional de Policía.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
8

Esquivel, Segura Henry John. "Modelo de regresión semiparamétrico robusto." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://hdl.handle.net/20.500.12404/19051.

Full text
Abstract:
El presente trabajo de tesis presenta un modelo de regresión semiparamétrico con errores t-Student, que permite estudiar el comportamiento de una variable dependiente dado un conjunto de variables explicativas cuando los supuestos de linealidad y normalidad no se cumplen. La estimación de los parámetros se realiza bajo el enfoque bayesiano a través del algoritmo de Gibbs. En el estudio de simulación se observa que el modelo propuesto es más robusto ante la presencia de valores atípicos que el usual modelo regresión semiparamétrico normal. Asimismo se presenta una aplicación con datos reales para ilustrar esta característica.
APA, Harvard, Vancouver, ISO, and other styles
9

Ocampo, Corrales Carlos Iván. "Modelo de regresión no lineal basado en una mixtura de la distribución senh-normal/independiente en el error." Master's thesis, Pontificia Universidad Católica del Perú, 2021. http://hdl.handle.net/20.500.12404/20416.

Full text
Abstract:
La distribución normal, si bien útil para explicar la distribución de muchos conjuntos de datos, a veces es inadecuada para ello. En este sentido, en muchos casos es conveniente trabajar con transformaciones de la distribución normal por ejemplo log-normal, Birnbaum- Saunders (BS) y Senh-Normal (SN). En esta tesis se presenta un modelo de regresión no lineal basado en una mixtura finita de distribuciones Senh-Normal/Independiente (SNI) en el error considerando dos casos específicos de esta distribución, SN y Senh-t-Student (SSt), respectivamente. En el contexto de regresión se plantea una metodología de estimación mediante la aplicación del algoritmo EM y también para el cálculo de los errores estándar. Se realizaron estudios de simulación para evaluar las propiedades de las estimaciones. Los resultados muestran que el modelo estima de manera satisfactoria los parámetros, más aún, evaluando el sesgo y el RSME de las estimaciones se observa que el modelo cumple con las propiedades asintóticas de los estimadores de máxima verosimilitud. Asimismo, se realizaron estudios de aplicación tanto para el modelo SN como SSt.
APA, Harvard, Vancouver, ISO, and other styles
10

Alonzo, Huaman Max Walter. "Modelo de regresión lineal con censura basado en una distribución senh-normal/independiente: una perspectiva frecuentista." Master's thesis, Pontificia Universidad Católica del Perú, 2021. http://hdl.handle.net/20.500.12404/20125.

Full text
Abstract:
En esta tesis se estudia el modelo de regresión lineal para datos censurados considerando una distribución senh-normal/independiente para los errores desde un enfoque frecuentista. Este trabajo considera la revisión de la teoría existente, la construcción del nuevo modelo, estimación de parámetros, estudios de simulación para recuperar los parámetros del modelo y la aplicación a un conjunto de datos reales.<br>In this thesis, the linear regression model for censored data is studied considering a sinhnormal / independent distribution for errors from a frequentist approach. This paper considers the revision of the existing theory, the construction of the new model, estimation of parameters, simulation studies to retrieve the parameters of the model and the application to a set of real data.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography