Academic literature on the topic 'Teoría de la predicción – Métodos estadísticos'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Teoría de la predicción – Métodos estadísticos.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Teoría de la predicción – Métodos estadísticos"

1

Velasco, Carlos Alberto Santamaria. "Factores Condicionantes de Las Intenciones Emprendedoras en Estudiantes Universitarios de la Universidad de Guadalajara: el caso de cuvalles." Revista de Empreendedorismo e Gestão de Pequenas Empresas 9, no. 1 (2020): 77. http://dx.doi.org/10.14211/regepe.v9i1.1804.

Full text
Abstract:
Objetivo: analizar la relación entre la intención emprendedora y un conjunto de variables explicativas (deseabilidad, control interno, normas sociales) según el modelo propuesto por Liñán (2009). Método: Estudio exploratorio y transversal, con dos fases: 1) fase orientada a la validación de los instrumentos a partir de la revisión teórica de la literatura, 2) análisis confirmatorio del modelo teórico a partir de los supuestos teóricos estadísticos (el análisis de validez discriminante, el análisis de normalidad multivariante, la homocedasticidad y los índices de bondad de ajustes del modelo) usados para evaluar la hipótesis del modelo. Originalidad / Relevancia: Si bien el análisis de las intenciones emprendedoras ha sido ampliamente estudiado en la literatura, este estudio permite confirmar la validez de los constructos del modelo en un contexto de economías emergentes. Por ello, la relevancia de sus resultados está vinculada a las implicaciones que esto pudiera tener en los cursos de formación en emprendimiento que se imparten en el colectivo analizado. Resultados: El principal constructo explicado fue la intención emprendedora. Fue estudiado a través de tres variables: deseabilidad, control percibido y normas sociales. El análisis arrojó que los ítems de cada una de las variables se agrupan conforme a la teoría. Así mismo, los resultados permitieron validar positivamente las hipótesis formuladas sobre el papel de la deseabilidad (H1) y el control percibido (H2) en la predicción de la intención emprendedora. Contribuciones teóricas / metodológicas: La principal contribución metodológica fue la validación del instrumento “Evaluación y Desarrollo del Potencial Emprendedor” (PEUL) fundamentado teóricamente en el modelo de Liñán (2009) utilizando el modelo de ecuaciones estructurales.
APA, Harvard, Vancouver, ISO, and other styles
2

Aristizábal-Giraldo, Edier, Mariana Vasquez Guarin, and Diana Ruíz. "Métodos estadísticos para la evaluación de la susceptibilidad por movimientos en masa." TecnoLógicas 22, no. 46 (2019): 39–60. http://dx.doi.org/10.22430/22565337.1247.

Full text
Abstract:
Existen diferentes métodos que permiten establecer a escalas regionales la susceptibilidad a la ocurrencia de movimientos en masa. Entre los métodos más utilizados se encuentran los métodos estadísticos bivariado y multivariado, los cuales exigen un inventario de procesos de remoción en masa. En el presente estudio se evalúa y zonifica la susceptibilidad por movimientos en masa en el norte de los Andes colombianos, región conocida como valle de Aburrá, por dos métodos estadísticos, uno de ellos bivariado, denominado Peso de la Evidencia, y recomendado por el Servicio Geológico Colombiano para estudios de amenaza en suelos rurales; y un segundo método estadístico tipo multivariado, denominado Regresión Logística, de amplio uso a nivel mundial. Para ambos casos, la construcción del modelo de susceptibilidad se realizó soportado en el histograma de frecuencias, correlación de Pearson, Análisis Discriminante y Análisis de Componentes Principales. Para evaluar el desempeño, la capacidad de predicción y los criterios de zonificación en alto, medio y bajo de cada uno de los métodos utilizados se utilizó el análisis ROC. Para la regresión logística se obtuvo un área bajo la curva del 76.8 % para el desempeño y 77.5 % para la capacidad de predicción, mientras que para el Peso de la Evidencia se obtuvo un 77.8% en el desempeño y 77.5% en la predicción, señalando resultados satisfactorios que permiten la incorporación de dichos resultados en los estudios básicos necesarios para la ordenación del territorio.
APA, Harvard, Vancouver, ISO, and other styles
3

Tapia Hernández, Edgar, Elizabeth A. Reddy, and Laura Josabeth Oros Avilés. "RETOS E INCERTIDUMBRES EN LA PREDICCIÓN Y PREVENCIÓN DEL RIESGO SÍSMICO." Revista de Ingeniería Sísmica, no. 96 (June 30, 2017): 66–87. http://dx.doi.org/10.18867/ris.96.186.

Full text
Abstract:
El artículo discute desde un punto multidisciplinario el estado actual de las predicciones sísmicas con sustento científico basados en precursores físicos, métodos estadísticos y los requisitos mínimos que deben considerarse para identificar métodos razonables; especialmente, los encaminados a la prevención sísmica. Sobre la cultura de la prevención se discuten cambios históricos relacionados con la población vulnerable y marginal, su progreso en relación al desarrollo científico, la evidencia antropológica sobre la eficacia de las predicciones y su influencia en la cultura de la prevención para enfrentar riesgos comunes, el sistema de alerta temprana de sismos y la influencia de las predicciones en las expectativas y decisiones de inversión.
APA, Harvard, Vancouver, ISO, and other styles
4

Richaud de Minzi, María Cristina. "Nuevos métodos estadísticos para la investigación en evaluación de la personalidad." Revista de Psicología 21, no. 2 (2003): 291–310. http://dx.doi.org/10.18800/psico.200302.003.

Full text
Abstract:
En este trabajo se realiza una revisión de las nuevas técnicas estadísticas y de su utilidad para la investigación en personalidad. Los nuevos modelos y los avances en la medición de la personalidad y la psicopatología sugieren que la investigación en este campo y en su evaluación han entrado en un estadio avanzado de desarrollo. En las dos últimas décadas se han producido importantes desarrollos en estadística y medición. El refinamiento de las técnicas de análisis multivariado ha sido fundamental en la evaluación de la personalidad debido a la complejidad de las relaciones entre sus variables. Los procedimientos de análisis multivariado proveen la oportunidad de examinar la complejidad de esas interacciones a través de métodos de análisis para variables múltiples. Por otra parte, se han desarrollado los modelos de ecuaciones estructurales y técnicas multivariadas para analizar variables categóricas. Los últimos desarrollos corresponden al escalamiento multidimensional y a la teoría de la respuesta al ítem.
APA, Harvard, Vancouver, ISO, and other styles
5

Gómez Miranda, Ingry Natalia, and Gustavo Antonio Peñuela Mesa. "Revisión de los métodos estadísticos multivariados usados en el análisis de calidad de aguas." Revista Mutis 6, no. 1 (2016): 54. http://dx.doi.org/10.21789/22561498.1112.

Full text
Abstract:
<p align="justify">En los ecosistemas acuáticos se monitorea el agua para determinar sus variaciones espacio-temporales, generando grandes y complejas matrices de datos que requieren herramientas que ayuden en la interpretación de los mismos, para que los administradores de los recursos hídricos puedan informar a la sociedad el deterioro de estos y tomar medidas correctivas. El presente artículo es una revisión de tema cuyo objetivo es el examen de técnicas estadísticas multivariadas usadas para examinar la variabilidad espacio-temporal de la calidad del agua. En él se presentan diversas técnicas como el análisis factorial, que se usa con el fin de disminuir la dimensionalidad de los datos y construir factores subyacentes o variables latentes que generen las variables observadas, estos factores pueden usarse e interpretarse como índices de calidad del agua construidos a partir de los datos recolectados; también se presenta en análisis de clúster y el análisis discriminante que se usan comúnmente para estudiar la variabilidad espacial, estudiando similaridades entre períodos o estaciones de muestreo, estas tres técnicas se usan comúnmente con fines exploratorios; para objetivos más complejos como el modelamiento y la predicción, se presentan los modelos jerárquicos, de regresión múltiple y de ecuaciones estructurales. Para todos los métodos se presenta su funcionalidad y aplicabilidad y se ilustran usando casos de estudio. Esta revisión describe cómo estos métodos pueden utilizarse con miras a estudiar la calidad del agua con el fin de monitorear espacial y temporalmente la variabilidad de las medidas tomadas.</p>
APA, Harvard, Vancouver, ISO, and other styles
6

Contreras Urgiles, Wilmer Rafael, Rogelio Santiago León Japa, and José Luis Maldonado Ortega. "Predicción de emisiones de CO y HC en motores Otto mediante redes neuronales." Ingenius, no. 23 (December 27, 2019): 30–39. http://dx.doi.org/10.17163/ings.n23.2020.03.

Full text
Abstract:
En el presente trabajo se explica la aplicación de RNA (redes neuronales artificiales) para la predicción de emisiones contaminantes generadas por fallas mecánicas en motores de encendido provocado, de la cual se puede cuantificar el porcentaje de CO (% monóxido de carbono) y el particulado por millón HC (ppm hidrocarburos sin quemar), a través del estudio de la fase de admisión del ciclo Otto, la cual es registrada por medio de la implementación física de un sensor MAP (Manifold Absolute Pressure). Se aplica un riguroso protocolo de muestreo y consecuente análisis estadístico. La selección y reducción de atributos de la señal del sensor MAP se realiza en función del mayor aporte de información y diferencia significativa con la aplicación de tres métodos estadísticos (ANOVA, matriz de correlación y Random Forest), de la cual se obtiene una base de datos que permite el entrenamiento de dos redes neuronales feed-forward backpropagation, con las cuales se obtiene un error de clasificación de 5.4061e-9 y de 9.7587e-5 para la red neuronal de CO y HC respectivamente.
APA, Harvard, Vancouver, ISO, and other styles
7

Legato, Ana Maria, and Aldo Hernan Alonso. "Resultados óptimos demandan herramientas de mayor precisión: el aporte de Mínimos Cuadrados Parciales (PLS)." Revista de la Facultad de Ciencias Económicas, no. 10 (March 2, 2013): 37. http://dx.doi.org/10.30972/rfce.0101102.

Full text
Abstract:
<p>La regresión PLS (Partial Least Squares) es un método estadístico multivariante recientemente generalizado. Combina y generaliza conceptos de análisis de Componentes Principales y de análisis de Regresión Lineal Múltiple y resulta particularmente útil cuando se desea predecir un conjunto de variables dependientes (Y) desde un conjunto (relativamente grande y posiblemente correlacionadas) de variables predictoras (X). También resuelve con propiedad el problema de multicolinealidad, que generalmente se supera eliminando las variables que la causan o transformándolas, solución aplicable si la permanencia del set de variables X no es requerida, o sea cuando necesidades de explicación y predicción no inhiban tal procedimiento. Es apto asimismo cuando el problema requiere considerar relaciones múltiples y cruzadas, y que todas ellas se den simultáneamente o cuando existen variables que no se puedan medir directamente (no observables) no obstante ser necesarias para desarrollar la teoría. El presente trabajo considera específicamente esta metodología, la describe e interpreta en su concepción y hace explícito su potencial aporte a través de su aplicación a dos casos simplificados1 que permiten comparar los resultados con los obtenidos mediante el empleo de otra técnica.</p>
APA, Harvard, Vancouver, ISO, and other styles
8

Deniz Gálvez, Nery Alejandro, Osval A. Montesinos-López, Emeterio Franco-Pérez, and J. Jesús García-Martínez. "Predicción de variables económicas del sector servicios de México con modelos estadísticos clásicos y Bayesianos / Prediction of economic variables of the service sector in Mexico using classical and Bayesian statistical models." RICEA Revista Iberoamericana de Contaduría, Economía y Administración 7, no. 14 (2018): 107–32. http://dx.doi.org/10.23913/ricea.v7i14.120.

Full text
Abstract:
La Encuesta Mensual de Servicios (EMS) es una actividad que realiza el Instituto Nacional de Estadística y Geografía (Inegi) con el objetivo de generar información estadística básica sobre el sector económico de los servicios en México. Considerando que se aplica mensualmente y su costo es relevante, en esta investigación se proponen modelos estadísticos (Bayesianos y clásicos) para poder predecir los indicadores de las cuatro variables agregadas que se generan a partir de los resultados de la encuesta. Se estudiaron 42 métodos resultantes de combinar 7 modelos (tres modelos multivariados y cuatro univariados), con 6 métodos de estimación (cuatro bayesianos, uno por mínimos cuadrados y otro por máxima verosimilitud restringida). Los modelos Bayesianos permiten introducir información a priori con el objetivo de obtener un ajuste más preciso de los parámetros.De los siete modelos estadísticos utilizados, el que tuvo mejor capacidad predictiva es el MP1 univariado, seguido por los modelos MP2, MP4 y MP3 multivariados; al final estuvieron los MP5, MP6 y MP7 univariados autoregresivos. De los seis métodos utilizados, el que tuvo mejor capacidad predictiva fue el BayesA, seguido por BayesB, BRR, máxima verosimilitud restringida, BayesC y mínimos cuadrados. En el caso en que predecimos para 3, 6, 12 y 18 meses, los modelos MP1 univariado, MP2, MP3 y MP4 multivariados obtuvieron la mejor capacidad predictiva utilizando los métodos BayesA, BayesB y mínimos cuadrados. De acuerdo con los resultados obtenidos, es razonable predecir con los modelos propuestos para aquellos indicadores con una correlación de 0.4 o mayor. Con los modelos implementados se encontró que es factible predecir los resultados de la encuesta hasta para tres meses, lo que ayudaría a reducir los costos actuales en forma considerablemente.
APA, Harvard, Vancouver, ISO, and other styles
9

Valbuena, R., M. Maltamo, and P. Packalen. "Classification of forest development stages from national low-density lidar datasets: a comparison of machine learning methods." Revista de Teledetección, no. 45 (February 26, 2016): 15. http://dx.doi.org/10.4995/raet.2016.4029.

Full text
Abstract:
<p>Los métodos de estimación por áreas son ya habituales para el uso de escaneo láser aerotransportado (ALS) en la predicción de atributos forestales descritos por variables continuas: biomasa, volumen, densidad, etc. No obstante, apenas se ha prestado atención a los métodos de clasificación por aprendizaje automático, que por otro lado son frecuentes en diversos campos de la teledetección, como la identificación de coberturas del suelo por sensores multiespectrales. En este artículo hemos centrado la atención en métodos estadísticos destinados a predecir variables discretas, para obtener clasificaciones supervisadas de datos ALS. Varios métodos han sido revisados: clasificadores de análisis discriminante (DA) –máxima verosimilitud, elipsoide de volumen mínimo y Bayesiano ingenuo–, máquinas de vector soporte (SVM), redes neuronales artificiales (ANN), selvas aleatorias (RF), y vecino más próximo (NN). La comparación se ha realizado en el contexto de una clasificación en las etapas de desarrollo (ED) utilizadas en la gestión forestal de los bosques de Finlandia, utilizando para ello datos de baja densidad de su vuelo nacional. RF y NN produjeron las matrices de error más equilibradas, con predicciones por validación cruzada no sesgadas para todas las EDs. Aunque SVM y ANN mostraron las mayores precisiones, obtuvieron resultados muy dispares entre las distintas EDs, siendo óptimas sólo para algunas concretas. DA obtuvo los peores resultados, y sólo se observó que pudieran ser beneficiosas en la predicción de rodales en la etapa de diseminado. Nuestros resultados muestran que, además de la confirmada capacidad del ALS para predecir variables de cuantificación de las masas forestales, también existe potencial en la clasificación de variables categóricas en general, y tipologías forestales en particular. En conclusión, consideramos que estas metodologías se pueden también adaptar a las clases naturales de edad y tipos estructurales que sean relevantes en ecosistemas mediterráneos, abriendo un abanico de posibilidades para investigación en ALS, con mucho potencial.</p>
APA, Harvard, Vancouver, ISO, and other styles
10

Castro García, Yair, Rafael Enrique Cabanillas López, and Josefa García Sánchez. "ALGORITMOS GENÉTICOS EN EL ESTUDIO DE LÍQUIDOS IÓNICOS PARA ENFRIAMIENTO SOLAR." Biotecnia 19 (September 21, 2017): 38–41. http://dx.doi.org/10.18633/biotecnia.v19i0.409.

Full text
Abstract:
Se conjugó el modelo PC-SAFT y la Teoría de Fricción (PC-SAFT+f-theory) a través de las presiones atractiva y repulsiva moleculares para modelar el comportamiento de fases densimétrico y viscosimétrico de los compuestos puros 2,2,2-trifluoroetanol (TFE) que actúa como refrigerante y el líquido iónico 1-butil-3-metilimidazolio hexafluorofosfato [C1C4im][PF6] como absorbente. El conjunto de parámetros del modelo PC-SAFT+f-theory se optimizó usando algoritmos genéticos. Se comparó la densidad calculada con datos experimentales y se estudiaron los coeficientes de fricción en la viscosidad. Los resultados muestran que los Algoritmos Genéticos son métodos potentes para la optimización del conjuntos de parámetros del modelo PC-SAFT + Teoría de fricción permitiendo la correlación/predicción del equilibrio de fases y del comportamiento volumétrico de fluidos de trabajo en sistemas de enfriamiento por absorción activados con energía solar.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Teoría de la predicción – Métodos estadísticos"

1

Bigio, Luks David Miles. "Selección de métodos numéricos aplicados a la predicción estadística usando la regresión logística." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/8149.

Full text
Abstract:
El presente proyecto de fin de carrera buscará encontrar el mejor método computacional para la predicción estadística usando la regresión logística. Esta búsqueda se realizará dentro de un espacio limitado de métodos que se estudiaran. Una vez que se realice la investigación se escogerá el algoritmo más óptimo para la predicción y se obtendrá como resultado un aplicativo genérico para modelar comportamientos futuros en cualquier ámbito. Al leer la presente investigación uno podrá lograr discriminar sobre las mejores herramientas – de las planteadas – para la predicción de escenarios futuros en cualquier campo de estudio, de tal forma que se mejoren las decisiones tomadas y que los usuarios (estadísticos, matemáticos e ingenieros) sepan un poco más sobre los métodos que los llevan a sus respuestas predictivas.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
2

Medina, Merino Rosa Fátima. "Modelos estructurales - series de tiempo: Análisis de la temperatura superficial del Mar Peruano y su influencia en la captura desembarque de anchoveta Caso: Frente a las costas del Callao- 13°S, enero 1959 - junio 2014." Master's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/8692.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Plantea modelos que expliquen la captura desembarque de anchoveta en función de periodos fríos y cálidos en el Mar Peruano frente a las costas del Callao- 13°S. Con esta finalidad se realiza un estudio estadístico de las características de la temperatura superficial del mar específicamente con los componentes observables y no observables de ésta, que pueden estar asociadas con los eventos conocidos como “El Niño” y “La Niña”. Así se demuestra que la influencia de la temperatura sobre la captura desembarque de anchoveta, se cuantifica ésta asociación para periodicidades variables a corto y largo plazo mediante el uso del espectro cruzado y coherencia espectral. Se desarrollan modelos estructurales para estimar, con ayuda del filtro de Kalman, el comportamiento de la captura desembarque de anchoveta en función de la temperatura superficial del mar. Se propone un modelo estructural mediante la metodología espacio estado que incorpora los conceptos de series de tiempo bivariadas por enfoque espectral.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
3

Zevallos, Ruiz José Augusto. "Estimación de curvas de intensidad-duración-frecuencia de precipitaciones para el Perú usando precipitaciones horarias simuladas con el modelo de pulso rectangular de Bartlett- Lewis." Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://hdl.handle.net/20.500.12404/14455.

Full text
Abstract:
La necesidad de cuantificar el riesgo de ocurrencia de precipitaciones de cierta intensidad y duración es vital para las obras de ingeniería en el Perú. Una herramienta que sirve para estimarlo son las curvas Intensidad-Duración-Frecuencia (IDF). La exactitud de estas curvas depende de datos de calidad y resolución temporal horaria (Ritschel et al., 2017). Sin embargo, en el Perú se cuenta con un registro muy corto de años de precipitaciones horarias, lo que dificulta inferir propiedades estadísticas de la IDF sub diarias. Un método de estimación de las curvas IDF sobre territorio peruano es desarrollado en esta investigación, utilizando la distribución General de Extremos (GEV) para calcular las intensidades de diferente duración en 5, 50, 100 y 200 años de retorno. El método se validó comparando las curvas generadas con datos observados y simulados para la Mina Toquepala ubicada en la sierra sur del Perú. Los datos horarios simulados fueron generados con el modelo estocástico de pulso rectangular de Bartlett-Lewis (BLRPM), (Rodriguez-Iturbe, D.R. Cox, 1988), el cual fue calibrado con información diaria observada y datos corregidos del satelital TRMM 3b42. Producto de esta comparación se observó que las series obtenidas con BLRPM capturan las principales características estadísticas de las curvas IDF. Para la obtención de las curvas, se aplicó el método validado a los datos de precipitación diaria provista por el Servicio Nacional Meteorología e Hidrológica del Perú (SENAMHI). Las estaciones se encuentran distribuidos en las principales cuencas hidrográficas. Las curvas IDF resultantes pueden apreciarse en el siguiente link: https://josezevallosr.github.io/CurvasIdf/mapa.html<br>The need for quantifying the risk of occurrence of precipitation of a certain intensity and duration is vital for providing engineering works in Peru. A tool for estimating it is the intensity-duration-frequency relationship (IDF). The accuracy of such relationship depends on the quality of the data and its temporal resolution, which is typically hourly (Ritschel et al., 2017). However, the length or the recorded series are short, which makes it difficult to infer confident statistical properties for sub daily curves. A method of estimating the IDF curves on Peruvian territory is developed in this investigation, using the General Distribution of Extremes (GEV) to calculate the intensities of different duration for 5, 50, 100 and 200 years of return. The method was validated by comparing the generated curves with observed and simulated data for the Toquepala mine site located in the southern highlands of Peru. The simulated hourly data were generated with the Bartlett-Lewis stochastic rectangular pulse model (BLRPM), (Rodriguez-Iturbe, D.R. Cox, 1988), which was calibrated with observed daily information and corrected data from the TRMM satellite 3b42. As result of this comparation, it was observed that the series obtained with BLRPM capture the main statistical characteristics of the IDF curves. To obtain the curves at the national scale, the validated method was applied to the daily rainfall data provided by the National Meteorological and Hydrological Service of Peru (SENAMHI). The stations are distributed in the main river basins. The resulting IDF curves can be seen in the following link: https://josezevallosr.github.io/CurvasIdf/mapa.html<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
4

Ip, Lam Jimmy Edward. "Aplicación de la Teoría Maximum/Minimum Autocorrelation Factors (MAF) para la Cosimulación de Leyes en Yacimientos Minerales." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104156.

Full text
Abstract:
En el ámbito minero, los estudios geoestadísticos multivariables para la estimación de recursos son complejos, ya que necesitan modelar no solamente la continuidad espacial de cada variable sino que también las dependencias entre ellas. En investigaciones recientes, se ha desarrollado una técnica llamada maximum/minimum autocorrelation factors (MAF) para simplificar dichos estudios, creando nuevas variables (factores) descorrelacionadas a dos distancias diferentes de separación, mediante una combinación lineal de las variables originales. En ciertos casos estos factores pueden considerarse como totalmente independientes, reduciendo así el problema de modelamiento multivariable a una serie de problemas univariables. En este trabajo se presentan y comparan la técnica de cosimulación de leyes vía MAF y la forma tradicional, para determinar sus ventajas y desventajas. Se estudia dos bases de datos, correspondientes a un yacimiento de cobre y otro de fierro. Se usa como referencia la forma tradicional de cosimular múltiples variables, la que consiste en transformar las variables originales en variables Gaussianas, ajustar un modelo lineal de corregionalización (variogramas simples y cruzados), generar realizaciones y condicionarlas a los datos por cokriging. En el caso MAF, se simula cada uno de los factores independientes y luego se recombinan para obtener las variables originales. Se concluye que la cosimulación vía MAF tiene varias ventajas sobre la cosimulación tradicional: se simplifica el problema de modelamiento (sólo se debe ajustar los variogramas simples de los factores MAF, en lugar de un modelo de corregionalización completo) y se reduce el tiempo de simulación. En los casos estudiados, la cosimulación vía MAF reproduce bastante bien las distribuciones univariables, correlaciones espaciales y la correlación cruzada entre las variables corregionalizadas a simular. Sin embargo, el principal inconveniente proviene de la pérdida de información en la presencia de muestreos heterotópicos, cuando no todas las variables son conocidas en las mismas ubicaciones. La información en las ubicaciones donde no se conoce alguna variable se pierde por completo, por lo que la cosimulación vía MAF no está condicionada a todos los datos originales. En cambio, la cosimulación tradicional no sufre de este inconveniente, por lo que resulta ser más versátil en cuanto al manejo de bases de datos heterotópicos.
APA, Harvard, Vancouver, ISO, and other styles
5

Quezada, Lucio Nel. "K − vecino más próximos en una aplicación de clasificación y predicción en el Poder Judicial del Perú." Master's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/6201.

Full text
Abstract:
Busca encontrar modelos utilizando el método de los k−vecinos más próximos con el propósito de clasificar las 31 Cortes Superiores de Justicia del País y poder realizar predicciones para futuras Cortes Superiores de Justicia. Verifica la validez del modelo de clasificación y predicción de las Cortes Superiores de Justicia basado en el método de los k-vecinos más próximos. Verifica la precisión del modelo de k-vecinos más próximo cuando se tiene muestras pequeñas de entrenamiento y reserva. Experimenta los modelos que identifica y evalúa las 31 Cortes Superiores de Justicia, respecto de los predictores en forma a priori. Encuentra un modelo de agrupamiento jerárquico basado en encadenamiento simple para asociar las Cortes Superiores de Justicia del País en conglomerados.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
6

Hurtado, Lagos Sebastián Octavio. "Simulación de Variables Categóricas Considerando Estadísticas de Patrones." Tesis, Universidad de Chile, 2009. http://repositorio.uchile.cl/handle/2250/103562.

Full text
Abstract:
La estimación de recursos es una de las etapas iniciales dentro de los procesos de explotación de minerales. En esta etapa se define la decisión de explotar o no el yacimiento. Dentro del proceso de estimación de recursos, es importante tomar en consideración el modelo geológico que se utiliza. Un modelo geológico corresponde a una interpretación discreta o categórica de distintos parámetros que se definen en un yacimiento tales como el tipo de roca, la litología o las unidades geotécnicas. Se hace fundamental contar con un modelo geológico confiable, ya que este influye en etapas posteriores tales como el diseño de un rajo, el hundimiento o caserones en labores subterráneas, la metalurgia asociada a procesos y que dependan de la litología. Este trabajo consiste en comenzar la implementación de nuevas técnicas de simulación categórica aplicando estadísticas de múltiples puntos, en contraste con simulaciones que utilizan las estadísticas de dos puntos (covarianza o variograma). El objetivo es el dar nuevas opciones de simulación categórica que puedan representar de mejor manera las complicadas geometrías que se presentan en los contactos entre categorías. Se pretende ampliar las alternativas de simulación y a la vez dejar abierta la discusión de cómo implementar de manera útil las nuevas metodologías, las cuales necesitan ser analizadas y mejoradas para una futura aplicación a la industria minera. La primera parte de este trabajo consiste en una revisión de algunos métodos de simulación de variables categóricas basadas en la función de covarianza. Luego, se presenta el método que se utilizará para simular litologías utilizando estadísticas de múltiples puntos (SNESIM). Se trabaja en base a un caso de estudio con datos reales aplicando la metodología antes mencionada y también una metodología convencional (BlockSIS). Los resultados de las distintas metodologías son reportados por cada litología según el porcentaje de ocurrencia efectivamente bien simulado con respecto al modelo geológico. Estos porcentajes indican que los métodos SNESIM tienen un comportamiento aceptable en los contactos entre litologías. Estos resultados aportan una cuantificación de la incertidumbre tanto en los contactos como en la cantidad de tonelaje por litología. Este aporte puede ser importante dado la información que proporciona en las etapas de inversiones de capital, planificación minera, evaluación de recursos.
APA, Harvard, Vancouver, ISO, and other styles
7

Calderón, Amor Hernán Alberto. "Reconstrucción de imágenes geológicas basadas en la teoría de compressed sensing." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116890.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>En el ámbito de interpolación geoestadística, el principal problema para estimar variables regionalizadas es la baja cantidad de datos medidos. Este tipo de problemas están extremadamente indeterminados, es decir, presentan una mayor cantidad de grados de libertad que restricciones, lo que deriva en múltiples soluciones. Este trabajo aborda el problema de interpolación de perfiles de permeabilidad desde un enfoque de reconstrucción de imágenes. En particular, el trabajo es motivado por el reciente desarrollo de la teoría RIPless de Compressed Sensing, herramienta que ha introducido un nuevo paradigma de adquisición de datos, permitiendo muestrear a tasas muy por debajo de las establecidas por las técnicas convencionales. El enfoque consiste en modelar las estructuras multicanal como imágenes que presentan una descomposición sparse en algún dominio transformado y utilizar esta información para reconstruir la imagen original a partir de un muestreo sub-crítico y no estructurado. Ésta es la principal diferencia con los métodos tradicionales, los cuales utilizan modelos estadísticos como información a priori para el proceso de estimación. La principal contribución de este trabajo fue la contextualización del problema de interpolación espacial en el marco de Compressed Sensing, generando claras conexiones con los resultados teóricos de esta nueva herramienta. De este análisis, se formuló el problema de selección de base óptima, el cual indicó que bajo el esquema de medición aleatoria de pixeles, la DCT es la base que permite inducir un determinado error de reconstrucción con la menor cantidad de mediciones, superando incluso a las transformadas wavelet. En la línea de los resultados obtenidos, este enfoque presenta prometedores desempeños, incluso en el régimen sub-crítico del 2% al 4% de datos medidos. En cuanto a los aspectos prácticos de procesamiento, la descomposición en distintos niveles de escala (bloques) para su reconstrucción y posterior promedio, mostró mejorías sustanciales en la estimación de las variables de permeabilidad. También se constató que, dada la naturaleza binaria de las imágenes estudiadas, una etapa de categorización genera importantes mejoras en los desempeños del método. Finalmente, esta memoria abrió diversas ramas de estudio para trabajos futuros, dentro de los cuales destacan: implementación de otros algoritmos; estudio de técnicas de post-procesamiento más elaboradas; extender el análisis a diferentes estructuras o modelos geológicos; incorporación de información a priori en esquemas de reconstrucción; y uso conjunto de métodos convencionales y regularización sparse.
APA, Harvard, Vancouver, ISO, and other styles
8

Corominas, Bosch Margarida. "On Two Sided Network Markets." Doctoral thesis, Universitat Pompeu Fabra, 1999. http://hdl.handle.net/10803/7391.

Full text
Abstract:
Esta tesis está centrada en el estudio de mercados bilaterales en los cuales la comunicación no es completa, sino que viene dada por una red de comunicación. Las principales preguntas formuladas en la tesis son determinar el valor de cada posición en la red, y decidir cúal sería la mejor estrategia si hubiera la posibilidad de invertir en vínculos de comunicación. Las técnicas utilizadas incluyen teoría de juegos y teoría de grafos.<br/>El primer capítulo ofrece la base técnica que será utilizada posteriormente. Allí se estudia la menra de descomponer un grafo bipartito general, en subgrafos simples que cumplen unas determinadas propiedades. Posteriormente, en el segundo capítulo la tesis procede a estudiar un juego no-cooperativo en le que los agentes que componen el mercado bilateral en red proceden a efectuar ofertas y contra-ofertas con los agentes a los que tienen acceso, repitiéndose el juego hasta llegar a un acuerdo. El análisis estudia los precios a los que llega este juego en equilibrio, que vienen influidos por la red de comunicación. La estructura del grafo juega un papel muy relevante, ya que uno de los equilibrios viene dado directamente por la descomposición de la red. El capítulo caracteriza también exactamente cuales son las redes capaces de implementar el equilibrio competitivo, que equivale al caso de comunicación completa. En el tercer capítulo se realiza un estudio similar con técnicas de teoría de juegos coperativos. Se estudia el núcleo del juego y se demuestra que su estructura es paralela a la descomposición del grafo que define la red. Además, el mismo equilibrio encontrado en el juego no-coperativo aparece aquí otra vez como punto central del núcleo del juego coperativo, reafirmando la validez de este valor. Finalmente, el último capítulo estudia las propiedades del valor definido en los dos capítulos anteriores. Se demuestra que las redes estables y eficientes coinciden (para costes de establecimiento de vínculos pequeños) con las redes comunicadas. También se construye un juego de creación de vínculos que tiene como equilibrio las redes equivalentes a las totalmente comunicadas.
APA, Harvard, Vancouver, ISO, and other styles
9

Ríos, Bardales Willian Pool, and Yupanqui Ronald Orlando Castañeda. "Modelo para la predicción del éxito en los proyectos de software aplicando máquinas de soporte vectorial." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/8694.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Plantea la construcción de un modelo de predicción usando una técnica de minería de datos, el cual después de un estudio realizado se perfila como uno de las mejores técnicas de predicción, por encima de muchos. Como caso práctico, este modelo se aplica usando proyectos de software desarrollados en una entidad financiera, obteniendo unos resultados muy alentadores.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
10

Aguado, García Daniel. "Aplicación de métodos estadísticos multivariantes para la modelación y la monitorización de un reactor discontinuo secuencial para el tratamiento de aguas residuales." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/1910.

Full text
Abstract:
Como consecuencia del incremento de los problemas de eutrofización en ríos, lagos y costas, se ha producido en las últimas décadas un notable aumento del interés por la eliminación de nutrientes en las aguas residuales previamente a su vertido en los sistemas naturales. Inicialmente, la eliminación de la materia orgánica y el nitrógeno presente en el agua residual se realizaba por medio de procesos biológicos mientras que el fósforo se eliminaba mediante procesos químicos. Sin embargo, las ventajas que presenta la eliminación biológica de fósforo han contribuido a que gradualmente este proceso haya sido implantado cada vez en más estaciones depuradoras de aguas residuales (EDARs). El control de un proceso tan complejo como es el tratamiento de las aguas residuales con eliminación biológica de fósforo, exige conocer las variables de calidad que definen la eficacia del mismo (concentración de ortofosfatos, de amonio, demanda química de oxígeno, ...). Los métodos existentes para la medición de estas variables en tiempo real suponen fuertes inversiones y elevados costes de mantenimiento. Por otro lado, existen otras variables (variables de proceso: pH, conductividad, ...) que se pueden medir en tiempo real por medio de sensores robustos, de bajo coste y que requieren poco mantenimiento, pero que no suministran de forma directa información del funcionamiento del proceso. El elevado número de variables de proceso que actualmente se registran en tiempo real en EDARs modernas, hace necesaria la utilización de técnicas que permitan extraer la información contenida en la gran cantidad de datos registrados. El objetivo principal de la presente tesis ha sido estudiar las posibilidades de utilización de las variables de proceso para obtener información acerca de la evolución de las variables de calidad, así como sobre la evolución del proceso a lo largo del tiempo, mediante la aplicación de métodos estadísticos multivariantes. De esta forma, se pretende detectar cualquier ano<br>Aguado García, D. (2005). Aplicación de métodos estadísticos multivariantes para la modelación y la monitorización de un reactor discontinuo secuencial para el tratamiento de aguas residuales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1910<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!