Segui questo link per vedere altri tipi di pubblicazioni sul tema: Predicción.

Tesi sul tema "Predicción"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Predicción".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Normey-Rico, J. E. (Julio Elias). "Predicción para control /". Sevilla, 1999. http://repositorio.ufsc.br/xmlui/handle/123456789/81146.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

González, Maeso Ana María. "Predicción de crecimiento de la tuberosidad maxilar". Doctoral thesis, Universitat de València, 2011. http://hdl.handle.net/10803/81335.

Testo completo
Abstract (sommario):
Este estudio longitudinal ha sido diseñado para determinar una valoración real del crecimiento de la Tuberosidad Maxilar a través de cualquiera de los tres registros clínicos más utilizados hasta la fecha en las consultas de Ortodoncia: modelos de estudio (MODELOS), ortopantomografías (ORTO) y telerradiografías (TELE). Para ello contamos con una muestra de 60 pacientes (26 niños y 34 niñas) entre 7 y 21 años de edad evaluados en función de su edad dentaria en 2 momentos diferentes: en la primera medición los sujetos presentan dentición mixta 1º fase, y en la segunda, unos diez años más tarde, los mismos sujetos presentan dentición permanente. Dividimos la muestra en 2 grupos: el grupo A representa a los sujetos que no presentan los 3º molares superiores erupcionados, mientras que en el grupo B, el cual representa el 23,3% de la muestra, los 3º molares superiores han erupcionado correctamente. En ambos grupos medimos mediante los tres registros el espacio disponible tuberositario que determinamos de distal del 1º molar permanente superior a distal de la tuberosidad. Encontramos correlación lineal entre los 2 registros radiográficos TELE y ORTO, pero no así en MODELOS. La longitud adulta del espacio tuberositario puede predecirse a partir de la medición inicial en las técnicas de TELE y ORTO.En todas las técnicasexceptoen MODELOS, la correlación entre medidas iniciales y finales es significativa. Las dimensiones de las medidas tuberositarias son simétricas respecto al plano que divide la arcada en dos mitades. El porcentaje medio de crecimiento tuberositario medido con nuestros propios métodos a través de telerradiografías es 59,7%; variación media similar a la realizada según el análisis de Ricketts. Hemos obtenido una ecuación de regresión que confirma la correlación lineal entre ambas técnicas, así como el método de predicción de Ricketts. Ni el sexo ni el tipo de arcada parecen influenciar en el crecimiento de la tuberosidad maxilar en ninguna técnica de medición utilizada. Sólo en MODELOS con 3º molar erupcionado el crecimiento es mayor. La suma de los diámetros de las coronas de los 2º y 3º molares medidas en TELE alcanza un valor medio de 21,01mm. Es significativamente superior al espacio tuberositario medio: 19,18mm, lo cual implica problemas de espacio en el 73,3% de los adultos.
This longitudinal studywasdesignedto determine a realisticassessment of themaxillarytuberositygrowththroughany of thethreeclinical records mostwidelyusedto date in orthodonticclinics: studymodels (SM), lateral cephalometricradiographs (LCR) and panoramicradiographs (PR). Thesampleconsisted of 60 patients (26 boys and 34 girls) between 7 and 21 yearsold, evaluatedon 2 differentstages of theirtoothage: duringthefirstmeasurement, subjectshad 1st phasemixeddentition, and ten yearslater, in a secondmeasurement, samesubjectshadpermanentdentition. Wedividedthesampleinto 2 groups: group A includessubjectswith non erupted 3rd molars, while in group B (23.3% of thesample), 3rd molarshaveeruptedcorrectly. In bothgroupstheavailabletuberosityspacewasmeasuredusingallthreeclinical records: from distal of 1st permanentupper molar to distal of thetuberosity. Linear correlationwasfoundbetweenthe 2 radiographic records; PR and LCR, butnotbetween SM. Theadultlength of thetuberosityarea can be predictedwithinitialmeasurementswhenusing PR and LCR. Withtheexception of SM, allothertechniquesshowedsignificantcorrelationbetweeninitial and final measures. Theaveragerate of tuberositygrowthmeasuredwithourownmethodusing LCR is 59.7%; averagevariation similar toRickettsanalysis, and weobtained a regressionequationwhichconfirmsthe linear correlationbetweenbothtechniques. Neither sex northetype of archinfluencethegrowth of themaxillarytuberosity in any of themeasurementtechniques. Onlygrowthisgreater in SM witherupted 3rd molars. The sum of 2nd and 3rd molarscrownsdiametersmeasuredwith LCR reach a mean value of 21.01 mm.It´ssignificantlygreatertotheaveragetuberosityspace: 19.18 mm, whichimpliesspaceproblems in 73.3% of adults.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Nogal, Macho María. "Métodos matemáticos para la predicción de tráfico". Doctoral thesis, Universidad de Cantabria, 2011. http://hdl.handle.net/10803/56317.

Testo completo
Abstract (sommario):
Esta tesis desarrolla los siguientes modelos matemáticos originales: - Un modelo bayesiano conjugado para la reconstrucción y estimación de los flujos de tráfico a partir de la lectura de las matrículas, que permite calcular los diferentes flujos de tráfico, tales como los de rutas, origen-destino, arcos escaneados o arcos aforados. - Un modelo dinámico de recarga, continuo en el tiempo, consistente con la regla FIFO, que evalúa el efecto de la congestión teniendo en cuenta la interacción de los flujos de todas las rutas y su coincidencia en diferentes momentos y lugares. Se supone que el tiempo de recorrido del arco es función no lineal de los volúmenes de tráfico del mismo y, además, se tiene en cuenta el efecto derivado de la congestión en los arcos aguas abajo de la ruta. - Un modelo de tráfico dinámico con demanda estocástica para la predicción de algunas variables de tráfico, tales como los tiempos de recorrido, flujos o densidad de los arcos y su evolución en el tiempo. Todos los modelos propuestos se han ensayado en redes de tráfico reales como son Cuenca y Ciudad Real (España) y el estado de Vermont (EE.UU.), con el fin de analizar sus características, validez de los resultados y los correspondientes requisitos computacionales. Además, se incluye una revisión de la literatura existente acerca de los modelos de tráfico estáticos y dinámicos.
In this thesis we present the following mathematical models: - A conjugate Bayesian model for traffic flow reconstruction and estimation based on plate scanning, which permits us to identify the path, origin-destination and link flows. - A continuous dynamic traffic loading model. This FIFO rule consistent model evaluates the congestion effect taking into account the interaction of flows of all paths and their coincidence at different times and locations. It is assumed a non-linear link travel time function of the link volumes and considered the effect of a link congestion on the upstream route links. - A dynamic traffic model with stochastic demand for predicting some traffic variables such as link travel times, link flows or link densities and their time evolution in real networks. These three models have been tested with real traffic networks such as the Cuenca and Ciudad Real (Spain) networks and the Vermont-State (US) example, in order to analyze their characteristics and computational costs and validate results. Moreover, a literature revision about static and dynamic traffic models is included.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Becerra, Torres Bernardo Daniel. "Predicción del Ablandamiento del Kiwi en Postcosecha". Tesis, Universidad de Chile, 2008. http://www.repositorio.uchile.cl/handle/2250/101700.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Torres, Lezcano Estanis. "Desarrollo de métodos de predicción de la incidencia de 'bitter pit' en plantaciones de manzanas ‘Golden Smoothee’ (Malus domestica, L. Borkh.)". Doctoral thesis, Universitat de Lleida, 2018. http://hdl.handle.net/10803/665244.

Testo completo
Abstract (sommario):
El bitter pit és la fisiopatia més important en molts cultivars de pomes. No obstant, no existeix una estratègia completament efectiva per al seu control, per aquest motiu, un mètode de predicció que identifiqui anys i plantacions amb un alt potencial de desenvolupar la fisiopatia permetrà evitar pèrdues econòmiques, especialment durant la conservació i confecció. L’objectiu principal de la present tesi doctoral va ser la posada a punt d’un sistema de predicció de la incidència del bitter pit en plantacions de poma ‘Golden Smoothee’. Per això, es van investigar diferents mètodes basats en tres tecnologies diferents: i) l’anàlisi mineralògic de fruits en diferent època (en estadis primerencs i a recol·lecció), ii) la inducció de símptomes (infiltració de Mg, banys amb etefón, embossat de fruits i mètode passiu) i iii ) l’espectroscopía VIS/NIR. Els diferents mètodes es van avaluar en diferents períodes de creixement del fruit. Paral·lelament, es va avaluar i quantificar l’eficàcia de diferents estratègies per mitigar l’aparició de bitter pit basades en aplicacions de CaCl2 a pre i postcollita (aplicacions radiculares, foliars i banys en poscosecha). L’anàlisi primerenc de Ca en fruit a 60 dies després de la floració (DDPF) va mostrar una precisió en la predicció similar o millor que l’anàlisi a recol·lecció. Es va definir un valor de referència de 60 DDPF de 11 mg de Ca 100 g-1 de pes fresc, per sobre del qual es minimitza la incidència de bitter pit. La majoria de mètodes basats en induir símptomes, a excepció de l’embossat, van mostrar eficàcia a partir dels 40 dies abans de la recol·lecció (DAR), amb una correlació amb el bitter pit de postcollita del 70-80%. La espectroscopía VIS/NIR va mostrar resultats poc satisfactoris per a la predicció del bitter pit, però va ser capaç de discriminar fruits afectats quan els símptomes eren visibles a postcollita. Finalment, es va disenyar un model de predicció per al bitter pit basat en l’anàlisi de Ca en fruit a 60 DDPF i el mètode passiu a partir de 40 DAR. Respecte la mitigació del bitter pit, els resultats obtinguts en els anys amb alta incidència van mostrar una reducció del 20% a un 12%, 8% o 3% mitjançant aplicacions foliars, banys de postcollita o la combinació d’ambdues, respectivament, per tant, les aplicacions foliars de CaCl2 així com els banys postcollita serien pràctiques a recomanar en els casos d’alt risc de bitter pit.
El bitter pit es la fisiopaía más importante en muchos cultivares de manzana. Sin embargo, no existe una estrategia de control completamente efectiva, por lo que un método de predicción que identifique años y plantaciones con alto potencial de desarrollar la fisiopatía permitirá evitar pérdidas económicas, especialmente durante la conservación y confección. El objetivo principal de la presente tesis doctoral fue la puesta a punto de un sistema de predicción de la incidencia de bitter pit en plantaciones de manzanas ‘Golden Smoothee’. Para ello, se investigaron diferentes métodos de predicción basados en tres tecnologías distintas: i) el análisis mineralógico de fruto (en estadios tempranos y en recolección), ii) la inducción de síntomas (infiltración de Mg, baños con etefón, embolsado de frutos y método pasivo) y iii) la espectroscopía VIS/NIR. Los distintos métodos se evaluaron en diferentes períodos de crecimiento del fruto. Paralelamente, se evaluó y cuantificó la eficacia de distintas estrategias para la mitigación del bitter pit basadas en aportaciones de CaCl2 en pre y poscosecha (aplicaciones radiculares, foliares y baños en poscosecha). El análisis temprano de Ca en fruto a 60 días después de plena floración (DDPF) mostró una precisión de predicción similar o mejor que el análisis de Ca en recolección. Se definió un umbral de referencia a 60 DDPF de 11 mg Ca 100 g-1 de peso fresco, por encima del cual se minimizó el riesgo de aparición del bitter pit. La mayoría de métodos basados en inducir síntomas, a excepción del embolsado de frutos, mostraron eficacia a partir de los 40 días antes de recolección (DAR), con una correlación con el bitter pit de poscosecha del 70-80%. La espectroscopía VIS/NIR mostró resultados poco satisfactorios para la predicción del bitter pit, sin embargo, sí fue capaz de discriminar frutos afectados cuando los síntomas eran visibles en poscosecha. Finalmente, se diseñó un modelo de predicción del bitter pit basado en el análisis de Ca en fruto a 60 DDPF y el método pasivo a partir de 40 DAR. Respecto la mitigación del bitter pit, los resultados obtenidos en años con alta incidencia mostraron una reducción de un 20% a un 12%, 8% o 3% mediante aplicaciones foliares, baños en poscosecha o la combinación de ambas, respectivamente, por lo que tanto las aplicaciones foliares de CaCl2 como los baños poscosecha serían prácticas a recomendar en el caso de riesgo de bitter pit.
Bitter pit is the most important physiological disorder in many apple cultivars. However, there is no a completely effective control strategy, therefore, a prediction method that identifies years and orchards with high potential to develop bitter pit will allow reducing economic losses, especially during storage and fruit packing. The main objective of this PhD thesis was the development of a system to predict the incidence of bitter pit for ‘Golden Smoothee’ apple orchards. For this, different methods to predict bitter pit based on three different technologies were investigated: i) mineral analysis (at early stages and at harvest period, ii) induction of symptoms (Mg infiltration, dips with etephon solution, bagging of fruit and passive method) and iii) VIS/NIR spectrophotometry. The different methods were tested in different fruit growth stages. At the same time, the efficacy of different strategies based on CaCl2 applications at pre- and postharvest (fertigation, foliar and postharvest dips) to mitigate bitter pit incidence, were evaluated and quantified. The accuracy of mineral analysis at early development fruit after 60 days after full bloom (DAFB) was better or equal than Ca analysis at harvest. A reference threshold at 60 DAFB of 11 mg Ca 100 g-1 fresh weight was defined. Values equal or higher indicated a low risk of bitter pit. Most methods based on inducing symptoms, with the exception of bagging fruit, showed efficacy from 40 days before harvest (DBH), with a correlation with bitter pit at postharvest of 70-80%. VIS/NIR spectrophotometry showed unsatisfactory results for bitter pit prediction, however, it was able to discriminate affected apples when the symptoms were visible at postharvest. Finally, a bitter pit prediction model based on the analysis of Ca in fruitlet at 60 DAFB and the passive method from 40 DBH was designed. Regarding bitter pit mitigation, the results obtained in seasons with a high incidence showed a reduction from 20% to 12%, 8% or 3% using Ca sprays, postharvest dips or the combination of both, respectively. Therefore, Ca sprays and postharvest dips in CaCl2 solutions are recommended practices when there is a diagnostic of high risk of bitter pit.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Amrani, Naoufal. "Spectral decorrelation for coding remote sensing data". Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/402237.

Testo completo
Abstract (sommario):
Hoy en día, los datos de teledetección son esenciales para muchas aplicaciones dirigidas a la observación de la tierra. El potencial de los datos de teledetección en ofrecer información valiosa permite entender mejor las características de la tierra y las actividades humanas. Los desarrollos recientes en los sensores de satélites permiten cubrir amplias áreas geográficas, produciendo imágenes con resoluciones espaciales, espectrales y temporales sin precedentes. Esta cantidad de datos producidos implica una necesidad requiere técnicas de compresión eficientes para mejorar la transmisión y la capacidad de almacenamiento. La mayoría de estas técnicas se basan en las transformadas o en los métodos de predicción. Con el fin de entender la independencia no lineal y la compactación de datos para las imágenes hiperespectrales, empezaos por investigar la mejora de la transformada “Principa Component Analysis” (PCA) que proporciona una decorrelación optima para fuentes Gausianas. Analizamos la eficiencia en compresión sin perdida de “Principal Polynomial Analysis” (PPA) que generaliza PCA con la eliminación de las dependencias non lineales a través de regresión polinomial. Mostramos que las componentes principales no son capaces de predecirse con la regresión polinomial y por tanto no se mejora la independencia del PCA. Este análisis nos permite entender mejor el concepto de la predicción en el dominio de la transformada para fines de compresión. Por tanto, en lugar de utilizar transformadas sofisticadas y costosas como PCA, centramos nuestro interés en transformadas más simples como “CDiscrete Wavelet Transform”(DWT). Mientras tanto, adoptamos técnicas de predicción para explotar cualquier dependencia restante entre las componentes transformadas. Así, introducimos un nuevo esquema llamado “Regression Wavelet Analysis” (RWA) para aumentar la independencia entre los coeficientes de las imágenes hiperespectrales. El algoritmo utiliza la regresión multivariante para explotar las relaciones entre los coeficientes de las transformada DWT. El algoritmo RWA ofrece muchas ventajas, como el bajo coste computacional y la no expansión del rango dinámico. Sin embargo, la propiedad más importante es la eficiencia en compresión sin perdida. Experimentaos extensivos sobre un conjunto amplio de imanes indican que RWA supera las técnicas mas competitivas en el estado del arte com. PCA o el estándar CCSDS-123. Extendemos los beneficios de RWA para la compresión progresiva “ Lossy-to-lossless “. Mostramos que RWA puede alcanzar una relación rate-distorsión mejor que las obtenidas por otras técnicas del estado del arte como PCA. Para este fin, proponemos un esquema de pesos que captura la significancia predictiva de las componentes. Para un análisis más profundo, también analizamos el sesgo en los parámetros de regresión cuando se aplica una compresión con perdida. Mostramos que los parámetros de RWA no son sesgados cuando los modelos de regresión se aplican con los datos recuperados que carecen información. Finalmente, introducimos una versión del algoritmo RWA de muy bajo coste computacional. Con este nuevo enfoque, la predicción solo se basa en muy pocas componentes, mientras que el rendimiento se mantiene. Mientras que la complejidad de RWA se lleva a su bajo extremo, un método de selección eficiente es necesario. A diferencia de otros métodos de selección costosos, proponemos una estrategia simple pero eficiente llamada “ neighbor selection” para seleccionar modelos con pocas componentes predictivas. Sobre un amplio conjunto de imágenes hiperespectrales, estos modelos mantienen el excelente rendimiento de RWA con el modelo máximo, mientras que el coste computacional es reducido al
Today remote sensing is essential for many applications addressed to Earth Observation. The potential capability of remote sensing in providing valuable information enables a better understanding of Earth characteristics and human activities. Recent advances in satellite sensors allow recovering large areas, producing images with unprecedented spatial, spectral and temporal resolution. This amount of data implies a need for efficient compression techniques to improve the capabilities of storage and transmissions. Most of these techniques are dominated by transforms or prediction methods. This thesis aims at deeply analyzing the state-of-the-art techniques and at providing efficient solutions that improve the compression of remote sensing data. In order to understand the non-linear independence and data compaction of hyperspectral images, we investigate the improvement of Principal Component Analysis (PCA) that provides optimal independence for Gaussian sources. We analyse the lossless coding efficiency of Principal Polynomial Analysis (PPA), which generalizes PCA by removing non-linear relations among components using polynomial regression. We show that principal components are not able to predict each other through polynomial regression, resulting in no improvement of PCA at the cost of higher complexity and larger amount of side information. This analysis allows us to understand better the concept of prediction in the transform domain for compression purposes. Therefore, rather than using expensive sophisticated transforms like PCA, we focus on theoretically suboptimal but simpler transforms like Discrete Wavelet Transform (DWT). Meanwhile, we adopt predictive techniques to exploit any remaining statistical dependence. Thus, we introduce a novel scheme, called Regression Wavelet Analysis (RWA), to increase the coefficient independence in remote sensing images. The algorithm employs multivariate regression to exploit the relationships among wavelet-transformed components. The proposed RWA has many important advantages, like the low complexity and no dynamic range expansion. Nevertheless, the most important advantage consists of its performance for lossless coding. Extensive experimental results over a wide range of sensors, such as AVIRIS, IASI and Hyperion, indicate that RWA outperforms the most prominent transforms like PCA and wavelets, and also the best recent coding standard, CCSDS-123. We extend the benefits of RWA to progressive lossy-to-lossless. We show that RWA can attain a rate-distortion performance superior to those obtained with the state-of-the-art techniques. To this end, we propose a Prediction Weighting Scheme that captures the prediction significance of each transformed components. The reason of using a weighting strategy is that coefficients with similar magnitude can have extremely different impact on the reconstruction quality. For a deeper analysis, we also investigate the bias in the least squares parameters, when coding with low bitrates. We show that the RWA parameters are unbiased for lossy coding, where the regression models are used not with the original transformed components, but with the recovered ones, which lack some information due to the lossy reconstruction. We show that hyperspectral images with large size in the spectral dimension can be coded via RWA without side information and at a lower computational cost. Finally, we introduce a very low-complexity version of RWA algorithm. Here, the prediction is based on only some few components, while the performance is maintained. When the complexity of RWA is taken to an extremely low level, a careful model selection is necessary. Contrary to expensive selection procedures, we propose a simple and efficient strategy called \textit{neighbor selection} for using small regression models. On a set of well-known and representative hyperspectral images, these small models maintain the excellent coding performance of RWA, while reducing the computational cost by about 90\%.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Francia, Santamaria Esther. "Predicción de la mortalidad intrahospitalaria en medicina interna". Doctoral thesis, Universitat Autònoma de Barcelona, 2012. http://hdl.handle.net/10803/108094.

Testo completo
Abstract (sommario):
El pronóstico es una de las funciones básicas de la medicina, junto al diagnóstico y al tratamiento. El objetivo del pronóstico puede ser conocer qué enfermos pueden morir, estableciendo así la predicción de mortalidad. Esta predicción es difícil en la mayor parte de las circunstancias clínicas habituales, pero lo es más en poblaciones con pacientes muy diferentes, con pocas características comunes, como la de medicina interna. La predicción de mortalidad se establece basándose en la experiencia o en el método científico, mediante modelos estadísticos denominados modelos o índices probabilísticos. Se han desarrollado múltiples modelos predictivos para su aplicación en diferentes áreas, para diferentes momentos evolutivos y para diferentes enfermedades. En general, estos modelos incluyen las comorbilidades previas a la enfermedad aguda, y se denominan “modelos clínicos” o se basan en las constantes vitales y otros parámetros obtenidos en el primer contacto con el enfermo, constituyendo los “modelos fisiológicos”. No se ha diseñado específicamente ningún modelo para la predicción de la mortalidad intrahospitalaria, en el momento del ingreso, de los pacientes admitidos en medicina interna. La hipótesis de esta tesis es que dos modelos predictivos de mortalidad, diseñados en otros ámbitos, son útiles para este objetivo. Estos dos modelos son el modelo clínico de Rué, diseñado en salas de hospitalización del Hospital Parc Taulí, y el modelo fisiológico de Olsson, diseñado en urgencias para pacientes atendidos por patología médica. Para confirmar esta hipótesis, se realizó un estudio prospectivo y observacional, que dio lugar al primer artículo de esta tesis, en los pacientes que ingresaban en la sala convencional de medicina interna del Hospital de la Santa Creu i Sant Pau, hospital urbano, universitario y de tercer nivel. Se aplicaron ambos modelos en esta población y se confirmó su adecuada capacidad en la predicción global de mortalidad, y por tanto su utilidad para la evaluación de la calidad asistencial. Los resultados fueron similares para ambos modelos, siendo discretamente superior el fisiológico de Olsson, aunque sin diferencias estadísticamente significativas. Sin embargo, la capacidad predictiva mostrada en la predicción individual fue subóptima. La capacidad predictiva individual subóptima de los modelos es atribuible, entre otros factores, a su aplicación en una población tan heterogénea como la de medicina interna. Uno de los factores que más contribuyen a esta heterogeneidad es la edad, por este motivo se analizó ésta y su evolución en esta población en los últimos 20 años. Tal como se describió en el segundo artículo de esta tesis, se constató el envejecimiento progresivo de los pacientes admitidos en medicina interna, tanto en el propio hospital como en los hospitales de todo el sistema nacional de salud. Al considerar que la edad avanzada podía ser un factor determinante en la pérdida de la capacidad predictiva de los modelos, se amplió el estudio prospectivo y observacional y se dividió a la población en dos grupos de edad. Se estableció el punto de corte en 85 años. Se aplicó el modelo fisiológico de Olsson en ambos grupos, por ser el que había mostrado mayor capacidad predictiva en el primer trabajo. Se constató, tal como se describe en el tercer trabajo, que la edad avanzada interfiere en el modelo, disminuyendo su capacidad pronóstica. Probablemente hay otras variables no consideradas en estos modelos que son las que tienen mayor importancia en edades avanzadas. Sería de gran utilidad diseñar modelos predictivos de mortalidad para los pacientes de edad avanzada que ingresan en medicina interna.
Prognosis, along with diagnosis and treatment, is one of the primary functions of medicine. One of the objectives of the prognosis is to know which patients may die, and establish the prediction of mortality. This prediction is difficult in most of the usual clinical circumstances, but it is more difficult in populations with very different patients, with few common characteristics, as occurs in patients admitted in general internal medicine wards. Prediction of mortality is based on experience and may be supported by the scientific method, using probabilistic statistical models. Many probabilistic models have been developed and applied in different hospitalization areas, to different developmental stages of disease and for different diseases. In general, these models include either the prior comorbidities to acute illness and are considered “clinical models” or are based on the vital signs and other parameters obtained in the first contact with the patient, constituting the “physiological models”. To our knowledge, no model has been designed specifically for prediction of in-hospital mortality at the moment of admission for patients admitted to a general internal medicine ward. The hypothesis of this thesis is that two mortality predictive models designed in other areas are useful for this purpose. These two models are the Rue´s clinical model, designed in hospitalization wards of diverse specialities at Hospital Parc Taulí (Sabadell, Spain), and the Olsson´s physiological model, developed for medical patients in an emergency department. In order to test this hypothesis, a prospective observational cohort study was undertaken in patients admitted to an acute internal medicine ward in a tertiary, urban and university teaching hospital in Spain (Hospital de la Santa Creu i Sant Pau, Barcelona). The results of this study gave rise to the first article of this thesis. Both models were applied in this population and confirmed their accurate ability in the prediction of the overall in-hospital mortality. They were satisfactory for management purposes. Although the physiological model was slightly better than the clinical model, the difference was not statistically significant. However, the two models didn´t proved to be a reliable tool for individual predictions. Possible explanations for the unsatisfactory ability shown in individual prediction include, among other factors, the application of the models in a very heterogeneous population. One of the main factors that contribute to this heterogeneity is age. Therefore the age and its evolution over the past 20 years in this population were analysed. As we described in the second publication of this thesis, we confirmed that patients admitted to internal medicine in our hospital and in Spanish hospitals in general, are significantly older than some years ago and steadily increasing. The advanced age can be a decisive factor in unsatisfactory ability of individual mortality prediction of the models. To test this hypothesis, we extended the first study and divided the population in two age groups. Eighty-five years was the point. The Olsson´s physiological model was applied in both groups because it demonstrated to be the best predictor in the first study. The results are described in the third publication of this thesis and showed that age interferes in the model and significantly decreases its prognosis ability. There may be important variables in advanced age not taken into account in the predictive models. It would be of great interest to design predictive models of in-hospital mortality in general internal medicine for patients of advanced age.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Fantini, Pérez-Villamil Juan Eduardo. "Autómatas celulares en la predicción de ADR'S Latinoamericanos". Tesis, Universidad de Chile, 2006. http://repositorio.uchile.cl/handle/2250/108375.

Testo completo
Abstract (sommario):
Esta investigación analiza las bondades de la teoría de Autómatas Celulares como modelamiento del comportamiento de Diferentes ADR´s latinoamericanos, incluyendo casi la totalidad de los ADR´s chilenos. Los Autómatas Celulares son una herramienta de inteligencia artificial que puede ser usada para modelar cualquier sistema complejo y por ende pueden considerarse como una buena alternativa a las ecuaciones diferenciales, pudiendo ser utilizados para modelar sistemas físicos y sistemas biológicos a nivel celular, multicelular y poblacional. En este trabajo se desarrolla una aplicación de esta teoría para proyectar la variación de los signos de 30 ADR´s latinoamericanos, entendiendo que la predicción de la dirección del movimiento del índice accionario es relevante para desarrollar estrategias de transacción efectivas (Leung, Daouk & Chen, 2000; Parisi, Parisi & Cornejo, 2004). El desempeño relativo de los modelos fue medido por el porcentaje de predicción de signo (PPS) que mide la cantidad de predicciones correctas (hits) sobre el total de predicciones hechas. Se encontró que el mayor porcentaje de predicción de signo (PPS) fue de un 80% y correspondió al ADR del Banco Santander-Santiago; además se encontró un PPS promedio de 63,7% al considerar un modelo que proyectaba solo 30 semanas. La capacidad predictiva de los Autómatas Celulares resultó estadísticamente significativa para el 30% de los ADR´s analizados según el test de acierto direccional (DA) de Pesaran & Timmermann (1992). Además, éstos ADR´s con capacidad predictiva superaron en rentabilidad al modelo ingenuo y a la estrategia buy and hold. Por último, este estudio presenta evidencia de que los Autómatas Celulares podrían convertirse en una alternativa a las metodologías predictivas tradicionalmente utilizadas en la administración de portfolios de inversión.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Apolaya, Torres Carlos Humberto, e Diaz Adolfo Espinosa. "Técnicas de inferencias, predicción y minería de datos". Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/624497.

Testo completo
Abstract (sommario):
En el primer capítulo, se describe la problemática que se quiere solucionar y se detalla los objetivos específicos que aportan al cumplimiento del objetivo general y el alcance del proyecto. En el segundo capítulo, se definen los conceptos básicos más importantes como Data Mining y Machine Learning, los cuales están relacionados al tema de estudio de la investigación. En el tercer capítulo, se encuentra el Estado del Arte, en el cual se revisará la investigación previa relacionada al proyecto indicando el rubro en el que fue implementado. Esto permite entender cómo se encuentra el tema investigado en la actualidad y tener una visión más clara de lo que se puede desarrollar. En el cuarto capítulo, se describe el desarrollo del proyecto, la metodología a utilizar, se detalla las fases de dicha metodología y el proceso a seguir para la correcta implementación del modelo utilizando arboles de decisión y la metodología Knowledge Discovery in Databases (KDD). En el quinto capítulo se detalla cómo se obtuvo un porcentaje de error de predicción de aproximadamente 9.13%, las pruebas realizadas y recomendaciones. Así como también las propuestas de continuidad del proyecto enfocados en la mejora del modelo de predicción. Finalmente, en el sexto capítulo se describen los resultados finales en la gestión propia del proyecto, en los aspectos de Resultado Final y las Gestiones de alcance, tiempo, comunicación, recursos humanos y riesgos.
In the first chapter, it describes the problem to be solved and it details the specific objectives that contribute to the fulfillment of the general objective and the scope of the project. In the second chapter, the most important basic concepts like Data Mining and Machine Learning are defined, which are related to the subject of research study. In the third chapter, there is the State of Art, in which the previous research related to the project will be reviewed indicating the area in which it was implemented. This allows us to understand how the subject is currently investigated and to have a clearer vision of what can be developed. In the fourth chapter, we describe the development of the project, the methodology to be used, details the phases of the methodology and the process to be followed for the correct implementation of the model using decision trees and the Knowledge Discovery in Databases (KDD) methodology. The fifth chapter details how we obtained a prediction error rate of approximately 9.13%, the tests performed and recommendations. As well as proposals for project continuity focused on improving the prediction model. Finally in the sixth chapter, the final results are described in the project's own management, in the aspects of Final Result and the Outreach, Time, Communication, Human Resources and Risk Management.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Obrecht, Ihl Paz. "Predicción de crimen usando modelos de markov ocultos". Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/117357.

Testo completo
Abstract (sommario):
Magíster en Gestión de Operaciones
Ingeniera Civil Industrial
La prevención del crimen ha ganado cada vez más espacio e importancia entre las políticas públicas en seguridad ciudadana, tanto en Chile como en el mundo. Durante la investigación realizada en este trabajo, se desarrolla un modelo para predecir los crímenes sobre una ciudad, que incluye el efecto de intervenciones preventivas y que permite además estudiar el fenómeno de desplazamiento que se le atribuye a este tipo de medidas. Ambos aspectos incluidos rara vez en los modelos de predicción revisados en la literatura. La estructura utilizada corresponde a un modelo de Markov oculto, donde el atractivo de un lugar para cometer un tipo específico de crimen se considera oculto y se estudia a través de el registro de crímenes observados en dicho lugar, considerando el efecto que intervenciones policiales podrían tener. De manera de demostrar el tipo de información y uso que se puede hacer del modelo desarrollado, se aplicó éste en un caso de estudio. Los datos de los crímenes y vigilancia policial utilizados se obtuvieron mediante un simulador del crimen sobre una ciudad ficticia. El modelo estimado, permitió comparar el efecto de la vigilancia en el lugar donde es ubicada, así como en las áreas aledañas, según el atractivo de cada lugar. Encontrándose que las celdas más atractivas son más susceptibles a esta vigilancia, tanto en la reducción de crímenes esperados al posicionarse un vigilante en un lugar, como en el aumento de la tasa de crímenes cuando un policía es ubicado en lugares aledaños. A partir de las matrices de transición se clasificaron las unidades de estudio, que componen la ciudad virtual, según su potencial para pasar a un estado de alta atractividad. Donde le grupo más numeroso corresponde al de celdas, de Bajo y Mediano Potencial, que permanecen en el mínimo estado de atractividad, reportando pocos crímenes en el lugar. Por el contrario, aquellas celdas, de Alto Potencial, que tienen probabilidades significativas de llegar y permanecer en estados de alta atractividad es el grupo menos numeroso, y el que además suele concentrar los crímenes. Esto se alinea con lo que sugiere la literatura respecto a unos pocos lugares concentrado la mayoría de los crímenes. Para validar el modelo se comparó su ajuste y predicciones con los obtenidos de otros cuatro modelos con diferentes especificaciones y estructuras (HMM Homogéneo, Clases Latentes, Regresión de Poisson y Persistencia), obteniendo mejores tasas de aciertos en la predicción de los crímenes futuros, de alrededor del 97%. Además el modelo destaca prediciendo los crímenes de las celdas de Alto Potencial, respecto a los modelos alternativos, alcanzando tasas de aciertos de 97% en comparación con las obtenidas por los otros cuatro modelos: 78%, 92%, 48% y 34% respectivamente. Se concluye además, en el experimento, que la inclusión del efecto de la policía permite capturar mejor el fenómeno delictivo, mejorando el desempeño al predecir el número de crímenes. Finalmente, en relación a los objetivos planteados en este trabajo, se puede concluir que el modelo HMM desarrollado logra incorporar de forma efectiva los dos atributos que se deseaban estudiar en el fenómeno delictivo: considerar la atractividad de forma dinámica,actualizándose período a período, e incluir el efecto de la vigilancia en la predicción.
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Bolaños, Sánchez Rodolfo. "Tormentas de oleaje en el Mediterráneo: Física y Predicción". Doctoral thesis, Universitat Politècnica de Catalunya, 2004. http://hdl.handle.net/10803/6396.

Testo completo
Abstract (sommario):
En la zona costera mediterránea se llevan a cabo una gran cantidad de actividades socioeconómicas. En estas áreas los eventos meteorológicos son un factor importante para su manejo y gestión. Esto ha generado la necesidad de mejorar el conocimiento y la predicción de eventos como las tormentas de oleaje. Por ello, se ha planteado como objetivo principal de esta tesis la caracterización y simulación numérica de tormentas de oleaje.
La generación del oleaje es el resultado del sistema acoplado océano - atmósfera. Esta interface y los flujos de momentum entre ambas capas ha sido de interés y ha generado una gran cantidad de investigaciones. Un avance importante ha sido el desarrollo de los modelos de tercera generación de oleaje, capaces de predecir espectros de oleaje a partir de campos de viento. Estos modelos que constituyen la base de esta tesis, consideran el aporte de energía por el viento, la disipación e interacciones no lineales entre ondas.
Para este trabajo se han utilizado los modelos WAM y SWAN junto con mediciones de oleaje en la costa catalana. Para forzar los modelos se han utilizado campos de vientos de los modelos atmosféricos MASS ARPEGE. Se han utilizado también datos de viento de estaciones meteorológicas costeras.
El viento y oleaje en la franja costera catalana están caracterizados principalmente por componentes del este, noroeste y del sur. Para el caso de tormentas con impacto en la costa, las del este son las más intensas, pero las tormentas del Noroeste pueden generar condiciones de riesgo para la navegación.
Se han descrito tormentas características de la costa catalana, considerando su dirección, duración, e intensidad. De manera paralela se han analizado mas detalladamente dos eventos particulares que se registraron en Noviembre 2001 y Marzo-Abril 2002. Ambas tormentas presentaron oleaje de componente principal del este y una cantidad importante de espectros bimodales. Esta característica no se había estudiado a detalle con anterioridad y se debe al oleaje swell del este y a la rotación de los vientos en la costa catalana para volverse del noroeste generando localmente un sistema de oleaje en esta dirección. Debido a esto, la anchura espectral se comporto de manera opuesta a la esperada, pero mostró ser un indicador de la complejidad del estado del mar por lo que se propone que sea utilizada en la estimación del coeficiente de arrastre.
Se han utilizado los modelos de oleaje en diferentes situaciones: en un dominio idealizado, en los eventos de Noviembre y Marzo - Abril y durante el invierno 2002 -2003. Los resultados muestran diferencias entre modelos en tiempo y espacio. Utilizando el parámetro integrado de Hs el SWAN mostró un mejor comportamiento para la detección de tormentas. Sin embargo el espectro del WAM mostró en la mayoría de los casos aproximarse mas al espectro medido. Una parte de los errores registrados en los modelos durante las tormentas, se debieron a la mala simulación de la bimodalidad la cual a su vez se debe a una mala resolución espacial y temporal tanto de los modelos de viento como de oleaje. La correcta definición espacial de las islas en el mediterráneo mostró ser poco significante para la validación de las predicciones en la zona costera catalana.
Finalmente debemos decir que a pesar de que este trabajo ha avanzado en el conocimiento del oleaje en la costa catalana y el comportamiento de los modelos, este solo es el principio y se debe de dar continuidad a este esfuerzo. Una manera (indispensable) es mejorando las observaciones disponibles e incluir medidas espaciales (satélite, por ejemplo) para la mejor descripción y validación de los modelos.
Many socio-economic activities take place on the Mediterranean coast. Meteorological events are an important factor for the proper management and administration of these activities in this area.
This has inspired an improvement of knowledge and forecasting of environmental phenomena such as wave storms. Thus, the main objective of this dissertation is the characterisation and numerical simulation of wave storms.
The generation of wind waves are the result of the coupled system which connects the air and the ocean. This layer, and its fluxes, have been of great interest and generated a large amount of research. The development of third generation wave models has been an important step. Such models are able to reproduce directional wave spectra from wind fields taking into consideration wind energy input, dissipation and non-linear interactions. These models are the basis of this dissertation.
For this work, we have used the WAM and SWAN models, together with the wind and wave measures on the Catalan coast. The forcing winds came from the MASS and ARPEGE atmospheric models.
The wind and waves on the Catalan coast are characterised by an east, northwest and south component. For coastal damage, the storms from the east cause the most severe coastal damage while the northwest storm can create risky conditions for navigation.
Typical storms on the Catalan coast are described, taking into account the direction, duration, and significant wave height. Additionally, it was studied in detail two severe storms that were measured during November 2001 and March-April 2002. Both storms presented a mean eastern wave component, however, a large amount of bimodal spectra were found. This feature had not been studied before at this area and it is produced due to the wind rotation (to northwest) at the coast because of the orography. This produces a different behaviour of the spectral width than expected, but such a parameter was an indicator of the complexity of the sea state and thus it is proposed to apply it in the drag coefficient estimation.
The wave models were applied under different situations: idealised domain, November 2001 and March-April storms and during a winter period. The results show differences between models in time and space. When considering significan wave height, the SWAN model showed a better behaviour for storm detection. However, the spectral shape was better predicted by WAM. Part of the errors were due to the bad simulation of bimodal features, and at the same time, this was produced by the coarse time and spatial resolution of wind and wave models.
Finally we have to outline that this work is an advance in the knowledge of waves on the Catalan coast and the behaviour of the models. However, this is only the beginning and an effort should be made for the continuos development and improvement on this topic. A good start is by increasing the wind and wave measurements available including spatial measures, such as satellite, for the better description and model validation.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Salvador, Rodriguez Daniel José. "Predicción en línea del módulo elástico de la cuajada". Doctoral thesis, Universitat Autònoma de Barcelona, 2018. http://hdl.handle.net/10803/664175.

Testo completo
Abstract (sommario):
El presente trabajo de investigación trata sobre el desarrollo, implementación, calibración y validación de un sistema que permite medir a tiempo real el módulo elástico de la cuajada, G’, utilizando la señal de un sensor de dispersión NIR, con la finalidad de determinar un tiempo de corte objetivo lo cual, a su vez, permitiría la automatización de esta parte del proceso de elaboración de queso. Este trabajo se desarrolló en cinco fases. La primera consistió en la deducción de un modelo matemático para la predicción del módulo elástico de la cuajada, a temperatura y porcentaje de proteína variables, esta fase se llevó a cabo a nivel de laboratorio utilizando leche en polvo reconstituida y dos niveles de proteína y temperatura, encontrándose que un modelo en base a la señal del sensor y al porcentaje de proteína en la leche dio una buena calidad predictiva. La segunda fase consistió en la calibración y validación del modelo matemático a nivel de laboratorio, utilizando leche de vaca a tres temperaturas de coagulación, logrando una muy buena calidad predictiva del modelo. La tercera fase consistió en la implementación de un sistema de monitorización y adquisición de datos (hardware y software) que permitió la predicción del módulo elástico a tiempo real, realizándose posteriormente coagulaciones de leche de vaca para la validación del sistema. La cuarta fase consistió en la calibración y validación del sistema de monitorización del módulo elástico, a nivel de planta piloto, para esto se realizaron elaboraciones de queso fresco, utilizando para ello leche de vaca y una temperatura constante, encontrándose que, al utilizar el tiempo dado por el sistema de predicción, se reproducen rendimientos y características de textura y color de los quesos con respecto a los obtenidos al utilizar un tiempo de corte dado por el maestro quesero. La quinta fase consistió en la calibración y validación del modelo matemático a nivel de industria, para lo cual se utilizó el modelo para realizar el corte de la cuajada durante la elaboración de queso fresco, que es cortado por la empresa a tiempo fijo, existiendo evidencias de que la aplicación del tiempo de corte dado por el sistema incrementaría el rendimiento en aquellas producciones que realizan el corte a tiempo fijo.
The present research deals with the development, implementation, calibration and validation of a system for measuring at real time the elastic modulus of the curd, G', using the signal of a NIR light backscatter sensor, to determine a target cutting time, which would allow the automation of this part of the cheese making process. This work was performed in five phases. The first was devoted to obtaining a mathematical model to predict the elastic modulus of the curd, at various temperatures and percentages of protein. This phase was carried out at laboratory level using reconstituted skim milk powder and two protein and temperature levels. A model based on the sensor signal and the protein percentage in milk was found to have a good predictive quality. The second phase consisted in the mathematical model calibration and validation at a laboratory level using cow milk at three coagulation temperatures, and achieving also a very good predictive quality. The third phase was the implementation of a pilot plant/industrial monitoring and data acquisition (hardware and software) system that allowed the prediction of the elastic modulus at real-time in the cheese vat, which was also validated. The fourth phase involved the calibration and validation of the elastic modulus monitoring system, at pilot plant scale. Thus, cheese manufacturing was performed using cow milk at constant temperature. Using the cutting time set by the prediction system, made possible to replicate yields, texture characteristics and cheese colour with regard to those obtained using the cutting time estimated by the cheesemaker master. The fifth phase consisted of the mathematical model calibration and validation at industry level. The model was used to perform the curd cutting during fresh cheese manufacturing as an alternative procedure to the typical cutting methodology applied by the cheese plant consisting on cutting at a predetermined and constant time. Evidences show that cutting time set by the system would increase the yield in those cases were the cutting is performed at a fixed time.
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Gaymer, San Martín Mauricio Ignacio. "Demanda de televisores y predicción de ventas AOC Chile". Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/108068.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Kapsoli, Salinas Javier, e Aguilar Brigitt Bencich. "Indicadores líderes, redes neuronales y predicción de corto plazo". Economía, 2012. http://repositorio.pucp.edu.pe/index/handle/123456789/118091.

Testo completo
Abstract (sommario):
This paper shows a procedure to constmct a short run predictor for the GDP. We use theBaxter & King filter to decompose the monthly GDP on its three components: seasonal, business cycle and iong-run trend. Furthermore we estimate and forecast the businesscycle using a set of leading economic variables. We propose that the complicated relationshipsamong this variables and the business cycle are well captured by a non linearartificial neural network model. The other components are estimated using standardeconometric techniques. Finally, the three components are added to obtain an indicatorfor the future behavior of the GDP. The prediction shows an aceptable leve1 of reliability,so the index can be used to take decisions in the private or public sector. The mainadvantage of the index is its faster availability relative to the oficial statistics.
Este documento muestra un procedimiento para construir un predictor de corto plazodel nivel de actividad económica. Para ello, se utiliza el filtro de Baxter y King para descomponerla serie del PBI mensual en sus tres componentes: estacional, cíclico y tendencial.Posteriormente el componente cíclico es estimado y pronosticado a partir deun conjunto de variables líderes que adelantan al PBI. Se propone que las relacionesentre estas variables y el ciclo del PBI se dan a través de un modelo no lineal de redesneuronales. Los demás componentes son estimados utilizando modelos econométricosestándar. Finalmente, se agregan los tres componentes para obtener un indicador dela evolución futura del PBI. La predicción que se obtiene muestra un nivel razonable deconfiabilidad, por lo que el índice propuesto puede ser una herramienta para la tomade decisiones dada su pronta disponibilidad respecto a las estadísticas oficiales.
Gli stili APA, Harvard, Vancouver, ISO e altri
15

García, Tenorio Fabián Andrés. "Algoritmo de predicción de crisis respiratoria en pacientes pediátricos". Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168273.

Testo completo
Abstract (sommario):
Magíster en Gestión de Operaciones. Ingeniero Civil Industrial
Las enfermedades respiratorias crónicas (ERC) afectan las vías respiratorias y otras estructuras del pulmón por más de tres meses, lo que en caso de infantes repercute tanto en su crecimiento como en su desarrollo normal. En Chile las enfermedades respiratorias son la primera causa de egreso hospitalario, siendo las ERC una de las razones más frecuentes. Diversas iniciativas se han implementado en apoyo a estas problemáticas, principalmente a través de Garantías Explícitas en Salud, pero éstas presentan un enfoque de atención médica necesaria y oportuna más que de prevención. A partir de 2013 una iniciativa impulsada por el Ministerio de Salud busca reintegrar en sus domicilios a pacientes menores de 20 años que requieran apoyo respiratorio, lo que mejora su calidad de vida y la de sus familias. No obstante, el protocolo de detección de crisis y su consiguiente plan contingente recae en las familias y cuidadores. Por esto es fundamental generar estrategias que puedan prevenir y detectar de forma oportuna cualquier riesgo de salud una vez que llegan a sus casas. Para esto, el objetivo general planteado es predecir el estado de riesgo de salud futuro del paciente en base a los signos vitales capturados, brindando el tiempo necesario para desencadenar el plan contingente asociado a la situación. El resultado de este trabajo es un algoritmo capaz de conectarse a un sistema de captura de datos del paciente que logre detectar una situación adversa futura entregando este resultado en un tiempo mínimo de procesamiento. Considerando esto es fundamental contar con un repositorio de datos confiable, tanto para modelar el predictor como para su funcionamiento continuo. Este algoritmo está dividido en dos etapas: elección de modelos óptimos y clasificación de riesgo futuro. La primera etapa busca escoger el conjunto de métodos de series de tiempo que sea capaz de predecir siguiente estado del paciente, y luego escoger el modelo de aprendizaje supervisado que clasifique de mejor forma el riesgo del paciente. La segunda etapa busca tomar los modelos ya seleccionados y utilizarlos para desencadenar la predicción. Con esto se logra que la respuesta del próximo estado de cada paciente se obtenga en segundos. El resultado muestra que algunos signos vitales se pueden modelar de buena forma con la distancia de captura de los datos que se tiene (dos horas), como la temperatura, que para el paciente en que mejor se ajusta se puede modelar con un 1% de error cuadrático medio. En contraste, la frecuencia cardiaca no es posible modelarla con la misma distancia entre datos, teniendo en el mejor caso un error cuadrático medio de 35,90. Por otro lado, la clasificación de riesgo llega a resultados bastante buenos en términos de exactitud, cercano a 90% en algunos casos, pero se tiene que para el mejor escenario el Valor-F alcanza sólo 67%. Contrastando simultáneamente sensibilidad y especifidad se logra obtener modelos que están sobre 80% en ambas métricas, o cercano a 90% en una manteniéndose sobre 70% en la otra.
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Vendrell, Vidal Eduardo. "Planificación de robots mediante descomposición, abstracción, deducción y predicción". Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/55021.

Testo completo
Abstract (sommario):
En el trabajo de tesis se aborda la planificación y replanificación de las actividades que lleva a cabo un robot en un entorno dinámico. De un lado, se plantea una metodología de planificación que considera una descomposición del problema en partes y niveles de abstracción distintos. Las situaciones nuevas se contemplan a partir de la observación del entorno, susceptibles de ser incorporadas a la información necesaria para llevar a cabo la planificación. Por otro lado, la replanificación se plantea a partir de un razonamiento temporal sobre trayectorias que siguen los robots a lo largo de la ejecución de sus actividades. Este razonamiento temporal permite, a partir de la confirmación de acciones en el tiempo, exponer una proyección de futuro en lo que respecta a los movimientos a seguir por los robots del entorno. Las interacciones previstas se evitan a partir de un ajuste d elas velocidades de los robots que se controlan.
Vendrell Vidal, E. (2001). Planificación de robots mediante descomposición, abstracción, deducción y predicción [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55021
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Montesinos, García Lucas. "Análisis de sentimientos y predicción de eventos en twitter". Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/130479.

Testo completo
Abstract (sommario):
Ingeniero Civil Eléctrico
El análisis de sentimientos o sentiment analysis es el estudio por el cual se determina la opinión de las personas en Internet sobre algún tema en específico, prediciendo la polaridad de los usuarios (a favor, en contra, neutro, etc), abarcando temas que van desde productos, películas, servicios a intereses socio-culturales como elecciones, guerras, fútbol, etc. En el caso particular de esta memoria, se estudian los principales métodos usados en la literatura para realizar un análisis de sentimientos y se desarrolla un caso empleando parte de estas técnicas con sus respectivos resultados. La plataforma escogida fue Twitter, debido a su alto uso en Chile y el caso de estudio trata acerca de las elecciones presidenciales primarias realizadas en la Alianza por Chile entre los candidatos Andrés Allamand de Renovación Nacional (RN) y Pablo Longueira del partido Unión Demócrata Independiente (UDI). De esta forma, se busca predecir los resultados de las primarias, identificando la gente que está a favor de Allamand y la gente que apoya a Longueira. De igual manera, se busca identificar a los usuarios que están en contra de uno o ambos candidatos. Para predecir la opinión de los usuarios se diseñó un diccionario con palabras positivas y negativas con un puntaje asociado, de manera que al encontrar estos términos en los tweets se determina la polaridad del mensaje pudiendo ser positiva, neutra o negativa. El Algoritmo diseñado tiene un acierto cercano al 60% al ocupar las 3 categorías, mientras que si sólo se ocupa para determinar mensajes positivos y negativos la precisión llega a un 74%. Una vez catalogados los tweets se les asigna el puntaje a sus respectivos usuarios de manera de sumar estos valores a aquellas cuentas que tengan más de un tweet, para luego poder predecir el resultado de las elecciones por usuario. Finalmente, el algoritmo propuesto determina como ganador a Pablo Longueira (UDI) por sobre Andrés Allamand (RN) con un 53% de preferencia mientras que en las elecciones en urnas realizadas en Julio de 2013 en Chile el resultado fue de un 51% sobre 49% a favor de Longueira, lo cual da un error de un 2%, lo que implica que el análisis realizado fue capaz de predecir, con un cierto margen de error, lo que sucedió en las elecciones. Como trabajo futuro se plantea usar el diccionario y algoritmo diseñados para realizar un análisis de sentimientos en otro tema de interés y comprobar su efectividad para diferentes casos y plataformas.
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Moure, López Juan Carlos. "Aumentando las Prestaciones en la Predicción de Flujo de Instrucciones". Doctoral thesis, Universitat Autònoma de Barcelona, 2006. http://hdl.handle.net/10803/5763.

Testo completo
Abstract (sommario):
Las dependencias en el flujo de control limitan el rendimiento de los procesadores superescalares. La predicción del flujo de control permite superar este límite, pero supone un compromiso entre requerimientos aparentemente incompatibles. Por un lado, la predicción debe ser precisa, para que un elevado número de casos se beneficien del predictor. Por otro lado, la predicción debe ser rápida. El problema es que la precisión se aumenta almacenando mayor cantidad de información y utilizando algoritmos más complejos, que alargan el tiempo para realizar las predicciones.
En esta tesis se presentan diferentes estrategias y se realizan varias propuestas para aumentar el rendimiento global del predictor de flujo de control. Se trata de organizar y codificar la información de forma eficiente, y de dotar al predictor de flexibilidad para adaptarse a los diferentes casos de forma eficaz. Así, las predicciones más frecuentes y sencillas se realizan rápidamente y utilizando recursos mínimos, mientras que predicciones menos comunes o que requieren el uso de más información para alcanzar una alta precisión, pueden realizarse más lentamente. La flexibilidad del diseño combinada con el exceso de ancho de banda permite compensar estos casos complejos y lentos, con el resto de casos, frecuentes y rápidos. El resultado es un aumento del ancho de banda de las predicciones gracias tanto al aumento de la velocidad de predicción como al aumento de la anchura de cada predicción. Todo ello se consigue sin reducir la precisión del predictor, y además con un moderado consumo energético.
En primer lugar, las estrategias de predicción de vía, de jerarquía de dos niveles, y de predicción de índice consiguen aumentar la velocidad de predicción sin disminuir la precisión en la predicción y con un aumento moderado de la memoria del predictor. En segundo lugar se propone un método eficiente de predicción de trazas, que reduce los problemas de otras propuestas anteriores en la literatura, y que consigue aumentar la anchura de las predicciones, sin disminuir su precisión y también con un aumento moderado de los requerimientos de memoria. Finalmente se propone una nueva organización de dos niveles que mejora la gestión de los saltos indirectos para, fijado el tamaño de memoria disponible, aumentar su precisión
Aunque en la tesis no se hace ninguna propuesta dirigida explícitamente a mejorar los algoritmos de predicción para aumentar su precisión, una organización más eficiente del predictor tiene como resultado lateral disponer de más recursos para aumentar la precisión. Por un lado, se dispone de más capacidad para almacenar la historia pasada. Por otro lado, se proporciona mayor tolerancia al aumento de la latencia en las predicciones, lo que permite aplicar algoritmos más complejos para poder aumentar la precisión.
Control flow dependences limit the performance of superscalar processors. Predicting control flow allows surpassing this limit, but involves a compromise among seemingly incompatible goals. On one hand, predictions must be accurate, so that it benefits most of the cases. On the other hand, predictions should be fast. The problem is that accuracy is increased by storing more information and using more complex algorithms, which increases prediction latency.
This thesis presents different strategies and performs several proposals to increase the global performance of a control flow predictor. Prediction data are efficiently arranged and codified to allow the predictor to adapt to the different prediction cases. Frequent and simple predictions are performed very fast and consume little resources, while less frequent predictions or those that use more information to achieve higher accuracies are performed more slowly. A flexible design combined with an excess of prediction bandwidth compensates complex and slow cases with the more frequent simple and fast cases. The overall result is higher prediction bandwidth, both due to an increase in prediction rate and also an increase in prediction width. This is achieved without reducing prediction accuracy and with moderate energy consumption.
The strategies used to augment prediction speed are way prediction, index prediction, and a two-level hierarchy of predictors. Trace prediction is proposed to increase prediction width. An efficient mechanism enhances the previous proposals in the literature. In all cases, prediction accuracy is not reduced and memory requirements are slightly increased. Finally, a new two-level organization is used for predicting indirect jumps, which increases prediction accuracy for a fixed amount of memory.
This thesis does not address new methods to increase prediction accuracy, but a more efficient predictor has a lateral effect of providing more resources to increase accuracy. On the one hand, there is more capability to store past branch history. On the other hand, prediction latency is more easily tolerated, which allows applying more complex algorithms to improve prediction accuracy.
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Panadero, Javier. "Predicción del rendimiento: Análisis de la escalabilidad de aplicaciones paralelas". Doctoral thesis, Universitat Autònoma de Barcelona, 2015. http://hdl.handle.net/10803/310211.

Testo completo
Abstract (sommario):
Executar aplicacions paral·leles de pas de missatges sobre un elevat nombre de recursos de manera eficient no és una tasca trivial. A causa de la complexa interacció entre l'aplicació paral·lela i el sistema HPC, a mesura que s'augmenta el nombre de processos de l'aplicació, depenent del sistema, pot arribar un punt on l'aplicació presenti el seu límit d'escalabilitat, moment a partir del qual es començaran a produir ineficiències en el sistema, comportant a un ús ineficient del mateix. Aquest problema es torna especialment crític en aplicacions paral·leles les quals han de ser executades freqüentment, utilitzant un elevat nombre de recursos sobre un llarg període de temps Per tal d'intentar solucionar aquests problemes i fer un ús eficient del sistema, com a principal contribució d'aquesta tesi, es proposa la metodologia P3S (Prediction of Parallel Program Scalability), la qual permet predir el rendiment de l'escalabilitat forta d'aplicacions paral·leles de pas de missatges en un determinat sistema, utilitzant un temps d'anàlisi limitat i un conjunt reduït de recursos del sistema. La metodologia P3S, es basa en analitzar el comportament repetitiu de les aplicacions paral·leles de pas de missatges. Aquest tipus d'aplicacions estan compostes per un conjunt de fases identificables, les quals es van repetint al llarg de tota l'aplicació, independentment del nombre de processos de l'aplicació. La metodologia consta de tres etapes. Una primera etapa de caracterització, on es caracteritzen les fases rellevants de l'aplicació paral·lela, a partir de la informació obtinguda de l'execució d'un conjunt de signatures de l'aplicació, per a un nombre reduït de processos. Una segona etapa de modelització de l'aplicació, on es genera el model lògic d'escalabilitat de cada fase rellevant de l'aplicació paral·lela, mitjançant el qual construir la traça lògica escalable de l'aplicació. Aquesta traça permetrà predir el comportament lògic de l'aplicació, a mesura que s'augmenta el seu nombre de processos. Finalment, l'última etapa de la metodologia consisteix en predir el rendiment de l'aplicació per a un nombre específic de processos. Per a això, la traça lògica escalable serà precisada per al nombre de processos per al qual es vol predir el rendiment de l'aplicació, amb l'objectiu de predir el temps de còmput i comunicació de cada fase rellevant de l'aplicació, per aquest nombre de processos , amb la finalitat d'obtenir el temps predit de l'aplicació. Gràcies a la corba d'escalabilitat de l'aplicació, proporcionada per la metodologia P3S, els usuaris poden seleccionar els recursos més adients per executar la seva aplicació al sistema destí, el que permet tenir la seguretat d'utilitzar els recursos del sistema de manera eficient.
Ejecutar aplicaciones paralelas de paso de mensajes sobre un elevado número de recursos de forma eficiente no es una tarea trivial. Debido a la compleja interacción entre la aplicación paralela y el sistema HPC, a medida que se aumenta el número de procesos de la aplicación, dependiendo del sistema, puede llegar un punto donde la aplicación presente su límite de escalabilidad, momento a partir del cual se empezarán a producir ineficiencias en el sistema, conllevando a un uso ineficiente del mismo. Este problema se vuelve especialmente crítico en aplicaciones paralelas las cuales tienen que ser ejecutadas frecuentemente, utilizando un elevado número de recursos sobre un largo período de tiempo Con el fin de intentar solventar estos problemas y hacer un uso eficiente del sistema, como principal contribución de esta tesis, se propone la metodología P3S (Prediction of Parallel Program Scalability), la cual permite predecir el rendimiento de la escalabilidad fuerte de aplicaciones paralelas de paso de mensajes en un determinado sistema, utilizando un tiempo de análisis limitado y un conjunto reducido de recursos del sistema. La metodología P3S, se basa en analizar el comportamiento repetitivo de las aplicaciones paralelas de paso de mensajes. Este tipo de aplicaciones están compuestas por un conjunto de fases identificables, las cuales se van repitiendo a lo largo de toda la aplicación, independientemente del número de procesos de la aplicación. La metodología consta de tres etapas. Una primera etapa de caracterización, donde se caracterizan las fases relevantes de la aplicación paralela, a partir de la información obtenida de la ejecución de un conjunto de firmas de la aplicación, para un número reducido de procesos. Una segunda etapa de modelización de la aplicación, donde se genera el modelo lógico de escalabilidad de cada fase relevante de la aplicación paralela, mediante el cual construir la traza lógica escalable de la aplicación. Esta traza permitirá predecir el comportamiento lógico de la aplicación, a medida que se aumenta su número de procesos. Finalmente, la última etapa de la metodología consiste en predecir el rendimiento de la aplicación para un número específico de procesos. Para ello, la traza lógica escalable será precisada para el número de procesos para el cual se desea predecir el rendimiento de la aplicación, con el objetivo de predecir el tiempo de cómputo y comunicación de cada fase relevante de la aplicación, para ese número de procesos, con la finalidad de obtener el tiempo predicho de la aplicación. Gracias a la curva de escalabilidad de la aplicación, proporcionada por la metodología P3S, los usuarios pueden seleccionar los recursos más adecuados para ejecutar su aplicación en el sistema objetivo, lo que permite tener la seguridad de utilizar los recursos del sistema de forma eficiente.
Executing message-­‐passing applications using an elevated number of resources is not a trivial task. Due to the complex interaction between the message-­‐passing applications and the HPC system, depending on the system, many applications may suffer performance inefficiencies, when they scale to a large number of processes. This problem is particularly serious when the application is executed many times over a long period of time. With the purpose of avoiding these problems and making an efficient use of the system, as main contribution of this thesis, we propose the methodology P3S (Prediction of Parallel Program Scalability), which allows us to analyze and predict the strong scalability behavior for message-­‐passing applications on a given system. The methodology strives to use a bounded analysis time, and a reduced set of resources to predict the application performance. The P3S methodology is based on analyzing the repetitive behavior of parallel message-­‐passing applications. Such applications are composed of a set of phases, which are repeated through the whole application, independently of the number of application processes. The methodology is made up of three stages. A first characterization step, where the relevant phases of the parallel application are characterized, from the execution of a set of small-­‐scale application signatures. A second stage of modeling of the application, where the application logical scalability model is generated for each relevant application phase, whereby to construct the scalable logical trace of the application. This trace will be used to predict the logical behavior of the application, as the number of the application processes increases. Finally, the last stage of the methodology consist of predicting the application performance for a specific number of processes. In order to do that, the scalable logical trace will be specified for the number of processes to predict the application performance, with the objective to predict the computational and communication time of each relevant phase for this number of processes, in order to obtain the performance prediction. The output of the P3S methodology will be the predicted curve of application speedup. Using this information, the users can select the most appropriate resources to execute his application on the target system, in order to use the system resources efficiently.
Gli stili APA, Harvard, Vancouver, ISO e altri
20

Cuervo, Gómez Keren. "Menores en Riesgo: Perfil y Predicción de la reincidencia delictiva". Doctoral thesis, Universitat Jaume I, 2011. http://hdl.handle.net/10803/48511.

Testo completo
Abstract (sommario):
En este trabajo se analiza la situación de los menores con expediente judicial con el fin de contrastarla con la imagen que parece tener la sociedad actual de los mismos. En el primer estudio se analizaron las trayectorias delictivas de los menores reincidentes, mientras que en el segundo se determinó la eficacia predictiva de dicho Inventario. Los menores participantes en estos estudios fueron 210, con edades comprendidas entre 14,03 y 18,10 años, a los que se les realizó un seguimiento de 2 años. Los resultados se muestran en línea con las investigaciones de Moffit (1993), Catalano y Hawkins (1996), Rechea y Fernández, (2001) y Howell (2003), donde la relación del menor con la justicia es en la mayoría de los casos puntual y se extingue al finalizar la etapa de la adolescencia.
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Jerez, López Pamela. "Técnicas avanzadas aplicadas a la predicción del Índice de Malasia". Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/108444.

Testo completo
Abstract (sommario):
Continuamente las ciencias se esfuerzan para poder determinar los factores que nos afectan. En las últimas décadas se han desarrollado e implementado diferentes técnicas de predicción, las cuales pretenden satisfacer las necesidades de disminución de la incertidumbre y el riesgo, para poder enfrentar la toma de decisiones de la manera más eficiente y oportuna. La creatividad de los agentes financieros ha permitido un amplio desarrollo de nuevos instrumentos de inversión o financiamiento, buscando con ello cubrir tanto necesidades como intereses de los usuarios. Esto ha llevado a que se destine grandes esfuerzos intelectuales con el objeto anticiparse a las variaciones de los activos y de romper con los paradigmas imperantes, es así como en la actualidad con la ayuda de la tecnología se han logrado importantes resultados que alimentan la esperanza de obtener beneficios vía predicción. Efectivamente, en las últimas décadas se han desarrollado e implementado diferentes técnicas de predicción, las cuales pretenden satisfacer las necesidades de disminución de la incertidumbre y el riesgo, para poder enfrentar la toma de decisiones de la manera más eficiente y oportuna. La fuerte competencia y los altos volúmenes transados han permitido a las ciencias, a través del desarrollo de nuevas tecnologías, entregar las herramientas apropiadas que permitan a las empresas ser competitivas y sostenibles en el tiempo. En los últimos años, lo avances tecnológicos han influido en la creciente utilización de la inteligencia artificial en los modelos financieros, de modo que a través de un proceso autoalimentación que se gesta en el proceso de retroalimentación otorga la flexibilidad para simular con mayor precisión, en busca de homologar el comportamiento humano en la toma de decisiones. El ámbito empresarial, también ha tenido un cambio importante debido al avance de las ciencias, ya que las nuevas tecnologías tratan de entregar las herramientas apropiadas que permitan a las empresas ser competitivas y sostenibles en el tiempo. Esto se ve reflejado en el campo de las finanzas, las cuales han experimentado profundos cambios, pasando de ser descriptiva, contable e institucional, a las finanzas “dinámicas” las cuales tratan de formular modelos que permitan explicar los fenómenos financieros. Por lo tanto la inteligencia artificial, a través de la gestión del conocimiento y las técnicas de aprendizaje aplicadas a las finanzas, permitirán crear sistemas de información que serán relevantes para las decisiones financieras de las organizaciones.
Gli stili APA, Harvard, Vancouver, ISO e altri
22

López, Herrera Leonardo Andrés. "Predicción de fuga de clientes desde un enfoque de competencia". Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113942.

Testo completo
Abstract (sommario):
Magíster en Gestión de Operaciones
Ingeniero Civil Industrial
Las firmas requieren contar con herramientas que les permitan estimar probabilidades de fuga para su cartera de clientes y así decidir sobre qué clientes concentrar sus esfuerzos de retención. Este problema ha sido estudiado profundamente a través de métodos estadísticos tradicionales, como por ejemplo la Regresión Logística. En esta tesis se propone estimar las probabilidades de fuga de clientes a partir de la forma funcional utilizada en modelos de Regresión Logística, pero imponiendo que los parámetros del modelo cumplan con las condiciones de equilibrio de un modelo de Teoría de Juegos, donde las firmas utilizan sus herramientas competitivas para atraer a los clientes y los clientes escogen fugarse o no según estas mismas probabilidades estimadas endógenamente. Para esto se plantea un problema de optimización no lineal cuya función objetivo corresponde a maximizar la función de verosimilitud del modelo tradicional de Regresión Logística y cuyas restricciones corresponden al sistema de ecuaciones que determinan las condiciones de equilibrio del juego. Se plantean tres modelos de Teoría de Juegos para abordar la estimación a través del esquema propuesto: el primero, donde las firmas compiten solamente en precios; el segundo, donde las firmas compiten en precios y descuentos; y finalmente, uno donde las firmas compiten en precios, descuentos y esfuerzos en marketing. Se propone un método de solución numérica para la metodología planteada y luego es aplicada a un problema con datos reales. Los modelos propuestos modifican la importancia relativa de las variables permitiendo mejorar la interpretación de los resultados y los niveles de significancia de las variables que son consideradas endógenas en los respectivos juegos. Los resultados muestran que el modelo tradicional siempre supera a los modelos propuestos en las bases de entrenamiento y de prueba. Esto sucede porque estos últimos imponen condiciones sobre los parámetros estimados buscando que estos además satisfagan las condiciones de equilibrio del juego subyacente. Sin embargo, se observa que los modelos propuestos superan los resultados del enfoque tradicional en particular en la base de validación. Lo anterior es relevante ya que esta base corresponde a una muestra fuera del periodo temporal utilizado en la determinación de los modelos, lo que indica que los modelos propuestos se adaptan mejor a cambios en las condiciones de mercado con respecto a la situación bajo la que se estiman sus parámetros. En definitiva los modelos propuestos sacrifican precisión en la estimación de sus parámetros para mejorar su capacidad de entender el comportamiento de compra de los clientes, recogiendo efectos de largo plazo de la base de datos y siendo consistentes con la racionalidad de los jugadores. Como línea de trabajo futuro se recomienda la aplicación de la metodología propuesta a cualquier otro problema de Clasificación Binaria donde los agentes se comporten de forma estratégica y donde se pueda caracterizar un juego de competencia subyacente al problema estadístico estudiado.
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Arce, Nuñez Pablo, P. Luisa Miqueles e A. Karina Sepúlveda. "Redes neuronales aplicadas a la predicción del tipo de cambio". Tesis, Universidad de Chile, 2006. http://www.repositorio.uchile.cl/handle/2250/112081.

Testo completo
Abstract (sommario):
Tesis para optar al grado de Magíster en Finanzas
No disponible a texto completo
En las diferentes disciplinas de la ciencia, podemos ver que todos los días se hacen esfuerzos importantes para poder determinar con mayor certeza los fenómenos a los que nos vemos afectados. Para ello, se han implementado diversas técnicas de predicción con el propósito de obtener mejores resultados frente a estos nuevos eventos. Dichos esfuerzos responden a la necesidad de las personas de disminuir el riesgo en la toma de decisiones y su aversión al riesgo en cuanto a las opciones que tienen que tomar. En las finanzas la historia es muy parecida. Durante mucho tiempo las personas han buscado poder acceder a mayor información, que les permita tomar decisiones de una forma correcta, en donde las posibilidades de "equivocarse" sean las mínimas y el éxito en la toma de decisiones sea lo más alto posible. A medida que ha pasado el tiempo, nos hemos visto expuestos a diversas técnicas para poder predecir los fenómenos futuros, ellas están basadas en la premisa de que los elementos que suceden en la práctica no son un efecto aleatorio, sino que representan de alguna manera tendencias que podrían ser explicadas de cierta forma por algún modelo.
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Higa, Flores Kenji Alonso. "Predicción de tipos de cambio reales utilizando modelos VAR Bayesianos". Master's thesis, Universidad del Pacífico, 2016. http://hdl.handle.net/11354/1201.

Testo completo
Abstract (sommario):
El presente trabajo busca documentar el potencial de los modelos VAR Bayesianos (BVAR) para la predicción de índices de tipos de cambio reales efectivos. Para esto, se prueban distintas especificaciones de modelos predictivos utilizando la base angosta de índices de tipos de cambio reales efectivos de BIS que incluye datos para 27 economías. En primera instancia se prueban modelos univariados simples para realizar las predicciones y tener un punto de referencia para las estimaciones BVAR. El análisis de los resultados de las predicciones de los modelos BVAR tradicionales muestran que estos por sí solos no tienen un mejor desempeño que los modelos univariados. Estos resultados son robustos a la ventana de estimación, y a la especificación de los priors del BVAR.
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Erbetta, Mattig Ignacio. "Predicción de la Potencia para la Operación de Parques Eólicos". Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103958.

Testo completo
Abstract (sommario):
Tomando en cuenta la reciente incorporación de varios parques eólicos al SIC y la naturaleza estocástica de la velocidad del viento, se hace imprescindible contar con una herramienta que sea capaz de pronosticar el nivel de generación en un parque eólico, de manera de facilitar y optimizar la programación diaria manteniendo la calidad de suministro por parte del CDEC; organismo encargado de garantizar la operación de las instalaciones del sector eléctrico en Chile. El objetivo general de este trabajo es desarrollar un predictor de potencia activa para el Parque Eólico Canela para un horizonte máximo de 36 horas, entregándose los resultados no sólo en términos del valor esperado de la predicción, sino también a través de la generación de intervalos del 95% confianza. Para realizar este trabajo, se han analizado datos históricos de velocidad de viento y potencia activa del Parque Eólico Canela provistos por ENDESA ECO, así como predicciones diarias de velocidad de viento provistas por la DGAC. Los datos han sido tomados con un tiempo de muestreo de 1 hora. Para el desarrollo del modelo predictor se han probado modelos lineales FIR y ARX, que consideran como variables de entrada la velocidad de viento, la potencia y sus retardos; y un modelo no lineal (red neuronal MLP), que considera como entrada sólo la velocidad del viento. Además se implementó un modelo de referencia (modelo de referencia de Nielsen). El modelo que mostró mejores resultados es la red neuronal MLP con una mejora de un 62% en el error cuadrático medio con respecto al modelo de referencia, superando ampliamente al modelo ARX, que mostró una mejora del 25% y al modelo FIR, que mostró una mejora del 10%. Para la calibración de estos modelos se asume conocida con exactitud la velocidad del viento en el futuro, condición que es posteriormente relajada para dar paso a la utilización de la predicción de velocidad de viento de la DGAC. Luego, se ha realizado una caracterización del error de predicción de la velocidad del viento entregada por la DGAC en función del horizonte de predicción y del valor de la predicción. Como entrada al predictor se ha utilizado la predicción de velocidad de viento provista por la DGAC, la cual es perturbada con realizaciones del proceso estocástico que caracteriza el error de predicción ejecutándose una simulación de Monte Carlo. La salida del predictor es el valor medio de las salidas de cada iteración de la simulación. El intervalo de confianza es calculado como el menor rango de potencia que acumule el 95% de probabilidad de ocurrencia en el histograma de salida. El predictor ha logrado un error absoluto medio en torno al 12% en un horizonte de 36 horas, mejorando al método simple en 2,3 p.p. Este valor es cercano a los obtenidos por los mejores modelos de predicción desarrollados por empresas que prestan el servicio de predicción de potencia para parques eólicos. Además, se ha realizado una comparación con una predicción simple que consiste en calcular la potencia utilizando como entrada al modelo directamente la predicción de velocidad de viento. El método implementado mejora en hasta un 7% al método simple. El nuevo método implementado es muy exacto con un error medio cercano al 0%, a diferencia del método simple que tiene un error medio de un -8%. El método es computacionalmente eficiente, se requieren menos de 10 segundos para obtener una predicción de potencia para las próximas 36 horas. Como líneas de investigación futuras se propone principalmente estudiar las fuentes de error de la predicción de velocidad del viento de la DGAC e incorporarlas al modelo desarrollado con el objetivo de lograr mejores predicciones de potencia.
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Pedroza, Santiago Enrique Antonio. "Modelo de Predicción Difuso para Encuentros de Fútbol Soccer Mexicano". Tesis de maestría, Universidad Autónoma del Estado de México, 2018. http://hdl.handle.net/20.500.11799/106233.

Testo completo
Abstract (sommario):
En el contexto del fútbol soccer como en otros deportes, el resultado de un encuentro entre dos equipos depende o es afectado por varios actores y factores involucrados. Tales factores están inmersos en el entorno, como la altura, la presión atmosférica, el clima, el horario, mientras que en los actores entran en juego las decisiones del director técnico, la experiencia del árbitro, el apoyo de los aficionados, así como las habilidades deportivas de los jugadores, siendo las habilidades las que se tomaron en cuenta en este trabajo de investigación. En esta tesis de maestría, se presenta la propuesta de un modelo de inferencia basado en lógica difusa, el cual fue usado para obtener una predicción o pronóstico para cada partido del Torneo Apertura 2018 de la Liga MX del fútbol mexicano. Para lograr este pronóstico, en primer lugar, fue necesaria la creación de reglas difusas a partir del análisis de las diferentes habilidades físicas, mentales y futbolísticas de cada jugador registrado en el torneo. Este análisis se realizó utilizando el conocido algoritmo de minería de datos PART, que se haya disponible en la plataforma Weka, con el objetivo de clasificar por posición predeterminada para jugar en el campo de fútbol aquellas habilidades que deben estar presentes en un jugador. Este análisis permitió refinar y concluir 41 reglas difusas para clasificar a un jugador según sus habilidades deportivas como un integrante malo, regular o bueno del equipo para jugar cada posible posición en la cancha, logrando evaluar de manera global al portero, los defensas, los medios y los delanteros de las alineaciones de los equipos local y visitante como malos, regulares o buenos. Seguidamente, mediante la aplicación de otras 243 reglas difusas se categorizó a cada equipo como malo, regular o bueno acorde a los globales de su alineación y respectivo ranking de Elo. Finalmente, mediante 9 últimas reglas difusas se obtuvo un pronóstico para cada equipo en un encuentro como ganador, perdedor, o bien, empate, respectivamente, sin arrojar un estimado de los goles que pueden ser anotados o recibidos por cada uno. Con la puesta en marcha del modelo difuso propuesto, se pronosticaron un total de 153 partidos del Torneo Apertura 2018 de la Liga Mx, jugados a lo largo de 17 jornadas deportivas de 9 partidos cada una. Se obtuvo un porcentaje de resultados correctos cercanos al 50%, lo equivalente a una predicción correcta de 76 partidos. Este porcentaje es aceptable, considerando que sólo se tomaron en cuenta las habilidades mentales, físicas y deportivas de los jugadores, en conjunto con el ranking de Elo de cada equipo, excluyendo otros aspectos como el entorno, el historial de partidos disputados entre dos equipos o la experiencia y conocimiento de los árbitros, los cuales son variables que se pueden utilizar para complementar y mejorar el modelo con el fin de obtener un mayor porcentaje de resultados correctos. Los principales hallazgos, como hitos y contribuciones de tener un trabajo de investigación como el que se propone aquí, radican en el hecho de que no ha sido posible encontrar ningún modelo similar en características en la revisión de la literatura del estado del arte, lo que hace a esta tesis única y novedosa. Además, el modelo propuesto se puede adaptar y modificar para que se aplique en otras ligas alrededor del mundo, o bien, en otros contextos deportivos de una manera exitosa.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

Catalini, Carlos Gastón. "Predicción de Lluvias Máximas en Argentina Desarrollos y Nuevas Aplicaciones". Doctoral thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2018. http://hdl.handle.net/11086/6109.

Testo completo
Abstract (sommario):
Tesis (DCI)--FCEFN-UNC, 2018
Trata de la presentación y desarrollo de nuevas aplicaciones relacionadas a la predicción de lluvias máximas para diseño hidrológico en vastas regiones del país, empleando para ello sistemas de informaciòn geográfica y técnicas de análisis exploratorios de datos.
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Quispe, Millones Sandra Giovana. "Rotación de personal : predicción con modelo de regresión logística multinivel". Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2014. https://hdl.handle.net/20.500.12672/4233.

Testo completo
Abstract (sommario):
Se analiza la rotación del personal en una empresa privada a través de un modelo de regresión logística de 2 niveles, buscando establecer la relación entre las características del trabajador, el área en que trabaja y la desvinculación laboral durante el periodo de prueba de 6 meses establecido por la empresa. Se introducen conceptos de modelos lineales generalizados, regresión logística y modelos multinivel que sirven como base para describir los aspectos más relevantes de la regresión logística multinivel y sus ventajas frente a los modelos de un solo nivel. Se analizó la desvinculación de los trabajadores (primer nivel) anidados en áreas de la empresa (segundo nivel), identificando la variabilidad existente entre las áreas ( =0.28) y el perfil del desertor. Los resultados se comparan con los obtenidos con un modelo de regresión logística múltiple de un solo nivel, se encontraron diferencias respecto al aporte de las variables estado civil, escala remunerativa del puesto y beneficios adicionales brindados por el área.
It is a turnover analysis in a private company through a multilevel logistic regression model of 2 levels seeking to establish the relationship between worker characteristics, the area in which they work and the termination of employment during the period of six months test set by the company. Concepts are introduced of generalized linear models, logistic regression and multilevel models that serve as a basis for describing the most important aspects of the multilevel logistic regression and its advantages over single-level models. The decoupling of workers (first level) nested in areas of the business (second level), are analyzed, identifying the variability between areas (ρ = 0.28) and the profile of the deserter. The results are compared with those obtained with a multiple logistic regression model of one level. Differences were found with respect to input variables marital status, remuneration scale and fringe benefits. Concepts are introduced generalized linear models, logistic regression and multilevel KEY WORDS : TURNOVER, OCCUPATIONAL GROUP, LOGISTIC REGRESSION, MULTILEVEL MODEL.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Zevallos, Ruiz José Augusto. "Estimación de curvas de intensidad-duración-frecuencia de precipitaciones para el Perú usando precipitaciones horarias simuladas con el modelo de pulso rectangular de Bartlett- Lewis". Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://hdl.handle.net/20.500.12404/14455.

Testo completo
Abstract (sommario):
La necesidad de cuantificar el riesgo de ocurrencia de precipitaciones de cierta intensidad y duración es vital para las obras de ingeniería en el Perú. Una herramienta que sirve para estimarlo son las curvas Intensidad-Duración-Frecuencia (IDF). La exactitud de estas curvas depende de datos de calidad y resolución temporal horaria (Ritschel et al., 2017). Sin embargo, en el Perú se cuenta con un registro muy corto de años de precipitaciones horarias, lo que dificulta inferir propiedades estadísticas de la IDF sub diarias. Un método de estimación de las curvas IDF sobre territorio peruano es desarrollado en esta investigación, utilizando la distribución General de Extremos (GEV) para calcular las intensidades de diferente duración en 5, 50, 100 y 200 años de retorno. El método se validó comparando las curvas generadas con datos observados y simulados para la Mina Toquepala ubicada en la sierra sur del Perú. Los datos horarios simulados fueron generados con el modelo estocástico de pulso rectangular de Bartlett-Lewis (BLRPM), (Rodriguez-Iturbe, D.R. Cox, 1988), el cual fue calibrado con información diaria observada y datos corregidos del satelital TRMM 3b42. Producto de esta comparación se observó que las series obtenidas con BLRPM capturan las principales características estadísticas de las curvas IDF. Para la obtención de las curvas, se aplicó el método validado a los datos de precipitación diaria provista por el Servicio Nacional Meteorología e Hidrológica del Perú (SENAMHI). Las estaciones se encuentran distribuidos en las principales cuencas hidrográficas. Las curvas IDF resultantes pueden apreciarse en el siguiente link: https://josezevallosr.github.io/CurvasIdf/mapa.html
The need for quantifying the risk of occurrence of precipitation of a certain intensity and duration is vital for providing engineering works in Peru. A tool for estimating it is the intensity-duration-frequency relationship (IDF). The accuracy of such relationship depends on the quality of the data and its temporal resolution, which is typically hourly (Ritschel et al., 2017). However, the length or the recorded series are short, which makes it difficult to infer confident statistical properties for sub daily curves. A method of estimating the IDF curves on Peruvian territory is developed in this investigation, using the General Distribution of Extremes (GEV) to calculate the intensities of different duration for 5, 50, 100 and 200 years of return. The method was validated by comparing the generated curves with observed and simulated data for the Toquepala mine site located in the southern highlands of Peru. The simulated hourly data were generated with the Bartlett-Lewis stochastic rectangular pulse model (BLRPM), (Rodriguez-Iturbe, D.R. Cox, 1988), which was calibrated with observed daily information and corrected data from the TRMM satellite 3b42. As result of this comparation, it was observed that the series obtained with BLRPM capture the main statistical characteristics of the IDF curves. To obtain the curves at the national scale, the validated method was applied to the daily rainfall data provided by the National Meteorological and Hydrological Service of Peru (SENAMHI). The stations are distributed in the main river basins. The resulting IDF curves can be seen in the following link: https://josezevallosr.github.io/CurvasIdf/mapa.html
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Gago, Ramos José Luis. "Capacidad predictiva clínica y molecular de respuesta a quimioterapia neoadyuvante en pacientes con tumor vesical músculo invasivo". Doctoral thesis, Universitat Autònoma de Barcelona, 2019. http://hdl.handle.net/10803/668285.

Testo completo
Abstract (sommario):
INTRODUCCIÓN: La quimioterapia neoadyuvante (QNA) basada en cisplatino seguida de cistectomía constituye el tratamiento recomendado para el cáncer de vejiga músculo invasivo (CVMI) con el mayor nivel de evidencia. La QNA basada en cisplatino ha demostrado un beneficio significativo en supervivencia global (SG) a 5 años. Diversos metaanálisis han demostrado que el beneficio del tratamiento con QNA se limita a un subconjunto de pacientes. Aquellos pacientes que logran una respuesta patológica completa (RPc) obtienen el mayor beneficio en términos de SG, supervivencia cáncer específica (SCE) y supervivencia libre de progresión (SLP). Actualmente, en la práctica clínica, no se dispone de marcadores predictivos de RPc a QNA basada en platino. Las variables clínicas y patológicas no son capaces de predecir la respuesta de manera adecuada. La clasificación jerárquica según la taxonomía del CVMI y la expresión de genes implicados en las vías de reparación del ADN o en la respuesta inmune se han relacionado con la predicción de respuesta. MATERIAL Y MÉTODOS: Estudio retrospectivo con 112 pacientes diagnosticados de CVMI. Se han recogido variables clínicas, patológicas, taxonómicas mediante inmunohistoquímica y de expresión de ARN extraído mediante Covaris® y cuantificado mediante la plataforma Nanostring®. Se han incluido genes relacionados con la reparación de ADN, con respuesta inmunitaria, con dianas terapéuticas y con la clasificación taxonómica. Se ha analizado la capacidad predictiva de dichas variables respecto a la RPc y su relación con la supervivencia. RESULTADOS: La capacidad predictiva sólo con las variables clínicas y patológicas fue menor (área bajo la curva, AUC=0,52). Al añadir la información que aportaban las variables de taxonomía y de expresión genética se observó un aumento de la capacidad predictiva (AUC=0,671). La mayor capacidad predictiva se logró con el análisis conjunto de las variables clínicas (hidronefrosis), patológicas (histología urotelial), de taxonomía (BASQ) y genéticas (RAD51 y CXCL9) (AUC=0,671). Acorde con lo descrito en la literatura, en nuestro estudio la RPc también se asoció significativamente a mejor SG, SCE y SLP (p=0,001 en todos los casos). La firma predictiva clínica y molecular que incluía la información de las variables correspondientes a hidronefrosis, histología urotelial, taxonomía y expresión genética mediante ARN de RAD51, CXCL9 y PARP se asoció a mayor SG (p=0,01) y SCE (p=0,033) de forma estadísticamente significativa. Sin embargo, no alcanzó la asociación estadísticamente significativa en relación a una mayor SLP (p=0,059). CONCLUSIONES: El análisis conjunto de variables clínicas, patológicas, taxonómicas y de expresión genética aumenta la capacidad predictiva de respuesta y puede tener implicaciones sobre el pronóstico. Es preciso validar estos resultados en series independientes, así como realizar estudios prospectivos para identificar qué firma predictiva clínica y molecular va a ser capaz de lograr la mayor capacidad predictiva de respuesta a la QNA basada en cisplatino en el CVMI.
INTRODUCTION: Cisplatin-based neoadjuvant chemotherapy (NAC) followed by cystectomy is the recommended treatment for invasive muscle bladder cancer (MIBC) with the highest level of evidence. Cisplatin-based NAC has demonstrated a significant 5-year overall survival benefit (OS). Various meta-analyses have shown that the benefit of NAC treatment is limited to a subset of patients. Patients who achieve a complete pathological response (cPR) get the most benefit in terms of OS, cancer specific survival (CSS) and progression-free survival (PFS). Currently, in clinical practice, predictive markers of cPR to NAC based on platinum are not available. Clinical and pathological variables are not able to predict the response properly. The hierarchical classification according to the taxonomy of MIBC and the expression of genes involved in DNA repair pathways or immune response have been linked to the prediction of response. MATERIAL AND METHODS: Retrospective study with 112 patients diagnosed with MIBC. There have been collected clinical and pathologic variables, taxonomical information by immunohistochemistry and RNA expression extracted by Covaris ® and quantified using the Nanostring® platform. Genes related to DNA repair, immune response, therapeutic targets and taxonomic classification have been included. We analyzed the predictive capacity of these variables with respect to the cPR and its relationship with survival. RESULTS: Predictive capacity only with clinical and pathological variables was lower (area under the curve, AUC=0,52). Adding the information provided by the taxonomy and genetic expression variables an increase in predictive capacity was observed (AUC=0,671). The greatest predictive capacity was achieved through the joint analysis of clinical variables (hydrophrosis), pathological (urothelial histology), taxonomy (BASQ) and genetics (RAD51 and CXCL9) (AUC=0,671). As described in the literature, in our study the cPR was also associated significantly with better OS, CSS and PFS, p=0,001 in all cases). The clinical and molecular predictive signature that included information from the variables corresponding to hydronephrosis, urothelial histology, taxonomy and RNA expression of RAD51, CXCL9 and PARP was significantly associated with higher OS (p=0,01) and CSS (p=0,033). However, it did not achieve statistically significant association in relation to higher PFS (p=0,059). CONCLUSIONS: Joint analysis of clinical, pathological, taxonomic and genetic expression variables increases predictive response and may have implications for prognosis. These results need to be validated in independent series, as well as prospective studies to identify which clinical and molecular predictive firm will be able to achieve the highest predictive capacity to respond to NAC based on cisplatin in MIBC.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Ramon, Gurrea Elies. "Kernel approaches for complex phenotype prediction". Doctoral thesis, Universitat Autònoma de Barcelona, 2020. http://hdl.handle.net/10803/671296.

Testo completo
Abstract (sommario):
La relació entre fenotip i informació genotípica és considerablement intricada i complexa. Els mètodes d’aprenentatge automàtic s’han utilitzat amb èxit per a la predicció de fenotips en un gran ventall de problemes dins de la genètica i la genòmica. Tanmateix, les dades biològiques sovent estan estructurades i són de tipus “no estàndard”, el que pot suposar un repte per a la majoria de mètodes d’aprenentatge automàtic. Entre aquestos, els mètodes kernel proporcionen un enfocament molt versàtil per manejar diferents tipus de dades i problemes mitjançant la utilització d’una família de funcions anomenades de kernel. L’objectiu principal d’aquesta tesi doctoral és el desenvolupament i l’avaluació d’estratègies de kernel específiques per a la predicció fenotípica, especialment en problemes biològics amb dades o dissenys experimentals de tipus estructurat. A la primera part, utilitzam seqüències de proteasa, transcriptasa inversa i integrasa per predir la resistència del VIH a fàrmacs antiretrovirals. Proposam dos kernels categòrics (Overlap i Jaccard) que tenen en compte les particularitats de les dades de VIH, com per exemple les barreges d’al·lels. Els kernels proposats es combinen amb Support Vector Machines (SVM) i es comparen amb dos kernels estàndard (Linear i RBF) i dos mètodes que no són de kernel: els boscos aleatoris (RF) i un tipus de xarxa neuronal (el perceptró multicapa). També incloem en els kernels la importància relativa de cada posició de la proteïna pel que fa a la resistència. Els resultats mostren que tenir en compte la naturalesa categòrica de les dades i la presència de barreges millora sistemàticament la predicció. L’efecte de ponderar les posicions per la seua importància és més gran en la transcriptasa inversa i en la integrasa, el que podria estar relacionat amb les diferències que hi ha entre els tres enzims pel que fa als patrons de mutació per adquirir resistència a fàrmacs antiretrovirals. A la segona part, ampliam l’estudi anterior per considerar no-independència entre les posicions de la proteïna. Representam les proteïnes com a grafs i ponderam cada aresta entre dos residus per la seua distància euclidiana, calculada a partir de dades de cristal·lografia de rajos X. A continuació, els aplicam un kernel per a grafs (el random walk exponential kernel) que integra els kernels Overlap i Jaccard. A pesar dels avantatges potencials d’aquest kernel, no aconseguim millorar els resultats obtinguts en la primera part. A la tercera part, proposam un kernel framework per unificar les anàlisis supervisades i no supervisades en el camp del microbioma. Aprofitam la mateixa matriu de kernel per predicció mitjançant SVM i visualització mitjançant anàlisi de components principals amb kernels (kPCA). Discutim com transformar mesures de beta-diversitat en kernels, i definim dos kernels per a dades composicionals (Aitchison-RBF i compositional linear). Aquest darrer kernel també permet obtenir les importàncies dels tàxons respecte del fenotip predit (signatures microbianes). Per a les dades amb estructuració espacial i temporal utilitzam Multiple Kernel Learning i kernels per a sèries temporals, respectivament. El framework s’il·lustra amb tres bases de dades: la primera conté mostres de sòl, la segona mostres humanes amb una component espacial i la tercera, no publicada fins ara, dades longitudinals de porcs. Totes les anàlisis es contrasten amb els estudis originals (en els dos primers casos) i també amb els resultats dels RF. El nostre kernel framework no només permet una visió global de les dades, sinó que també dóna bons resultats a cada àrea d’aprenentatge. En les anàlisis no supervisades, els patrons detectats en estudis previs es conserven a la kPCA. En anàlisis supervisades, el SVM té un rendiment superior (o equivalent) al dels RF, mentre que les signatures microbianes són coherents amb els estudis originals i la literatura prèvia.
La relación entre fenotipo e información genotípica es considerablemente intrincada y compleja. Los métodos de aprendizaje automático (ML) se han utilizado con éxito para la predicción de fenotipos en una gran variedad de problemas dentro de la genética y la genómica. Sin embargo, los datos biológicos suelen estar estructurados y pertenecer a tipos de datos "no estándar", lo que puede representar un desafío para la mayoría de los métodos de ML. Entre ellos, los métodos de kernel permiten un enfoque muy versátil para manejar diferentes tipos de datos y problemas mediante una familia de funciones llamadas de kernel. El objetivo principal de esta tesis doctoral es el desarrollo y evaluación de enfoques de kernel específicos para la predicción fenotípica, centrándose en problemas biológicos con tipos de datos o diseños experimentales estructurados. En la primera parte, usamos secuencias de proteínas mutadas del VIH (proteasa, transcriptasa inversa e integrasa) para predecir la resistencia a antiretrovirales. Proponemos dos funciones de kernel categóricas (Overlap y Jaccard) que tienen en cuenta las particularidades de los datos de VIH, como las mezclas de alelos. Los kernels propuestos se combinan con máquinas de vector soporte (SVM) y se comparan con dos funciones de kernel estándar (Linear y RBF) y dos métodos que no son de kernel: bosques aleatorios (RF) y un tipo de red neuronal, el perceptrón multicapa. También incluimos en los kernels la importancia relativa de cada posición de la proteína con respecto a la resistencia. Tener en cuenta tanto la naturaleza categórica de los datos como la presencia de mezclas obtenemos sistemáticamente mejores predicciones. El efecto de la ponderación es mayor en los inhibidores de la integrasa y la transcriptasa inversa, lo que puede estar relacionado con diferencias en los patrones mutacionales de las tres enzimas virales. En la segunda parte, ampliamos el estudio anterior para considerar que las posiciones de las proteínas pueden no ser independientes. Las secuencias mutadas se representan como grafos, ponderándose las aristas por la distancia euclidiana entre residuos obtenida por cristalografía de rayos X. A continuación, se calcula un kernel para grafos (el exponential random walk kernel) que integra los kernels Overlap y Jaccard. A pesar de las ventajas potenciales de este enfoque, no observamos una mejora en la capacidad predictiva. En la tercera parte, proponemos un kernel framework para unificar los análisis supervisados ​​y no supervisados del microbioma. Para ello, usamos una misma matriz de kernel para predecir fenotipos usando SVM y visualización a través de análisis de componentes principales con kernels (kPCA). Definimos dos kernels para datos composicionales (Aitchison-RBF y compositional linear) y discutimos la transformación de medidas de beta-diversidad en kernels. El kernel lineal composicional también permite la recuperación de importancias de taxones (firmas microbianas) del modelo SVM. Para datos con estructura espacial y temporal usamos Multiple Kernel Learning y kernels para series temporales, respectivamente. Ilustramos el kernel framework con tres conjuntos de datos: datos de suelos, datos humanos con un componente espacial y, un conjunto de datos longitudinales inéditos sobre producción porcina. Todos los análisis incluyen una comparación con los informes originales (en los dos primeros casos), así como un contraste con los resultados de RF. El kernel framework no solo permite una visión holística de los datos, sino que también da buenos resultados en cada área de aprendizaje. En análisis no supervisados, los principales patrones detectados en los estudios originales se conservan en kPCA. En análisis supervisados, la SVM tiene un rendimiento mayor (o equivalente) a los RF, mientras que las firmas microbianas son coherentes con los estudios originales y la literatura previa.
The relationship between phenotype and genotypic information is considerably intricate and complex. Machine Learning (ML) methods have been successfully used for phenotype prediction in a great range of problems within genetics and genomics. However, biological data is usually structured and belongs to & 'nonstandard' data types, which can pose a challenge to most ML methods. Among them, kernel methods bring along a very versatile approach to handle different types of data and problems through a family of functions called kernels. The main goal of this PhD thesis is the development and evaluation of specific kernel approaches for phenotypic prediction, focusing on biological problems with structured data types or study designs. In the first part, we predict drug resistance from HIV-mutated protein sequences (protease, reverse transcriptase and integrase). We propose two categorical kernel functions (Overlap and Jaccard) that take into account HIV data particularities, such as allele mixtures. The proposed kernels are coupled with Support Vector Machines (SVM) and compared against two well-known standard kernel functions (Linear and RBF) and two nonkernel methods: Random Forests (RF) and the Multilayer Perceptron neural network. We also include a relative weight into the aforementioned kernels, representing the importance of each protein residue regarding drug resistance. Taking into account both the categorical nature of data and the presence of mixtures consistently delivers better predictions. The weighting effect is higher in reverse transcriptase and integrase inhibitors, which may be related to the different mutational patterns in the viral enzymes regarding drug resistance. In the second part, we extend the previous study to consider the fact that protein positions are not independent. Mutated sequences are modeled as graphs, with edges weighted by the Euclidean distance between residues, obtained from crystal three-dimensional structures. A kernel for graphs (the exponential random walk kernel) that integrates the previous Overlap and Jaccard kernels is then computed. Despite the potential advantages of this kernel for graphs, an improvement on predictive ability as compared to the kernels of the first study is not observed. In the third part, we propose a kernel framework to unify unsupervised and supervised microbiome analyses. To do so, we use the same kernel matrix to perform phenotype prediction via SVMs and visualization via kernel Principal Components Analysis (kPCA). We define two kernels for compositional data (Aitchison-RBF and compositional linear) and discuss the transformation of beta-diversity measures into kernels. The compositional linear kernel also allows the retrieval of taxa importances (microbial signatures) from the SVM model. Spatial and time-structured datasets are handled with Multiple Kernel Learning and kernels for time series, respectively. We illustrate the kernel framework with three datasets: a single point soil dataset, a human dataset with a spatial component, and a previously unpublished longitudinal dataset concerning pig production. Analyses across the three case studies include a comparison with the original reports (for the two former datasets), as well as contrast with results from RF. The kernel framework not only allows a holistic view of data but also gives good results in each learning area. In unsupervised analyses, the main patterns detected in the original reports are conserved in kPCA. In supervised analyses SVM has better (or, in some cases, equivalent) performance than RF, while microbial signatures are consistent with the original studies and previous literature.
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Rivera, Amores Juan José. "Parámetros de imagen y sinópticos en la predicción de la lluvia". Doctoral thesis, Universitat Politècnica de Catalunya, 2001. http://hdl.handle.net/10803/6981.

Testo completo
Abstract (sommario):
:Se analiza en el presente trabajo, la relación entre la intensidad de lluvia y parámetros anteriores a la caída de la misma, obtenidos a través de diversas fuentes: imágenes Meteosat, en los canales IR y WV, y parámetros sinópticos termodinámicos y dinámicos. La zona de estudio corresponde a la Península Ibérica, las islas Baleares y Canarias, además de los Alpes suizos para unos episodios particulares y se utilizan 77 días con imágenes de satélite (de ellos, 39 días con imágenes en los canales IR y WV del Meteosat, y 13 con información sinóptica). El análisis comprende tres etapas: en la primera se analiza el ajuste de una relación cuantitativa entre la lluvia medida en un intervalo de tiempo, se toman 1h y 2h, en un observatorio dado y los parámetros de imagen de satélite medidos con anterioridad a la lluvia y durante la misma sobre el observatorio y en un círculo de radio fijo alrededor del mismo. En la segunda etapa, se establece un conjunto de parámetros sinópticos y de imagen así como sus rangos de valores, que permiten predecir lluvias intensas con una antelación de 3h para una zona con un tamaño del orden de 100km de diámetro. En la tercera etapa, se establecen y caracterizan los parámetros de imagen de satélite que mejor permiten realizar un seguimiento y localización de las lluvias intensas para aquellos casos en que la predicción realizada indica la próxima aparición de las mismas.Las conclusiones a las que se llega son las siguientes: 1.-No existe relación, que permita establecer un modelo matemático objetivo, entre la cantidad de lluvia caída en un observatorio durante una hora y los parámetros de imagen en los canales IR y WV del Meteosat, medidos en la vertical del propio observatorio o en un círculo de radio fijo. Por tanto, para una predicción de lluvia, es más adecuado considerar los sistemas nubosos completos y las condiciones atmosféricas que rodean al observatorio en las horas previas. 2.- Para que se produzcan lluvias intensas en un plazo de 3h en adelante, en una zona del orden de 100km de diámetro, se ha de dar en la zona el siguiente conjunto de valores para los diferentes parámetros sinópticos: Helicidad positiva, CAPE mayor o igual a 750 J kg-1, índice IK mayor o igual a 20ºC, índice LI menor que 0ºC, convergencia en 850hPa, situación de la zona donde lloverá, en la parte delantera de una vaguada en la superficie de 500hPa, humedad relativa media entre la superficie y 500hPa por encima del 70%, masa de agua precipitable en toda la troposfera por encima de los 20mm, convergencia de vapor de agua en niveles bajos, máximos de vorticidad potencial en 250hPa superiores a 3PVU ó en 500hPa superiores a 0.6PVU. Los máximos de vorticidad potencial se producen preferentemente en 250hPa, están situados a distancias de hasta unos 1000km ó 1500km corriente arriba de la zona de desarrollo de los sistemas nubosos en las horas previas a dicho desarrollo y van acompañados de bandas alargadas de aire seco estratosférico provocado por el hundimiento de la tropopausa que se detectan mediante el canal WV del Meteosat con varias horas de antelación al desarrollo de los sistemas nubosos. 3.- En las zonas donde se producen mezclas de sistemas aumenta considerablemente la probabilidad de lluvias intensas.4.- La permanencia durante varias horas (>10h) de sistemas nubosos con temperaturas aparentes en el canal IR del Meteosat inferiores a -32ºC son suficientes en algunas ocasiones para producir lluvias de intensidades superiores a los 15mm/h. 5.- En los sistemas convectivos intensos, la utilización conjunta de los canales IR y WV del Meteosat permite la detección de entradas en la estratosfera (overshooting) que pueden enmascarar los núcleos fríos de las imágenes IR, debido al calentamiento que experimentan las zonas que entran en la estratosfera y, por tanto, permite localizar las zonas de intensa actividad convectiva con más precisión que la sola utilización del canal IR. Las entradas en la estratosfera se producen a partir de los -40ºC de temperatura aparente en el canal IR, haciéndose más intensas alrededor de los -60ºC. 6.- Para el seguimiento y localización de intensidades de lluvia altas, superiores aproximadamente a 17mm/h, sobretodo en aquellos sistemas convectivos de gran desarrollo, es más adecuada la observación y medición de las entradas en la estratosfera que la medición de las áreas de los núcleos fríos de los sistemas nubosos y sus variaciones de tamaño en el canal IR. La entrada en la estratosfera es una condición necesaria para la producción de lluvias intensas localmente pero no es suficiente ya que puede haber falta de humedad o que el sistema viaje demasiado deprisa.La magnitud del overshooting, medida ésta como diferencia de temperaturas aparentes entre los canales WV y IR del Meteosat, supera en ocasiones los 10K. 7.- Para un seguimiento adecuado de los sistemas convectivos intensos, es necesario utilizar las imágenes, tanto en el canal IR como en el WV, con una resolución temporal de media hora, como mínimo, ya que dichos sistemas experimentan cambios apreciables en ese periodo de tiempo, por ejemplo las entradas en la estratosfera.
It is analyzed in this work, the relationship between the rain intensity and parameters previous to the fall of the same one, obtained through diverse sources: Meteosat images, in the channels IR and WV, and thermodynamic and dynamic synoptic parameters. The study area corresponds the Iberian Peninsula, the Balearic islands and Canarias, besides the Swiss Alps for some particular episodes and 77 days they are used with satellite images (of them, 39 days with images in the channels IR and WV of the Meteosat, and 13 with synoptic information). The analysis understands three stages: in the first one it is tried to obtain a quantitative relationship among the rain measured in an interval of time, they take 1h and 2h, in a given observatory and the parameters of satellite image measured previously to the rain and during the same in the observatory and in a circle of fixed radio around the same one. In the second stage, they set up a group of synoptic and images parameters as well as its ranges of values that allow to predict intense rains with an advance of 3h for an area with a size of the order of 100km of diameter. In the third stage, they set up and they characterize the parameters of satellite image that better they allow to carry out a pursuit and localization of the intense rains for those cases in that the carried out prediction indicates the next appearance of the same ones.The conclusions they are the following ones: 1.- No relationship exists that allows to establish an objective mathematical model, among the quantity of fallen rain in an observatory during one hour and the image parameters in the channels IR and WV of the Meteosat, measured in the vertical of the own observatory or in a circle of fixed radio. Therefore, for a rain prediction, it is more appropriate to consider the complete cloudy systems and the atmospheric conditions that surround to the observatory in the previous hours. 2. - So, that intense rains take place starting from 3h, in an area of the order of 100km of diameter, it must be given in the area the following group of values for the different synoptic parameters: positive helicity, CAPE bigger or similar to 750 J kg-1, index IK bigger or similar to 20ºC, index LI smaller than 0ºC, convergence in 850hPa, situation of the area where it will rain, in the front part of a trough in the surface of 500hPa, humidity relative between the surface and 500hPa above 70%, precipitable water in the whole troposfera above the 20mm, convergence of water vapour in low levels, maxima of potential vorticity in 250hPa superiors to 3PVU or in 500hPa superiors to 0.6PVU. The maxima of potential vorticity take place preferably in 250hPa, they are located at distances of until about 1000km or 1500km current up of the area of development of the cloudy systems in the previous hours to this development and they go accompanied by lengthened bands of dry air stratospheric caused by the sinking of the tropopause that they are detected by means of the channel WV of the Meteosat with several hours of advance to the development of the cloudy systems. 3. - In the areas where produces merge of systems it increases the probability of intense rains considerably.4. - The permanence during several hours (>10h) of cloudy systems with apparent temperatures in the channel IR next to -32ºC is enough in some occasions to produce rains of superior intensities at the 15mm / h. 5. - In the intense convective systems, the combined use of the channels IR and WV of the Meteosat allows the detection of entrances in the stratosphere (overshooting) that can mask the cold nuclei of the IR images , due to the heating of the areas that they enter in the stratosphere and, therefore, it allows to locate the areas of intense convective activity with more precision than the single use of the channel IR. The entrances in the stratosphere take place starting from the -40ºC of apparent temperature in the channel IR, being made more intense around the -60ºC. 6. - For the pursuit and localization of high rain intensities, superiors approximately at 17mm/h, overalls in those convective systems of great development, is more appropriate the observation and mensuration of the entrances in the stratosphere that the mensuration of the areas of the cold nuclei of the cloudy systems and its size variations in the channel IR. The entrance in the stratosphere is a necessary condition for the production of local intense rains but it is not sufficient condition since it can have too low humidity or that the system travels too quickly.The magnitude of the overshooting, measure this like difference of apparent temperatures among the channels WV and IR of the Meteosat, it overcomes in occasions the 10K. 7. - For an appropriate pursuit of the intense convective systems, it is necessary to use the images, so much in the channel IR as in the WV, with a temporary resolution of half hour, as minimum, since this systems experience appreciable changes in that period of time, for example the entrances in the stratosphere.
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Corredor, Franco John Jairo. "Predicción de Perfiles de Comportamiento de Aplicaciones Científicas en Nodos Multicore". Doctoral thesis, Universitat Autònoma de Barcelona, 2011. http://hdl.handle.net/10803/121247.

Testo completo
Abstract (sommario):
Con la llegada de una amplia variedad de arquitecturas multicore (NUMA, UMA), seleccionar la mejor configuración del nodo de cómputo para una cierta aplicación paralela de memoria compartida, se convierte en la actualidad en un gran reto. Nuestro trabajo hace frente a este tema caracterizando los nodos de cómputo y las aplicaciones. Los nodos se caracterizan ejecutando pequeños programas (o microbenchmarks, μB), que contienen núcleos de estructuras representativas del comportamiento de programas paralelos de memoria compartida. Los μBs ejecutados en cada uno de los nodos nos proporcionan perfiles de rendimiento, o datos medidos del comportamiento, que se almacenan en una base de datos y se utilizan para estimar el comportamiento de nuevas aplicaciones. La aplicación es ejecutada sobre un nodo base para identificar sus fases representativas. Para cada fase se extrae información de rendimiento comparable con la de los μBs, con el fin de caracterizar dicha fase. En la base de datos de los perfiles de rendimiento se localizan aquellos μBs que tienen características similares en comportamiento a cada fase de la aplicación, ejecutados todos sobre el nodo base. Finalmente, se usan los perfiles seleccionados, pero ejecutados sobre los otros nodos candidatos, para comparar el rendimiento de los nodos de cómputo y seleccionar el nodo de cómputo apropiado para la aplicación.
With the advent of multicore architectures, there arises a need for comparative evaluations of the performance of well-understood parallel programs. It is necessary to gain an insight into the potential advantages of the available computing node configurations in order to select the appropriate computing node for a particular shared-memory parallel application. This paper presents a methodology to resolve this issue, by constructing a database with behavior information for various representative shared-memory programming structures, and then estimating the application behavior as a combination of these data. These structures are represented by small specific chunks of code called microbenchmarks (μB) based on the study of memory access patterns of shared-memory parallel applications. μBs set is run on each candidate node, and all execution performance profiles are stored in a database for future comparisons. Then, applications are executed on a base node to identify different execution phases and their weights, and to collect performance and functional data for each phase. Information to compare behavior is always obtained on the same node (Base Node (BN)). The best matching performance profile (from performance profile database) for each phase, is then searched. Finally, the candidates nodes performance profiles identify in the match process are used to project performance behavior in order to select the appropriate node for running the application. Resource centers own different machine configurations. This methodology helps the users or systems administrator of data centers to schedule the jobs efficiently.
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Rivera, Amores Juanjo. "Parámetros de imagen y sinópticos en la predicción de la lluvia". Doctoral thesis, Universitat Politècnica de Catalunya, 2001. http://hdl.handle.net/10803/6981.

Testo completo
Abstract (sommario):
:

Se analiza en el presente trabajo, la relación entre la intensidad de lluvia y parámetros anteriores a la caída de la misma, obtenidos a través de diversas fuentes: imágenes Meteosat, en los canales IR y WV, y parámetros sinópticos termodinámicos y dinámicos.

La zona de estudio corresponde a la Península Ibérica, las islas Baleares y Canarias, además de los Alpes suizos para unos episodios particulares y se utilizan 77 días con imágenes de satélite (de ellos, 39 días con imágenes en los canales IR y WV del Meteosat, y 13 con información sinóptica).

El análisis comprende tres etapas: en la primera se analiza el ajuste de una relación cuantitativa entre la lluvia medida en un intervalo de tiempo, se toman 1h y 2h, en un observatorio dado y los parámetros de imagen de satélite medidos con anterioridad a la lluvia y durante la misma sobre el observatorio y en un círculo de radio fijo alrededor del mismo. En la segunda etapa, se establece un conjunto de parámetros sinópticos y de imagen así como sus rangos de valores, que permiten predecir lluvias intensas con una antelación de 3h para una zona con un tamaño del orden de 100km de diámetro. En la tercera etapa, se establecen y caracterizan los parámetros de imagen de satélite que mejor permiten realizar un seguimiento y localización de las lluvias intensas para aquellos casos en que la predicción realizada indica la próxima aparición de las mismas.

Las conclusiones a las que se llega son las siguientes:

1.-No existe relación, que permita establecer un modelo matemático objetivo, entre la cantidad de lluvia caída en un observatorio durante una hora y los parámetros de imagen en los canales IR y WV del Meteosat, medidos en la vertical del propio observatorio o en un círculo de radio fijo. Por tanto, para una predicción de lluvia, es más adecuado considerar los sistemas nubosos completos y las condiciones atmosféricas que rodean al observatorio en las horas previas.

2.- Para que se produzcan lluvias intensas en un plazo de 3h en adelante, en una zona del orden de 100km de diámetro, se ha de dar en la zona el siguiente conjunto de valores para los diferentes parámetros sinópticos: Helicidad positiva, CAPE mayor o igual a 750 J kg-1, índice IK mayor o igual a 20ºC, índice LI menor que 0ºC, convergencia en 850hPa, situación de la zona donde lloverá, en la parte delantera de una vaguada en la superficie de 500hPa, humedad relativa media entre la superficie y 500hPa por encima del 70%, masa de agua precipitable en toda la troposfera por encima de los 20mm, convergencia de vapor de agua en niveles bajos, máximos de vorticidad potencial en 250hPa superiores a 3PVU ó en 500hPa superiores a 0.6PVU. Los máximos de vorticidad potencial se producen preferentemente en 250hPa, están situados a distancias de hasta unos 1000km ó 1500km corriente arriba de la zona de desarrollo de los sistemas nubosos en las horas previas a dicho desarrollo y van acompañados de bandas alargadas de aire seco estratosférico provocado por el hundimiento de la tropopausa que se detectan mediante el canal WV del Meteosat con varias horas de antelación al desarrollo de los sistemas nubosos.

3.- En las zonas donde se producen mezclas de sistemas aumenta considerablemente la probabilidad de lluvias intensas.

4.- La permanencia durante varias horas (>10h) de sistemas nubosos con temperaturas aparentes en el canal IR del Meteosat inferiores a -32ºC son suficientes en algunas ocasiones para producir lluvias de intensidades superiores a los 15mm/h.

5.- En los sistemas convectivos intensos, la utilización conjunta de los canales IR y WV del Meteosat permite la detección de entradas en la estratosfera (overshooting) que pueden enmascarar los núcleos fríos de las imágenes IR, debido al calentamiento que experimentan las zonas que entran en la estratosfera y, por tanto, permite localizar las zonas de intensa actividad convectiva con más precisión que la sola utilización del canal IR. Las entradas en la estratosfera se producen a partir de los -40ºC de temperatura aparente en el canal IR, haciéndose más intensas alrededor de los -60ºC.

6.- Para el seguimiento y localización de intensidades de lluvia altas, superiores aproximadamente a 17mm/h, sobretodo en aquellos sistemas convectivos de gran desarrollo, es más adecuada la observación y medición de las entradas en la estratosfera que la medición de las áreas de los núcleos fríos de los sistemas nubosos y sus variaciones de tamaño en el canal IR. La entrada en la estratosfera es una condición necesaria para la producción de lluvias intensas localmente pero no es suficiente ya que puede haber falta de humedad o que el sistema viaje demasiado deprisa.
La magnitud del overshooting, medida ésta como diferencia de temperaturas aparentes entre los canales WV y IR del Meteosat, supera en ocasiones los 10K.

7.- Para un seguimiento adecuado de los sistemas convectivos intensos, es necesario utilizar las imágenes, tanto en el canal IR como en el WV, con una resolución temporal de media hora, como mínimo, ya que dichos sistemas experimentan cambios apreciables en ese periodo de tiempo, por ejemplo las entradas en la estratosfera.
It is analyzed in this work, the relationship between the rain intensity and parameters previous to the fall of the same one, obtained through diverse sources: Meteosat images, in the channels IR and WV, and thermodynamic and dynamic synoptic parameters.
The study area corresponds the Iberian Peninsula, the Balearic islands and Canarias, besides the Swiss Alps for some particular episodes and 77 days they are used with satellite images (of them, 39 days with images in the channels IR and WV of the Meteosat, and 13 with synoptic information).

The analysis understands three stages: in the first one it is tried to obtain a quantitative relationship among the rain measured in an interval of time, they take 1h and 2h, in a given observatory and the parameters of satellite image measured previously to the rain and during the same in the observatory and in a circle of fixed radio around the same one. In the second stage, they set up a group of synoptic and images parameters as well as its ranges of values that allow to predict intense rains with an advance of 3h for an area with a size of the order of 100km of diameter. In the third stage, they set up and they characterize the parameters of satellite image that better they allow to carry out a pursuit and localization of the intense rains for those cases in that the carried out prediction indicates the next appearance of the same ones.
The conclusions they are the following ones:
1.- No relationship exists that allows to establish an objective mathematical model, among the quantity of fallen rain in an observatory during one hour and the image parameters in the channels IR and WV of the Meteosat, measured in the vertical of the own observatory or in a circle of fixed radio. Therefore, for a rain prediction, it is more appropriate to consider the complete cloudy systems and the atmospheric conditions that surround to the observatory in the previous hours.

2. - So, that intense rains take place starting from 3h, in an area of the order of 100km of diameter, it must be given in the area the following group of values for the different synoptic parameters: positive helicity, CAPE bigger or similar to 750 J kg-1, index IK bigger or similar to 20ºC, index LI smaller than 0ºC, convergence in 850hPa, situation of the area where it will rain, in the front part of a trough in the surface of 500hPa, humidity relative between the surface and 500hPa above 70%, precipitable water in the whole troposfera above the 20mm, convergence of water vapour in low levels, maxima of potential vorticity in 250hPa superiors to 3PVU or in 500hPa superiors to 0.6PVU. The maxima of potential vorticity take place preferably in 250hPa, they are located at distances of until about 1000km or 1500km current up of the area of development of the cloudy systems in the previous hours to this development and they go accompanied by lengthened bands of dry air stratospheric caused by the sinking of the tropopause that they are detected by means of the channel WV of the Meteosat with several hours of advance to the development of the cloudy systems.
3. - In the areas where produces merge of systems it increases the probability of intense rains considerably.
4. - The permanence during several hours (>10h) of cloudy systems with apparent temperatures in the channel IR next to -32ºC is enough in some occasions to produce rains of superior intensities at the 15mm / h.
5. - In the intense convective systems, the combined use of the channels IR and WV of the Meteosat allows the detection of entrances in the stratosphere (overshooting) that can mask the cold nuclei of the IR images , due to the heating of the areas that they enter in the stratosphere and, therefore, it allows to locate the areas of intense convective activity with more precision than the single use of the channel IR. The entrances in the stratosphere take place starting from the -40ºC of apparent temperature in the channel IR, being made more intense around the -60ºC.
6. - For the pursuit and localization of high rain intensities, superiors approximately at 17mm/h, overalls in those convective systems of great development, is more appropriate the observation and mensuration of the entrances in the stratosphere that the mensuration of the areas of the cold nuclei of the cloudy systems and its size variations in the channel IR. The entrance in the stratosphere is a necessary condition for the production of local intense rains but it is not sufficient condition since it can have too low humidity or that the system travels too quickly.
The magnitude of the overshooting, measure this like difference of apparent temperatures among the channels WV and IR of the Meteosat, it overcomes in occasions the 10K.
7. - For an appropriate pursuit of the intense convective systems, it is necessary to use the images, so much in the channel IR as in the WV, with a temporary resolution of half hour, as minimum, since this systems experience appreciable changes in that period of time, for example the entrances in the stratosphere.
Gli stili APA, Harvard, Vancouver, ISO e altri
35

Gutierrez, Delgado Mariella Vicky. "Sistema de distribución de carga policial mediante de predicción de delitos". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12939.

Testo completo
Abstract (sommario):
La delincuencia es uno de los mayores problemas que hay en el Perú, especialmente, en Lima. En nuestra capital, el aumento de robos y delitos genera una gran preocupación ya que los policías no actúan rápido y no llegan a tiempo para impedir un robo o capturar ladrones. La situación actual es que las comisarías vigilan con sus patrullas los distritos sin considerar las zonas con mayor índice de criminalidad. Este criterio es de suma importancia pues puede ayudar a que los vehículos policiales velen por la seguridad de los ciudadanos de manera más estratégica. El presente proyecto contribuye ante esta problemática es desarrollar un sistema integral que permita la recepción de denuncias informales por medio de los ciudadanos y que genere, mediante un algoritmo que se retroalimente con los delitos registrados, una propuesta de distribución cercana a la óptima de vehículos policiales. La solución brindada por el sistema tiene como variables los datos propios de la comisaría, cantidad de vehículos, horarios y las frecuencias de los delitos con el fin de convertir la labor policial de manera proactiva.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
36

Reyes, Jaña Camilo. "Predicción de líneas evolutivas a partir de rusticianina de Acidithiobacillus ferrooxidans". Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/111116.

Testo completo
Abstract (sommario):
Memoria para optar al título profesional de Bioquímico
El sostenido progreso de la tecnología computacional y el acelerado aumento del volumen de datos de interés científico en línea, han permitido el posicionamiento de la bioinformática como una disciplina de gran utilidad para las ciencias de la vida. En la presente memoria de título, se utilizaron herramientas bioinformáticas para dilucidar la relación existente entre diversas proteínas con un rasgo en común: su parecido a la rusticianina, una proteína indispensable para el proceso vital de oxidación de hierro de la bacteria Acidithiobacillus ferrooxidans. Su secuencia de aminoácidos y pliegues estructurales fueron sometidos a análisis filogenético. Se dio especial atención a los aminoácidos críticos y estructura proteica rodeando su sitio de unión a cobre. Los resultados sugieren un enlace evolutivo entre la rusticianina y otras proteínas coordinadoras de cobre involucradas en variados procesos, pero desarrollando básicamente la misma función, transportar electrones. Finalmente, usando la subunidad II de citocromo c oxidasa de Thermus thermophilus como modelo, se muestra que esta familia de proteínas exhibe características ancestrales compartidas con rusticianina, que sugieren cómo las proteínas evolucionaron a partir de sus funciones en un metabolismo anaeróbico a las de metabolismo aeróbico cuando los niveles de oxígeno aumentaron hace alrededor de 2.400 millones de años.
The continuing progress of computer technology and the rapid increase in the volume of online data of scientific interest have allowed the positioning of bioinformatics as a discipline of great use to the life sciences. In this thesis, various bioinformatics tools were used for the analysis of rusticyanin, an essential protein for the vital process of oxidation of iron, from the bacterium Acidithiobacillus ferrooxidans. Rusticyanin belongs to the family of blue copper proteins. Its amino acid sequence and structural folds were subjected to phylogenetic analysis. Special attention was given to critical amino acids and protein structure surrounding its copper binding site. The results suggest an evolutionary link between rusticyanin and other copper-containing proteins involved in various processes but basically fulfilling the same function, namely electron transport. Finally, using the cytochrome c oxidase of Thermus thermophilus as a model, it is shown that this family of proteins exhibits ancestral characteristics shared with rusticyanin that suggest how proteins could evolve from functions in anaerobic metabolism to those of aerobic metabolism as atmospheric oxygen levels rose about 2.4 billion years ago.
Fondecyt
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Bugueño, Castillo Claudia, e Castillo Marco Lagos. "Técnicas avanzadas para la predicción de la variación de Oracle Co". Tesis, Universidad de Chile, 2006. http://www.repositorio.uchile.cl/handle/2250/112094.

Testo completo
Abstract (sommario):
Tesis para optar al grado de Magíster en Finanzas
No disponible a texto completo
En el campo de las finanzas se han desarrollado un sinfín de teorías que intentan explicar o predecir el precio que tomaran las acciones en el futuro.
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Saavedra, Salinas Juan Matias. "Bases Estructurales de la Psicrofilicidad: Predicción e Ingeniería de una Endoglucanasa". Tesis, Universidad de Chile, 2011. http://repositorio.uchile.cl/handle/2250/102573.

Testo completo
Abstract (sommario):
Gran variedad de procesos industriales basados en reacciones catalizadas químicamente han sido reemplazados durante las últimas décadas por procesos biotecnológicos que involucran enzimas. En particular, el uso de enzimas criofílicas, cuya actividad se mantiene alta a bajas temperaturas, supone considerables ahorros de energía y recursos. Diversos factores y variables han sido asociados a la adaptación de enzimas a bajas temperaturas. Entre estos, la flexibilidad aparece como uno de los más aceptados. En efecto, la movilidad de las proteínas, especialmente en la vecindad del sitio activo, es esencial para la catálisis, y a bajas temperaturas, ésta se ve comprometida. Con el fin de detectar aspectos estructurales vinculados al proceso de adaptación mencionado en celulasas pertenecientes a la familia 5 de las glicósido-hidrolasas, se realizó una serie de estudios comparativos entre estructuras homólogas mesofílicas y psicrofílicas. El análisis se centró en parámetros asociados con la dinámica del edificio molecular, como las interacciones electrostáticas (puentes de hidrógeno y puentes salinos), la compactación estructural y las fluctuaciones atómicas, calculadas mediante análisis de modos normales. La celulasa Cel5A de Bacillus agaradhaerens se usó como modelo experimental y sus propiedades catalíticas fueron evaluadas. La catálisis en Cel5A es favorecida por un factor entrópico, que contraresta el efecto negativo de su alta energía de activación (Ea), mientras que en las otras celulasas homólogas estudiadas, Cel5 de Erwinia chrysanthemi (mesofílica) y Cel5G de Pseudoalteromonas haloplanktis (psicrofílica), la actividad es impulsada entálpicamente. Estos resultados fueron interpretados en términos estructurales. Se identificó 5 residuos potencialmente vinculados con el patrón de actividad catalítica exhibido por Cel5A, tres de éstos situados en la vecindad del sitio activo y los otros dos en un sitio de unión a calcio. Mediante mutagénesis sitio-dirigida se modificó algunas de las posiciones seleccionadas y se caracterizó la actividad de las mutantes. Tres variantes resultaron ser significativamente más activas que Cel5A a bajas temperaturas (N138L, I99A e I99A/A134Y) evidenciando paralelamente una disminución de la Ea (y la entalpía de activación). Los resultados obtenidos sugieren que el concepto de psicrofilicidad como criterio de clasificación de enzimas es aún precario y sujeto a relatividad.
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Cortés, Daniel. "Modelado y simulación para la predicción de explosiones en espacios confinados". Doctoral thesis, Universidad de Alicante, 2021. http://hdl.handle.net/10045/115293.

Testo completo
Abstract (sommario):
Los incendios en recintos confinados son un tipo de emergencia que involucra a bomberos cuyas vidas a veces se ponen en peligro. En cualquier incendio confinado, el equipo de emergencia puede encontrar dos tipos de ambientes de combustión, ventilados o infra-ventilados. El comportamiento cambiante de este escenario depende de múltiples factores como el tamaño del recinto, la ventilación o el combustible involucrado, entre otros. Sin embargo, la dificultad de manejar este tipo de situaciones junto con el potencial error humano sigue siendo un desafío sin resolver para los bomberos en la actualidad. En ocasiones si se dan las condiciones adecuadas, pueden aparecer los fenómenos, extremadamente peligrosos, que son estudio de este trabajo (flashover y backdraft). Por lo tanto, existe una gran demanda de nuevas técnicas y tecnologías para abordar este tipo de emergencias que amenazan la vida y puede causar graves daños estructurales. A lo anterior hay que añadir que la incorporación de cámaras térmicas en los servicios de extinción de incendios y salvamentos, supone un gran avance que puede ayudar a prevenir estos tipos de fenómenos en tiempo real utilizando técnicas de inteligencia artificial.
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Retamozo, Sánchez Miguel Ángel. "Predicción de puntos de vista de imágenes 2D usando deep learning". Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14521.

Testo completo
Abstract (sommario):
El objetivo de este artículo es predecir los ángulos que describen los puntos de vista de objetos como (sillas, carros, sofás y televisores) en imágenes reales usando Deep Learning. Para lograrlo se desarrolló un renderizador de imágenes 2D en lenguaje C y se usó la API de openGL como librería gráfica el cual genera imágenes a partir de modelos de objetos 3D del repositorio ModelNet. El presente artículo contribuye con dos métodos para renderizar las imágenes, el primero fue llamado método esférico ya que usa coordenadas esféricas para describir la rotación del objeto y consiste en mantener fijo el objeto 3D en el origen para trasladar la posición de la cámara describiendo círculos de diferente radio a lo largo del eje Z circunscritos en una esfera de radio R, el segundo fue llamado método euleriano ya que usa los ángulos de euler y consiste en mantener fija la posición de la cámara a una distancia R sobre el eje Z y rotar 3 veces por iteración respecto a los ejes Z, X’ y Z”. Se diseñó una red neuronal convolucional basada en la arquitectura de la red VGG la cual fue entrenada con imágenes generada por el renderizador.
Trabajo de investigación
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Fosca, Gamarra Almudena. "Predicción de precios de commoditties empleando data analytics y machine learning". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/17338.

Testo completo
Abstract (sommario):
Esta investigación explorará las aplicaciones de herramientas de Machine Learning en el campo financiero. Se incluyen trabajos previos para el pronóstico de acciones, índices bursátiles y commodities, pudiendo comparar y contrastar los resultados obtenidos al aplicar diversos algoritmos. De esta forma, se emplean los estudios previos presentados como base para la elaboración de una tesis de bachillerato que tiene como objetivo pronosticar el precio del cobre empleando modelos de Machine Learning.
Trabajo de investigación
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Flores, Arias Paulina. "Modelación y predicción de focos de criminalidad basado en modelos probabilísticos". Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/129832.

Testo completo
Abstract (sommario):
Ingeniera Civil Eléctrica
Las fuerzas de seguridad requieren modelar patrones de riesgo asociados a la actividad delictual, para estudiar relaciones de causalidad y estimar dónde, y cuándo, un nuevo evento criminal puede ocurrir. Esta información se vuelve muy relevante a la hora de asignar recursos para mejorar la seguridad y evitar la ocurrencia de los delitos, y muchos modelos han sido creados con este propósito mediante una caracterización espacial de la las funciones de riesgo. Lamentablemente, dado que la evolución temporal del sistema delictual no se encuentra plenamente incorporada en el modelo del riesgo, en la mayor parte de los casos dichos modelos se vuelven obsoletos. En este Trabajo de Título se presenta un método empírico para la generación automática de funciones probabilísticas espaciales de riesgo, junto con un mecanismo para la caracterización de la evolución temporal de los focos de criminalidad. Este método utiliza información georeferenciada de incidentes criminales y servicios para aproximar la distribución espacial del riesgo a través de la suma de kernels Gaussianos. Por su parte, la caracterización de la evolución temporal del modelo se realiza mediante un algoritmo basado en los métodos secuenciales de Monte Carlo (también conocidos como filtros de partículas), incorporando recursivamente nuevas observaciones y aproximando una distribución mediante la posición de partículas en el plano. La utilización de datos reales para caracterizar el riesgo en cada coordenada del plano y las actualizaciones recursivas al incorporar más información, permiten estimar una distribución a posteriori que implícitamente incorpora la variable temporal. El modelo de riesgo obtenido puede utilizarse para definir un modelo de la predicción, actualizándolo con nuevos datos en el corto y largo plazo y modelando cambios en la distribución a medida que el entorno también cambia. Los resultados obtenidos con este método permiten afirmar que la mayor parte de los eventos futuros ocurren dentro de las áreas de riesgo modeladas, teniendo entonces el potencial de asistir en la asignación de recursos, mejorando los planes de intervención en las zonas de riesgo estimadas (labor táctica) y predichas (labor estratégica).
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Witt, Fuchs Oliver. "Predicción de signo mediante redes neuronales en el mercado de inmuebles". Tesis, Universidad de Chile, 2007. http://www.repositorio.uchile.cl/handle/2250/115031.

Testo completo
Abstract (sommario):
Seminario para optar al grado de Ingeniero Comercial, Mención Economía
El objetivo de esta tesis es probar la existencia de capacidad de predicción en el mercado inmobiliario mediante la aplicación de un modelo de redes neuronales. Para ello se utilizó una base de datos con los precios promedio del metro cuadrado de casas y departamentos en distintas comunas y sectores de la capital, entre los años 1994 y 2007, con una frecuencia mensual. La metodología empleada consiste en una red neuronal Ward con rolling, de los rezagos de las diferencias del precio promedio de inmuebles en una comuna sobre los rezagos de las diferencias de la Tasa de Interés Promedio (TIP) y el Índice Mensual de Actividad Económica (IMACEC). Mediante el test de acierto direccional de Pesaran y Timmermann logramos determinar capacidad de predicción en cuatro zonas de la capital en que además los resultados del modelo superaban la metodología Buy & Hold, resultados que pudimos corroborar al aplicar el modelo a sucesivas submuestras de nuestra serie original. Se concluye que, pese a todas las limitaciones de información inherentes a la base de datos utilizada, sí existe capacidad predictiva en el mercado inmobiliario, aunque estos resultados no sean homogéneos a través de las comunas de la capital
Gli stili APA, Harvard, Vancouver, ISO e altri
44

Valenzuela, León César Fernando. "Predicción de Largo Plazo de la Generación Eólica Mediante Modelos Grises". Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104287.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Limay, Ríos Oscar Antonio. "Eco Doppler de las arterias uterinas en predicción de macrosomía fetal". Doctoral thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/6088.

Testo completo
Abstract (sommario):
Determina la relación entre el índice de pulsatilidad promedio de las arterias uterinas tomadas por ecografía en gestantes entre las 11 a 14 y 20 a 26 semanas de gestación con la macrosomía neonatal. Estudio prospectivo, longitudinal, analítico. Se incluyen a 3,279 gestantes atendidas en el Instituto Nacional Materno Perinatal entre el periodo 2011 a 2014, de los cuales 952 son pacientes captadas entre las 11 a 14 semanas y 2327 entre las 20 a 26 semanas, se forma dos grupos: 11 a 14 y 20 a 26 semanas; los pesos considerados para la comparación son: 3,600, 3,800, 4,000, 4,200 y 4,400 gramos, se realiza una correlación por el método de Pearson, la significación estadística se realiza por medio de la prueba de Chi cuadrado para ambos grupos, para calcular la probabilidad de ocurrencia de los eventos se calcula el odss ratio y para evaluar la precisión se utiliza intervalos de confianza, posteriormente se construye una curva ROC para precisar la sensibilidad y la tasa de falsos positivos. La tesis concluye que existe correlación entre el Doppler de las arterias uterinas tomado entre las 11 a 14 semanas y entre las 20 a 26 semanas con la macrosomía neonatal, pero su sensibilidad es baja y su tasa de falsos positivos es alta, siendo mejor la toma de la ecografía entre las 11 a 14 semanas.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Córdova, Rojas Manuel Alfredo. "Estimación de caudales medios naturalizados en la cuenca del Río Mantaro mediante el método de regionalización estadística". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6273.

Testo completo
Abstract (sommario):
El presente trabajo de tesis desarrollado en cuatro capítulos, tiene como objetivo principal el empleo de las técnicas estadísticas de regionalización hidrológica para predecir los caudales medios mensuales a partir de definir una correlación con sus parámetros geomorfológicos, aplicados a una cuenca peruana. El primer capítulo presenta la introducción, el objetivo principal y los objetivos específicos del presente trabajo. El segundo capítulo presenta el marco teórico del presente estudio. La primera parte presenta la definición de los Sistemas de Información Geográfica, siendo una herramienta fundamental en este trabajo, y la definición de los principales parámetros geomorfológicos de una cuenca. La segunda parte se enfoca en el tratamiento de los datos relativos a los caudales a través de la descripción de los caudales medios diarios, mensuales, anuales y naturales. Además de, presentar los regímenes hidrológicos típicos en los ríos. Finalmente, en la tercera parte, se muestra la descripción del procesamiento estadístico de correlación y de regresión simple y múltiple como modelo de regionalización empleado en la presente tesis. A lo largo del tercer capítulo se presenta el desarrollo del estudio. La primera parte de este capítulo muestra la descripción de la zona de estudio a través de la localización, aspectos de fisiografía, hidrografía y climatología de la zona de estudio. La segunda parte presenta el estado de arte referido al presente estudio. Por otro lado, a lo largo de la tercera parte, se presenta los resultados de las características geomorfológicas de las cuencas hidrográficas correspondientes y el entorno de aplicación del programa empleado Quantum GIS 2.6.0. Mientras que, en la cuarta parte se detalla la ubicación geográfica de la red hidrométrica empleada. Finalmente, en la quinta parte, se presenta el tratamiento del análisis de regionalización mediante la técnica estadística de correlación y de regresión simple y múltiple. En esta parte, los resultados obtenidos muestran a la variable dependiente que comprende al caudal y las variables independientes pueden ser algunos parámetros geomorfológicos como el área, la longitud del cauce principal o la altitud media de la cuenca. Las conclusiones y recomendaciones de los resultados de los procedimientos estadísticos se presentan en el cuarto capítulo.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Mamani, Apolinario Paulo Sergio. "Ampliación de la red de magnetómetros del proyecto Perú-Magneto: Propuesta para su localización utilizando modelos de optimización". Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/15617.

Testo completo
Abstract (sommario):
Los fenómenos pre-sísmicos es un tema de investigación ampliamente abordado por la comunidad científica durante las últimas décadas. En el Perú las investigaciones en este tipo de fenómenos se encuentran a la vanguardia, a través del Proyecto Perú-Magneto desarrollado en el Instituto de Radioastronomía de la Pontificia Universidad Católica del Perú. En la actualidad el proyecto cuenta con una red de diez sensores, siendo la meta en el corto plazo la expansión de la red, instalando nuevos sensores que estarán ubicados a lo largo de toda la costa del Perú. Esto permitirá obtener una amplia base de datos, y analizar de forma continua y a tiempo real los fenómenos ocurridos en la costa. Esto representa un reto en cuanto las etapas de planeamiento, despliegue e instalación, mantenimiento, tratamiento y análisis de los datos. Para afrontar este reto, en esta tesis se presenta un algoritmo que permita identificar las posibles zonas de instalación de los magnetómetros minimizando el costo fijo que representa la conexión a internet móvil de cada uno de estos sensores teniendo en cuenta restricciones como la influencia de ruido mecánico y eléctrico. Por otro lado, el algoritmo también será utilizado para plantear zonas de instalación que, esta vez escogidas por el criterio de un usuario, favorezcan la investigación científica al colocar los sensores que utiliza el proyecto a menor distancia unos de otros. Finalmente, se hará una propuesta de planeamiento para el proyecto utilizando técnicas de Planeamiento Adaptativo, específicamente el Incrementalismo Articulado y se hará una evaluación económica de la expansión de la red de magnetómetros.
Tesis
Gli stili APA, Harvard, Vancouver, ISO e altri
48

López, Alonso Raúl. "Resistencia al flujo de ríos de montaña: desarrollo de equaciones de predicción". Doctoral thesis, Universitat de Lleida, 2005. http://hdl.handle.net/10803/8147.

Testo completo
Abstract (sommario):
La influència de les àrees de muntanya en la generació de recursos hídrics, la geomorfologia del sistema fluvial i les avingudes de caràcter catastròfic és determinant. No obstant això, històricament el coneixement científic dels rius de sorra de plana ha estat superior que el dels rius de grava i de muntanya. Diverses investigacions han posat de manifest que els models hidràulics, de transport de sediment i geomorfològics desenvolupats per als primers no són directament extrapolables a aquests darrers.
Un problema cabdal en Hidràulica fluvial és el de la resistència de la llera a l'avanç del flux, doncs la seva determinació és requisit per a la resolució d'infinitat de problemes que es plantegen a l'esmentada disciplina. En la present Tesi han estat avaluats (és a dir, ajustats, verificats i comparats) una sèrie de models de resistència al flux per a rius de muntanya i de grava. Ha estat analitzat, també, l'efecte que sobre la capacitat predictiva de les equacions té l'ajustament per subconjunts, definits aquests per intervals de diferents variables de control, com són la sumersió relativa del flux, el pendent de la llera o l'índex de mobilitat del sediment.
Els models avaluats han estat dividits en dos grans grups: a) els que consideren el factor de fricció de Darcy-Weisbach (f) com a variable dependent i b) aquells que prenen el cabal del flux (Q) o la seva velocitat mitjana (v) com a variables resposta i que no inclouen coeficient de resistència explícitament com a variable explicativa. Com a principal resultat ha estat obtingut un conjunt d'equacions, dels dos grups esmentats anteriorment, que compten amb una capacitat de predicció superior a la de les fórmules derivades fins a l'actualitat per altres autors. Aquesta superioritat predictiva es fonamenta en la creació d'una base de dades d'ajustament integrada per un nombre de dades sensiblement superior i que, a més, representa un interval més ampli de les variables explicatives.
La influencia de las áreas de montaña en la generación de recursos hídricos, la geomorfología del sistema fluvial y las avenidas de carácter catastrófico es determinante. Sin embargo, históricamente el conocimiento científico acerca de los ríos de arena de llanura ha sido superior que sobre los ríos de grava y de montaña. Diversas investigaciones han puesto de manifiesto que los modelos hidráulicos, de transporte de sedimento y geomorfológicos desarrollados para los primeros no son directamente extrapolables a estos últimos.
Un problema medular en Hidráulica fluvial es el de la resistencia del cauce al avance del flujo, pues su determinación es requisito para la resolución de infinidad de problemas planteados en el seno de la citada disciplina. En la presente tesis se han evaluado (es decir, ajustado, verificado y comparado) una serie de modelos de resistencia al flujo para ríos de montaña y de grava. Se ha analizado, asimismo, el efecto que sobre la capacidad predictiva de las ecuaciones tiene su ajuste por subconjuntos, definidos éstos por intervalos de diferentes variables de control, como son la sumersión relativa del flujo, la pendiente del cauce o el índice de movilidad del sedimento.
Los modelos evaluados se dividen en dos grandes grupos: a) los que toman el factor de fricción de Darcy-Weisbach (f) como variable dependiente y b) aquellos que adoptan el caudal del flujo (Q) o su velocidad media (v) como variables respuesta y que no incluyen coeficiente de resistencia explícitamente como variable explicativa. Como principal resultado se ha obtenido un conjunto de ecuaciones, de los dos grupos anteriormente citados, que cuentan con una capacidad de predicción superior a la de las fórmulas derivadas hasta la actualidad por otros investigadores. Tal superioridad predictiva se fundamenta en la creación de una base de datos de ajuste integrada por un número de datos sensiblemente superior y que, además, representa un rango más amplio de las variables explicativas.
Mountain areas exert a vital influence on the generation of water resources, the geomorphology of the fluvial system and catastrophic floods. However, historically there has been more scientific knowledge about sand-bed rivers on the plain than about gravel-bed and mountain rivers. A range of research has shown that hydraulic, sediment transport and geomorphologic models developed for the former cannot be directly extrapolated to the latter.
A fundamental problem in fluvial hydraulics is that of the flow resistance of the channel, the determination of which is a requisite for the resolution of an infinity of problems in the abovementioned discipline. In this thesis, a series of flow resistance models for mountain and gravel-bed rivers have been evaluated (that is, adjusted, verified and compared). The effect on the predictive capacity of the equations has been analysed for its adjustments to subsets, these being defined by the ranges of different control variables, such as relative submergence of the flow, the slope of the channel or the mobility index of the sediment.
The models evaluated are divided into two large groups: a) those that take the Darcy-Weisbach (f) friction factor as a dependent variable and b) those that adopt the flow discharge(Q) or average velocity (v) as response variables and that do not explicitly include the resistance coefficient as an explicative variable. The principal result obtained is a set of equations from the two above-mentioned groups, with a higher prediction capacity than the formulas derived to date by other authors. Such predictive superiority is based on the creation of an adjustment database made up of a significantly higher number of data and that also represents a wider range of the explicative variables.
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Díaz, Caro Pamela Cecilia, e Román Javier Turén. "Estimación del desalineamiento cambiario y ejercicios de predicción : un análisis para Chile". Tesis, Universidad de Chile, 2008. http://www.repositorio.uchile.cl/handle/2250/107919.

Testo completo
Abstract (sommario):
El siguiente documento tiene por objeto realizar un análisis empírico del comportamiento del tipo de cambio real en Chile para el período 1986-2007. Esto considera tanto la cuantificación de un posible desalineamiento cambiario como la proyección de un tipo de cambio real de equilibrio futuro utilizando el modelo estimado, lo que permite responder, primero, a las especulaciones que actualmente giran en torno al tipo de cambio y, segundo, a la posibilidad de que cambie o mantenga su actual trayectoria. En particular, se verifica que para el tercer trimestre del año 2007 el tipo de cambio real efectivo se encontraba alineado con respecto a su valor de equilibrio y, en consecuencia, consistente con sus fundamentos. Un segundo capítulo del trabajo abarca el tema de predicción de tipo de cambio real y de su potencial desalineamiento. Dadas las condiciones de exogeneidad de parámetros que deben cumplirse para realizar proyecciones válidas se opta por un ejercicio de predicción el cual permite examinar el comportamiento del tipo de cambio frente a distintos escenarios económicos. Se concluye que el modelo es capaz de reproducir trayectorias coherentes con la literatura económica, de manera tal que puede ser utilizado para responder preguntas de carácter coyuntural.
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Riquelme, Lafertte Michael. "Mejora del proceso de evaluación de nuevos convenios mediante modelos de predicción". Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144279.

Testo completo
Abstract (sommario):
Magíster en Ingeniería de Negocios con Tecnologías de Información
En un mercado altamente competitivo, dinámico, y en el cual los clientes continuamente evolucionan y pretenden mejores productos y servicios, se hace necesario que los bancos y entidades financieras presenten ofertas atractivas para los clientes a fin de mantener su posición en el mercado financiero. BancoEstado es uno de los líderes de la banca a nivel nacional con productos enfocados en distintas bancas, sean estas personas, microempresarios, pequeñas y grandes empresas, así como también instituciones, siendo estas del Estado o independientes. Según datos entregados por la Superintendencia de Bancos e Instituciones Financieras (SBIF, 2016), se ubica en cuarta posición, en una lista que lidera el Banco Santander con 17,63% del total de colocaciones de la industria, seguido del Banco de Chile con 17,39%, Banco BCI con 14,15%, BancoEstado con 13,63% y Corpbanca con un 10,42%. Sin duda que el gran número de clientes que posee BancoEstado, dado por un enfoque masivo y de impacto social, hacen de la oferta de productos y los procesos internos que la soportan claves para lograr una gestión eficiente y productiva. Dentro de estos productos se encuentran los convenios de pago de remuneraciones. Un convenio es un contrato que BancoEstado suscribe con empresas de diferentes rubros, quienes negocian productos y servicios atractivos para la empresa, y además acuerdan condiciones para firmar un contrato de abono de remuneraciones junto con beneficios para sus empleados. El presente proyecto de tesis aborda este desafío, centrándose en el proceso de evaluación de nuevos convenios y en los procesos asociados al conocimiento del cliente. La intervención de estos procesos pretende por un lado mejorar la percepción en cuanto al comportamiento de adquisición de productos de los clientes de convenios considerando los diferentes rubros de las empresas y utilizar esta información para realizar una mejor evaluación sobre los nuevos convenios que se negociarán. Como principal metodología se utiliza el rediseño de procesos a partir de patrones de proceso, a través de los cuales se detectan las oportunidades dentro de este proceso de evaluación. Con el apoyo de herramientas de minería de datos se pretende desarrollar un apoyo que permita mejorar la toma de decisiones a la hora de realizar la evaluación de un nuevo convenio, mediante una herramienta que permitirá predecir si un nuevo convenio será rentable o no en el tiempo, además de cuál será su comportamiento en cuanto a adquisición de productos. Con datos de estudio se obtuvieron resultados que prueban la existencia de oportunidades de disminuir la pérdida producida por convenios con rentabilidad negativa, por medio de la predicción de la rentabilidad de los nuevos convenios. La herramienta utilizada una disminución de la pérdida en un 19,66%.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia