Tesi sul tema "Predicción"
Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili
Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Predicción".
Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.
Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.
Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.
Normey-Rico, J. E. (Julio Elias). "Predicción para control /". Sevilla, 1999. http://repositorio.ufsc.br/xmlui/handle/123456789/81146.
Testo completoGonzález, Maeso Ana María. "Predicción de crecimiento de la tuberosidad maxilar". Doctoral thesis, Universitat de València, 2011. http://hdl.handle.net/10803/81335.
Testo completoThis longitudinal studywasdesignedto determine a realisticassessment of themaxillarytuberositygrowththroughany of thethreeclinical records mostwidelyusedto date in orthodonticclinics: studymodels (SM), lateral cephalometricradiographs (LCR) and panoramicradiographs (PR). Thesampleconsisted of 60 patients (26 boys and 34 girls) between 7 and 21 yearsold, evaluatedon 2 differentstages of theirtoothage: duringthefirstmeasurement, subjectshad 1st phasemixeddentition, and ten yearslater, in a secondmeasurement, samesubjectshadpermanentdentition. Wedividedthesampleinto 2 groups: group A includessubjectswith non erupted 3rd molars, while in group B (23.3% of thesample), 3rd molarshaveeruptedcorrectly. In bothgroupstheavailabletuberosityspacewasmeasuredusingallthreeclinical records: from distal of 1st permanentupper molar to distal of thetuberosity. Linear correlationwasfoundbetweenthe 2 radiographic records; PR and LCR, butnotbetween SM. Theadultlength of thetuberosityarea can be predictedwithinitialmeasurementswhenusing PR and LCR. Withtheexception of SM, allothertechniquesshowedsignificantcorrelationbetweeninitial and final measures. Theaveragerate of tuberositygrowthmeasuredwithourownmethodusing LCR is 59.7%; averagevariation similar toRickettsanalysis, and weobtained a regressionequationwhichconfirmsthe linear correlationbetweenbothtechniques. Neither sex northetype of archinfluencethegrowth of themaxillarytuberosity in any of themeasurementtechniques. Onlygrowthisgreater in SM witherupted 3rd molars. The sum of 2nd and 3rd molarscrownsdiametersmeasuredwith LCR reach a mean value of 21.01 mm.It´ssignificantlygreatertotheaveragetuberosityspace: 19.18 mm, whichimpliesspaceproblems in 73.3% of adults.
Nogal, Macho María. "Métodos matemáticos para la predicción de tráfico". Doctoral thesis, Universidad de Cantabria, 2011. http://hdl.handle.net/10803/56317.
Testo completoIn this thesis we present the following mathematical models: - A conjugate Bayesian model for traffic flow reconstruction and estimation based on plate scanning, which permits us to identify the path, origin-destination and link flows. - A continuous dynamic traffic loading model. This FIFO rule consistent model evaluates the congestion effect taking into account the interaction of flows of all paths and their coincidence at different times and locations. It is assumed a non-linear link travel time function of the link volumes and considered the effect of a link congestion on the upstream route links. - A dynamic traffic model with stochastic demand for predicting some traffic variables such as link travel times, link flows or link densities and their time evolution in real networks. These three models have been tested with real traffic networks such as the Cuenca and Ciudad Real (Spain) networks and the Vermont-State (US) example, in order to analyze their characteristics and computational costs and validate results. Moreover, a literature revision about static and dynamic traffic models is included.
Becerra, Torres Bernardo Daniel. "Predicción del Ablandamiento del Kiwi en Postcosecha". Tesis, Universidad de Chile, 2008. http://www.repositorio.uchile.cl/handle/2250/101700.
Testo completoTorres, Lezcano Estanis. "Desarrollo de métodos de predicción de la incidencia de 'bitter pit' en plantaciones de manzanas ‘Golden Smoothee’ (Malus domestica, L. Borkh.)". Doctoral thesis, Universitat de Lleida, 2018. http://hdl.handle.net/10803/665244.
Testo completoEl bitter pit es la fisiopaía más importante en muchos cultivares de manzana. Sin embargo, no existe una estrategia de control completamente efectiva, por lo que un método de predicción que identifique años y plantaciones con alto potencial de desarrollar la fisiopatía permitirá evitar pérdidas económicas, especialmente durante la conservación y confección. El objetivo principal de la presente tesis doctoral fue la puesta a punto de un sistema de predicción de la incidencia de bitter pit en plantaciones de manzanas ‘Golden Smoothee’. Para ello, se investigaron diferentes métodos de predicción basados en tres tecnologías distintas: i) el análisis mineralógico de fruto (en estadios tempranos y en recolección), ii) la inducción de síntomas (infiltración de Mg, baños con etefón, embolsado de frutos y método pasivo) y iii) la espectroscopía VIS/NIR. Los distintos métodos se evaluaron en diferentes períodos de crecimiento del fruto. Paralelamente, se evaluó y cuantificó la eficacia de distintas estrategias para la mitigación del bitter pit basadas en aportaciones de CaCl2 en pre y poscosecha (aplicaciones radiculares, foliares y baños en poscosecha). El análisis temprano de Ca en fruto a 60 días después de plena floración (DDPF) mostró una precisión de predicción similar o mejor que el análisis de Ca en recolección. Se definió un umbral de referencia a 60 DDPF de 11 mg Ca 100 g-1 de peso fresco, por encima del cual se minimizó el riesgo de aparición del bitter pit. La mayoría de métodos basados en inducir síntomas, a excepción del embolsado de frutos, mostraron eficacia a partir de los 40 días antes de recolección (DAR), con una correlación con el bitter pit de poscosecha del 70-80%. La espectroscopía VIS/NIR mostró resultados poco satisfactorios para la predicción del bitter pit, sin embargo, sí fue capaz de discriminar frutos afectados cuando los síntomas eran visibles en poscosecha. Finalmente, se diseñó un modelo de predicción del bitter pit basado en el análisis de Ca en fruto a 60 DDPF y el método pasivo a partir de 40 DAR. Respecto la mitigación del bitter pit, los resultados obtenidos en años con alta incidencia mostraron una reducción de un 20% a un 12%, 8% o 3% mediante aplicaciones foliares, baños en poscosecha o la combinación de ambas, respectivamente, por lo que tanto las aplicaciones foliares de CaCl2 como los baños poscosecha serían prácticas a recomendar en el caso de riesgo de bitter pit.
Bitter pit is the most important physiological disorder in many apple cultivars. However, there is no a completely effective control strategy, therefore, a prediction method that identifies years and orchards with high potential to develop bitter pit will allow reducing economic losses, especially during storage and fruit packing. The main objective of this PhD thesis was the development of a system to predict the incidence of bitter pit for ‘Golden Smoothee’ apple orchards. For this, different methods to predict bitter pit based on three different technologies were investigated: i) mineral analysis (at early stages and at harvest period, ii) induction of symptoms (Mg infiltration, dips with etephon solution, bagging of fruit and passive method) and iii) VIS/NIR spectrophotometry. The different methods were tested in different fruit growth stages. At the same time, the efficacy of different strategies based on CaCl2 applications at pre- and postharvest (fertigation, foliar and postharvest dips) to mitigate bitter pit incidence, were evaluated and quantified. The accuracy of mineral analysis at early development fruit after 60 days after full bloom (DAFB) was better or equal than Ca analysis at harvest. A reference threshold at 60 DAFB of 11 mg Ca 100 g-1 fresh weight was defined. Values equal or higher indicated a low risk of bitter pit. Most methods based on inducing symptoms, with the exception of bagging fruit, showed efficacy from 40 days before harvest (DBH), with a correlation with bitter pit at postharvest of 70-80%. VIS/NIR spectrophotometry showed unsatisfactory results for bitter pit prediction, however, it was able to discriminate affected apples when the symptoms were visible at postharvest. Finally, a bitter pit prediction model based on the analysis of Ca in fruitlet at 60 DAFB and the passive method from 40 DBH was designed. Regarding bitter pit mitigation, the results obtained in seasons with a high incidence showed a reduction from 20% to 12%, 8% or 3% using Ca sprays, postharvest dips or the combination of both, respectively. Therefore, Ca sprays and postharvest dips in CaCl2 solutions are recommended practices when there is a diagnostic of high risk of bitter pit.
Amrani, Naoufal. "Spectral decorrelation for coding remote sensing data". Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/402237.
Testo completoToday remote sensing is essential for many applications addressed to Earth Observation. The potential capability of remote sensing in providing valuable information enables a better understanding of Earth characteristics and human activities. Recent advances in satellite sensors allow recovering large areas, producing images with unprecedented spatial, spectral and temporal resolution. This amount of data implies a need for efficient compression techniques to improve the capabilities of storage and transmissions. Most of these techniques are dominated by transforms or prediction methods. This thesis aims at deeply analyzing the state-of-the-art techniques and at providing efficient solutions that improve the compression of remote sensing data. In order to understand the non-linear independence and data compaction of hyperspectral images, we investigate the improvement of Principal Component Analysis (PCA) that provides optimal independence for Gaussian sources. We analyse the lossless coding efficiency of Principal Polynomial Analysis (PPA), which generalizes PCA by removing non-linear relations among components using polynomial regression. We show that principal components are not able to predict each other through polynomial regression, resulting in no improvement of PCA at the cost of higher complexity and larger amount of side information. This analysis allows us to understand better the concept of prediction in the transform domain for compression purposes. Therefore, rather than using expensive sophisticated transforms like PCA, we focus on theoretically suboptimal but simpler transforms like Discrete Wavelet Transform (DWT). Meanwhile, we adopt predictive techniques to exploit any remaining statistical dependence. Thus, we introduce a novel scheme, called Regression Wavelet Analysis (RWA), to increase the coefficient independence in remote sensing images. The algorithm employs multivariate regression to exploit the relationships among wavelet-transformed components. The proposed RWA has many important advantages, like the low complexity and no dynamic range expansion. Nevertheless, the most important advantage consists of its performance for lossless coding. Extensive experimental results over a wide range of sensors, such as AVIRIS, IASI and Hyperion, indicate that RWA outperforms the most prominent transforms like PCA and wavelets, and also the best recent coding standard, CCSDS-123. We extend the benefits of RWA to progressive lossy-to-lossless. We show that RWA can attain a rate-distortion performance superior to those obtained with the state-of-the-art techniques. To this end, we propose a Prediction Weighting Scheme that captures the prediction significance of each transformed components. The reason of using a weighting strategy is that coefficients with similar magnitude can have extremely different impact on the reconstruction quality. For a deeper analysis, we also investigate the bias in the least squares parameters, when coding with low bitrates. We show that the RWA parameters are unbiased for lossy coding, where the regression models are used not with the original transformed components, but with the recovered ones, which lack some information due to the lossy reconstruction. We show that hyperspectral images with large size in the spectral dimension can be coded via RWA without side information and at a lower computational cost. Finally, we introduce a very low-complexity version of RWA algorithm. Here, the prediction is based on only some few components, while the performance is maintained. When the complexity of RWA is taken to an extremely low level, a careful model selection is necessary. Contrary to expensive selection procedures, we propose a simple and efficient strategy called \textit{neighbor selection} for using small regression models. On a set of well-known and representative hyperspectral images, these small models maintain the excellent coding performance of RWA, while reducing the computational cost by about 90\%.
Francia, Santamaria Esther. "Predicción de la mortalidad intrahospitalaria en medicina interna". Doctoral thesis, Universitat Autònoma de Barcelona, 2012. http://hdl.handle.net/10803/108094.
Testo completoPrognosis, along with diagnosis and treatment, is one of the primary functions of medicine. One of the objectives of the prognosis is to know which patients may die, and establish the prediction of mortality. This prediction is difficult in most of the usual clinical circumstances, but it is more difficult in populations with very different patients, with few common characteristics, as occurs in patients admitted in general internal medicine wards. Prediction of mortality is based on experience and may be supported by the scientific method, using probabilistic statistical models. Many probabilistic models have been developed and applied in different hospitalization areas, to different developmental stages of disease and for different diseases. In general, these models include either the prior comorbidities to acute illness and are considered “clinical models” or are based on the vital signs and other parameters obtained in the first contact with the patient, constituting the “physiological models”. To our knowledge, no model has been designed specifically for prediction of in-hospital mortality at the moment of admission for patients admitted to a general internal medicine ward. The hypothesis of this thesis is that two mortality predictive models designed in other areas are useful for this purpose. These two models are the Rue´s clinical model, designed in hospitalization wards of diverse specialities at Hospital Parc Taulí (Sabadell, Spain), and the Olsson´s physiological model, developed for medical patients in an emergency department. In order to test this hypothesis, a prospective observational cohort study was undertaken in patients admitted to an acute internal medicine ward in a tertiary, urban and university teaching hospital in Spain (Hospital de la Santa Creu i Sant Pau, Barcelona). The results of this study gave rise to the first article of this thesis. Both models were applied in this population and confirmed their accurate ability in the prediction of the overall in-hospital mortality. They were satisfactory for management purposes. Although the physiological model was slightly better than the clinical model, the difference was not statistically significant. However, the two models didn´t proved to be a reliable tool for individual predictions. Possible explanations for the unsatisfactory ability shown in individual prediction include, among other factors, the application of the models in a very heterogeneous population. One of the main factors that contribute to this heterogeneity is age. Therefore the age and its evolution over the past 20 years in this population were analysed. As we described in the second publication of this thesis, we confirmed that patients admitted to internal medicine in our hospital and in Spanish hospitals in general, are significantly older than some years ago and steadily increasing. The advanced age can be a decisive factor in unsatisfactory ability of individual mortality prediction of the models. To test this hypothesis, we extended the first study and divided the population in two age groups. Eighty-five years was the point. The Olsson´s physiological model was applied in both groups because it demonstrated to be the best predictor in the first study. The results are described in the third publication of this thesis and showed that age interferes in the model and significantly decreases its prognosis ability. There may be important variables in advanced age not taken into account in the predictive models. It would be of great interest to design predictive models of in-hospital mortality in general internal medicine for patients of advanced age.
Fantini, Pérez-Villamil Juan Eduardo. "Autómatas celulares en la predicción de ADR'S Latinoamericanos". Tesis, Universidad de Chile, 2006. http://repositorio.uchile.cl/handle/2250/108375.
Testo completoApolaya, Torres Carlos Humberto, e Diaz Adolfo Espinosa. "Técnicas de inferencias, predicción y minería de datos". Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/624497.
Testo completoIn the first chapter, it describes the problem to be solved and it details the specific objectives that contribute to the fulfillment of the general objective and the scope of the project. In the second chapter, the most important basic concepts like Data Mining and Machine Learning are defined, which are related to the subject of research study. In the third chapter, there is the State of Art, in which the previous research related to the project will be reviewed indicating the area in which it was implemented. This allows us to understand how the subject is currently investigated and to have a clearer vision of what can be developed. In the fourth chapter, we describe the development of the project, the methodology to be used, details the phases of the methodology and the process to be followed for the correct implementation of the model using decision trees and the Knowledge Discovery in Databases (KDD) methodology. The fifth chapter details how we obtained a prediction error rate of approximately 9.13%, the tests performed and recommendations. As well as proposals for project continuity focused on improving the prediction model. Finally in the sixth chapter, the final results are described in the project's own management, in the aspects of Final Result and the Outreach, Time, Communication, Human Resources and Risk Management.
Tesis
Obrecht, Ihl Paz. "Predicción de crimen usando modelos de markov ocultos". Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/117357.
Testo completoIngeniera Civil Industrial
La prevención del crimen ha ganado cada vez más espacio e importancia entre las políticas públicas en seguridad ciudadana, tanto en Chile como en el mundo. Durante la investigación realizada en este trabajo, se desarrolla un modelo para predecir los crímenes sobre una ciudad, que incluye el efecto de intervenciones preventivas y que permite además estudiar el fenómeno de desplazamiento que se le atribuye a este tipo de medidas. Ambos aspectos incluidos rara vez en los modelos de predicción revisados en la literatura. La estructura utilizada corresponde a un modelo de Markov oculto, donde el atractivo de un lugar para cometer un tipo específico de crimen se considera oculto y se estudia a través de el registro de crímenes observados en dicho lugar, considerando el efecto que intervenciones policiales podrían tener. De manera de demostrar el tipo de información y uso que se puede hacer del modelo desarrollado, se aplicó éste en un caso de estudio. Los datos de los crímenes y vigilancia policial utilizados se obtuvieron mediante un simulador del crimen sobre una ciudad ficticia. El modelo estimado, permitió comparar el efecto de la vigilancia en el lugar donde es ubicada, así como en las áreas aledañas, según el atractivo de cada lugar. Encontrándose que las celdas más atractivas son más susceptibles a esta vigilancia, tanto en la reducción de crímenes esperados al posicionarse un vigilante en un lugar, como en el aumento de la tasa de crímenes cuando un policía es ubicado en lugares aledaños. A partir de las matrices de transición se clasificaron las unidades de estudio, que componen la ciudad virtual, según su potencial para pasar a un estado de alta atractividad. Donde le grupo más numeroso corresponde al de celdas, de Bajo y Mediano Potencial, que permanecen en el mínimo estado de atractividad, reportando pocos crímenes en el lugar. Por el contrario, aquellas celdas, de Alto Potencial, que tienen probabilidades significativas de llegar y permanecer en estados de alta atractividad es el grupo menos numeroso, y el que además suele concentrar los crímenes. Esto se alinea con lo que sugiere la literatura respecto a unos pocos lugares concentrado la mayoría de los crímenes. Para validar el modelo se comparó su ajuste y predicciones con los obtenidos de otros cuatro modelos con diferentes especificaciones y estructuras (HMM Homogéneo, Clases Latentes, Regresión de Poisson y Persistencia), obteniendo mejores tasas de aciertos en la predicción de los crímenes futuros, de alrededor del 97%. Además el modelo destaca prediciendo los crímenes de las celdas de Alto Potencial, respecto a los modelos alternativos, alcanzando tasas de aciertos de 97% en comparación con las obtenidas por los otros cuatro modelos: 78%, 92%, 48% y 34% respectivamente. Se concluye además, en el experimento, que la inclusión del efecto de la policía permite capturar mejor el fenómeno delictivo, mejorando el desempeño al predecir el número de crímenes. Finalmente, en relación a los objetivos planteados en este trabajo, se puede concluir que el modelo HMM desarrollado logra incorporar de forma efectiva los dos atributos que se deseaban estudiar en el fenómeno delictivo: considerar la atractividad de forma dinámica,actualizándose período a período, e incluir el efecto de la vigilancia en la predicción.
Bolaños, Sánchez Rodolfo. "Tormentas de oleaje en el Mediterráneo: Física y Predicción". Doctoral thesis, Universitat Politècnica de Catalunya, 2004. http://hdl.handle.net/10803/6396.
Testo completoLa generación del oleaje es el resultado del sistema acoplado océano - atmósfera. Esta interface y los flujos de momentum entre ambas capas ha sido de interés y ha generado una gran cantidad de investigaciones. Un avance importante ha sido el desarrollo de los modelos de tercera generación de oleaje, capaces de predecir espectros de oleaje a partir de campos de viento. Estos modelos que constituyen la base de esta tesis, consideran el aporte de energía por el viento, la disipación e interacciones no lineales entre ondas.
Para este trabajo se han utilizado los modelos WAM y SWAN junto con mediciones de oleaje en la costa catalana. Para forzar los modelos se han utilizado campos de vientos de los modelos atmosféricos MASS ARPEGE. Se han utilizado también datos de viento de estaciones meteorológicas costeras.
El viento y oleaje en la franja costera catalana están caracterizados principalmente por componentes del este, noroeste y del sur. Para el caso de tormentas con impacto en la costa, las del este son las más intensas, pero las tormentas del Noroeste pueden generar condiciones de riesgo para la navegación.
Se han descrito tormentas características de la costa catalana, considerando su dirección, duración, e intensidad. De manera paralela se han analizado mas detalladamente dos eventos particulares que se registraron en Noviembre 2001 y Marzo-Abril 2002. Ambas tormentas presentaron oleaje de componente principal del este y una cantidad importante de espectros bimodales. Esta característica no se había estudiado a detalle con anterioridad y se debe al oleaje swell del este y a la rotación de los vientos en la costa catalana para volverse del noroeste generando localmente un sistema de oleaje en esta dirección. Debido a esto, la anchura espectral se comporto de manera opuesta a la esperada, pero mostró ser un indicador de la complejidad del estado del mar por lo que se propone que sea utilizada en la estimación del coeficiente de arrastre.
Se han utilizado los modelos de oleaje en diferentes situaciones: en un dominio idealizado, en los eventos de Noviembre y Marzo - Abril y durante el invierno 2002 -2003. Los resultados muestran diferencias entre modelos en tiempo y espacio. Utilizando el parámetro integrado de Hs el SWAN mostró un mejor comportamiento para la detección de tormentas. Sin embargo el espectro del WAM mostró en la mayoría de los casos aproximarse mas al espectro medido. Una parte de los errores registrados en los modelos durante las tormentas, se debieron a la mala simulación de la bimodalidad la cual a su vez se debe a una mala resolución espacial y temporal tanto de los modelos de viento como de oleaje. La correcta definición espacial de las islas en el mediterráneo mostró ser poco significante para la validación de las predicciones en la zona costera catalana.
Finalmente debemos decir que a pesar de que este trabajo ha avanzado en el conocimiento del oleaje en la costa catalana y el comportamiento de los modelos, este solo es el principio y se debe de dar continuidad a este esfuerzo. Una manera (indispensable) es mejorando las observaciones disponibles e incluir medidas espaciales (satélite, por ejemplo) para la mejor descripción y validación de los modelos.
Many socio-economic activities take place on the Mediterranean coast. Meteorological events are an important factor for the proper management and administration of these activities in this area.
This has inspired an improvement of knowledge and forecasting of environmental phenomena such as wave storms. Thus, the main objective of this dissertation is the characterisation and numerical simulation of wave storms.
The generation of wind waves are the result of the coupled system which connects the air and the ocean. This layer, and its fluxes, have been of great interest and generated a large amount of research. The development of third generation wave models has been an important step. Such models are able to reproduce directional wave spectra from wind fields taking into consideration wind energy input, dissipation and non-linear interactions. These models are the basis of this dissertation.
For this work, we have used the WAM and SWAN models, together with the wind and wave measures on the Catalan coast. The forcing winds came from the MASS and ARPEGE atmospheric models.
The wind and waves on the Catalan coast are characterised by an east, northwest and south component. For coastal damage, the storms from the east cause the most severe coastal damage while the northwest storm can create risky conditions for navigation.
Typical storms on the Catalan coast are described, taking into account the direction, duration, and significant wave height. Additionally, it was studied in detail two severe storms that were measured during November 2001 and March-April 2002. Both storms presented a mean eastern wave component, however, a large amount of bimodal spectra were found. This feature had not been studied before at this area and it is produced due to the wind rotation (to northwest) at the coast because of the orography. This produces a different behaviour of the spectral width than expected, but such a parameter was an indicator of the complexity of the sea state and thus it is proposed to apply it in the drag coefficient estimation.
The wave models were applied under different situations: idealised domain, November 2001 and March-April storms and during a winter period. The results show differences between models in time and space. When considering significan wave height, the SWAN model showed a better behaviour for storm detection. However, the spectral shape was better predicted by WAM. Part of the errors were due to the bad simulation of bimodal features, and at the same time, this was produced by the coarse time and spatial resolution of wind and wave models.
Finally we have to outline that this work is an advance in the knowledge of waves on the Catalan coast and the behaviour of the models. However, this is only the beginning and an effort should be made for the continuos development and improvement on this topic. A good start is by increasing the wind and wave measurements available including spatial measures, such as satellite, for the better description and model validation.
Salvador, Rodriguez Daniel José. "Predicción en línea del módulo elástico de la cuajada". Doctoral thesis, Universitat Autònoma de Barcelona, 2018. http://hdl.handle.net/10803/664175.
Testo completoThe present research deals with the development, implementation, calibration and validation of a system for measuring at real time the elastic modulus of the curd, G', using the signal of a NIR light backscatter sensor, to determine a target cutting time, which would allow the automation of this part of the cheese making process. This work was performed in five phases. The first was devoted to obtaining a mathematical model to predict the elastic modulus of the curd, at various temperatures and percentages of protein. This phase was carried out at laboratory level using reconstituted skim milk powder and two protein and temperature levels. A model based on the sensor signal and the protein percentage in milk was found to have a good predictive quality. The second phase consisted in the mathematical model calibration and validation at a laboratory level using cow milk at three coagulation temperatures, and achieving also a very good predictive quality. The third phase was the implementation of a pilot plant/industrial monitoring and data acquisition (hardware and software) system that allowed the prediction of the elastic modulus at real-time in the cheese vat, which was also validated. The fourth phase involved the calibration and validation of the elastic modulus monitoring system, at pilot plant scale. Thus, cheese manufacturing was performed using cow milk at constant temperature. Using the cutting time set by the prediction system, made possible to replicate yields, texture characteristics and cheese colour with regard to those obtained using the cutting time estimated by the cheesemaker master. The fifth phase consisted of the mathematical model calibration and validation at industry level. The model was used to perform the curd cutting during fresh cheese manufacturing as an alternative procedure to the typical cutting methodology applied by the cheese plant consisting on cutting at a predetermined and constant time. Evidences show that cutting time set by the system would increase the yield in those cases were the cutting is performed at a fixed time.
Gaymer, San Martín Mauricio Ignacio. "Demanda de televisores y predicción de ventas AOC Chile". Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/108068.
Testo completoKapsoli, Salinas Javier, e Aguilar Brigitt Bencich. "Indicadores líderes, redes neuronales y predicción de corto plazo". Economía, 2012. http://repositorio.pucp.edu.pe/index/handle/123456789/118091.
Testo completoEste documento muestra un procedimiento para construir un predictor de corto plazodel nivel de actividad económica. Para ello, se utiliza el filtro de Baxter y King para descomponerla serie del PBI mensual en sus tres componentes: estacional, cíclico y tendencial.Posteriormente el componente cíclico es estimado y pronosticado a partir deun conjunto de variables líderes que adelantan al PBI. Se propone que las relacionesentre estas variables y el ciclo del PBI se dan a través de un modelo no lineal de redesneuronales. Los demás componentes son estimados utilizando modelos econométricosestándar. Finalmente, se agregan los tres componentes para obtener un indicador dela evolución futura del PBI. La predicción que se obtiene muestra un nivel razonable deconfiabilidad, por lo que el índice propuesto puede ser una herramienta para la tomade decisiones dada su pronta disponibilidad respecto a las estadísticas oficiales.
García, Tenorio Fabián Andrés. "Algoritmo de predicción de crisis respiratoria en pacientes pediátricos". Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168273.
Testo completoLas enfermedades respiratorias crónicas (ERC) afectan las vías respiratorias y otras estructuras del pulmón por más de tres meses, lo que en caso de infantes repercute tanto en su crecimiento como en su desarrollo normal. En Chile las enfermedades respiratorias son la primera causa de egreso hospitalario, siendo las ERC una de las razones más frecuentes. Diversas iniciativas se han implementado en apoyo a estas problemáticas, principalmente a través de Garantías Explícitas en Salud, pero éstas presentan un enfoque de atención médica necesaria y oportuna más que de prevención. A partir de 2013 una iniciativa impulsada por el Ministerio de Salud busca reintegrar en sus domicilios a pacientes menores de 20 años que requieran apoyo respiratorio, lo que mejora su calidad de vida y la de sus familias. No obstante, el protocolo de detección de crisis y su consiguiente plan contingente recae en las familias y cuidadores. Por esto es fundamental generar estrategias que puedan prevenir y detectar de forma oportuna cualquier riesgo de salud una vez que llegan a sus casas. Para esto, el objetivo general planteado es predecir el estado de riesgo de salud futuro del paciente en base a los signos vitales capturados, brindando el tiempo necesario para desencadenar el plan contingente asociado a la situación. El resultado de este trabajo es un algoritmo capaz de conectarse a un sistema de captura de datos del paciente que logre detectar una situación adversa futura entregando este resultado en un tiempo mínimo de procesamiento. Considerando esto es fundamental contar con un repositorio de datos confiable, tanto para modelar el predictor como para su funcionamiento continuo. Este algoritmo está dividido en dos etapas: elección de modelos óptimos y clasificación de riesgo futuro. La primera etapa busca escoger el conjunto de métodos de series de tiempo que sea capaz de predecir siguiente estado del paciente, y luego escoger el modelo de aprendizaje supervisado que clasifique de mejor forma el riesgo del paciente. La segunda etapa busca tomar los modelos ya seleccionados y utilizarlos para desencadenar la predicción. Con esto se logra que la respuesta del próximo estado de cada paciente se obtenga en segundos. El resultado muestra que algunos signos vitales se pueden modelar de buena forma con la distancia de captura de los datos que se tiene (dos horas), como la temperatura, que para el paciente en que mejor se ajusta se puede modelar con un 1% de error cuadrático medio. En contraste, la frecuencia cardiaca no es posible modelarla con la misma distancia entre datos, teniendo en el mejor caso un error cuadrático medio de 35,90. Por otro lado, la clasificación de riesgo llega a resultados bastante buenos en términos de exactitud, cercano a 90% en algunos casos, pero se tiene que para el mejor escenario el Valor-F alcanza sólo 67%. Contrastando simultáneamente sensibilidad y especifidad se logra obtener modelos que están sobre 80% en ambas métricas, o cercano a 90% en una manteniéndose sobre 70% en la otra.
Vendrell, Vidal Eduardo. "Planificación de robots mediante descomposición, abstracción, deducción y predicción". Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/55021.
Testo completoVendrell Vidal, E. (2001). Planificación de robots mediante descomposición, abstracción, deducción y predicción [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55021
Montesinos, García Lucas. "Análisis de sentimientos y predicción de eventos en twitter". Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/130479.
Testo completoEl análisis de sentimientos o sentiment analysis es el estudio por el cual se determina la opinión de las personas en Internet sobre algún tema en específico, prediciendo la polaridad de los usuarios (a favor, en contra, neutro, etc), abarcando temas que van desde productos, películas, servicios a intereses socio-culturales como elecciones, guerras, fútbol, etc. En el caso particular de esta memoria, se estudian los principales métodos usados en la literatura para realizar un análisis de sentimientos y se desarrolla un caso empleando parte de estas técnicas con sus respectivos resultados. La plataforma escogida fue Twitter, debido a su alto uso en Chile y el caso de estudio trata acerca de las elecciones presidenciales primarias realizadas en la Alianza por Chile entre los candidatos Andrés Allamand de Renovación Nacional (RN) y Pablo Longueira del partido Unión Demócrata Independiente (UDI). De esta forma, se busca predecir los resultados de las primarias, identificando la gente que está a favor de Allamand y la gente que apoya a Longueira. De igual manera, se busca identificar a los usuarios que están en contra de uno o ambos candidatos. Para predecir la opinión de los usuarios se diseñó un diccionario con palabras positivas y negativas con un puntaje asociado, de manera que al encontrar estos términos en los tweets se determina la polaridad del mensaje pudiendo ser positiva, neutra o negativa. El Algoritmo diseñado tiene un acierto cercano al 60% al ocupar las 3 categorías, mientras que si sólo se ocupa para determinar mensajes positivos y negativos la precisión llega a un 74%. Una vez catalogados los tweets se les asigna el puntaje a sus respectivos usuarios de manera de sumar estos valores a aquellas cuentas que tengan más de un tweet, para luego poder predecir el resultado de las elecciones por usuario. Finalmente, el algoritmo propuesto determina como ganador a Pablo Longueira (UDI) por sobre Andrés Allamand (RN) con un 53% de preferencia mientras que en las elecciones en urnas realizadas en Julio de 2013 en Chile el resultado fue de un 51% sobre 49% a favor de Longueira, lo cual da un error de un 2%, lo que implica que el análisis realizado fue capaz de predecir, con un cierto margen de error, lo que sucedió en las elecciones. Como trabajo futuro se plantea usar el diccionario y algoritmo diseñados para realizar un análisis de sentimientos en otro tema de interés y comprobar su efectividad para diferentes casos y plataformas.
Moure, López Juan Carlos. "Aumentando las Prestaciones en la Predicción de Flujo de Instrucciones". Doctoral thesis, Universitat Autònoma de Barcelona, 2006. http://hdl.handle.net/10803/5763.
Testo completoEn esta tesis se presentan diferentes estrategias y se realizan varias propuestas para aumentar el rendimiento global del predictor de flujo de control. Se trata de organizar y codificar la información de forma eficiente, y de dotar al predictor de flexibilidad para adaptarse a los diferentes casos de forma eficaz. Así, las predicciones más frecuentes y sencillas se realizan rápidamente y utilizando recursos mínimos, mientras que predicciones menos comunes o que requieren el uso de más información para alcanzar una alta precisión, pueden realizarse más lentamente. La flexibilidad del diseño combinada con el exceso de ancho de banda permite compensar estos casos complejos y lentos, con el resto de casos, frecuentes y rápidos. El resultado es un aumento del ancho de banda de las predicciones gracias tanto al aumento de la velocidad de predicción como al aumento de la anchura de cada predicción. Todo ello se consigue sin reducir la precisión del predictor, y además con un moderado consumo energético.
En primer lugar, las estrategias de predicción de vía, de jerarquía de dos niveles, y de predicción de índice consiguen aumentar la velocidad de predicción sin disminuir la precisión en la predicción y con un aumento moderado de la memoria del predictor. En segundo lugar se propone un método eficiente de predicción de trazas, que reduce los problemas de otras propuestas anteriores en la literatura, y que consigue aumentar la anchura de las predicciones, sin disminuir su precisión y también con un aumento moderado de los requerimientos de memoria. Finalmente se propone una nueva organización de dos niveles que mejora la gestión de los saltos indirectos para, fijado el tamaño de memoria disponible, aumentar su precisión
Aunque en la tesis no se hace ninguna propuesta dirigida explícitamente a mejorar los algoritmos de predicción para aumentar su precisión, una organización más eficiente del predictor tiene como resultado lateral disponer de más recursos para aumentar la precisión. Por un lado, se dispone de más capacidad para almacenar la historia pasada. Por otro lado, se proporciona mayor tolerancia al aumento de la latencia en las predicciones, lo que permite aplicar algoritmos más complejos para poder aumentar la precisión.
Control flow dependences limit the performance of superscalar processors. Predicting control flow allows surpassing this limit, but involves a compromise among seemingly incompatible goals. On one hand, predictions must be accurate, so that it benefits most of the cases. On the other hand, predictions should be fast. The problem is that accuracy is increased by storing more information and using more complex algorithms, which increases prediction latency.
This thesis presents different strategies and performs several proposals to increase the global performance of a control flow predictor. Prediction data are efficiently arranged and codified to allow the predictor to adapt to the different prediction cases. Frequent and simple predictions are performed very fast and consume little resources, while less frequent predictions or those that use more information to achieve higher accuracies are performed more slowly. A flexible design combined with an excess of prediction bandwidth compensates complex and slow cases with the more frequent simple and fast cases. The overall result is higher prediction bandwidth, both due to an increase in prediction rate and also an increase in prediction width. This is achieved without reducing prediction accuracy and with moderate energy consumption.
The strategies used to augment prediction speed are way prediction, index prediction, and a two-level hierarchy of predictors. Trace prediction is proposed to increase prediction width. An efficient mechanism enhances the previous proposals in the literature. In all cases, prediction accuracy is not reduced and memory requirements are slightly increased. Finally, a new two-level organization is used for predicting indirect jumps, which increases prediction accuracy for a fixed amount of memory.
This thesis does not address new methods to increase prediction accuracy, but a more efficient predictor has a lateral effect of providing more resources to increase accuracy. On the one hand, there is more capability to store past branch history. On the other hand, prediction latency is more easily tolerated, which allows applying more complex algorithms to improve prediction accuracy.
Panadero, Javier. "Predicción del rendimiento: Análisis de la escalabilidad de aplicaciones paralelas". Doctoral thesis, Universitat Autònoma de Barcelona, 2015. http://hdl.handle.net/10803/310211.
Testo completoEjecutar aplicaciones paralelas de paso de mensajes sobre un elevado número de recursos de forma eficiente no es una tarea trivial. Debido a la compleja interacción entre la aplicación paralela y el sistema HPC, a medida que se aumenta el número de procesos de la aplicación, dependiendo del sistema, puede llegar un punto donde la aplicación presente su límite de escalabilidad, momento a partir del cual se empezarán a producir ineficiencias en el sistema, conllevando a un uso ineficiente del mismo. Este problema se vuelve especialmente crítico en aplicaciones paralelas las cuales tienen que ser ejecutadas frecuentemente, utilizando un elevado número de recursos sobre un largo período de tiempo Con el fin de intentar solventar estos problemas y hacer un uso eficiente del sistema, como principal contribución de esta tesis, se propone la metodología P3S (Prediction of Parallel Program Scalability), la cual permite predecir el rendimiento de la escalabilidad fuerte de aplicaciones paralelas de paso de mensajes en un determinado sistema, utilizando un tiempo de análisis limitado y un conjunto reducido de recursos del sistema. La metodología P3S, se basa en analizar el comportamiento repetitivo de las aplicaciones paralelas de paso de mensajes. Este tipo de aplicaciones están compuestas por un conjunto de fases identificables, las cuales se van repitiendo a lo largo de toda la aplicación, independientemente del número de procesos de la aplicación. La metodología consta de tres etapas. Una primera etapa de caracterización, donde se caracterizan las fases relevantes de la aplicación paralela, a partir de la información obtenida de la ejecución de un conjunto de firmas de la aplicación, para un número reducido de procesos. Una segunda etapa de modelización de la aplicación, donde se genera el modelo lógico de escalabilidad de cada fase relevante de la aplicación paralela, mediante el cual construir la traza lógica escalable de la aplicación. Esta traza permitirá predecir el comportamiento lógico de la aplicación, a medida que se aumenta su número de procesos. Finalmente, la última etapa de la metodología consiste en predecir el rendimiento de la aplicación para un número específico de procesos. Para ello, la traza lógica escalable será precisada para el número de procesos para el cual se desea predecir el rendimiento de la aplicación, con el objetivo de predecir el tiempo de cómputo y comunicación de cada fase relevante de la aplicación, para ese número de procesos, con la finalidad de obtener el tiempo predicho de la aplicación. Gracias a la curva de escalabilidad de la aplicación, proporcionada por la metodología P3S, los usuarios pueden seleccionar los recursos más adecuados para ejecutar su aplicación en el sistema objetivo, lo que permite tener la seguridad de utilizar los recursos del sistema de forma eficiente.
Executing message-‐passing applications using an elevated number of resources is not a trivial task. Due to the complex interaction between the message-‐passing applications and the HPC system, depending on the system, many applications may suffer performance inefficiencies, when they scale to a large number of processes. This problem is particularly serious when the application is executed many times over a long period of time. With the purpose of avoiding these problems and making an efficient use of the system, as main contribution of this thesis, we propose the methodology P3S (Prediction of Parallel Program Scalability), which allows us to analyze and predict the strong scalability behavior for message-‐passing applications on a given system. The methodology strives to use a bounded analysis time, and a reduced set of resources to predict the application performance. The P3S methodology is based on analyzing the repetitive behavior of parallel message-‐passing applications. Such applications are composed of a set of phases, which are repeated through the whole application, independently of the number of application processes. The methodology is made up of three stages. A first characterization step, where the relevant phases of the parallel application are characterized, from the execution of a set of small-‐scale application signatures. A second stage of modeling of the application, where the application logical scalability model is generated for each relevant application phase, whereby to construct the scalable logical trace of the application. This trace will be used to predict the logical behavior of the application, as the number of the application processes increases. Finally, the last stage of the methodology consist of predicting the application performance for a specific number of processes. In order to do that, the scalable logical trace will be specified for the number of processes to predict the application performance, with the objective to predict the computational and communication time of each relevant phase for this number of processes, in order to obtain the performance prediction. The output of the P3S methodology will be the predicted curve of application speedup. Using this information, the users can select the most appropriate resources to execute his application on the target system, in order to use the system resources efficiently.
Cuervo, Gómez Keren. "Menores en Riesgo: Perfil y Predicción de la reincidencia delictiva". Doctoral thesis, Universitat Jaume I, 2011. http://hdl.handle.net/10803/48511.
Testo completoJerez, López Pamela. "Técnicas avanzadas aplicadas a la predicción del Índice de Malasia". Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/108444.
Testo completoLópez, Herrera Leonardo Andrés. "Predicción de fuga de clientes desde un enfoque de competencia". Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113942.
Testo completoIngeniero Civil Industrial
Las firmas requieren contar con herramientas que les permitan estimar probabilidades de fuga para su cartera de clientes y así decidir sobre qué clientes concentrar sus esfuerzos de retención. Este problema ha sido estudiado profundamente a través de métodos estadísticos tradicionales, como por ejemplo la Regresión Logística. En esta tesis se propone estimar las probabilidades de fuga de clientes a partir de la forma funcional utilizada en modelos de Regresión Logística, pero imponiendo que los parámetros del modelo cumplan con las condiciones de equilibrio de un modelo de Teoría de Juegos, donde las firmas utilizan sus herramientas competitivas para atraer a los clientes y los clientes escogen fugarse o no según estas mismas probabilidades estimadas endógenamente. Para esto se plantea un problema de optimización no lineal cuya función objetivo corresponde a maximizar la función de verosimilitud del modelo tradicional de Regresión Logística y cuyas restricciones corresponden al sistema de ecuaciones que determinan las condiciones de equilibrio del juego. Se plantean tres modelos de Teoría de Juegos para abordar la estimación a través del esquema propuesto: el primero, donde las firmas compiten solamente en precios; el segundo, donde las firmas compiten en precios y descuentos; y finalmente, uno donde las firmas compiten en precios, descuentos y esfuerzos en marketing. Se propone un método de solución numérica para la metodología planteada y luego es aplicada a un problema con datos reales. Los modelos propuestos modifican la importancia relativa de las variables permitiendo mejorar la interpretación de los resultados y los niveles de significancia de las variables que son consideradas endógenas en los respectivos juegos. Los resultados muestran que el modelo tradicional siempre supera a los modelos propuestos en las bases de entrenamiento y de prueba. Esto sucede porque estos últimos imponen condiciones sobre los parámetros estimados buscando que estos además satisfagan las condiciones de equilibrio del juego subyacente. Sin embargo, se observa que los modelos propuestos superan los resultados del enfoque tradicional en particular en la base de validación. Lo anterior es relevante ya que esta base corresponde a una muestra fuera del periodo temporal utilizado en la determinación de los modelos, lo que indica que los modelos propuestos se adaptan mejor a cambios en las condiciones de mercado con respecto a la situación bajo la que se estiman sus parámetros. En definitiva los modelos propuestos sacrifican precisión en la estimación de sus parámetros para mejorar su capacidad de entender el comportamiento de compra de los clientes, recogiendo efectos de largo plazo de la base de datos y siendo consistentes con la racionalidad de los jugadores. Como línea de trabajo futuro se recomienda la aplicación de la metodología propuesta a cualquier otro problema de Clasificación Binaria donde los agentes se comporten de forma estratégica y donde se pueda caracterizar un juego de competencia subyacente al problema estadístico estudiado.
Arce, Nuñez Pablo, P. Luisa Miqueles e A. Karina Sepúlveda. "Redes neuronales aplicadas a la predicción del tipo de cambio". Tesis, Universidad de Chile, 2006. http://www.repositorio.uchile.cl/handle/2250/112081.
Testo completoNo disponible a texto completo
En las diferentes disciplinas de la ciencia, podemos ver que todos los días se hacen esfuerzos importantes para poder determinar con mayor certeza los fenómenos a los que nos vemos afectados. Para ello, se han implementado diversas técnicas de predicción con el propósito de obtener mejores resultados frente a estos nuevos eventos. Dichos esfuerzos responden a la necesidad de las personas de disminuir el riesgo en la toma de decisiones y su aversión al riesgo en cuanto a las opciones que tienen que tomar. En las finanzas la historia es muy parecida. Durante mucho tiempo las personas han buscado poder acceder a mayor información, que les permita tomar decisiones de una forma correcta, en donde las posibilidades de "equivocarse" sean las mínimas y el éxito en la toma de decisiones sea lo más alto posible. A medida que ha pasado el tiempo, nos hemos visto expuestos a diversas técnicas para poder predecir los fenómenos futuros, ellas están basadas en la premisa de que los elementos que suceden en la práctica no son un efecto aleatorio, sino que representan de alguna manera tendencias que podrían ser explicadas de cierta forma por algún modelo.
Higa, Flores Kenji Alonso. "Predicción de tipos de cambio reales utilizando modelos VAR Bayesianos". Master's thesis, Universidad del Pacífico, 2016. http://hdl.handle.net/11354/1201.
Testo completoErbetta, Mattig Ignacio. "Predicción de la Potencia para la Operación de Parques Eólicos". Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103958.
Testo completoPedroza, Santiago Enrique Antonio. "Modelo de Predicción Difuso para Encuentros de Fútbol Soccer Mexicano". Tesis de maestría, Universidad Autónoma del Estado de México, 2018. http://hdl.handle.net/20.500.11799/106233.
Testo completoCatalini, Carlos Gastón. "Predicción de Lluvias Máximas en Argentina Desarrollos y Nuevas Aplicaciones". Doctoral thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2018. http://hdl.handle.net/11086/6109.
Testo completoTrata de la presentación y desarrollo de nuevas aplicaciones relacionadas a la predicción de lluvias máximas para diseño hidrológico en vastas regiones del país, empleando para ello sistemas de informaciòn geográfica y técnicas de análisis exploratorios de datos.
Quispe, Millones Sandra Giovana. "Rotación de personal : predicción con modelo de regresión logística multinivel". Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2014. https://hdl.handle.net/20.500.12672/4233.
Testo completoIt is a turnover analysis in a private company through a multilevel logistic regression model of 2 levels seeking to establish the relationship between worker characteristics, the area in which they work and the termination of employment during the period of six months test set by the company. Concepts are introduced of generalized linear models, logistic regression and multilevel models that serve as a basis for describing the most important aspects of the multilevel logistic regression and its advantages over single-level models. The decoupling of workers (first level) nested in areas of the business (second level), are analyzed, identifying the variability between areas (ρ = 0.28) and the profile of the deserter. The results are compared with those obtained with a multiple logistic regression model of one level. Differences were found with respect to input variables marital status, remuneration scale and fringe benefits. Concepts are introduced generalized linear models, logistic regression and multilevel KEY WORDS : TURNOVER, OCCUPATIONAL GROUP, LOGISTIC REGRESSION, MULTILEVEL MODEL.
Tesis
Zevallos, Ruiz José Augusto. "Estimación de curvas de intensidad-duración-frecuencia de precipitaciones para el Perú usando precipitaciones horarias simuladas con el modelo de pulso rectangular de Bartlett- Lewis". Master's thesis, Pontificia Universidad Católica del Perú, 2018. http://hdl.handle.net/20.500.12404/14455.
Testo completoThe need for quantifying the risk of occurrence of precipitation of a certain intensity and duration is vital for providing engineering works in Peru. A tool for estimating it is the intensity-duration-frequency relationship (IDF). The accuracy of such relationship depends on the quality of the data and its temporal resolution, which is typically hourly (Ritschel et al., 2017). However, the length or the recorded series are short, which makes it difficult to infer confident statistical properties for sub daily curves. A method of estimating the IDF curves on Peruvian territory is developed in this investigation, using the General Distribution of Extremes (GEV) to calculate the intensities of different duration for 5, 50, 100 and 200 years of return. The method was validated by comparing the generated curves with observed and simulated data for the Toquepala mine site located in the southern highlands of Peru. The simulated hourly data were generated with the Bartlett-Lewis stochastic rectangular pulse model (BLRPM), (Rodriguez-Iturbe, D.R. Cox, 1988), which was calibrated with observed daily information and corrected data from the TRMM satellite 3b42. As result of this comparation, it was observed that the series obtained with BLRPM capture the main statistical characteristics of the IDF curves. To obtain the curves at the national scale, the validated method was applied to the daily rainfall data provided by the National Meteorological and Hydrological Service of Peru (SENAMHI). The stations are distributed in the main river basins. The resulting IDF curves can be seen in the following link: https://josezevallosr.github.io/CurvasIdf/mapa.html
Tesis
Gago, Ramos José Luis. "Capacidad predictiva clínica y molecular de respuesta a quimioterapia neoadyuvante en pacientes con tumor vesical músculo invasivo". Doctoral thesis, Universitat Autònoma de Barcelona, 2019. http://hdl.handle.net/10803/668285.
Testo completoINTRODUCTION: Cisplatin-based neoadjuvant chemotherapy (NAC) followed by cystectomy is the recommended treatment for invasive muscle bladder cancer (MIBC) with the highest level of evidence. Cisplatin-based NAC has demonstrated a significant 5-year overall survival benefit (OS). Various meta-analyses have shown that the benefit of NAC treatment is limited to a subset of patients. Patients who achieve a complete pathological response (cPR) get the most benefit in terms of OS, cancer specific survival (CSS) and progression-free survival (PFS). Currently, in clinical practice, predictive markers of cPR to NAC based on platinum are not available. Clinical and pathological variables are not able to predict the response properly. The hierarchical classification according to the taxonomy of MIBC and the expression of genes involved in DNA repair pathways or immune response have been linked to the prediction of response. MATERIAL AND METHODS: Retrospective study with 112 patients diagnosed with MIBC. There have been collected clinical and pathologic variables, taxonomical information by immunohistochemistry and RNA expression extracted by Covaris ® and quantified using the Nanostring® platform. Genes related to DNA repair, immune response, therapeutic targets and taxonomic classification have been included. We analyzed the predictive capacity of these variables with respect to the cPR and its relationship with survival. RESULTS: Predictive capacity only with clinical and pathological variables was lower (area under the curve, AUC=0,52). Adding the information provided by the taxonomy and genetic expression variables an increase in predictive capacity was observed (AUC=0,671). The greatest predictive capacity was achieved through the joint analysis of clinical variables (hydrophrosis), pathological (urothelial histology), taxonomy (BASQ) and genetics (RAD51 and CXCL9) (AUC=0,671). As described in the literature, in our study the cPR was also associated significantly with better OS, CSS and PFS, p=0,001 in all cases). The clinical and molecular predictive signature that included information from the variables corresponding to hydronephrosis, urothelial histology, taxonomy and RNA expression of RAD51, CXCL9 and PARP was significantly associated with higher OS (p=0,01) and CSS (p=0,033). However, it did not achieve statistically significant association in relation to higher PFS (p=0,059). CONCLUSIONS: Joint analysis of clinical, pathological, taxonomic and genetic expression variables increases predictive response and may have implications for prognosis. These results need to be validated in independent series, as well as prospective studies to identify which clinical and molecular predictive firm will be able to achieve the highest predictive capacity to respond to NAC based on cisplatin in MIBC.
Ramon, Gurrea Elies. "Kernel approaches for complex phenotype prediction". Doctoral thesis, Universitat Autònoma de Barcelona, 2020. http://hdl.handle.net/10803/671296.
Testo completoLa relación entre fenotipo e información genotípica es considerablemente intrincada y compleja. Los métodos de aprendizaje automático (ML) se han utilizado con éxito para la predicción de fenotipos en una gran variedad de problemas dentro de la genética y la genómica. Sin embargo, los datos biológicos suelen estar estructurados y pertenecer a tipos de datos "no estándar", lo que puede representar un desafío para la mayoría de los métodos de ML. Entre ellos, los métodos de kernel permiten un enfoque muy versátil para manejar diferentes tipos de datos y problemas mediante una familia de funciones llamadas de kernel. El objetivo principal de esta tesis doctoral es el desarrollo y evaluación de enfoques de kernel específicos para la predicción fenotípica, centrándose en problemas biológicos con tipos de datos o diseños experimentales estructurados. En la primera parte, usamos secuencias de proteínas mutadas del VIH (proteasa, transcriptasa inversa e integrasa) para predecir la resistencia a antiretrovirales. Proponemos dos funciones de kernel categóricas (Overlap y Jaccard) que tienen en cuenta las particularidades de los datos de VIH, como las mezclas de alelos. Los kernels propuestos se combinan con máquinas de vector soporte (SVM) y se comparan con dos funciones de kernel estándar (Linear y RBF) y dos métodos que no son de kernel: bosques aleatorios (RF) y un tipo de red neuronal, el perceptrón multicapa. También incluimos en los kernels la importancia relativa de cada posición de la proteína con respecto a la resistencia. Tener en cuenta tanto la naturaleza categórica de los datos como la presencia de mezclas obtenemos sistemáticamente mejores predicciones. El efecto de la ponderación es mayor en los inhibidores de la integrasa y la transcriptasa inversa, lo que puede estar relacionado con diferencias en los patrones mutacionales de las tres enzimas virales. En la segunda parte, ampliamos el estudio anterior para considerar que las posiciones de las proteínas pueden no ser independientes. Las secuencias mutadas se representan como grafos, ponderándose las aristas por la distancia euclidiana entre residuos obtenida por cristalografía de rayos X. A continuación, se calcula un kernel para grafos (el exponential random walk kernel) que integra los kernels Overlap y Jaccard. A pesar de las ventajas potenciales de este enfoque, no observamos una mejora en la capacidad predictiva. En la tercera parte, proponemos un kernel framework para unificar los análisis supervisados y no supervisados del microbioma. Para ello, usamos una misma matriz de kernel para predecir fenotipos usando SVM y visualización a través de análisis de componentes principales con kernels (kPCA). Definimos dos kernels para datos composicionales (Aitchison-RBF y compositional linear) y discutimos la transformación de medidas de beta-diversidad en kernels. El kernel lineal composicional también permite la recuperación de importancias de taxones (firmas microbianas) del modelo SVM. Para datos con estructura espacial y temporal usamos Multiple Kernel Learning y kernels para series temporales, respectivamente. Ilustramos el kernel framework con tres conjuntos de datos: datos de suelos, datos humanos con un componente espacial y, un conjunto de datos longitudinales inéditos sobre producción porcina. Todos los análisis incluyen una comparación con los informes originales (en los dos primeros casos), así como un contraste con los resultados de RF. El kernel framework no solo permite una visión holística de los datos, sino que también da buenos resultados en cada área de aprendizaje. En análisis no supervisados, los principales patrones detectados en los estudios originales se conservan en kPCA. En análisis supervisados, la SVM tiene un rendimiento mayor (o equivalente) a los RF, mientras que las firmas microbianas son coherentes con los estudios originales y la literatura previa.
The relationship between phenotype and genotypic information is considerably intricate and complex. Machine Learning (ML) methods have been successfully used for phenotype prediction in a great range of problems within genetics and genomics. However, biological data is usually structured and belongs to & 'nonstandard' data types, which can pose a challenge to most ML methods. Among them, kernel methods bring along a very versatile approach to handle different types of data and problems through a family of functions called kernels. The main goal of this PhD thesis is the development and evaluation of specific kernel approaches for phenotypic prediction, focusing on biological problems with structured data types or study designs. In the first part, we predict drug resistance from HIV-mutated protein sequences (protease, reverse transcriptase and integrase). We propose two categorical kernel functions (Overlap and Jaccard) that take into account HIV data particularities, such as allele mixtures. The proposed kernels are coupled with Support Vector Machines (SVM) and compared against two well-known standard kernel functions (Linear and RBF) and two nonkernel methods: Random Forests (RF) and the Multilayer Perceptron neural network. We also include a relative weight into the aforementioned kernels, representing the importance of each protein residue regarding drug resistance. Taking into account both the categorical nature of data and the presence of mixtures consistently delivers better predictions. The weighting effect is higher in reverse transcriptase and integrase inhibitors, which may be related to the different mutational patterns in the viral enzymes regarding drug resistance. In the second part, we extend the previous study to consider the fact that protein positions are not independent. Mutated sequences are modeled as graphs, with edges weighted by the Euclidean distance between residues, obtained from crystal three-dimensional structures. A kernel for graphs (the exponential random walk kernel) that integrates the previous Overlap and Jaccard kernels is then computed. Despite the potential advantages of this kernel for graphs, an improvement on predictive ability as compared to the kernels of the first study is not observed. In the third part, we propose a kernel framework to unify unsupervised and supervised microbiome analyses. To do so, we use the same kernel matrix to perform phenotype prediction via SVMs and visualization via kernel Principal Components Analysis (kPCA). We define two kernels for compositional data (Aitchison-RBF and compositional linear) and discuss the transformation of beta-diversity measures into kernels. The compositional linear kernel also allows the retrieval of taxa importances (microbial signatures) from the SVM model. Spatial and time-structured datasets are handled with Multiple Kernel Learning and kernels for time series, respectively. We illustrate the kernel framework with three datasets: a single point soil dataset, a human dataset with a spatial component, and a previously unpublished longitudinal dataset concerning pig production. Analyses across the three case studies include a comparison with the original reports (for the two former datasets), as well as contrast with results from RF. The kernel framework not only allows a holistic view of data but also gives good results in each learning area. In unsupervised analyses, the main patterns detected in the original reports are conserved in kPCA. In supervised analyses SVM has better (or, in some cases, equivalent) performance than RF, while microbial signatures are consistent with the original studies and previous literature.
Rivera, Amores Juan José. "Parámetros de imagen y sinópticos en la predicción de la lluvia". Doctoral thesis, Universitat Politècnica de Catalunya, 2001. http://hdl.handle.net/10803/6981.
Testo completoIt is analyzed in this work, the relationship between the rain intensity and parameters previous to the fall of the same one, obtained through diverse sources: Meteosat images, in the channels IR and WV, and thermodynamic and dynamic synoptic parameters. The study area corresponds the Iberian Peninsula, the Balearic islands and Canarias, besides the Swiss Alps for some particular episodes and 77 days they are used with satellite images (of them, 39 days with images in the channels IR and WV of the Meteosat, and 13 with synoptic information). The analysis understands three stages: in the first one it is tried to obtain a quantitative relationship among the rain measured in an interval of time, they take 1h and 2h, in a given observatory and the parameters of satellite image measured previously to the rain and during the same in the observatory and in a circle of fixed radio around the same one. In the second stage, they set up a group of synoptic and images parameters as well as its ranges of values that allow to predict intense rains with an advance of 3h for an area with a size of the order of 100km of diameter. In the third stage, they set up and they characterize the parameters of satellite image that better they allow to carry out a pursuit and localization of the intense rains for those cases in that the carried out prediction indicates the next appearance of the same ones.The conclusions they are the following ones: 1.- No relationship exists that allows to establish an objective mathematical model, among the quantity of fallen rain in an observatory during one hour and the image parameters in the channels IR and WV of the Meteosat, measured in the vertical of the own observatory or in a circle of fixed radio. Therefore, for a rain prediction, it is more appropriate to consider the complete cloudy systems and the atmospheric conditions that surround to the observatory in the previous hours. 2. - So, that intense rains take place starting from 3h, in an area of the order of 100km of diameter, it must be given in the area the following group of values for the different synoptic parameters: positive helicity, CAPE bigger or similar to 750 J kg-1, index IK bigger or similar to 20ºC, index LI smaller than 0ºC, convergence in 850hPa, situation of the area where it will rain, in the front part of a trough in the surface of 500hPa, humidity relative between the surface and 500hPa above 70%, precipitable water in the whole troposfera above the 20mm, convergence of water vapour in low levels, maxima of potential vorticity in 250hPa superiors to 3PVU or in 500hPa superiors to 0.6PVU. The maxima of potential vorticity take place preferably in 250hPa, they are located at distances of until about 1000km or 1500km current up of the area of development of the cloudy systems in the previous hours to this development and they go accompanied by lengthened bands of dry air stratospheric caused by the sinking of the tropopause that they are detected by means of the channel WV of the Meteosat with several hours of advance to the development of the cloudy systems. 3. - In the areas where produces merge of systems it increases the probability of intense rains considerably.4. - The permanence during several hours (>10h) of cloudy systems with apparent temperatures in the channel IR next to -32ºC is enough in some occasions to produce rains of superior intensities at the 15mm / h. 5. - In the intense convective systems, the combined use of the channels IR and WV of the Meteosat allows the detection of entrances in the stratosphere (overshooting) that can mask the cold nuclei of the IR images , due to the heating of the areas that they enter in the stratosphere and, therefore, it allows to locate the areas of intense convective activity with more precision than the single use of the channel IR. The entrances in the stratosphere take place starting from the -40ºC of apparent temperature in the channel IR, being made more intense around the -60ºC. 6. - For the pursuit and localization of high rain intensities, superiors approximately at 17mm/h, overalls in those convective systems of great development, is more appropriate the observation and mensuration of the entrances in the stratosphere that the mensuration of the areas of the cold nuclei of the cloudy systems and its size variations in the channel IR. The entrance in the stratosphere is a necessary condition for the production of local intense rains but it is not sufficient condition since it can have too low humidity or that the system travels too quickly.The magnitude of the overshooting, measure this like difference of apparent temperatures among the channels WV and IR of the Meteosat, it overcomes in occasions the 10K. 7. - For an appropriate pursuit of the intense convective systems, it is necessary to use the images, so much in the channel IR as in the WV, with a temporary resolution of half hour, as minimum, since this systems experience appreciable changes in that period of time, for example the entrances in the stratosphere.
Corredor, Franco John Jairo. "Predicción de Perfiles de Comportamiento de Aplicaciones Científicas en Nodos Multicore". Doctoral thesis, Universitat Autònoma de Barcelona, 2011. http://hdl.handle.net/10803/121247.
Testo completoWith the advent of multicore architectures, there arises a need for comparative evaluations of the performance of well-understood parallel programs. It is necessary to gain an insight into the potential advantages of the available computing node configurations in order to select the appropriate computing node for a particular shared-memory parallel application. This paper presents a methodology to resolve this issue, by constructing a database with behavior information for various representative shared-memory programming structures, and then estimating the application behavior as a combination of these data. These structures are represented by small specific chunks of code called microbenchmarks (μB) based on the study of memory access patterns of shared-memory parallel applications. μBs set is run on each candidate node, and all execution performance profiles are stored in a database for future comparisons. Then, applications are executed on a base node to identify different execution phases and their weights, and to collect performance and functional data for each phase. Information to compare behavior is always obtained on the same node (Base Node (BN)). The best matching performance profile (from performance profile database) for each phase, is then searched. Finally, the candidates nodes performance profiles identify in the match process are used to project performance behavior in order to select the appropriate node for running the application. Resource centers own different machine configurations. This methodology helps the users or systems administrator of data centers to schedule the jobs efficiently.
Rivera, Amores Juanjo. "Parámetros de imagen y sinópticos en la predicción de la lluvia". Doctoral thesis, Universitat Politècnica de Catalunya, 2001. http://hdl.handle.net/10803/6981.
Testo completoSe analiza en el presente trabajo, la relación entre la intensidad de lluvia y parámetros anteriores a la caída de la misma, obtenidos a través de diversas fuentes: imágenes Meteosat, en los canales IR y WV, y parámetros sinópticos termodinámicos y dinámicos.
La zona de estudio corresponde a la Península Ibérica, las islas Baleares y Canarias, además de los Alpes suizos para unos episodios particulares y se utilizan 77 días con imágenes de satélite (de ellos, 39 días con imágenes en los canales IR y WV del Meteosat, y 13 con información sinóptica).
El análisis comprende tres etapas: en la primera se analiza el ajuste de una relación cuantitativa entre la lluvia medida en un intervalo de tiempo, se toman 1h y 2h, en un observatorio dado y los parámetros de imagen de satélite medidos con anterioridad a la lluvia y durante la misma sobre el observatorio y en un círculo de radio fijo alrededor del mismo. En la segunda etapa, se establece un conjunto de parámetros sinópticos y de imagen así como sus rangos de valores, que permiten predecir lluvias intensas con una antelación de 3h para una zona con un tamaño del orden de 100km de diámetro. En la tercera etapa, se establecen y caracterizan los parámetros de imagen de satélite que mejor permiten realizar un seguimiento y localización de las lluvias intensas para aquellos casos en que la predicción realizada indica la próxima aparición de las mismas.
Las conclusiones a las que se llega son las siguientes:
1.-No existe relación, que permita establecer un modelo matemático objetivo, entre la cantidad de lluvia caída en un observatorio durante una hora y los parámetros de imagen en los canales IR y WV del Meteosat, medidos en la vertical del propio observatorio o en un círculo de radio fijo. Por tanto, para una predicción de lluvia, es más adecuado considerar los sistemas nubosos completos y las condiciones atmosféricas que rodean al observatorio en las horas previas.
2.- Para que se produzcan lluvias intensas en un plazo de 3h en adelante, en una zona del orden de 100km de diámetro, se ha de dar en la zona el siguiente conjunto de valores para los diferentes parámetros sinópticos: Helicidad positiva, CAPE mayor o igual a 750 J kg-1, índice IK mayor o igual a 20ºC, índice LI menor que 0ºC, convergencia en 850hPa, situación de la zona donde lloverá, en la parte delantera de una vaguada en la superficie de 500hPa, humedad relativa media entre la superficie y 500hPa por encima del 70%, masa de agua precipitable en toda la troposfera por encima de los 20mm, convergencia de vapor de agua en niveles bajos, máximos de vorticidad potencial en 250hPa superiores a 3PVU ó en 500hPa superiores a 0.6PVU. Los máximos de vorticidad potencial se producen preferentemente en 250hPa, están situados a distancias de hasta unos 1000km ó 1500km corriente arriba de la zona de desarrollo de los sistemas nubosos en las horas previas a dicho desarrollo y van acompañados de bandas alargadas de aire seco estratosférico provocado por el hundimiento de la tropopausa que se detectan mediante el canal WV del Meteosat con varias horas de antelación al desarrollo de los sistemas nubosos.
3.- En las zonas donde se producen mezclas de sistemas aumenta considerablemente la probabilidad de lluvias intensas.
4.- La permanencia durante varias horas (>10h) de sistemas nubosos con temperaturas aparentes en el canal IR del Meteosat inferiores a -32ºC son suficientes en algunas ocasiones para producir lluvias de intensidades superiores a los 15mm/h.
5.- En los sistemas convectivos intensos, la utilización conjunta de los canales IR y WV del Meteosat permite la detección de entradas en la estratosfera (overshooting) que pueden enmascarar los núcleos fríos de las imágenes IR, debido al calentamiento que experimentan las zonas que entran en la estratosfera y, por tanto, permite localizar las zonas de intensa actividad convectiva con más precisión que la sola utilización del canal IR. Las entradas en la estratosfera se producen a partir de los -40ºC de temperatura aparente en el canal IR, haciéndose más intensas alrededor de los -60ºC.
6.- Para el seguimiento y localización de intensidades de lluvia altas, superiores aproximadamente a 17mm/h, sobretodo en aquellos sistemas convectivos de gran desarrollo, es más adecuada la observación y medición de las entradas en la estratosfera que la medición de las áreas de los núcleos fríos de los sistemas nubosos y sus variaciones de tamaño en el canal IR. La entrada en la estratosfera es una condición necesaria para la producción de lluvias intensas localmente pero no es suficiente ya que puede haber falta de humedad o que el sistema viaje demasiado deprisa.
La magnitud del overshooting, medida ésta como diferencia de temperaturas aparentes entre los canales WV y IR del Meteosat, supera en ocasiones los 10K.
7.- Para un seguimiento adecuado de los sistemas convectivos intensos, es necesario utilizar las imágenes, tanto en el canal IR como en el WV, con una resolución temporal de media hora, como mínimo, ya que dichos sistemas experimentan cambios apreciables en ese periodo de tiempo, por ejemplo las entradas en la estratosfera.
It is analyzed in this work, the relationship between the rain intensity and parameters previous to the fall of the same one, obtained through diverse sources: Meteosat images, in the channels IR and WV, and thermodynamic and dynamic synoptic parameters.
The study area corresponds the Iberian Peninsula, the Balearic islands and Canarias, besides the Swiss Alps for some particular episodes and 77 days they are used with satellite images (of them, 39 days with images in the channels IR and WV of the Meteosat, and 13 with synoptic information).
The analysis understands three stages: in the first one it is tried to obtain a quantitative relationship among the rain measured in an interval of time, they take 1h and 2h, in a given observatory and the parameters of satellite image measured previously to the rain and during the same in the observatory and in a circle of fixed radio around the same one. In the second stage, they set up a group of synoptic and images parameters as well as its ranges of values that allow to predict intense rains with an advance of 3h for an area with a size of the order of 100km of diameter. In the third stage, they set up and they characterize the parameters of satellite image that better they allow to carry out a pursuit and localization of the intense rains for those cases in that the carried out prediction indicates the next appearance of the same ones.
The conclusions they are the following ones:
1.- No relationship exists that allows to establish an objective mathematical model, among the quantity of fallen rain in an observatory during one hour and the image parameters in the channels IR and WV of the Meteosat, measured in the vertical of the own observatory or in a circle of fixed radio. Therefore, for a rain prediction, it is more appropriate to consider the complete cloudy systems and the atmospheric conditions that surround to the observatory in the previous hours.
2. - So, that intense rains take place starting from 3h, in an area of the order of 100km of diameter, it must be given in the area the following group of values for the different synoptic parameters: positive helicity, CAPE bigger or similar to 750 J kg-1, index IK bigger or similar to 20ºC, index LI smaller than 0ºC, convergence in 850hPa, situation of the area where it will rain, in the front part of a trough in the surface of 500hPa, humidity relative between the surface and 500hPa above 70%, precipitable water in the whole troposfera above the 20mm, convergence of water vapour in low levels, maxima of potential vorticity in 250hPa superiors to 3PVU or in 500hPa superiors to 0.6PVU. The maxima of potential vorticity take place preferably in 250hPa, they are located at distances of until about 1000km or 1500km current up of the area of development of the cloudy systems in the previous hours to this development and they go accompanied by lengthened bands of dry air stratospheric caused by the sinking of the tropopause that they are detected by means of the channel WV of the Meteosat with several hours of advance to the development of the cloudy systems.
3. - In the areas where produces merge of systems it increases the probability of intense rains considerably.
4. - The permanence during several hours (>10h) of cloudy systems with apparent temperatures in the channel IR next to -32ºC is enough in some occasions to produce rains of superior intensities at the 15mm / h.
5. - In the intense convective systems, the combined use of the channels IR and WV of the Meteosat allows the detection of entrances in the stratosphere (overshooting) that can mask the cold nuclei of the IR images , due to the heating of the areas that they enter in the stratosphere and, therefore, it allows to locate the areas of intense convective activity with more precision than the single use of the channel IR. The entrances in the stratosphere take place starting from the -40ºC of apparent temperature in the channel IR, being made more intense around the -60ºC.
6. - For the pursuit and localization of high rain intensities, superiors approximately at 17mm/h, overalls in those convective systems of great development, is more appropriate the observation and mensuration of the entrances in the stratosphere that the mensuration of the areas of the cold nuclei of the cloudy systems and its size variations in the channel IR. The entrance in the stratosphere is a necessary condition for the production of local intense rains but it is not sufficient condition since it can have too low humidity or that the system travels too quickly.
The magnitude of the overshooting, measure this like difference of apparent temperatures among the channels WV and IR of the Meteosat, it overcomes in occasions the 10K.
7. - For an appropriate pursuit of the intense convective systems, it is necessary to use the images, so much in the channel IR as in the WV, with a temporary resolution of half hour, as minimum, since this systems experience appreciable changes in that period of time, for example the entrances in the stratosphere.
Gutierrez, Delgado Mariella Vicky. "Sistema de distribución de carga policial mediante de predicción de delitos". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12939.
Testo completoTesis
Reyes, Jaña Camilo. "Predicción de líneas evolutivas a partir de rusticianina de Acidithiobacillus ferrooxidans". Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/111116.
Testo completoEl sostenido progreso de la tecnología computacional y el acelerado aumento del volumen de datos de interés científico en línea, han permitido el posicionamiento de la bioinformática como una disciplina de gran utilidad para las ciencias de la vida. En la presente memoria de título, se utilizaron herramientas bioinformáticas para dilucidar la relación existente entre diversas proteínas con un rasgo en común: su parecido a la rusticianina, una proteína indispensable para el proceso vital de oxidación de hierro de la bacteria Acidithiobacillus ferrooxidans. Su secuencia de aminoácidos y pliegues estructurales fueron sometidos a análisis filogenético. Se dio especial atención a los aminoácidos críticos y estructura proteica rodeando su sitio de unión a cobre. Los resultados sugieren un enlace evolutivo entre la rusticianina y otras proteínas coordinadoras de cobre involucradas en variados procesos, pero desarrollando básicamente la misma función, transportar electrones. Finalmente, usando la subunidad II de citocromo c oxidasa de Thermus thermophilus como modelo, se muestra que esta familia de proteínas exhibe características ancestrales compartidas con rusticianina, que sugieren cómo las proteínas evolucionaron a partir de sus funciones en un metabolismo anaeróbico a las de metabolismo aeróbico cuando los niveles de oxígeno aumentaron hace alrededor de 2.400 millones de años.
The continuing progress of computer technology and the rapid increase in the volume of online data of scientific interest have allowed the positioning of bioinformatics as a discipline of great use to the life sciences. In this thesis, various bioinformatics tools were used for the analysis of rusticyanin, an essential protein for the vital process of oxidation of iron, from the bacterium Acidithiobacillus ferrooxidans. Rusticyanin belongs to the family of blue copper proteins. Its amino acid sequence and structural folds were subjected to phylogenetic analysis. Special attention was given to critical amino acids and protein structure surrounding its copper binding site. The results suggest an evolutionary link between rusticyanin and other copper-containing proteins involved in various processes but basically fulfilling the same function, namely electron transport. Finally, using the cytochrome c oxidase of Thermus thermophilus as a model, it is shown that this family of proteins exhibits ancestral characteristics shared with rusticyanin that suggest how proteins could evolve from functions in anaerobic metabolism to those of aerobic metabolism as atmospheric oxygen levels rose about 2.4 billion years ago.
Fondecyt
Bugueño, Castillo Claudia, e Castillo Marco Lagos. "Técnicas avanzadas para la predicción de la variación de Oracle Co". Tesis, Universidad de Chile, 2006. http://www.repositorio.uchile.cl/handle/2250/112094.
Testo completoNo disponible a texto completo
En el campo de las finanzas se han desarrollado un sinfín de teorías que intentan explicar o predecir el precio que tomaran las acciones en el futuro.
Saavedra, Salinas Juan Matias. "Bases Estructurales de la Psicrofilicidad: Predicción e Ingeniería de una Endoglucanasa". Tesis, Universidad de Chile, 2011. http://repositorio.uchile.cl/handle/2250/102573.
Testo completoCortés, Daniel. "Modelado y simulación para la predicción de explosiones en espacios confinados". Doctoral thesis, Universidad de Alicante, 2021. http://hdl.handle.net/10045/115293.
Testo completoRetamozo, Sánchez Miguel Ángel. "Predicción de puntos de vista de imágenes 2D usando deep learning". Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14521.
Testo completoTrabajo de investigación
Fosca, Gamarra Almudena. "Predicción de precios de commoditties empleando data analytics y machine learning". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/17338.
Testo completoTrabajo de investigación
Flores, Arias Paulina. "Modelación y predicción de focos de criminalidad basado en modelos probabilísticos". Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/129832.
Testo completoLas fuerzas de seguridad requieren modelar patrones de riesgo asociados a la actividad delictual, para estudiar relaciones de causalidad y estimar dónde, y cuándo, un nuevo evento criminal puede ocurrir. Esta información se vuelve muy relevante a la hora de asignar recursos para mejorar la seguridad y evitar la ocurrencia de los delitos, y muchos modelos han sido creados con este propósito mediante una caracterización espacial de la las funciones de riesgo. Lamentablemente, dado que la evolución temporal del sistema delictual no se encuentra plenamente incorporada en el modelo del riesgo, en la mayor parte de los casos dichos modelos se vuelven obsoletos. En este Trabajo de Título se presenta un método empírico para la generación automática de funciones probabilísticas espaciales de riesgo, junto con un mecanismo para la caracterización de la evolución temporal de los focos de criminalidad. Este método utiliza información georeferenciada de incidentes criminales y servicios para aproximar la distribución espacial del riesgo a través de la suma de kernels Gaussianos. Por su parte, la caracterización de la evolución temporal del modelo se realiza mediante un algoritmo basado en los métodos secuenciales de Monte Carlo (también conocidos como filtros de partículas), incorporando recursivamente nuevas observaciones y aproximando una distribución mediante la posición de partículas en el plano. La utilización de datos reales para caracterizar el riesgo en cada coordenada del plano y las actualizaciones recursivas al incorporar más información, permiten estimar una distribución a posteriori que implícitamente incorpora la variable temporal. El modelo de riesgo obtenido puede utilizarse para definir un modelo de la predicción, actualizándolo con nuevos datos en el corto y largo plazo y modelando cambios en la distribución a medida que el entorno también cambia. Los resultados obtenidos con este método permiten afirmar que la mayor parte de los eventos futuros ocurren dentro de las áreas de riesgo modeladas, teniendo entonces el potencial de asistir en la asignación de recursos, mejorando los planes de intervención en las zonas de riesgo estimadas (labor táctica) y predichas (labor estratégica).
Witt, Fuchs Oliver. "Predicción de signo mediante redes neuronales en el mercado de inmuebles". Tesis, Universidad de Chile, 2007. http://www.repositorio.uchile.cl/handle/2250/115031.
Testo completoEl objetivo de esta tesis es probar la existencia de capacidad de predicción en el mercado inmobiliario mediante la aplicación de un modelo de redes neuronales. Para ello se utilizó una base de datos con los precios promedio del metro cuadrado de casas y departamentos en distintas comunas y sectores de la capital, entre los años 1994 y 2007, con una frecuencia mensual. La metodología empleada consiste en una red neuronal Ward con rolling, de los rezagos de las diferencias del precio promedio de inmuebles en una comuna sobre los rezagos de las diferencias de la Tasa de Interés Promedio (TIP) y el Índice Mensual de Actividad Económica (IMACEC). Mediante el test de acierto direccional de Pesaran y Timmermann logramos determinar capacidad de predicción en cuatro zonas de la capital en que además los resultados del modelo superaban la metodología Buy & Hold, resultados que pudimos corroborar al aplicar el modelo a sucesivas submuestras de nuestra serie original. Se concluye que, pese a todas las limitaciones de información inherentes a la base de datos utilizada, sí existe capacidad predictiva en el mercado inmobiliario, aunque estos resultados no sean homogéneos a través de las comunas de la capital
Valenzuela, León César Fernando. "Predicción de Largo Plazo de la Generación Eólica Mediante Modelos Grises". Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104287.
Testo completoLimay, Ríos Oscar Antonio. "Eco Doppler de las arterias uterinas en predicción de macrosomía fetal". Doctoral thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/6088.
Testo completoTesis
Córdova, Rojas Manuel Alfredo. "Estimación de caudales medios naturalizados en la cuenca del Río Mantaro mediante el método de regionalización estadística". Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6273.
Testo completoTesis
Mamani, Apolinario Paulo Sergio. "Ampliación de la red de magnetómetros del proyecto Perú-Magneto: Propuesta para su localización utilizando modelos de optimización". Master's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/15617.
Testo completoTesis
López, Alonso Raúl. "Resistencia al flujo de ríos de montaña: desarrollo de equaciones de predicción". Doctoral thesis, Universitat de Lleida, 2005. http://hdl.handle.net/10803/8147.
Testo completoUn problema cabdal en Hidràulica fluvial és el de la resistència de la llera a l'avanç del flux, doncs la seva determinació és requisit per a la resolució d'infinitat de problemes que es plantegen a l'esmentada disciplina. En la present Tesi han estat avaluats (és a dir, ajustats, verificats i comparats) una sèrie de models de resistència al flux per a rius de muntanya i de grava. Ha estat analitzat, també, l'efecte que sobre la capacitat predictiva de les equacions té l'ajustament per subconjunts, definits aquests per intervals de diferents variables de control, com són la sumersió relativa del flux, el pendent de la llera o l'índex de mobilitat del sediment.
Els models avaluats han estat dividits en dos grans grups: a) els que consideren el factor de fricció de Darcy-Weisbach (f) com a variable dependent i b) aquells que prenen el cabal del flux (Q) o la seva velocitat mitjana (v) com a variables resposta i que no inclouen coeficient de resistència explícitament com a variable explicativa. Com a principal resultat ha estat obtingut un conjunt d'equacions, dels dos grups esmentats anteriorment, que compten amb una capacitat de predicció superior a la de les fórmules derivades fins a l'actualitat per altres autors. Aquesta superioritat predictiva es fonamenta en la creació d'una base de dades d'ajustament integrada per un nombre de dades sensiblement superior i que, a més, representa un interval més ampli de les variables explicatives.
La influencia de las áreas de montaña en la generación de recursos hídricos, la geomorfología del sistema fluvial y las avenidas de carácter catastrófico es determinante. Sin embargo, históricamente el conocimiento científico acerca de los ríos de arena de llanura ha sido superior que sobre los ríos de grava y de montaña. Diversas investigaciones han puesto de manifiesto que los modelos hidráulicos, de transporte de sedimento y geomorfológicos desarrollados para los primeros no son directamente extrapolables a estos últimos.
Un problema medular en Hidráulica fluvial es el de la resistencia del cauce al avance del flujo, pues su determinación es requisito para la resolución de infinidad de problemas planteados en el seno de la citada disciplina. En la presente tesis se han evaluado (es decir, ajustado, verificado y comparado) una serie de modelos de resistencia al flujo para ríos de montaña y de grava. Se ha analizado, asimismo, el efecto que sobre la capacidad predictiva de las ecuaciones tiene su ajuste por subconjuntos, definidos éstos por intervalos de diferentes variables de control, como son la sumersión relativa del flujo, la pendiente del cauce o el índice de movilidad del sedimento.
Los modelos evaluados se dividen en dos grandes grupos: a) los que toman el factor de fricción de Darcy-Weisbach (f) como variable dependiente y b) aquellos que adoptan el caudal del flujo (Q) o su velocidad media (v) como variables respuesta y que no incluyen coeficiente de resistencia explícitamente como variable explicativa. Como principal resultado se ha obtenido un conjunto de ecuaciones, de los dos grupos anteriormente citados, que cuentan con una capacidad de predicción superior a la de las fórmulas derivadas hasta la actualidad por otros investigadores. Tal superioridad predictiva se fundamenta en la creación de una base de datos de ajuste integrada por un número de datos sensiblemente superior y que, además, representa un rango más amplio de las variables explicativas.
Mountain areas exert a vital influence on the generation of water resources, the geomorphology of the fluvial system and catastrophic floods. However, historically there has been more scientific knowledge about sand-bed rivers on the plain than about gravel-bed and mountain rivers. A range of research has shown that hydraulic, sediment transport and geomorphologic models developed for the former cannot be directly extrapolated to the latter.
A fundamental problem in fluvial hydraulics is that of the flow resistance of the channel, the determination of which is a requisite for the resolution of an infinity of problems in the abovementioned discipline. In this thesis, a series of flow resistance models for mountain and gravel-bed rivers have been evaluated (that is, adjusted, verified and compared). The effect on the predictive capacity of the equations has been analysed for its adjustments to subsets, these being defined by the ranges of different control variables, such as relative submergence of the flow, the slope of the channel or the mobility index of the sediment.
The models evaluated are divided into two large groups: a) those that take the Darcy-Weisbach (f) friction factor as a dependent variable and b) those that adopt the flow discharge(Q) or average velocity (v) as response variables and that do not explicitly include the resistance coefficient as an explicative variable. The principal result obtained is a set of equations from the two above-mentioned groups, with a higher prediction capacity than the formulas derived to date by other authors. Such predictive superiority is based on the creation of an adjustment database made up of a significantly higher number of data and that also represents a wider range of the explicative variables.
Díaz, Caro Pamela Cecilia, e Román Javier Turén. "Estimación del desalineamiento cambiario y ejercicios de predicción : un análisis para Chile". Tesis, Universidad de Chile, 2008. http://www.repositorio.uchile.cl/handle/2250/107919.
Testo completoRiquelme, Lafertte Michael. "Mejora del proceso de evaluación de nuevos convenios mediante modelos de predicción". Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144279.
Testo completoEn un mercado altamente competitivo, dinámico, y en el cual los clientes continuamente evolucionan y pretenden mejores productos y servicios, se hace necesario que los bancos y entidades financieras presenten ofertas atractivas para los clientes a fin de mantener su posición en el mercado financiero. BancoEstado es uno de los líderes de la banca a nivel nacional con productos enfocados en distintas bancas, sean estas personas, microempresarios, pequeñas y grandes empresas, así como también instituciones, siendo estas del Estado o independientes. Según datos entregados por la Superintendencia de Bancos e Instituciones Financieras (SBIF, 2016), se ubica en cuarta posición, en una lista que lidera el Banco Santander con 17,63% del total de colocaciones de la industria, seguido del Banco de Chile con 17,39%, Banco BCI con 14,15%, BancoEstado con 13,63% y Corpbanca con un 10,42%. Sin duda que el gran número de clientes que posee BancoEstado, dado por un enfoque masivo y de impacto social, hacen de la oferta de productos y los procesos internos que la soportan claves para lograr una gestión eficiente y productiva. Dentro de estos productos se encuentran los convenios de pago de remuneraciones. Un convenio es un contrato que BancoEstado suscribe con empresas de diferentes rubros, quienes negocian productos y servicios atractivos para la empresa, y además acuerdan condiciones para firmar un contrato de abono de remuneraciones junto con beneficios para sus empleados. El presente proyecto de tesis aborda este desafío, centrándose en el proceso de evaluación de nuevos convenios y en los procesos asociados al conocimiento del cliente. La intervención de estos procesos pretende por un lado mejorar la percepción en cuanto al comportamiento de adquisición de productos de los clientes de convenios considerando los diferentes rubros de las empresas y utilizar esta información para realizar una mejor evaluación sobre los nuevos convenios que se negociarán. Como principal metodología se utiliza el rediseño de procesos a partir de patrones de proceso, a través de los cuales se detectan las oportunidades dentro de este proceso de evaluación. Con el apoyo de herramientas de minería de datos se pretende desarrollar un apoyo que permita mejorar la toma de decisiones a la hora de realizar la evaluación de un nuevo convenio, mediante una herramienta que permitirá predecir si un nuevo convenio será rentable o no en el tiempo, además de cuál será su comportamiento en cuanto a adquisición de productos. Con datos de estudio se obtuvieron resultados que prueban la existencia de oportunidades de disminuir la pérdida producida por convenios con rentabilidad negativa, por medio de la predicción de la rentabilidad de los nuevos convenios. La herramienta utilizada una disminución de la pérdida en un 19,66%.