To see the other types of publications on this topic, follow the link: Análisis Predictivo.

Dissertations / Theses on the topic 'Análisis Predictivo'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Análisis Predictivo.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cotrina, Araujo Nikol Alexandra. "Análisis predictivo de series temporales de temperatura corporal." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17511.

Full text
Abstract:
Como un ser homeopático el ser humano presenta mecanismos de regulación de la temperatura que aseguran un óptimo funcionamiento del sistema fisiológico. Estos mecanismos de regulación tienen su centro de control e integración en el hipotálamo, que se encarga de mantener la temperatura corporal funcionando a ±1°C de la temperatura en reposo. Cuando la temperatura se encuentra fuera de este rango los sistemas biológicos comienzan a verse afectados. A efectos prácticos, el organismo puede dividirse en una parte central o nuclear, el cual estaría constituido por la cabeza y las cavidades torácica y abdominal; y una parte superficial, que está constituido por la piel, el tejido celular subcutáneo y el grueso de la masa muscular. De manera que, las temperaturas del núcleo y la piel serían las temperaturas central y periférica, respectivamente. La temperatura central (representada por las temperaturas oral, rectal, esofágica, membrana del tímpano, hipotalámica o de la sangre al pasar por cualquiera de los órganos de la parte central o nuclear) permanece relativamente constante, gracias a que es regulada y se mantiene dentro de límites bastante estrechos. Además, dentro de la práctica clínica, la temperatura es una de las variables que se encuentran en constante monitoreo pues resulta fundamental en la atención de pacientes con patologías agudas, ya que permite determinar si el paciente presenta un aumento en su temperatura central o fiebre que usualmente es asociado con el desarrollo de una infección. La fiebre es una respuesta fisiológica adaptativa frente a un agente patógeno, que mejora la respuesta del sistema inmune y evita la propagación de los agentes infecciosos. De hecho, “la elevación de la temperatura corporal en algunos grados puede aumentar la eficiencia de los macrófagos para destruir los microorganismos invasores, dificultando la replicación de diferentes microorganismos y otorgando una ventaja adaptativa al sistema inmune” (Gómez, 2008). Debido a lo anterior, la predicción del desarrollo de fiebre es importante pues, según el horizonte de predicción de este estado en el paciente, se puede permitir la obtención de un cultivo de sangre cuando el recuento de bacterias está en su punto máximo y, de esa manera, precisar el diagnóstico del paciente. Durante la práctica clínica, se registra la temperatura de los pacientes cada 8-12 h, sin embargo, tales mediciones no proporcionan información significativa en el diagnóstico de enfermedades. Por ello, el monitoreo continuo de la temperatura y el análisis de los registros obtenidos utilizando métodos analíticos podrían ayudar a revelar respuestas únicas de fiebre de los pacientes y en diferentes condiciones clínicas. Esta tesis analiza series de temperatura central de pacientes aplicando técnicas estadísticas de series temporales como modelos lineales ARIMA y modelos no lineales de redes neuronales recurrentes para predecir futuros incrementos de la temperatura central que permitiría anticipar el diagnóstico y tratamiento que podría recibir un paciente. Los modelos ARIMA y de Redes neuronales recurrentes fueron caracterizados con un análisis univariante, donde la variable estudiada es la Temperatura central. Por otro lado, los datos utilizados fueron recogidos con un equipo de Monitorización Continua de Temperatura, con un termómetro timpánico de infrarrojos denominado Thercom. Estos dispositivos se configuraron para realizar una determinación de temperatura central por minuto durante aproximadamente 24 horas. No obstante, debido a que la toma de datos de temperatura podría ser incómoda para los pacientes, hay momentos en las series en que los datos obtenidos contienen mediciones que podrían no ser fiables. La primera técnica empleada para el análisis de series temporales fue el modelo de Box-Jenkins o también llamados procesos autorregresivos integrados con media móvil (modelos ARIMA, por sus siglas en inglés) estos modelos pueden capturar las tendencias a corto plazo y las variaciones periódicas en las series temporales, sin embargo, estos no se ajustan a tendencias no lineales que pudiera tener la variable evaluada. Posteriormente, se probaron los modelos no lineales de redes neuronales recurrentes de Elman y se comparó la precisión de las predicciones de los modelos ARIMA, frente a los modelos de Elman usando como estadístico el error absoluto porcentual medio o MAPE para horizontes de 15, 30 y 60 minutos. Ambos modelos fueron desarrollados usando el software estadístico Rstudio con las librerías: “tseries”, para modelos ARIMA; “forecast”, para determinar las predicciones en modelos ARIMA y “RSNNS”, para modelar redes neuronales. Debido a la naturaleza de la variable temperatura central la precisión de los modelos debe ser tal que el error de predicción del modelo no debe ser mayor a 1°C, esto en promedio, implica que las predicciones del modelo deben tener un MAPE máximo admisible de 2.7%. Las predicciones de los modelos ARIMA para los 3 pacientes produjeron MAPEs menores a 3% en todos los horizontes de predicción, no obstante, los residuos obtenidos no siguen una distribución normal, aunque en todos los casos cumplían la hipótesis fundamental de que eran independientes. Además, se produjeron predicciones muy satisfactorias para los 3 pacientes en el horizonte de 15 minutos. Para los otros horizontes de tiempo, los modelos presentaban un intervalo de confianza con amplitud mayor a 2°C, aunque el MAPE producido seguía siendo aceptable. Para los modelos de redes neuronales se utilizaron como variables de entrada, el primer y el segundo retardo de la temperatura central. Como resultado, las predicciones de los modelos de redes de Elman se ajustaron a los datos de tal manera que se obtuvieron MAPEs inferiores a 0.5% para los 3 pacientes en los 3 horizontes de tiempo estudiados (15, 30 y 60 minutos). A pesar de la complejidad de la regulación fisiológica de la temperatura central, el usar retardos de la temperatura central como valores de entrada para el modelo de redes neuronales hace que la estructura del modelo se simplifique y que la predicción de los futuros valores pueda estimarse con modelos de una sola capa de manera satisfactoria, ajustándose a los datos en su escala real y produciendo errores mínimos.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
2

Chávez, Jambo Carlos Homero. "Mantenimiento predictivo a través del análisis de lubricantes." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2014. https://hdl.handle.net/20.500.12672/10914.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>El documento digital no refiere asesor<br>Realiza una revisión general sobre el análisis del lubricante haciendo un estudio profundo con fin de identificar los problemas que podamos encontrar de los equipos que estamos analizando, esto es muy importante porque nos ayuda a comprender mejor la problemática de los casos constituyendo este estudio una valiosa herramienta de diagnóstico. Es muy importante poder entender que el mantenimiento hoy en día es una de áreas que va en crecimiento en cualquier empresa. Ya que son el soporte inmediato ante cualquier problema que se presente en las maquinas. Las distintas pruebas que se realizan para llegar a dar un diagnóstico final es muy diversa ya que cada laboratorio cuenta con sus propios instrumentos, para este trabajo hemos nombrado los equipos con los que cuenta la empresa los cuales nos sirve para dar un diagnóstico coherente. Para poder dar un diagnóstico que se ajuste más a la realidad es importante resaltar que se asocian las diferentes pruebas y de esa manera obtendremos más información sobre lo que estamos analizando. El análisis de aceite es una herramienta hoy en día muy importante porque esta nos ayuda al adecuado mantenimiento del equipo y por lo tanto alargar su vida útil. Se debe tener en cuenta las consideraciones y especificaciones técnicas de los lubricantes recomendados por el fabricante, ya que considera efectos de temperatura y medio de trabajo a la cual va a trabajar su equipo.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
3

Barrueta, Meza Renzo André, and Villarreal Edgar Jean Paul Castillo. "Modelo de análisis predictivo para determinar clientes con tendencia a la deserción en bancos peruanos." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/626023.

Full text
Abstract:
En la actualidad, el rol que cumplen los bancos en la economía del país y el impacto que tienen en las diferentes clases sociales es cada vez más importante. Estos siempre han sido un mercado que históricamente ha recibido un gran número de quejas y reclamaciones. Es por ello que, un mal servicio por parte del proveedor, una deficiente calidad de los productos y un precio fuera de mercado son las principales razones por las que los clientes abandonan una entidad bancaria. Esta situación va aumentando cada vez más y los bancos muestran su preocupación por este problema intentando implementar modelos que hasta el momento no han logrado cumplir con los objetivos. Además, existe un elevado nivel de competencia que obliga a las entidades financieras a velar por la lealtad de sus clientes para intentar mantenerlos e incrementar su rentabilidad. Este proyecto propone un Modelo de Análisis Predictivo soportado con la herramienta SAP Predictive Analytics, con el fin de ayudar en la toma de decisiones para la retención o fidelización de los clientes potenciales con tendencia a la deserción en la entidad bancaria. Esta propuesta se realizó mediante la necesidad de los mismos de conocer la exactitud de deserción de sus clientes categorizados potenciales. Se desarrolló una interfaz web como canal entre el Modelo de Análisis Predictivo propuesto y la entidad bancaria, con el fin de mostrar el resultado obtenido por el modelo indicando la exactitud, en porcentaje, de los clientes con tendencia a desertar. Además, como Plan de continuidad se propone 2 proyectos en base a la escalabilidad del Modelo de análisis predictivo propuesto, apoyándonos en la información obtenida en la etapa de análisis del modelo mismo.<br>Currently, the role played by banks in the country's economy and the impact they have on different social classes is increasingly important. These have always been a market that has historically received a large number of complaints and claims. It is therefore, poor service by the supplier, poor product quality and a price outside the market are the main reasons why customers leave a bank. This situation is increasingly and banks. In addition, there is a high level of competition that forces financial institutions and the loyalty of their customers to try to maintain them and increase their profitability. This project proposes a Predictive Analysis Model supported with the SAP Predictive Analytics tool, in order to help in making decisions for the retention or loyalty of clients with the tendency to drop out in the bank. This proposal was made through the need to know the accuracy of the desertion of its categorized clients. A web interface is shown as a channel between the Predictive Analysis Model and the bank, in order to show the result by the model that indicates the accuracy, in percentage, of clients with a tendency to defect. In addition, as a continuity plan, 2 projects are proposed based on the scalability of the Predictive Analysis Model, based on the information in the analysis stage of the model itself.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
4

Espinoza, Espinoza Bertha Yrene, and Rivera Natalia Elizabeth Gutiérrez. "Sistema de información para la toma de decisiones, usando técnicas de análisis predictivo para la Empresa IASACORP International S.A." Bachelor's thesis, Universidad Ricardo Palma, 2015. http://cybertesis.urp.edu.pe/handle/urp/1271.

Full text
Abstract:
En la actualidad, las empresas manejan una gran cantidad de información, el cual era inimaginable años atrás, la capacidad de recolectarla es muy impresionante. En consecuencia, para varias empresas esta información se ha convertido en un tema difícil de manejar. Diariamente, las empresas sea del sector, tipo o tamaño que sea, toman decisiones, las cuales la mayoría son decisiones estratégicas que pueden afectar el correcto funcionamiento de la empresa. Es aquí, donde ingresa una de las herramientas más mencionadas en el área de TI: Business Intelligence, este término se refiere al uso de datos en una empresa para facilitar la toma de decisiones, explotar su información, y mejor aún, plantear o predecir escenarios a futuro. El presente trabajo permitirá al área de Marketing de la empresa Iasacorp International, obtener información sobre el comportamiento y hábitos de compra de los clientes, mediante técnicas de minería de datos como Árbol de Decisión y técnicas de análisis predictivo, la cual ayudará a la toma de decisiones para establecer estrategias de venta de las líneas (bisutería, complementos de vestir, accesorios de cabello, etc.) que maneja la empresa y de las próximas compras. De acuerdo a lo planteado anterior mente, la implementación de este tipo de sistemas de información ofrece a la empresa ventajas competitivas, permite a la gerencia analizar y entender mejor la información y por consecuencia tomar mejores decisiones de negocio. At present, companies handle a lot of information, which was unimaginable years ago, the ability to collect it is very impressive. Consequently, for many companies this information has become a difficult issue to handle. Due to the large volume of information we have, instead of being useful you can fall in a failed attempt to give proper use. Every day, companies in any sector, type or size, make decisions, most of which are strategic decisions that may affect the proper functioning of the company. It´s here, where we talk about the most mentioned tools in the area of IT: Business Intelligence, this term refers to the use of data in an enterprise to facilitate decision-making, exploit their information, and better yet, raise or predict scenarios future. This work will allow the area Iasacorp Marketing Company International, information on the behavior and buying habits of customers, through predictive analysis techniques, which will help the decision to establish sales strategies lines (jewelry, clothing, hair accessories, etc.) that manages the company and nearby shopping. According to the points made above, the implementation of such information systems offers companies competitive advantages, allows management to better analyze and understand information and consequently make better business decisions.
APA, Harvard, Vancouver, ISO, and other styles
5

Banfi, del Río Pablo, Finsterbusch Maximiliano Correa, Diez Ricardo Romero, and Jensen Ricardo Wechsler. "Análisis de la capacidad predictiva del modelo de Black and Scholes." Tesis, Universidad de Chile, 2003. http://repositorio.uchile.cl/handle/2250/108217.

Full text
Abstract:
Seminario para optar al título de Ingeniero Comercial<br>El objetivo de este trabajo es analizar la capacidad predictiva del modelo desarrollado por Black y Scholes. Para este propósito se testeó la capacidad de diversos modelos autoregresivos, además de un modelo multivariable y otro ingenuo. Las conclusiones se detallan a nivel de acción, modelo, sector y vencimiento. El modelo que obtuvo los mejores resultados a nivel promedio fue el Arima recursivo seguido por el Arima rolling. Durante el desarrollo del trabajo surgieron objetivos secundarios, uno de estos fue verificar si realmente el mercado sigue o no a B and S. Para esto se compararon los precios calculados por la fórmula con los precios observados en el mercado y se encontró que en un 95% de los casos, el mercado transó los activos a un precio superior al arrojado por la formula. Por esto no somos capaces de afirmar si el mercado sigue o no a B and S, pero es muy probable que su valor sea tomado en cuenta pero complementado por otras variables que el modelo no considera, como podrían ser las expectativas, el valor de la cobertura por riesgo, o la estabilidad económica y política del país. Por último buscamos un modelo que tuviera resultados probados para una determinada acción y encontramos que el modelo multivariado con las variables Dow (-1), Dow (-4), Dow (-5), Nasdaq (-1), Klac (-1), Klac (-2) y Error (-2) es el que había arrojado la mejor predicción para la acción Klac el mes anterior. Entonces aplicamos los modelos anteriores en conjunto con este a Klac y comparamos los resultados. La idea fue comprobar si es que modelos que fueron precisos en un pasado cercano, lo siguen siendo con el transcurso del tiempo. Los nuevos resultados indicaron que a medida que pasa el tiempo y cambian las condiciones económicas del mercado, los modelos pierden precisión. Finalmente el modelo con mejores resultados fue el modelo Multivariado rolling. Corroboramos que el mercado es complejo, dinámico y que aprende. En ocasiones modelos tan simples como el ingenuo obtuvieron mejores resultados que los modelos más complejos, lo que indica que hay cuotas de azar, expectativas y otros factores aleatorios que hacen muy difícil predecir el comportamiento del mercado y superar su rendimiento.
APA, Harvard, Vancouver, ISO, and other styles
6

Munayco, Candela Jesús Alberto. "Implementación de un sistema de mantenimiento predictivo en equipo pesado (análisis de lubricantes)." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2012. https://hdl.handle.net/20.500.12672/15076.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>El mantenimiento predictivo es un tipo de mantenimiento proactivo cuya finalidad es pronosticar el punto futuro de falla de un componente de un equipo, de tal forma que dicho componente pueda reemplazarse, con base en un planeamiento, justo antes de que falle. Así, el tiempo muerto del equipo se minimiza y el tiempo de vida del componente se maximiza. Gracias al análisis del lubricante usado podemos tener los siguientes beneficios: alcances a los programas de mantenimiento predictivo, la extensión de la vida útil de sus equipos y de los componentes con mínimo desgaste, la prolongación de los intervalos entre cambios de aceite, comprende las tendencias en los equipos y aprender sobre los requerimientos futuros de los lubricantes, la reducción de los tiempos de parada, especialmente las no planificadas, máxima reducción de los costos operativos, máximo aprovechamiento del lubricante utilizado, ayudar a solucionar problemas de lubricación en el campo y la reducción de los desechos de lubricación. En cada muestra de lubricante podemos analizar los siguientes factores que afectan a nuestro equipo, los elementos de desgastes son hierro, cromo, molibdeno, aluminio, cobre, estaño y plomo. Conteo de partículas: Determinación de la limpieza, ferrografía. Contaminantes: silicio, sodio, agua, combustible, hollín, oxidación, nitración, sulfatos, nitratos. Aditivos y condiciones del lubricante: magnesio, calcio, zinc, fósforo, boro, azufre y viscosidad. Llevar un histórico de muestras de lubricantes por equipo y sistemas (motor, hidráulico, transmisión, ejes, etc.). Adicionalmente una técnica para sacar muestras de aceite sin llegar a contaminarlo.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
7

Ortiz, Huamán Cesar Humberto, and Bernal Brenda Ximena Haro. "Modelo tecnológico de análisis predictivo basado en machine learning para evaluación de riesgo crediticio." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2017. http://hdl.handle.net/10757/656207.

Full text
Abstract:
El incremento de herramientas e innovación en tecnología para la sociedad trae como resultado que las organizaciones empiecen a producir y almacenar grandes cantidades de datos. Así, la gestión y la obtención de conocimiento a partir de estos datos es un desafío y clave para generar ventaja competitiva. Dentro del proyecto dos enfoques son tomados en cuenta; la complejidad de implementación, los costos asociados por el uso de tecnologías y herramienta necesarias. Para encontrar los secretos que esconden los datos recolectados, es necesario tener una gran cantidad de ellos y examinarlos de forma minuciosa para así encontrar patrones. Este tipo de análisis es de complejidad alta para que nosotros mismos logremos detectar (Chappell & Associates, 2015). Campos de Ciencias de la Computación como Machine Learning servirán de base para la realización del análisis predictivo que permita anticiparnos al comportamiento futuro de las variables definidas según el problema que identifiquemos. El presente proyecto tiene como principio la necesidad de tener un Modelo Tecnológico de análisis predictivo basado en Machine Learning en la evaluación de riesgo crediticio. Fue tomada en consideración la situación actual sobre las diferentes implementaciones y arquitecturas que fueron desarrolladas por empresas que cuentan soluciones predefinidas o con propuestas generales que no permiten la flexibilidad y detalle de que necesita tener un sistema con la tecnología de Machine Learning.<br>Increasing tools and technology innovation for society results in organizations starting to produce and store large amounts of data. Thus, managing and obtaining knowledge from this data is a challenge and key to generating competitive advantage. Within this project two approaches are taken into account; The complexity of implementation and the costs associated with the use of necessary technologies and tools. To find the secrets that hide the collected data, it is necessary to have a large number of them and to examine them in order to find patterns. This type of analysis is highly complex so that we can detect it ourselves (Chappell & Associates, 2015). Fields of Computer Science as Machine Learning will serve as basis for the realization of the predictive analysis that allows us to anticipate the future behavior of the variables defined according to the problem that we identify. The present project has as principle the need to have a process model of predictive analysis based on machine learning for the evaluation of credit risk. It was taken into consideration the current situation regarding the different implementations and architectures that were developed by companies that have predefined solutions or with general proposals that do not allow the flexibility and detail that you need to have a system for the use of Machine Learning technology.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
8

Bandín, Saura María Cristina. "Análisis de la salud circadiana como factor predictivo de éxito en la pérdida de peso." Doctoral thesis, Universidad de Murcia, 2015. http://hdl.handle.net/10803/287228.

Full text
Abstract:
Tesis por compendio de publicaciones<br>OBJETIVOS: Objetivo 1: Investigar la relación entre la pérdida de peso y la ritmicidad circadiana, utilizando la temperatura de la muñeca y mediciones de actimetría, en mujeres sometidas a un programa de pérdida de peso, con el fin de evaluar si la ritmicidad circadiana pudiera ser un marcador de la eficacia de los tratamientos de pérdida de peso. Objetivo 2: Investigar los efectos de los cambios en el horario de las comidas sobre el gasto de energía, la tolerancia a la glucosa y variables circadianas. Objetivo 3: Determinar, si la presencia de CLOCK 3111T/C en mujeres con sobrepeso está relacionado con (a) trastornos circadianos, y (b) cambios en la calidad del sueño, para mejorar la comprensión de las asociaciones previamente demostradas con la obesidad y la reducción de la pérdida de peso de las portadoras C. METODOS: I. Para la consecución del objetivo 1: Participaron 85 mujeres ( IMC: 30.24 ± 4.95 kgm-2) sometidas a un programa de reducción de peso. La eficacia del tratamiento se definió mediante: la pérdida de peso total, el porcentaje de pérdida de peso respecto al peso inicial y la pérdida de peso semanal. La ritmicidad circadiana se determinó mediante: temperatura de la muñeca, actividad motora y posición del cuerpo. II. Para la consecución del objetivo 2: 32 mujeres [edad 24 ± 4 e IMC 22,9 ± 2,6 kg/m2] participaron en este estudió. Se diseñaron dos protocolos de forma aleatoria y cruzada. Para el protocolo (P1) (n = 10) se realizaron medidas de gasto energético en reposo mediante calorimetría indirecta y tolerancia a la glucosa durante el periodo postprandial, para el protocolo (P2) se incluyeron mediciones relacionadas con el sistema circadiano basados en perfiles de cortisol salivar y temperatura medida en la muñeca (n = 22). A los participantes se les proporcionó comidas estandarizadas durante las dos semanas de intervención y se estudiaron bajo dos condiciones: comiendo temprano (13:00h) y comiendo tarde (16:30h). III. Para la consecución del objetivo 3: Se reclutaron 85 mujeres con sobrepeso, [edad 43 ± 12 e IMC 28,6 ±4,3 kg/m2]. Las variables de temperatura de muñeca (T), actimetría (A), posición del cuerpo (P) y TAP se midieron como marcadores de la funcionalidad sistema circadiano. Se completó un cuestionario de actividad, un registro de comida y sueño diario, mientras que la calidad del sueño se determinó mediante polisomnografía domiciliaria. De esta muestra, 43 mujeres portaban el SNP del alelo menor (C) para CLOCK 3111 y 42 mujeres eran no portadoras de dicho alelo (TT). Ambos grupos de pacientes estaban igualados en número, edad, parámetros de obesidad e ingesta de energía. CONCLUSIONES: [I] Los ritmos circadianos en el inicio del tratamiento son buenos indicadores de la futura pérdida de peso. El tratamiento adicional debe considerar aspectos cronobiológicos para diagnosticar la obesidad y la eficacia de los tratamientos. [II] Comer tarde se asoció con una disminución del gasto energético en reposo, una disminución de la oxidación de carbohidratos en ayunas, disminución de tolerancia a la glucosa, con un perfil diario más aplanado en las concentraciones de cortisol libre y una disminución del efecto térmico de los alimentos según la temperatura periférica medida en la muñeca. Estos resultados pueden estar implicados en los efectos diferenciales de horario de las comidas en la salud metabólica. [III] Individuos portadores del alelo menor C del CLOCK 3111 presentan un ritmo circadiano menos robusto que el TT y una acrofase retrasada que caracteriza a los sujetos con cronotipo vespertino. Apoyamos la idea de que la identificación de genotipos de reloj en los pacientes puede ayudar al terapeuta en la caracterización de las raíces del problema metabólico.<br>OBJECTIVES: Objective 1: To investigate the potential relationship between weight loss and circadian rhythmicity, using wrist temperature and actimetry measurements, in women undergoing a weight-loss program, in order to assess whether circadian rhythmicity could be a marker of weight-loss effectiveness. Objective 2: To investigate the effects of changes in meal timing on energy-expenditure, glucose-tolerance and circadian-related variables. Objective 3: Determine, in free-living conditions, if the presence of CLOCK 3111C in overweight women could be related to (a) circadian disorders, and (b) changes in sleep quality, to improve understanding of the previously demonstrated associations with obesity and reduced weight loss of the C carriers. METHODS: I. To get the objective 1: Participants were 85 overweight and obese women (body mass index, BMI: 30.24±4.95 kg m-2) subjected to a weight reduction program. Efficacy of the treatment was defined as total weight loss, percentage of initial weight and weekly weight loss rates. Circadian rhythmicity in wrist temperature motor activity and position were analyzed using different sensors. II. To get the objective 2: Thirty-two women (aged 24 ± 4 years and body mass index 22.9 ± 2.6 kgm− 2) completed two randomized, crossover protocols: one protocol (P1) including assessment of resting-energy expenditure (indirect-calorimetry) and glucose tolerance (mixed-meal test) (n = 10), the other (P2) including circadian-related measurements based on profiles in salivary cortisol and wrist temperature (Twrist) (n = 22). In each protocol, participants were provided with standardized meals (breakfast, lunch and dinner) during the two meal intervention weeks and were studied under two lunch-eating conditions: Early Eating (EE; lunch at 13:00) and Late Eating (LE; lunch 16:30). III. To get the objective 3: Wrist temperature, actimetry and position (TAP) and TAP variables were measured as markers of circadian functionality during 8 consecutive days. A rest–activity and food diary was also completed, whereas sleep quality was determined by domiciliary polysomnography. We recruited 85 women who were overweight with body mass index (BMI) of 28.59±4.30 kg m-2 and age 43±12 years. From this sample, we found that 43 women were carrying the minor allele (C) for CLOCK 3111T/C SNP and 42 women were TT carriers (major allele carriers). Both groups of patients were matched for number, age, obesity parameters and energy intake. CONCLUSIONS: [I] Circadian rhythms at the beginning of the treatment are good predictors of future weight loss. Further treatment should consider chronobiological aspects to diagnose obesity and effectiveness of treatments. [II] Eating late is associated with decreased resting-energy expenditure, decreased fasting carbohydrate oxidation, decreased glucose tolerance, blunted daily profile in free cortisol concentrations and decreased thermal effect of food on Twrist. These results may be implicated in the differential effects of meal timing on metabolic health. [III] C genetic variants in CLOCK 3111T/C display a less robust circadian rhythm than TT and a delayed acrophase that characterizes ‘evening-type’ subjects. We support the notion that identifying CLOCK genotypes in patients may assist the therapist in characterization of the roots of the metabolic problem.
APA, Harvard, Vancouver, ISO, and other styles
9

Climente, Alarcón Vicente. "Aportación al mantenimiento predictivo de motores de inducción mediante modernas técnicas de análisis de la señal." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/15915.

Full text
Abstract:
La presente tesis cuenta con dos objetivos. Por una parte introducir y validar un método de análisis de corrientes estatóricas para el diagnóstico de máquinas de inducción conectadas a la red que operan en estado transitorio, basado en el uso de filtros de rechazo de frecuencia en combinación con la distribución de Wigner-Ville, con especial interés en su aplicación para la detección incipiente de defectos. El segundo objetivo consiste en replicar de la manera más fidedigna posible el proceso de rotura de una barra en el rótor de un motor de inducción. Para ello se ha diseñado un ensayo encaminado a provocar dicha avería sometiendo un motor a fatiga. Con este objetivo se ha construido un banco de pruebas y emplazado los sensores necesarios, así como un sistema de recogida de datos de manera automatizada. Adicionalmente, se ha diseñado los programas de procesamiento de los mismos, también para ser llevado a cabo de la manera lo más desatendida posible.<br>Climente Alarcón, V. (2012). Aportación al mantenimiento predictivo de motores de inducción mediante modernas técnicas de análisis de la señal [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15915<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
10

Zinanyuca, Yábar Miguel Andrés. "Diseño de un sistema registrador del tráfico vehicular con implementación de un algoritmo de análisis predictivo." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17521.

Full text
Abstract:
En la actualidad existe gran congestionamiento en las principales avenidas de Lima, ello se debe a diversos factores entre los que se incluyen la falta de coordinación entre los semáforos, y al exceso de vehículos presentes en las pistas. Es ante esta problemática que se plantea el diseño de un sistema capaz de registrar el volumen del tráfico vehicular para que en base a la data recopilada se pueda elaborar un algoritmo que ajuste los tiempos de los semáforos acorde al volumen vehicular esperado. Este sistema forma parte del concepto de ciudades inteligentes, puesto que, el sistema ajustará los tiempos acorde al tráfico esperado, al mismo tiempo que el sistema se conectará a la nube para la recopilación de resultados y calibración del sistema de captura. En el presente trabajo se realizó la detección de los vehículos, que se encuentran en una vía a los cuales se clasificó según su tipo, mediante la aplicación de procesamiento de imágenes utilizando Deep learning. Dicha información servirá para poder obtener los parámetros de tráfico respecto al nivel de congestionamiento de una vía. Adicional a ello, se realiza una simulación utilizando 5 cruces viales, con lo cual se evidencia una reducción en los tiempos de tráfico mediante la aplicación del algoritmo presentado.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
11

Usó, Talamantes Ruth. "Análisis y desarrollo de un modelo predictivo del gasto farmacéutico ambulatorio ajustado a morbilidad y riesgo clínico." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/56149.

Full text
Abstract:
[EN] Introduction: Changes in population structure, including aging, have a significant impact on chronicity, comorbidity and polypharmacy. In the field of pharmaceutical services, problems with drugs and outpatient pharmaceutical expenditure of this aging, chronic and pluripathological population have a high clinical and economic impact. The risk adjustment systems based on morbidity are useful for monitoring health spending, setting provider payment systems and establishing proactive actions in the field of clinical and pharmaceutical management for chronic patients with polypharmacy. Objective: Analysis and adjustment of outpatient drug spending in Comunitat Valenciana (CV), applying a system of clinical risk population adjustment based on the patient classification called Clinical Risk Groups (CRG) for 2012-2013 and development of an indicator (FarmaIndex) for pharmaceutical expenditure prediction adjusted by morbidity according to the pharmaceutical budget. Methodology: Individual study, descriptive and analytical, based on population and focused on outpatient drug spending in the Valencia area. A first phase of the study was to develop a minimum data set using population information (CMDUP) and obtaining a database of 4.7 million patients containing demographic, clinical activity, clinical risk group assignment, annual pharmaceutical expenditure and other drug use variables. In the first phase of analysis, patients were described attending to the healthcare burden, the use of medicines and the pharmaceutical expenditure, and relating all this to the CRG. In the second phase, it was designed a model for pharmaceutical expenditure adjustment where the dependent variable was the natural logarithm of annual outpatient pharmaceutical expenditure and the independent variables were the main nine health status from the CRG classification in its third level of aggregation with the severity levels established for each of them. The weights of the adjustment model were estimated by least squares. With these weights it was built a case mix system useful in order to establish predictive budgets by health department, health center and physicians. Results: The stratification of patients through the CRG at an individual level is sensitive to the intensity of implementation and the quality of health information systems. It has been identified that 74% of outpatient pharmaceutical expenditure is consumed by patients with one or two dominant chronic diseases (health status 5 and 6), which represent 27% of the population. The average outpatient pharmaceutical expenditure by health status increases as does the comorbidity and severity of patients, finding its peak, in the health status 7 (three dominant chronic diseases). The risk adjustment system based on morbidity and clinical risk that has been developed has a very high predictive power for outpatient pharmaceutical expenditure (60%). The explicative power of the different models increases significantly if morbidity variables are added to demographic variables, increasing from 27.3% to 56.2% of explanation. The severity and clinical risk for the same health status, increases the explicative power by a 3.8%. The inclusion of hospital pharmacy in the model does not improve the degree of explanation achieved (55.9%). The model has not explicative capacity for the pediatric cohort (15.5%), which coincides with that reported by other risk adjustment systems based on chronic diseases. Conclusions: Risk adjustment systems based on morbidity are useful tools for rational drug use management, but they need a solid implementation of health information systems in order to be used for population applications and for the calculation of weights for budget assignment.<br>[ES] Introducción: Los cambios en la estructura de la población tales como el envejecimiento, tienen una importante repercusión en la cronicidad, la pluripatología y la polimedicación. En el ámbito de la prestación farmacéutica, los problemas relacionados con los medicamentos y el gasto farmacéutico ambulatorio de esta población envejecida, crónica y pluripatológica, tiene un alto impacto clínico y económico. Los sistemas de ajuste de riegos, basados en morbilidad, son útiles para monitorizar el gasto sanitario, establecer sistemas de pago a proveedores y para establecer acciones proactivas en el ámbito de la gestión clínica y farmacéutica de los pacientes crónicos y polimedicados. Objetivo: Análisis y ajuste del gasto farmacéutico ambulatorio en la Comunidad Valenciana (CV), aplicando un sistema de ajuste de riesgo clínico poblacional basado en la clasificación de pacientes Clinical Risk Groups (CRG) para el periodo 2012-2013 y desarrollo de un indicador (FarmaIndex) para predecir el gasto farmacéutico ajustado a morbilidad en base al presupuesto de farmacia asignado. Metodología: Estudio individual, de ámbito poblacional, descriptivo y analítico del gasto farmacéutico ambulatorio en la CV. Una primera fase del estudio, ha sido desarrollar un conjunto mínimo de datos de utilización poblacional (CMDUP) obteniendo una base de datos de 4,7 millones de pacientes que contiene variables demográficas, de actividad asistencial, grupo de riesgo clínico asignado, gasto farmacéutico anual y otras variables de uso de medicamentos. En la primera fase, se describe a los pacientes atendiendo a la carga asistencial, uso de los medicamentos y gasto farmacéutico, relacionándolos con los CRG. En una segunda, se ha diseñado un modelo de ajuste de gasto farmacéutico que toma como variable dependiente el logaritmo neperiano del gasto farmacéutico ambulatorio anual y como variables independientes los 9 estados de salud principales de la clasificación de los CRG agregación 3 y los niveles de gravedad establecidos en cada uno de ellos. Los pesos del modelo de ajuste se han estimado por medido del ajuste mínimo cuadrados y con ellos se ha construido un sistema propio de case mix que sirve para establecer presupuestos predictivos por departamento, centro de salud y facultativo. Resultados: Se ha corroborado que la estratificación de pacientes a través de los CRG a nivel poblacional, es sensible al nivel de implantación y la calidad de los sistemas de información sanitaria. Se ha identificado que el 74 % gasto farmacéutico ambulatorio lo consumen los pacientes con una o dos enfermedades crónicas dominantes (estados de salud 5 y 6), que representan el 27% de la población. El gasto farmacéutico ambulatorio medio por estado de salud, aumenta a medida que lo hace la comorbilidad y la gravedad de los pacientes, encontrando su máximo, en el estado de salud 7 (tres enfermedades crónicas dominantes). El sistema de ajuste de riesgo basado en morbilidad y riesgo clínico desarrollado posee un poder predictivo muy elevado para el gasto farmacéutico ambulatorio (60%). La capacidad explicativa de los modelos se incrementa notablemente si se añaden variables sobre morbilidad a las variables demográficas, pasando de un 27,3% a un 56,2% de explicación. El nivel de gravedad y riesgo clínico para un mismo estado de salud, aumenta un 3,8% la capacidad explicativa. La inclusión de la farmacia hospitalaria en el modelo no mejora el grado de explicación conseguido (55,9%). El modelo no ha resultado ser explicativo para la cohorte pediátrica (15,5%), lo cual coincide con lo reportado por otros sistemas de ajuste de riesgo basados en enfermedades crónicas. Conclusiones: Los sistemas de ajuste de riesgos basados en morbilidad son una herramienta muy útil para gestión del uso racional de los medicamentos, pero requieren de una implantación sólida de los sistemas de información sanitaria para su aplicación poblaciona<br>[CAT] Introducció: Els canvis en l'estructura de la població, tals com l'envelliment, tenen una important repercussió en la cronicitat, la multimorbiditat i la polimedicació. En l'àmbit de la prestació farmacèutica, els problemes relacionats amb els medicaments i la despesa farmacèutica ambulatòria d'aquesta població envellida, crònica i multimòrbida tenen, en conseqüència, un alt impacte clínic i econòmic. Els sistemes d'ajust de riscos, basats en la morbiditat, són útils per monitoritzar la despesa sanitària, establir sistemes de pagament a proveïdors i per establir accions proactives en l'àmbit de la gestió clínica i farmacèutica dels pacients crònics i polimedicats. Objectiu: Analitzar i ajustar la despesa farmacèutica ambulatòria en la Comunitat Valenciana (CV) aplicant un sistema d'ajust de risc clínic poblacional en la classificació de pacients -Clinical Risk Groups (CRG)- per al període 2012-2013, i desenvolupar un indicador (Farmalndex) per predir la despesa farmacèutica ajustada a la morbiditat atenent al pressupost de farmàcia assignat. Metodologia: Estudi individual, d'àmbit poblacional, descriptiu i analític de la despesa farmacèutica ambulatòria en la Comunitat Valenciana. La primera fase de l'estudi ha estat desenvolupar una quantitat mínima de dades d'utilització poblacional (CMDUP) obtenint una base de dades de 4,7 milions de pacients que conté variables demogràfiques, d'activitat assistencial, grup de risc clínic assignat, despesa farmacèutica anual i d'altres variables d'ús de medicaments. En la primera fase d'anàlisi es descriu els pacients atenent a la càrrega assistencial, a l'ús de medicaments i a la despesa farmacèutica, relacionant-los amb els CRG. En la segona fase s'ha dissenyat un model d'ajust de la despesa farmacèutica prenent com a variable dependent el logaritme neperià de la despesa farmacèutica ambulatòria anual, i com a variables independents els nou estats de salut principals de la classificació dels CRG agregació 3 i els nivells de gravetat establerts en cadascun d'ells. El pes del model d'ajust s'ha estimat mitjançant l'ajust per mínims quadrats i amb ell s'ha construït un sistema propi de case mix que serveix per establir pressupostos predictius per departament, centre de salut i facultatiu. Resultats: S'ha corroborat que l'estratificació de pacients a través dels CRG a nivell poblacional és sensible al nivell d'implantació i a la qualitat dels sistemes d'informació sanitària. S'ha identificat que el 74 % de la despesa farmacèutica ambulatòria la consumeixen els pacients amb una o dues malalties cròniques dominants (estats de salut 5 i 6) que representen el 27% de la població. La despesa farmacèutica ambulatòria mitjana per estat de salut augmenta a mesura que ho fa la comorbiditat i la gravetat dels pacients, trobant el seu màxim en l'estat de salut 7 (tres malalties cròniques dominants). El sistema d'ajust de risc basat en la morbiditat i risc clínic desenvolupat posseix un poder predictiu molt elevat per a la despesa farmacèutica ambulatòria (60%). La capacitat explicativa dels models s'incrementa notablement si s'afegeixen variables sobre morbiditat a les variables demogràfiques, passant d'un 27,3% a un 56,2% d'explicació. El nivell de gravetat i risc clínic per a un mateix estat de salut augmenta un 3,8% la capacitat explicativa. La inclusió de la farmàcia hospitalària en el model no millora el grau d'explicació aconseguit (55,9%). El model no ha resultat ser explicatiu per a la cohort pediàtrica (15,5%), la qual cosa coincideix amb el que han reportat altres sistemes d'ajust de risc basats en malalties cròniques. Conclusions: Els sistemes d'ajust de riscos basats en la morbiditat són una eina molt útil per a la gestió de l'ús racional dels medicaments, però requereixen d'una implantació sòlida dels sistemes d'informació sanitària per a la seva aplicació poblacional i per al càlcul del pes pr<br>Usó Talamantes, R. (2015). Análisis y desarrollo de un modelo predictivo del gasto farmacéutico ambulatorio ajustado a morbilidad y riesgo clínico [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/56149<br>TESIS<br>Premiado
APA, Harvard, Vancouver, ISO, and other styles
12

CAMACHO, YAGUE ADOLFO. "ANÁLISIS PREDICTIVO DEL PRECIO DE LA ONZA DE PLATA PURA EN PESOS MEXICANOS A TRAVÉS DE SERIES DE TEMPORALES Y SISTEMAS INTELIGENTES." Tesis de Licenciatura, UNIVERSIDAD AUTONOMA DEL ESTADO DE MEXICO, 2015. http://hdl.handle.net/20.500.11799/66897.

Full text
Abstract:
Se decidió concentrar este trabajo en el estudio del comportamiento reciente de la plata (del periodo de enero de 1984 a octubre de 2010) porque ha sido moneda de cambio a través de la historia, refugio de valor en tiempos de incertidumbre, es la segunda materia prima con más aplicaciones sólo después del petróleo además de que el término “plata” es sinónimo de dinero en más de 600 idiomas. El patrón plata existió en muchas regiones del mundo tales como en; Holanda, Dinamarca, Noruega, Alemania, Suecia, Austria o México en el siglo XIX, y fue moneda de curso legal a nivel internacional hasta los años 60´s. Este trabajo estudia de manera técnica cómo ha evolucionado el valor de una onza de plata pura, la series históricas que se utilizan están expresadas en “nuevos pesos mexicanos” (MXN por su símbolo ISO) que reflejan a priori que tan devaluada esta la moneda nacional actualmente.
APA, Harvard, Vancouver, ISO, and other styles
13

Hernández, Mejías Manuel Alejandro. "CONTROL PREDICTIVO BASADO EN ESCENARIOS PARA SISTEMAS LINEALES CON SALTOS MARKOVIANOS." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/68512.

Full text
Abstract:
[EN] In this thesis, invariant-set theory is used to study the stability and feasibility of constrained scenario-based predictive controllers for Markov-jump linear systems. In the underlying optimisation problem of the predictive controllers technique, considers all possible future realisations of certain variables (uncertainty, disturbances, operating mode) or just a subset of those. Two different scenarios denoted as not risky and risky are studied. In the former, the trajectories of the system with initial states belonging to certain invariant sets, converge (in mean square sense) to the origin or an invariant neighbourhood of it with 100% probability. In such cases, the conditions that scenario trees must meet in order to guarantee stability and feasibility of the optimisation problem are analysed. Afterwards, the scenario-based predictive controller for Markov-jump linear systems under hard constraints and no disturbances is formulated. A study is presented for risky scenarios to determine sequence-dependent controllable sets, for which there exists a control law such that the system can be driven to the origin only for a particular realisation of uncertainty, disturbances, etc. A control law (optimal for disturbances-free systems and suboptimal for disturbed systems) able to steer the system to the origin with a probability less than 100% (denoted as reliability bound), is proposed for states belonging to those regions. Note that closed-loop unstable systems have zero reliability bound. Hence, an algorithm to determine the mean-time to failure is developed. In this context, failure means a violation in the constraints of the process' states and/or inputs in a future time.<br>[ES] La presente tesis emplea la teoría de conjuntos invariantes para el estudio de estabilidad y factibilidad de controladores predictivos basados en escenarios para sistemas lineales con saltos markovianos sujetos a restricciones. En el problema de optimización subyacente a la técnica de controladores predictivos, se consideran bien sea todas las posibles realizaciones futuras de una variable (incertidumbres, perturbaciones, modo de funcionamiento) o solo un subconjunto de estas. Se estudian dos escenarios diferentes, denotados como: a) escenarios no arriesgados y b) escenarios arriesgados, entendiéndose como no arriesgados, aquellos en donde las trayectorias del sistema con estados iniciales pertenecientes a ciertos conjuntos invariantes, convergen --en media-- al origen o a una vecindad invariante de este con un 100% de probabilidad. Para estos casos, se presenta un análisis de las condiciones que deben cumplir los árboles de escenarios para garantizar estabilidad --en media-- y factibilidad del problema de optimización. Luego se formula el control predictivo basado en escenarios para sistema lineales con saltos markovianos sujeto a restricciones y en ausencia de perturbaciones. En presencia de escenarios arriesgados, se propone el cálculo de conjuntos controlables dependientes de secuencias para los cuales existen una ley de control tal que el sistema puede ser conducido al origen, solo para una realización en particular de la incertidumbre, perturbaciones, etc. Para estados pertenecientes a estos conjuntos, se propone una ley de control (óptima para el caso de sistemas libres de perturbaciones y, subóptima para sistemas perturbados) capaz de dirigir el sistema al origen con una probabilidad menor al 100%, dicha probabilidad es denotada como cota de confiabilidad. Sistemas inestables en lazo cerrado tienen cota de confiabilidad igual a cero, por consiguiente se diseña un algoritmo que determina el tiempo medio para fallar. En este contexto, un fallo se entiende como la violación de las restricciones en los estados y/o entradas del proceso en algún instante de tiempo futuro.<br>[CAT] La present tesi empra la teoria de conjunts invariants per a l'estudi d'estabili-tat i factibilidad de controladors predictius basats en escenaris per a sistemes lineals amb salts markovians subjectes a restriccions. En el problema d'optimit-zació subjacent a la tècnica de controladors predictius, es consideren bé siga totes les possibles realitzacions futures d'una variable (incerteses, pertorbacions, modes de funcionament) o només un subconjunt d'aquestes. S'estudien dos escenaris diferents, denotats com a escenaris no arriscats i arriscats, entenent-se com no arriscats, aquells on les trajectòries del sistema amb estats inicials pertanyents a certs conjunts invariants, convergeixen --en mitjana-- a l'origen o a un veïnatge invariant d'est amb un 100% de probabilitat. Per a aquests casos, es presenta una anàlisi de les condicions que han de complir els arbres d'escenaris per a garantir estabilitat --en mitjana-- i factibilidad del problema d'optimització. Després es formula el control predictiu basat en escenaris per a sistema lineals amb salts markovians subjecte a restriccions i en absència de pertorbacions. En presència d'escenaris arriscats, es proposa el càlcul de conjunts controlables dependents de seqüències per als quals existeix una llei de control tal que el sistema pot ser conduït a l'origen, solament per a una realització en particular de l'incertesa, pertorbacions, etc. Per a estats pertanyents a aquests conjunts, es proposa una llei de control (òptima per al cas de sistemes lliures de pertorbacions i, subóptima per a sistemes pertorbats) capaç de dirigir el sistema cap a l'origen amb una probabilitat menor del 100%, aquesta probabilitat és denotada com a cota de confiabilitat. Sistemes inestables en llaç tancat tenen cota de confiabilitat igual a zero, per tant es dissenya un algoritme que determina el temps mitjà per a fallar. En aquest context, una fallada s'entén com la violació de les restriccions en els estats i/o entrades del procés en algun instant de temps futur.<br>Hernández Mejías, MA. (2016). CONTROL PREDICTIVO BASADO EN ESCENARIOS PARA SISTEMAS LINEALES CON SALTOS MARKOVIANOS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68512<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
14

Díaz, Jarufe Pablo. "Valor predictivo de los rasgos anatómicos del cráneo utilizados en la estimación visual del sexo en población chilena: un análisis de morfometría geométrica." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/106304.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Roco, Benavides Carlos Elías. "Modelamiento Predictivo para el Aumento de Consumo de Tarjeta de Crédito Sobre el Análisis de Comportamiento Transaccional de Clientes de una Institución Financiera." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103714.

Full text
Abstract:
A nivel de la industria bancaria, del total de tarjetas de crédito circulantes, un 33% de éstas presentan actividad. BancoEstado a Octubre de 2009 posee un total de 400.000 tarjetas, de las cuales sólo un 25% son utilizadas. Lo anterior motiva a tomar acciones para mejorar este indicador, ya que tarjeta de crédito constituye uno de los productos importantes dentro del mix de oferta, tanto por su modelo de negocio de alta rentabilidad como por los beneficios asociados a su mayor utilización, entre los cuales destaca la vinculación de los clientes. El objetivo principal de este trabajo es generar modelos de propensión para incentivar el uso de tarjetas de crédito, principalmente en segmentos de bajo o nulo consumo. Además se busca caracterizar la dinámica de uso de tarjeta de crédito y los perfiles de consumo de los clientes. La metodología utilizada para enfrentar este problema tiene como base el proceso KDD. Dentro de éste se utilizaron las variables transaccionales RFMN con las cuales se segmentó a los clientes en función de su consumo. Adicionalmente se generaron cadenas de Markov que permitieron caracterizar la dinámica de evolución transaccional de los clientes a través del tiempo. En una etapa posterior se perfiló a los clientes con respecto a los tipos de compra y se incorporó esta información en los modelos de propensión, los cuales buscan encontrar las variables que explican el aumento de consumo de un cliente. Los algoritmos testeados fueron RegresiónLogística, Perceptrón Multicapa y Árboles de decisión. Resultado de lo anterior se obtuvo una segmentación con un grupo de clientes inactivos y cinco clusters de clientes con actividad, los cuales se definieron en relación al consumo en la tarjeta de crédito. Dentro del segmento de clientes inactivos se descubrió que sólo un porcentaje cercano al 20% de los clientes volverán a ser clientes activos en el período siguiente. Así también se aprecia que de forma transversal en todos los segmentos activos, el número de rubros distintos donde una persona compra es una de las variables relevantes al momento de determinar si una persona aumentará su consumo. Por otra parte se observa que los clientes de menor consumo utilizan la tarjeta principalmente para pedir avances en varias cuotas, mientras que los de mayor consumo lo hacen para comprar y hacer avances en efectivo. Dentro de las conclusiones de este trabajo se destaca que para el segmento de los clientes inactivos, si este estado se mantiene por más de 8 meses, solamente se deben dirigir esfuerzos de marketing a clientes que poseen deuda en BancoEstado. Para los que presentan inactividad menor a 8 meses, se debe fomentar la adquisición y uso de otros medios de pago (CuentaRUT, Cuenta Corriente, Chequera Electrónica, CuentActiva) ya que esto incrementa la probabilidad de que aumente su consumo en el periodo siguiente. Para los segmentos de clientes activos, se concluye que se deben diseñar campañas que apunten a incrementar el número de rubros donde una persona compra y en particular incentivar el uso de la tarjeta en rubros de alta frecuencia, por ejemplo supermercados y farmacias. En función de lo anterior, se plantean distintas acciones para cada segmento, entre ellas: Campañas informativas de promociones vigentes a los clientes con alta probabilidad de aumento de consumo y acciones activas como metas de consumo para clientes con baja o mediana probabilidad. Entre los trabajos futuros se plantea utilizar la metodología en otras áreas de la empresa donde también se cuente con datos transaccionales o bien en otros medios de pago, y se plantea la posibilidad de reformular la variable dependiente de manera generar modelos de fuga que pudiesen complementar a los existentes en el área.
APA, Harvard, Vancouver, ISO, and other styles
16

Rojas, Linares Edito Luis. "Enfoque predictivo para la optimización del tamaño de fragmentación en base a técnicas de perforación y voladura de rocas." Doctoral thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/16222.

Full text
Abstract:
Presenta una propuesta metodológica para determinar mediante los limites de confianza y dispersión, la granulometría predictiva de un proceso de voladura de rocas. La investigación se describe, como una optimización en las operaciones minero metalúrgicas, porque entregando una óptima fragmentación requerida para los procesos de molienda, se minimizará sus tiempos y maximizará su productividad. Así mismo, cabe mencionar que dicha investigación utiliza las técnicas de Kuznetsov, técnicas de Análisis Multivariante (MVA) y técnicas de Redes Neuronales Artificiales (ANN). Realizando al final una comparación entre dichas técnicas, en función a su efectividad.
APA, Harvard, Vancouver, ISO, and other styles
17

Sánchez, López José Antonio. "Aportaciones al análisis de faltas y técnicas de diagnostico en los accionamientos de reluctancia autoconmutados." Doctoral thesis, Universitat Politècnica de Catalunya, 2018. http://hdl.handle.net/10803/650822.

Full text
Abstract:
`Today, the industry is facing a new way of organizing production, lndustry 4.0, which aims to create smart factories that improve the adaptability of the means of production, not only to produce more and better with lower costs, but also to be able to attend to the personalizad requests of the clients . lndustry 4.0 is based on new technologies such as:artificial intelligence, internet of things, ciber-physical systems, big data, virtual and augmented reality, advanced robotics and additive manufacturing. In this new industrial environment, predictive maintenance will have a much more prominent role than it currently plays in traditional industry. In the industry, the drives with rotary electric motors and especially the drives with asynchronous three-phase motors are one of the industrial equipment to which greater attention has been paid with regard to predictive maintenance plans. In recent years, drives with switched reluctance drives have begun to have some relevance in the industrial field. For these reasons, it is very important to deepen the analysis of faults and fault detection techniques in switched reluctance drives, to implement a predictive maintenance plan. In this thesis, after a brief presentation of the constitution, operation principle and control strategies of the auto-switched reluctance drives, the state of the art of fault analysis and the diagnostic techniques of this type of drives will be presented. After an exhaustive study of the different types of faults in the switched reluctance drives, we will proceed to the simulation of the faults, in our most significant judgment, based on a modeling of the self-commutated reluctance drive by means of finite elements and Matlab-Simulink. After describing the techniques used to diagnose faults that are currently applied in the predictive maintenance of electrical machines. The experimental study of the previously simulated faults will be carried out using two SRD prototypes. One of the prototypes is specially prepared for the simulation of short circuits in the turns of a coil. This study will be done using the most appropriate detection techniques for each type of fault (vibrations, analysis of the currents,...). After the experimental study, the results obtained will be analyzed ,the validity of the simulations will be shown and a predictive maintenance plan will be proposed. Finally, the conclusions will be presented and future lines of research will be pointed out.<br>Hoy por hoy, la industria se enfrenta a una nueva manera de organizar la producción, Industria 4.0, que tiene como finalidad crear fábricas inteligentes que mejoren la adaptabilidad de los medios de producción, no sólo para producir más y mejor con menores costes, sino también para poder atender a las peticiones personalizadas de los clientes. La industria 4.0 se basa en nuevas tecnologías como: inteligencia artificial, internet de las cosas, sistemas ciberfísicos, big data, realidad virtual y aumentada, robótica avanzada y fabricación aditiva. En este nuevo entorno industrial el mantenimiento predictivo tendrá un papel mucho más destacado que el que juega, actualmente, en la industria tradicional. En la industria, los accionamientos con motores eléctricos rotativos y en especial los accionamientos con motores asíncronos trifásicos son uno de los equipos industriales a los que mayor atención se ha prestado en lo concerniente a planes de mantenimiento predictivo. En los últimos años los accionamientos con motores de reluctancia autoconmutados empiezan a tener cierta relevancia en el ámbito industrial. Por estas razones es muy importante profundizar en el análisis de faltas y en las técnicas de detección de estas faltas en los accionamientos de reluctancia autoconmutados, para así poder implementar un plan de mantenimiento predictivo. En esta tesis, tras una breve presentación de la constitución, principio de funcionamiento y estrategias de control de los accionamientos de reluctancia autoconmutados, se presentará el estado del arte del análisis de faltas y de las técnicas de diagnóstico de este tipo de accionamientos. Después de un estudio exhaustivo de los distintos tipos de faltas en los accionamientos de reluctancia autoconmutados, se procederá a la simulación de las faltas, a nuestro juicio más significativas, en base a un modelado del accionamiento de reluctancia autoconmutado mediante elementos finitos y Matlab-Simulink.Tras describir las técnicas utilizadas para el diagnóstico de faltas que se aplican, actualmente en el mantenimiento predictivo de las máquinas eléctricas, se efectuará el estudio experimental de las faltas anteriormente simuladas utilizando dos prototipos de SRD. Uno de estos prototipos está especialmente preparado para la simulación de cortocircuitos en las espiras de una bobina. Este estudio se hará recurriendo a las técnicas de detección más adecuadas para cada tipo de falta (vibraciones, análisis de corrientes,...). Tras el estudio experimental se analizaran los resultados obtenidos, se mostrará la validez de las simulaciones efectuadas y se propondrá un plan de mantenimiento predictivo. Para finalizar se presentaran las conclusiones y se apuntaran futuras lineas de investigación
APA, Harvard, Vancouver, ISO, and other styles
18

Espinoza, Ladera Jhonatan Alfredo. "Análisis predictivo para el cálculo de la valoración del fondo acumulado del afiliado en el Sistema Privado de Pensiones usando técnicas y herramientas de machine learning." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/652592.

Full text
Abstract:
El propósito del presente documento es el desarrollo del proyecto académico que tiene como objetivo plantear un modelo de análisis predictivo soportado por una plataforma tecnológica Cloud basada en técnicas de Machine Learning para pronosticar el fondo acumulado de un afiliado que aporte a un sistema privado de pensiones. Esto surge ante el desconocimiento sobre cómo se administran las finanzas personales en los fondos privados de pensiones representan un riesgo en el manejo del futuro de cada individuo. Esta ausencia de control en la administración del fondo de cada afiliado conlleva a no saber en todo momento a lo qué están expuestos. En la actualidad existen herramientas propias de las entidades administradoras de fondos de pensiones que permiten simular y calcular tanto el fondo como la pensión que recibirá un jubilado, sin embargo, lo que no ofrecen estas herramientas es la posibilidad de proyectar el fondo a partir de factores de crecimiento bajo criterios propios del afiliado que le otorguen la posibilidad de comprar cuál fondo voluntario de pensiones puede ser el más beneficioso al final de la vida laboral. La tecnología ha evolucionado y se aprecia grandes avances con respecto a la captura y almacenamiento de información. Una de estas tecnologías utiliza Cloud Computing, la cual ha crecido en grandes proporciones en diversas industrias y atraen la atención de comunidades de investigación debido a su potencial para implementar soluciones tecnológicas a la medida El desarrollo de este proyecto se llevará a cabo durante los ciclos académicos 2018-1 y 2018-2, realizando el análisis de tecnologías Cloud que soportan el modelo de análisis predictivo soportado por una plataforma tecnológica cloud basada en machine learning para determinar el fondo acumulado de un afiliado que aporte a un sistema privado de pensiones y el diseño del modelo tecnológico propuesto durante el ciclo 2018-1. La validación del modelo tecnológico mediante el desarrollo de la aplicación móvil, la documentación de los resultados y el plan de continuidad del proyecto en el ciclo 2018-2.<br>The purpose of this document is the development of the academic project that aims to propose a model of predictive analysis supported by a platform based on the cloud in the automatic learning to determine the accumulated fund in a private pension system. This arises from the lack of knowledge about how to manage personal finances in private pension funds in the management of each individual's future. This lack of control in the administration of the fund of each affiliate entails a lack of knowledge at all times. Currently, there are own tools of pension fund management entities that allow simulating and calculating both the fund and the pension that a retiree will receive, however, what these tools do not offer is the possibility of projecting the fund from Growth factors under the affiliate's own criteria that give him the possibility of buying which voluntary pension fund can be the most beneficial at the end of working life. The technology has evolved, and great advances can be seen with respect to the capture and storage of information. One of these technologies uses Cloud Computing, which has grown in large proportions in different industries and attracts the attention of research communities due to its potential to implement tailored technological solutions. The development of this project will be carried out during the 2018-1 and 2018-2 academic cycles, performing the analysis of Cloud technologies that support the predictive analysis model supported by a cloud-based technology platform in machine learning to determine the accumulated fund of an affiliate that contributes to a private pension system and the design of the technological model proposed during the 2018-1 semester. The validation of the technological model through the development of the mobile application, the documentation of the results and the plan of continuity of the project in the 2018-2 semester.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
19

Cevallos, Medina Erik Nicolay, and Chunga Claudio Jorge Barahona. "Modelo para automatizar el proceso de predicción de la deserción en estudiantes universitarios en el primer año de estudio." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/656740.

Full text
Abstract:
La presente investigación propone un modelo para la automatización de predicción de la deserción de estudiantes universitarios. Esta investigación surge de una problemática existente en el sector educativo peruano: la deserción estudiantil universitaria; es decir, aquellos estudiantes universitarios que abandonan sus estudios de forma parcial o definitiva. La investigación tiene por finalidad brindar una solución que contribuya a reducir la tasa de deserción universitaria, aplicando tecnologías de análisis predictivo y minería de datos, que detecte anticipadamente a estudiantes con posibilidades de abandonar sus estudios, brindando así a las instituciones educativas mayor visibilidad y oportunidades de acción ante esta problemática. Se diseñó un modelo de análisis predictivo, en base al análisis y definición de 15 variables de predicción, 3 fases y la aplicación de algoritmos de predicción, basados en la disciplina del Educational Data Minig (EDM) y soportada por la plataforma IBM SPSS Modeler. Para validar, se evaluó la aplicación de 4 algoritmos de predicción: árboles de decisión, redes bayesianas, regresión lineal y redes neuronales; en un estudio en una institución universitaria de Lima. Los resultados indican que las redes bayesianas se comportan mejor que otros algoritmos, comparados bajo las métricas de precisión, exactitud, especificidad y tasa de error. Particularmente, la precisión de las redes bayesianas alcanza un 67.10% mientras que para los árboles de decisión (el segundo mejor algoritmo) es de un 61,92% en la muestra de entrenamiento para la iteración con razón de 8:2. Además, las variables “persona deportista” (0,29%), “vivienda propia” (0,20%) y “calificaciones de preparatoria” (0,15%) son las que más contribuyen al modelo de predicción.<br>This research proposes a model for the automation of prediction of university student dropout. This research arises from an existing problem in the Peruvian educational sector: university student dropout; that is, those university students who partially or permanently abandon their studies. The purpose of the research is to provide a solution that contributes to reducing the university dropout rate, applying predictive analysis technologies and data mining, which detects in advance students with the possibility of dropping out of their studies, thus providing educational institutions with greater visibility and opportunities. of action before this problem. A predictive analysis model was designed, based on the analysis and definition of 15 prediction variables, 3 phases and the application of prediction algorithms, based on the Educational Data Mining (EDM) discipline and supported by the IBM SPSS Modeler platform. To validate, the application of 4 prediction algorithms was evaluated: decision trees, Bayesian networks, linear regression, and neural networks; in a study at a university institution in Lima. The results indicate that Bayesian networks perform better than other algorithms, compared under the metrics of precision, accuracy, specificity, and error rate. Particularly, the precision of Bayesian networks reaches 67.10% while for decision trees (the second-best algorithm) it is 61.92% in the training sample for the iteration with a ratio of 8: 2. In addition, the variables "sports person" (0.29%), "own home" (0.20%) and "high school grades" (0.15%) are the ones that contribute the most to the prediction model.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
20

Diaz, Mantilla Francisco Alberto, and Hidalgo Alexander Ocampo. "Desarrollo de un APP basado en modelos predictivos y tecnología GPS para la recomendación y reservas de espacios en playas de estacionamiento." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/657317.

Full text
Abstract:
El presente proyecto de tesis reúne la información del proceso y los sub procesos involucrados en la gestión de venta de eventuales Central Parking Systems S.A., así mismo, las nuevas ideas propuestas para la mejora de los procesos en el campo de Acción. En el capítulo 1, se expondrá el marco teórico el cual estará constituido por los fundamentos teóricos del negocio y las tendencias y tecnologías actuales, también se presentará a la organización, su estructura organizacional, sus objetivos estratégicos y sus procesos. Para cerrar el capítulo 1 se expondrá su problemática. En el capítulo 2, se presentará los objetivos del proyecto tanto generales como específicos junto a sus respectivos fundamentos. Se expondrá los distintos beneficios que traerá consigo el proyecto. Para terminar, se presentará la evaluación comparativa de nuestra solución versus 3 otras soluciones y un detallado análisis. En el capítulo 3, se expondrá todo el modelado de negocio, tendremos los distintos artefactos del UML como el diagrama de casos de uso del negocio, los distintos actores y trabajadores de negocio para finalizar se presentará las especificaciones de casos de uso asociadas a sus reglas de negocio y representados por su diagrama de actividades. En el capítulo 4, se abordarán los temas de análisis de sistema, se presentarán los distintos requerimientos funcionales y no funcionales, como estos requerimientos funcionales son agrupados en distintos paquetes y casos de uso de sistema. En el capítulo 5, donde se definirá la arquitectura de software, es en este capítulo donde se plantean las metas y restricciones de la arquitectura, se plantean las distintas mecánicas que darán soporte de la arquitectura, por último, se tiene las distintas vistas (lógica, implementación, despliegue). En el capítulo 6, podremos apreciar la construcción de los patrones de la solución propuesta, así como el diagrama de patrones y el diccionario de datos En el capítulo 7, se definirá la calidad de software como nuestro plan de pruebas. Estos planes son la parte fundamental del software, brindaran los lineamientos a seguir para poder garantizar la calidad y buen funcionamiento de nuestro sistema En el capítulo 8, abordaremos temas de la gestión del proyecto, se presentará a los principales interesados, la EDT y por último el cronograma de trabajo en un Gantt.<br>This thesis project gathers the information of the process and the sub processes involved in the management of the sale of eventual Central Parking Systems S.A., as well as the new ideas proposed for the improvement of the processes in the field of Action. In chapter 1, the theoretical framework will be exposed, which will be constituted by the theoretical foundations of the business and current trends and technologies, it will also be presented to the organization, its organizational structure, its strategic objectives and its processes. To close chapter 1, its problems will be exposed. In Chapter 2, both general and specific project objectives will be presented along with their respective rationale. The different benefits that the project will bring will be exposed. Finally, the benchmarking of our solution versus 3 other solutions and a detailed analysis will be presented. In chapter 3, all the business modeling will be exposed, we will have the different UML artifacts such as the business use case diagram, the different actors and business workers, to finish, the use case specifications associated with their rules will be presented. of business and represented by its activity diagram. In Chapter 4, the issues of system analysis will be addressed, the different functional and non-functional requirements will be presented, as these functional requirements are grouped into different packages and system use cases. In chapter 5, where the software architecture will be defined, it is in this chapter where the goals and constraints of the architecture are raised, the different mechanics that will support the architecture are raised, finally, the different views (logic, implementation, deployment). In chapter 6, we will be able to appreciate the construction of the patterns of the proposed solution, as well as the pattern diagram and the data dictionary In Chapter 7, we will define software quality as our test plan. These plans are the fundamental part of the software, they will provide the guidelines to follow in order to guarantee the quality and proper functioning of our system. In Chapter 8, we will address project management issues, introduce key stakeholders, the WBS, and finally the work schedule in a Gantt.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
21

Gonzales, Lanasca Felix Junior, Mendoza Jimmy Gerson Mejia, and Pagan Angela Katia Otoya. "Propuesta de mercados alternativos y potenciales para la empresa Sociedad Agrícola Drokasa S.A." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/656695.

Full text
Abstract:
El presente proyecto de investigación es un análisis desde la perspectiva de negocios y estadístico de la empresa Agrokasa. El objetivo principal es encontrar nuevos mercados alternativos en crecimiento que le permitan obtener una mejor rentabilidad por el precio de kilo exportado de palta. Para alcanzar lo mencionado, se llevó a cabo un análisis empresarial que nos permita comprender el contexto y rubro de la empresa. Una vez alcanzado ese objetivo, se aplicó la metodología de la ciencia de datos para encontrar países de destino que son atractivos para Agrokasa. En cuanto al conjunto de datos, se obtuvo de diferentes fuentes públicas y privadas como Veritrade, Trade Map y Adex Data Trade. En consecuencia, se logró identificar 03 mercados alternativos y potenciales, tales como, Rusia, China y Corea Del Sur. En el análisis se utilizaron diferentes herramientas tecnológicas para la compilación, depuración, procesamiento y visualización de los datos, tales como Excel, Power Bi y Python. Con lo cual se demostró la importancia de ver todas las variables en una visualización que nos permite entender el comportamiento de los datos y nos sirve como fundamento para la toma de decisiones. En cuanto a los nuevos mercados, China presento el mayor valor total FOB exportado en el periodo analizado, 2018 -2020. Pese a presentar una tendencia negativa en la Regresión Lineal. Sin embargo, el precio promedio por kilo de palta aun es conveniente. Por otro lado, Rusia fue el mercado con mayores perspectivas de crecimiento y Corea Del Sur con un mejor precio por KG. Finalmente, para todos los mercados se utilizó una técnica de ciencia de datos con aprendizaje supervisado con un enfoque predictivo para pronosticar las importaciones de cada uno de ellos a fin de establecer estrategias comerciales para penetrar en ellos.<br>This paper is an analysis from a business and statistical perspective of the Agrokasa company in order to find new potential markets that allow it to grow in the volume of its avocado exports and in profitability per Kg exported. To achieve the aforementioned, a previous analysis from a business approach has been used, to understand the context and business area. Once this is understood, the methodology of data science has been applied to find destination countries that are attractive to Agrokasa. The data set was obtained from different public and private sources such as Veritrade and Trademap, with which it was possible to identify 03 potential markets that were China, Russia and South Korea. In the analysis, different technological tools were used to compile, debug, process and visualize the data, such as Excel, Power Bi and Python. With which it was demonstrated the importance of seeing all the variables in a visualization that allows us to understand the behavior of the data and serves as a basis for decision-making. China was the market with the highest total FOB value exported in the analyzed period, which was from 2018 -2020, however, with a negative trend, but with a convenient average price. On the other hand, Russia was the market with the best growth prospects and South Korea with a better price per KG. ​Finally, for all markets, a data science technique with supervised learning with a predictive approach was used to forecast the imports of each of them in order to establish commercial strategies to penetrate them.<br>Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
22

Palazón, Bru Antonio. "Nuevos modelos predictivos de enfermedad cardiovascular." Doctoral thesis, Universidad de Alicante, 2016. http://hdl.handle.net/10045/57511.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Adet, Caldelari Ana Celia. "Neoplasias quísticas del páncreas: Análisis descriptivo y factores predictivos de malignidad." Doctoral thesis, Universitat de Barcelona, 2010. http://hdl.handle.net/10803/2320.

Full text
Abstract:
Hasta finales del año 1970 el conocimiento de las lesiones quísticas del páncreas era escaso y se diferenciaba principalmente entre lesiones mucinosas y serosas. A partir del año 1980, el desarrollo y el uso extendido de las nuevas técnicas de imagen incrementó el número de lesiones quísticas detectadas. Se describieron nuevas entidades y su origen, morfología y biología fueron mejor conocidas al poder ser estudiadas con más detalle. <br/>Las neoplasias quísticas (NQ) del páncreas son relativamente infrecuentes, suponiendo el 10% de las lesiones quísticas y el 1% de las neoplasias del páncreas. La neoplasia mucinosa quística (NMQ), el cistoadenoma seroso (CS) y la neoplasia mucinosa papilar intraductal (NMPI) constituyen los diferentes tipos de NQ propiamente dichas y representan más del 90% de este tipo de lesiones. Existen, además, tumores que quistifican por degeneración o por necrosis cuando alcanzan tamaños considerables, como el tumor sólido seudopapilar, el carcinoma ductal y algunos tumores endocrinos, pero que no pueden ser considerados NQ propiamente dichas. <br/>El conocimiento del tipo de NQ es primordial, ya que mientras los CS son asintomáticos y raramente sufren transformaciones malignas, por lo que pueden ser sometidos a seguimiento sin necesidad de tratamiento alguno, las NMQ y las NMPI tienen el riesgo de evolucionar hacia la malignización o de ser una lesión maligna en el momento del diagnóstico, por lo que deben ser vigilados estrechamente y/o resecados con prontitud.<br/>La neoplasia mucinosa papilar intraductal (NMPI) es una lesión pancreática con un alto riesgo de degeneración maligna. Representa aproximadamente el 5% de todas las neoplasias pancreáticas. Se caracteriza por provocar dilatación del conducto pancreático principal y/o de sus ramas, producir abundante secreción mucosa y poder tener una implantación multifocal.<br/>Se ha observado que la presencia de síntomas y un tamaño del tumor superior a 30 mm en estos pacientes hace que sea más posible la existencia de malignidad. La resección quirúrgica del mismo en estos casos además de aliviar los síntomas puede evitar la progresión del tumor a carcinoma invasivo si se practica en el momento oportuno.<br/>La supervivencia a los cinco años después de la resección curativa es superior al 80% cuando los tumores no son invasivos y oscila entre el 27 y el 60% en los pacientes operados con carcinoma invasivo.<br/>El conocimiento más amplio de estos tumores puede ayudar a su manejo clínico. Es importante, poder conocer los pacientes que tienen riesgo de presentar degeneración maligna sobre este tipo de neoplasia y poder así indicar la cirugía antes de la aparición del cáncer. Por esta causa llevamos a cabo este estudio con el fin de evaluar la incidencia, características y supervivencia de los pacientes con NQ y conocer las características de las NMPI y determinar si existen factores predictivos de malignidad. <br/><br/>OBJETIVOS:<br/><br/>- Evaluar la incidencia, características y supervivencia de los pacientes con neoplasia quística (NQ) atendidos en nuestro hospital en un período de 12 años. <br/><br/>- Analizar las características de las NMPI e identificar factores predictivos de malignidad.<br/><br/>MATERIAL Y MÉTODO:<br/><br/>Análisis retrospectivo de todos los pacientes diagnosticados en nuestro hospital de NQ por tomografía computarizada abdominal (TC), colangio-resonancia magnética (CRM) y/o ultrasonografía endoscópica (USE), desde enero de 1997 a diciembre de 2008.<br/>Se evaluó el sexo, la edad, el año de diagnóstico, la forma de presentación, el origen, cuantificación del CA 19.9 sérico, la localización y el tamaño del tumor, tratamiento (seguimiento o tipo de cirugía), diagnóstico histológico (localización y tamaño del tumor, presencia de nódulos e invasión del tumor) y la supervivencia. <br/><br/>a) Cirugía<br/><br/>Todos los pacientes sometidos a cirugía fueron intervenidos por el mismo equipo quirúrgico. Se operaron los pacientes con tumor mayor de 30mm, los que presentaron sintomatología y/o los que presentaban citología con atipias en la punción aspiración con aguja fina (PAAF).<br/><br/>b) Seguimiento<br/><br/>Todos los pacientes fueron evaluados cada 6 meses, el seguimiento incluyó examen físico, análisis de sangre y al menos una prueba de imagen. Cuando el seguimiento no se pudo completar, se contactó con el paciente o sus familiares telefónicamente. Se realizó un seguimiento mínimo de 6 meses y la fecha de fin de seguimiento fue el 31 de junio de 2009. <br/><br/>c) Análisis estadístico<br/><br/>Se utilizó la prueba de t de Student para calcular las medias de la edad, CA 19.9, tamaño del tumor y días de seguimiento. Se empleó la prueba de &#935;2 para comparar las variables cualitativas.<br/>Se realizó un análisis uni y multivariante para identificar factores predictivos de malignidad. <br/>Utilizamos la curva ROC (receiver-operating characteristic) para determinar matemáticamente los mejores valores de corte para predecir la malignidad. Se definen los mejores valores matemáticos de corte, como los correspondientes a los puntos localizados en la curva de ROC, más alejados de la línea de referencia. Calculamos así la sensibilidad y especificidad. <br/>Se consideró tiempo de supervivencia el transcurrido desde la fecha de diagnóstico hasta la última visita o muerte del paciente. La supervivencia se calculó con el método de Kaplan-Meier, utilizando intervalos de confianza del 95% y el test de rangos logarítmicos.<br/>Se consideró significativa una p <0,05. Todos los análisis se realizaron con el paquete estadístico SPSS para Windows (versión 16.0; SPSS Inc. Chicago, IL, Estados Unidos).<br/><br/>RESULTADOS: <br/><br/>Durante el período del estudio se atendieron en nuestro hospital 120 pacientes con NQ del páncreas, de los cuales fueron excluidos dos por deficiencias en la recogida de datos y en el seguimiento y uno por cambio de diagnóstico durante el estudio.<br/>Se analizaron 117 pacientes lo que supone una incidencia de 8 pacientes al año, aunque el 56% fueron diagnosticados en los últimos 4 años. <br/>a) Características globales de los pacientes<br/>La edad media de los pacientes fue de 63+14 años y el 56% eran mujeres. Para el diagnóstico se realizó TC abdominal al 53% de los pacientes, CRM al 60,7% y USE al 67,5%. La punción aspiración con aguja fina (PAAF) se practicó al 50,4% de los pacientes. Fueron sometidos a dos o más pruebas diagnósticas 79 pacientes (67,5%). De los 117 pacientes, 88 fueron diagnosticados de NMPI, 21 de CS y 8 de NMQ. <br/>El hallazgo fue casual en 52 pacientes (44,5%), siendo la forma de presentación significativamente más frecuente (p<0,034). Manifestaron dolor abdominal 30 (25,6%) y 23 (19,6%) pacientes tenían antecedentes de uno o varios episodios de pancreatitis aguda.<br/>La localización más frecuente fue en la cabeza del páncreas, 62 (53%) tumores. Otras localizaciones fueron en la cola pancreática 25 (21,4%) tumores, en el cuerpo 12 (10,3%), en el proceso uncinado 5 (4,2%) y fueron difusos 13 (11,1%).<br/>La media de tamaño del los tumores, según las técnicas de imagen, fue de 32+22,8mm (27-37mm). En los pacientes sometidos a cirugía, según el estudio anatomopatológico, el tamaño medio fue de 33+19,4mm (rango 28-37mm).<br/>El tratamiento fue la cirugía en 81 pacientes (69,2%). El tipo de cirugía más frecuente fue la duodenopancreatectomía cefálica en 41 (50,6%) pacientes, seguida de pancreatectomía distal en 27 (33,3%), pancreatectomía total en 7 (8,7%) y otros tipos de cirugía en 6 pacientes (7,4%). El estudio anatomopatológico mostró malignidad en 27 de los pacientes operados (33,3%), de éstos 8 (29,6%) fueron carcinoma "in situ" y 19 (70,3%) invasivos. El tiempo medio de seguimiento fue de 96,2 meses (rango 78-113,5 meses). Al final del seguimiento habían fallecido 15 pacientes (13%), un cistoadenoma seroso, dos NMQ y 12 NMPI. <br/><br/>CONCLUSIONES: <br/><br/>Las NQ son mayoritariamente hallazgos casuales, aunque debe tenerse en cuenta como causa de pancreatitis aguda. <br/>En las NMPI la presencia de síntomas y el tamaño del tumor son factores predictivos independientes de malignidad y deben tenerse en cuenta en el momento de decidir la actitud terapeútica. <br/>El tratamiento quirúrgico de las lesiones premalignas, en el momento oportuno, puede evitar la evolución hacia carcinoma pancreático.
APA, Harvard, Vancouver, ISO, and other styles
24

Serrano, García Javier. "Aspectos de implementación y análisis de robustez en CPBM." Doctoral thesis, Universitat Autònoma de Barcelona, 1994. http://hdl.handle.net/10803/3061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Rojas, Alabarce Matías Nicolás. "Forecasting activity using sentiment indicators : the case of Chile." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/138586.

Full text
Abstract:
Tesis para optar al grado de Magíster en Análisis Económico<br>In this article we evaluate, in several dimensions, the ability of two sentiment indicators, consumers and business, to forecast year-on-year variation of Chilean activity. We do in-sample and out-of-sample exercises to evaluate predictive capacity. In out-of-sample exercises, when we predict activity using a constant we find that the business confidence indicator (BCI) have the capacity to improve forecasts, the economic perception index (EPI) do not shown predictive capacity in a naïve context. Adding a univariate structure, the results continue to show predictive ability for the BCI, the variable improve forecast for horizons 1 to 12 month ahead, for the EPI the results show predictive ability in medium term forecast, 9 and 12 months ahead. When we use the model proposed by Urrutia and Sanchez (2008) (USM), BCI continues to show predictive ability, but by itself, on average, does not deliver better forecasts that USM. For EPI we find predictive ability in out-of-sample exercises for medium term forecast. The hit rate exercises shows that BCI and EPI correctly predict changes in direction of activity in most horizons. We conclude that business confidence indicator can be use as a leading indicator of Chilean activity. A contribution of this paper is use Clark and West (2007) test in iterative method of forecast.
APA, Harvard, Vancouver, ISO, and other styles
26

Almeida, Marcio Augusto Afonso de. "Aplicação de métodos estatísticos e computacionais para o estudo da cis-regulação da expressão gênica." Universidade de São Paulo, 2010. http://www.teses.usp.br/teses/disponiveis/95/95131/tde-14122010-095648/.

Full text
Abstract:
Ferramentas bioinformática têm se tornado a escolha para auxiliar pesquisadores tanto para a anotação de novos genes, como para estudar genes em condições fisiológicas de interesse. Entre essas ferramentas destacam-se os algoritmos de agrupamento filogenético e os algoritmos de predição de padrões curtos de DNA, como, por exemplo, predições de sítios para ligação de fatores de transcrição. Desenvolver uma abordagem mista com o objetivo de agrupar genes baseando-se unicamente nos sinais transcricionais preditos em suas seqüências é um desafio de difícil transposição. No presente trabalho, apresentamos nossos resultados para tentar superar tal limitação que podem ser subdividos em duas seções: a primeira aonde desenvolvemos uma abordagem para a melhoria das predições computacionais de sítios de ligação e a segunda, onde passamos a agrupar genes com base nos seus sinais transcricionais preditos em seqüências conservadas flanqueadoras. A primeira seção de nosso trabalho foi focada no estudo de uma seqüência de indução de transcrição próxima ao gene Aldh1a2 de camundongo aonde foram preditos sítios para fatores de transcrição que foram posteriormente testados biologicamente e se mostraram associados ao controle da expressão desse gene. A partir de uma profunda pesquisa bibliográfica, nós determinamos um grupo de 57 fatores de transcrição já associados com a especialização de subpopulações de neurônios durante o desenvolvimento neuroembrionário de vertebrados. Nossa abordagem de seleção de sítios de alto valor biológico foi agora testada em seqüências conservadas próximas a cada um desses genes que codificam esses fatores de transcrição associados e os sítios de ligação para fatores de transcrição foram preditos. Tais sítios foram contabilizados e utilizados com entrada para nossa abordagem de agrupamento. A análise dos resultados do agrupamento determinou que, nossa abordagem se mostrou suficientemente sensível para construir uma árvore solução com boas relações com os padrões, já conhecidos, de expressão para esses genes agrupados. Essa abordagem poderá ser utilizada tanto para anotar funcionalmente genes de interesse quanto para minerar informações dentro de um grupo de genes previamente selecionado.<br>Bioinformatics tools are becoming the choice for aiding scientists for gene annotation and for studying gene in physiological conditions of interest. Among those efforts, phylogenetics clustering algorithms and tools for predicting short DNA patterns, such as binding sites for transcription factor, are outlined as essential. To develop a mixture procedure merging this two distant fields of bioinformatics research is a challenge hard to overcome. In the present study, we present our results of trying to overcome such limitation and it be easily subdivided in two distinct sections: initially we develop a procedure to improve the computational prediction of binding site for transcription factors and the second one where genes were grouped based solely in their transcriptional patterns predicted in conserved flanking sequences. The first section of the present study was focused in the study of an enhancer near Aldh1a2 gene in mouse where binding sites were predicted and latter biologically tested and showed strong influence in expression control of this gene. By a comprehensive bibliographic research we determined a group of 57 transcription factors which were already associated with neuron subpopulations specialization during the neuroembryonary development in vertebrates. Our computational procedure for selection of high biological value binding sites was applied in conserved flanking sequence in each of these genes encoding these associated transcription factors and a large group of binding sites were predicted. This sites were counted and use as an input for our clustering procedure. Clustering results analyses determined that our procedure showed to be sufficiently sensible to construct a solution tree showing good relations with, already determined, expression patterns of grouped genes. This procedure could be for functionally annotation of genes and for data mining in a group of already determined genes of interest.
APA, Harvard, Vancouver, ISO, and other styles
27

Ibarra, Mares Alberto. "Análisis de las dificultades financieras de las empresas en una economía emergente: las bases de datos y las variables independientes en el sector hotelero de la bolsa mexicana de valores." Doctoral thesis, Universitat Autònoma de Barcelona, 2001. http://hdl.handle.net/10803/3941.

Full text
Abstract:
Este trabajo desarrolla de forma muy detallada la primera fase de un modelo predictivo para evaluar el éxito o fracaso empresarial dentro de un sector muy específico en una economía emergente, como es el caso de México dentro del sector hotelero que cotiza en la Bolsa Mexicana de Valores. Esta situación conlleva importantes particularidades por el aspecto tan "sui generis" que presenta el análisis financiero en empresas de economías emergentes. <br/><br/>En general los modelos predictivos presentan dos fases para su desarrollo que son muy complejas y de igual importancia, y sin embargo, en la primera de ellas poco se ha trabajado en términos de una estrecha relación conceptual-empírica.<br/><br/>La primera fase comprende el estudio y estructuración detallada de la base de datos para evitar el efecto window dressing, mantener la utilidad y confiabilidad del sistema contable a través de los años para su comparabilidad, y llegar al máximo grado de armonización conceptual entre los diferentes estados financieros utilizados.<br/><br/>Continuando con esta fase, el siguiente paso consiste en que con la base de datos se estima un conjunto de ratios financieros previamente seleccionados dentro de un marco teórico bien fundamentado, el cual también incluye la definición conceptual de la variable dependiente. Si esto se ha cumplido, sólo entonces se debería proceder a utilizar un método mulvariable reductivo, como el análisis factorial, para determinar un conjunto de factores y eliminar al mismo tiempo aquellos ratios que presenten una alta multicolinealidad. Esto es con el fin de llegar a obtener los ratios finales que representarán a los factores con base en su alta correlación entre cada factor y cada ratio emparejado. Una vez llevado a cabo lo anterior es de suma importancia que al factor se le asigne un nombre clave de acuerdo al marco teórico que presentó originalmente el ratio para su interpretación financiera.<br/><br/>Para concluir con la metodología propuesta, se recomienda no pasar por alto la importancia que conlleva seleccionar adecuadamente el sector de la unidad de análisis, la unidad temporal, la muestra y la unidad geográfica. De no ser posible llevar con éxito el desarrollo de la primera fase en términos generales, consideramos que definitivamente no se debería proceder al desarrollo de la segunda fase, pues el modelo adolecería de un sustento conceptual y empírico confiable.<br/><br/>En cuanto a la segunda fase y siguiendo a Altman (1968), el modelo se enfoca a determinar la variable dependiente de forma categórica e incorporar en una función lineal los ratios seleccionados como variables independientes, asignándoles una ponderación individual a cada uno de ellos y aplicando un método multivariable clasificatorio, como el análisis discriminante o el análisis logit, con el fin de obtener un indicador global denominado Z-Score que presenta porcentajes de exactitud y de errores predictivos.<br>This investigation develops in a very detailed form the first phase of a predictive model in order to evaluate corporate success or failure in a specific industrial sector in an emerging economy, such is Mexico's case with the hospitality industry that lists in the Mexican Stock Exchange. This situation brings important peculiarities due to its "sui generis" aspect which presents the financial analysis of firms in emerging economies.<br/><br/>In general, predictive models present two complex and equally important phases for their development, and the work realized during the first of these phases has been very narrow in its empiric-conceptual relation.<br/><br/>The first phase includes the study and detailed structuring of the data base in order to evade the window dressing effect, to maintain the usefulness and trustfulness of the accounting system through out the years for their comparison, and to achieve the highest grade of conceptual harmonization of the financial statements most commonly used.<br/><br/>Along the same phase, the next step consists in estimating a group of financial ratios previously selected inside a well-founded theoretical frame by using the data base; this frame also includes the conceptual definition of the dependent variable. If this has not been accomplished, only then could a reductive multivariable method be used, for example, the factorial analysis to determine a group of factors and to eliminate at the same time, those ratios that represent high multicolineality . The purpose here is to obtain the final ratios that will represent the factors based on their high correlation between each factor and each matched ratio. Once this is finished, it is very important to assign a key name to each factor according to the theoretical frame originally presented by the ratio for its financial interpretation.<br/><br/>To conclude with the proposed methodology, it is recommended not to ignore the importance of dealing with the accurate selection of the sector's unit of analysis, the temporal unit, sample and geographic unit. In general terms, if succeeding with the development of the first phase is not possible, it is considered not to proceed to the development of the second phase, due to the model's lack of conceptual support and empiric trustfulness.<br/><br/>Concerning the second phase and following Altman (1968), the model focuses on determining the dependent variable in a categorical form and in incorporating the selected ratios in a linear function as independent variables, assigning to each one of them an individual weight and applying a classificatory multivariable method, for example, the discriminant analysis or logit analysis, with the purpose of obtaining a global indicator denominated Z-Score which presents accuracy percentages and predictive errors.
APA, Harvard, Vancouver, ISO, and other styles
28

Quachio, Raphael. "Análise do algoritmo PLS-PH para identificação de sistemas." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/3/3139/tde-29062012-145724/.

Full text
Abstract:
O presente texto tem por objetivo avaliar diferentes aplicações do algoritmo PLS-PH (Partial Least Squares Prediction Horizon), desenvolvido por (LAURI et al., 2010) para a identificação de sistemas, com o objetivo de desenvolvimento de controladores MPC. Desta maneira, é avaliada a capacidade do algoritmo gerar modelos lineares para realizar predições múltiplos passos à frente, para sistemas SISO e MIMO, com dados coletados em malha fechada. É também avaliada a capacidade do algoritmo de identificar modelos não-lineares baseados na estrutura NARX polinomial.<br>The objective of this work consists in evaluating different applications of the PLS-PH (Partial Least Squares Prediction Horizon) algorithm, developed by (LAURI et al., 2010), in order to identify models for MPC controllers. The algorithms capacity of producing linear models capable of performing multiple steps-ahead prediction for both SISO and MIMO systems, with data collected in closed-loop. The algorithms capability of identifying non-linear models with the NARX polynomial structure is also evaluated.
APA, Harvard, Vancouver, ISO, and other styles
29

Ramos, Guerrero Félix Giovani. "Modelamiento del deterioro de la bebida isotónica sabor mandarina causado por Fusarium oxysporum, usando el modelo logístico de la microbiología predictiva." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2014. https://hdl.handle.net/20.500.12672/3799.

Full text
Abstract:
Para prevenir que el consumidor rechace las bebidas deterioradas por mohos, es importante evaluar la probabilidad de que una determinada bebida sea deteriorada microbiológicamente antes que alcance su vida útil. Los modelos matemáticos, que son capaces de predecir el efecto de diferentes factores sobre el crecimiento fúngico, mejoran la toma de decisiones de la vida útil y optimizan las medidas de control durante la producción, siendo de gran utilidad como herramientas efectivas en el control de calidad de la industria de bebidas. Por esta razón, el objetivo principal de esta investigación fue usar el modelo logístico de la microbiología predictiva para determinar la probabilidad de crecimiento de Fusarium oxysporum en la bebida isotónica sabor mandarina, frente a dos condiciones de temperaturas de almacenamiento: 20 y 30 °C y a dos cargas de inóculo: 100 y 101 esporas/100 mL de bebida isotónica. Los resultados mostraron que el deterioro ocurrió más rápido a 30 °C con una carga de 101 esporas/100 mL de bebida isotónica (con un RMSE “Raíz del Error Cuadrático Medio” = 5.9196) que a 20 °C con 100 esporas/100 mL de bebida isotónica (RMSE = 5.4397) y el tiempo al crecimiento de Fusarium oxysporum decrece en función del incremento tanto de la temperatura de almacenamiento como del tamaño del inóculo. El menor valor de t10% (67.04 horas), que representa el tiempo que da la alerta a la industria de bebidas para recuperar los productos del mercado por un caso de contaminación, se obtuvo con un tratamiento de 101 esporas/100 mL de bebida isotónica a 30 °C. Este estudio logró demostrar que incluso a muy bajas concentraciones de inóculo, la bebida isotónica es deteriorada fácilmente por Fusarium oxysporum y el modelo logístico proporciona a la industria de bebidas un método rápido y de bajo costo para estimar el efecto de la temperatura de almacenamiento y tamaño del inóculo en la bebida isotónica.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
30

Sanchís, Saez Javier. "GPC mediante descomposición en valores singulares (SVD). Análisis de componentes principales (PCA) y criterios de selección." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4924.

Full text
Abstract:
El control predictivo basado en modelos o Model Predictive Control (MPC), no hace referencia al diseño concreto de un controlador sino más bien a un conjunto de ideas o características para el desarrollo de estrategias de control que, aplicadas en un mayor o menor grado, dan lugar a diferentes tipos de controladores con estructuras similares. El MPC es una de las técnicas de control que más se ha desarrollado en los ámbitos académico e industrial en las últimas décadas debido sobre todo a su simplicidad y eficiencia. Sin embargo, no es fácil relacionar los parámetros de ajuste del controlador y las prestaciones del bucle cerrado. En este sentido, es importante diseñar algoritmos de control predictivo que garanticen la estabilidad nominal del bucle cerrado, con tiempos de cálculo pequeños y con un significado claro de sus parámetros sobre las prestaciones del sistema o sobre el esfuerzo de control. La aportación fundamental de esta tesis está relacionada con la definición de un nuevo tipo de controlador predictivo, el PC-GPC, versión modificada de un GPC estándar. En este controlador se ha sustituido el factor de ponderación de la acción de control por un nuevo parámetro denominado número de componentes principales (NPC). La relación entre el nuevo parámetro (NPC) y algunos indicadores numéricos, como la norma del vector de acciones de control o el número de condición de la matriz dinámica G, hacen que su elección esté basada en criterios menos subjetivos que la ponderación de las acciones de control. Además, se ha analizado este tipo de controlador tanto en el ámbito de procesos SISO como MIMO, así como sus características de robustez y estabilidad. Por otro lado, se ha deducido un método de cálculo de un controlador PC-GPC para garantizar la estabilidad nominal de bucle cerrado, cuando el modelo conocido es exacto.<br>Sanchís Saez, J. (2002). GPC mediante descomposición en valores singulares (SVD). Análisis de componentes principales (PCA) y criterios de selección [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4924<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
31

Macarulla, Mercadé Teresa. "Análisis molecular en tumores de páncreas avanzados para identificar biomarcadores predictivos de respuesta a nuevas drogas biológicas." Doctoral thesis, Universitat Autònoma de Barcelona, 2015. http://hdl.handle.net/10803/377464.

Full text
Abstract:
El cáncer de páncreas es una enfermedad con un pronostico infausto en el momento actual. Durante los últimos años se ha realizado un esfuerzo para intentar mejorar el tratamiento oncológico de este tumor, no obstante, la supervivencia de los pacientes con un cáncer de páncreas avanzado no llega a los doce meses de vida como media. Las previsions para la próxima década son que el cáncer de páncreas será la segunda causa de muerte por cáncer en Estados Unidos. El motivo de este pronóstico es la falta de estrategias para diagnosticar la enfermedad en estadios iniciales, y por lo tanto potencialment curables, y el fracaso del tratamiento oncológico. El major conocimiento de la biologia del cáncer de páncreas ha permitido definir a este tumor como heterogeneo, así como identificar las mutacions más frecuentes en la mayoría de los tumores de páncreas. Por desgracia, hasta el momento actual estas alteracions biológicas no se ha conseguido que sean dianas terapéutica. En los últimos años somos testigos de la identificación de alteracions moleculares presentes en un porcentaje pequeño, pero potencialment son dianes terapéuticas. En esta tesis se ha realizado un esfuerzo durante cuatro años de recoger la información clínica y biológica de los pacientes con un cáncer de páncreas que han participado en el programa de pre-screening molecular del Hospital Universitari Vall d´Hebrón de Barcelona. El objetivo de esta tesis es profunditzar en el conocimiento de la biologia molecular del cáncer de páncreas, y seguir buscando nuevas alteracions moleculares potenciales dianes terapéuticas. Con ello conseguiríamos augmentar las armes terapéuticas para luchar contra esta enfermedad. La mutación mas frecuente en el cáncer de páncreas es la de KRAS. Por este motivo, una parte importante del análisis de la tesis se ha centrado en profunditzar en el conocimiento de esta alteración en el cáncer de páncreas. Durante años han mejorado las técnicas que permiten diagnosticar mutaciones presentes en este tumor, aumentando la sensibilidad de las mismas, y permitiendo así una mayor aproximación a la biologia del tumor. Al mismo tiempo, y en la misma línia, se ha investigado el beneficio de la participación de los pacientes afectos de un cáncer de páncreas que han progresado al tratamiento considerado estandar, en un estudio fase I dentro de la Unidad de Fases I de l´Hospital Universitari Vall d´Hebrón. Esta tesis es un principio para continuar trabajando en la misma dirección, aprendiendo de las dificultades que han ido apareciendo a lo largo del desarrollo de la misma.<br>Pancreatic cancer presented a dismal prognosis. During the last years an efford has been done in order to improve the results of the chemotherapy in this tumor, however, the overall survival in these patients is less than twelve months. A recent publication suggested that in the next decade pancreatic cancer will be the second leading cause of cancer related dead. The reason is that we don´t have a protocol for diagnosed the tumor in an early stage, when it is potencially curable, and also the lack of effective treatments. The improvement in the knowledge of the biology of the pancreatic neoplasm had allowed to define this tumor as heterogeneous disease, and also define the most common mutations in the pancreatic tumor. Unfortunatelly these mutations are not therapeutic targets. In the last years we identify a mutations, with low frequency, that are target therapies. This tesis is an efford durting four years to collect clincal and biological information of the patients who have participated in the molecular pre-screening of the Vall d´Hebrón University hospital in Barcelona. The objective of this work is to deep in understanding the biology of pancreatic cancer, and also identify potential target therapies. With it we can increase the weapons to treat pancreatic cancer. The most freqüent mutation in pancreatic cancer is KRAS, for this reason, in this tesis we focused on deeping the understanding of this alteration. During years we have improved the sensitivity of the techniques that allow the diagnosis of these molecular alterations, thus allowing a better understanding of pancreatic cancer biology. We also investigate the benefit of the participation of the patients with an advanced pancreatic cancer that progressed to standard therapy to participated in a phase I trial in the Unidad de Fases I de l´Hospital Universitari Vall d´Hebrón. This work is a principle to continue working in the same direction
APA, Harvard, Vancouver, ISO, and other styles
32

Ramirez, Miguel Arjona. "Codificador preditivo de voz por análise mediante síntese." Universidade de São Paulo, 1992. http://www.teses.usp.br/teses/disponiveis/3/3142/tde-11052017-144144/.

Full text
Abstract:
Os codificadores preditivos de voz por analise-mediante-síntese vem sendo amplamente aplicados em telefonia móvel celular e em telecomunicações sigilosas. A predição linear do sinal de voz e as técnicas de análise-mediante-síntese são apresentadas de forma a relacionar algumas características perceptivas da audição humana as técnicas e parâmetros usados no processamento de sinais. Esta classe de codificadores e descrita no contexto do codificador preditivo excitado por códigos. Estruturas especiais do codificador tais como livros de códigos adaptativos, esparsos e definidos por base vetorial são abordadas bem como melhoramentos de processamento tais quais as buscas com ortogonalidade. Propõe-se um novo codificador, o codificador preditivo linear com excitação decomposta em vetores singulares, que complementa uma representação recentemente anunciada da excitação da voz com buscas em livros de códigos adaptativos. Os resultados de um estudo de codificadores principais desta classe são apresentados. A analise comparativa baseia-se em medidas objetivas temporais e espectrais. Um estudo suplementar de seleção espectral das características da excitação e de quantização do conjunto completo de parâmetros do codificador proposto revelou resultados interessantes sobre a representação espectral adaptativa e sobre a sensibilidade a quantização das características da excitação.<br>Analysis-by-synthesis linear predictive speech coders are widely applied in mobile and secure telecommunications. Linear prediction of speech signals and analysis-by-synthesis techniques are presented so that some perceptual features of human hearing may be related to signal processing techniques and parameters. The basic operation of this class of coders is described in the framework of the code-excited predictive coder. Special coder structures such as adaptive, sparse and vector-basis codebooks are introduced as well as processing enhancements such as orthogonal searches. A recently introduced representation of voice excitation is complemented by adaptive codebook searches to give rise to the new proposed coder, the singular-vector-decomposed excitation linear predictive coder. The sults of a study of some important coders in this class is present. The coders are compared on the basis of waveform and spectral objective distortion measures. A further study of spectral selection of excitation features, and quantization of the whole set of parameters is performed on the proposed coder. Some interesting results are described concerning the adaptive spectral representation and the sensitivity to quantization of the excitation features.
APA, Harvard, Vancouver, ISO, and other styles
33

Navarro, Ferrer Ferrán. "Modelos predictivos de las características prestacionales de hormigones fabricados en condiciones industriales." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/67272.

Full text
Abstract:
[EN] Nowadays concrete is the most used material in construction. This is because of its malleability, its ability to resist compressive and its economy. The benefits of concrete depend on its composition, curing conditions and the blending method and conditions. The basic specifications of this material, demanded by the petitioner to the manufacturer, are the compressive strength and the consistency, which indicates the workability. This thesis is a contribution to the knowledge and research of the influence that different parameters have on the compressive strength and on the consistency of the concrete produced in industrial conditions, and also contributes to the performance of predictive modelling with these characteristics. Most of the concrete used in construction is manufactured in ready-mixed concrete plants or in plants of construction. The characteristics of this concrete are the following: a strength between 25 and 30 N/mm2, soft or fluid consistency, placed by pouring or pumping and compacted by vibration. The conditions of production on the plant are affected by conditions of the industrial process and the business itself; being the amount of water in the mixture indirectly controlled. This paper presents an extensive database of thousands of test results on compressive resistance and consistency of the concrete produced in the same plants and varying the dosage, type of cement and additives. There are also taken into account other aspects such as the inclusion of fibres, the concrete and room temperature or when the concrete specimens are made. A second database is created by tests performed on a short period of time with the same cement and additive and taking into account the exact water-cement relationship. Furthermore, a convenient characterization of the constituent materials of the tested concrete has been done. To analyse the influence of different parameters and technological and environmental factors on the compressive strength, in the evolution of it over time, and on the consistency of concrete, firstly classical statistics has been used, more precisely multiple linear regression, analysis of variance (ANOVA) and multivariate analysis have been used. It has also been verified the fit of the experimental data to the models existing in literature and to the new proposed behaviour models. Finally artificial neural networks have been developed to predict the compressive strength or the consistency of concrete depending on input variables, as well as for obtaining behaviour models. The results obtained by the application of artificial neural networks are proofed to be more efficient and better than those obtained by statistical methods.<br>[ES] En la actualidad el hormigón es el material más empleado en la construcción debido a su moldeabilidad, a su capacidad de resistir esfuerzos de compresión y a su economía. Las prestaciones del hormigón dependen de su composición, de las condiciones de curado y del método y condiciones de mezclado. Las especificaciones básicas del hormigón demandadas por el peticionario al fabricante son la resistencia a compresión y la consistencia, que indica la trabajabilidad del mismo. Esta tesis es una contribución al conocimiento y la investigación de la influencia de diferentes parámetros en la resistencia a compresión y la consistencia del hormigón fabricado en condiciones industriales y la elaboración de modelos predictivos de dichas características prestacionales. La mayor parte de los hormigones que se emplean en construcción se fabrican en centrales de hormigón preparado o en centrales de obra, y se corresponden con hormigones de resistencia entre 25 y 30 N/mm2, consistencia blanda o fluida, colocación mediante vertido o bombeo y compactación mediante vibración. Las condiciones de producción de hormigones en planta se ven afectadas por los condicionantes del proceso industrial y del negocio en sí, siendo controlada la cantidad de agua existente en la mezcla indirectamente. En este trabajo se presenta una extensa base de datos construida con miles de resultados de ensayos de resistencia a compresión y consistencia realizados sobre hormigones fabricados en la misma planta y con diferentes dosificaciones, tipos de cemento y aditivos. Se tienen en consideración otros aspectos como la inclusión de fibras, la temperatura ambiente y del hormigón o la hora de realización de las probetas. Se crea una segunda base de datos de ensayos realizados en un periodo de tiempo corto con el mismo cemento y aditivo y teniendo en cuenta la relación agua/cemento exacta. Además, se ha realizado la conveniente caracterización de los materiales constituyentes de los hormigones ensayados. Para analizar la influencia de los diferentes parámetros y factores tecnológicos y ambientales en la resistencia a compresión, en la evolución de la misma con el tiempo y en la consistencia del hormigón, se ha utilizado primeramente estadística clásica, concretamente análisis de regresión lineal múltiple, análisis de varianza (ANOVA) y análisis multivariante. También se ha verificado el ajuste de los datos experimentales a modelos existentes en la bibliografía y a nuevos modelos de comportamiento propuestos. Finalmente se han elaborado redes neuronales artificiales para predecir la resistencia a compresión o la consistencia de un hormigón en función de diversas variables de entrada, al igual que para la obtención de modelos de comportamiento. Los resultados obtenidos mediante la aplicación de redes neuronales artificiales han sido más eficientes y mejores que los obtenidos mediante métodos estadísticos.<br>[CAT] Actualment el formigó és el material més empleat en la construcció gràcies a ser moldejable, a la seua capacitat de resistir esforços de compresió i a la seua economia. Les prestacions del formigó depenen de la seua composició, de les condicions de curat i del mètode i condicions de mesclat. Les especificacions bàsiques demanades pel peticionari al fabricant són la resistència a la compresió i la consistència, que indica la treballabilitat del mateix. Aquesta tesi és una constribució al coneixement i a la investigació de la influència de diferents paràmetres en la resistència a la compresió i la consistència del formigó fabricat en condicions industrials i l'elaboració de models predictius d'aquestes característiques prestacionals. La major part dels formigons empleats en la construcció es fabriquen en centrals de formigó preparat o en centrals d'obra, i es corresponen amb formigons de resistència entre 25 i 30 N/mm2, consistència tova o fluida, colocació mitjançant versament o bombament i compactació mitjançant vibració. Les condicions de producció de formigó en planta es venen afectades pels condicionants del procés industrial i del negoci en si, sent controlada la quantitat d'aigua existente en la mescla indirectament. Aquest treball presenta una extensa base de dades construïda amb milers de resultats d'assajos de resistència a compresió i consistència realitzats sobre formigons fabricats en la mateixa planta i amb diferents dosificacions, tipus de ciment i additius. Es tenen en compte altres aspectes com la inclusió de fibres, la temperatura ambient i del formigó o l'hora de realització de les probetes. Es crea una segona base de dades d'assajos realitzats en un període de temps curt amb el mateix ciment i additiu i tenint en compte la relació aigua/ciment exacta. A més a més, s'ha realitzat la caracterització corresponent dels materials constituents dels formigons assajats. Per a analitzar la influencia dels diferents paràmetres i factors tecnològics i ambientals en la resitència a compresió, en l'evolució d'aquesta en el temps i en la consistència del formigó, s'ha utilitzat l'estadistica clàssica, concretament anàlisi de regressió lineal múltiple, anàlisi de variància (ANOVA) i anàlisi multivariant. Alhora, s'ha verificat l'ajustament de les dades experimentals a models existents en la bibliografía i a nous models de comportament proposats. Finalment s'han elaborat xarxes neuronals artificials per a predir la resistència a la compresió o la consistència d'un formigó en funció de diverses variables d'entrada, al igual que per a l'obtenció de models de comportament. Els resultats obtinguts mitjançant l'aplicació de xarxes neuronals artificials han sigut més eficients i millors que els obtinguts mitjançant mètodes estadistics.<br>Navarro Ferrer, F. (2016). Modelos predictivos de las características prestacionales de hormigones fabricados en condiciones industriales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/67272<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
34

Carlos, Vladmir Adão. "Análise da performance de Fundos de Investimento Mobiliário." Master's thesis, Instituto Superior de Economia e Gestão, 2017. http://hdl.handle.net/10400.5/14377.

Full text
Abstract:
Mestrado em Contabilidade, Fiscalidade e Finanças Empresariais<br>A presente, investigação relaciona-se com a temática “Análise da performance dos Fundos de Investimento Mobiliário português, pela perspetiva Back Test, onde trouxemos novas e varias técnicas de análise e avaliação de performance. O objetivo principal do estudo passou pelo pressuposto, performance histórica e performance futuro. Posteriormente, analisou-se quais seriam os resultados da aplicação de uma estratégia de investimento no mercado português, baseada em análise estatística, bem com análise Técnica, nomeadamente o uso dos indicadores; MACD e o RSI, os Métodos Alisamento exponencial simples, Naïve, alisamento duplo, por fim o método Holt, avaliou-se o peso destes indicadores no estudo da performance de um fundo de investimento português, analisou-se a eficiência da aplicação destas ferramentas no mercado português para os indicadores técnicos o P-value, para os métodos estatísticos o Erro Quadrático medio (EQM).<br>The present research is related to the theme "Performance analysis of the Portuguese Investment Funds, from the Back Test perspective, where we bring new and several techniques of performance analysis and evaluation. The main objective of the study was the assumption, historical performance and future performance. Subsequently, it was analyzed the results of the application of an investment strategy in the Portuguese market, based on statistical analysis, as well as Technical analysis, namely the use of indicators; MACD and RSI, the Simple exponential smoothing, Naïve, double smoothing methods, finally the Holt method, the weight of these indicators was evaluated in the study of the performance of a Portuguese investment fund, the efficiency of the application of these tools in the Portuguese market for the technical indicators P-value, for statistical methods the Mean Square Error (EQM).<br>info:eu-repo/semantics/publishedVersion
APA, Harvard, Vancouver, ISO, and other styles
35

Specian, Valdir. "Clima e ambiente construído: análise da \"Predicting indoor air temperature formula\"." Universidade de São Paulo, 2003. http://www.teses.usp.br/teses/disponiveis/18/18139/tde-17112016-122244/.

Full text
Abstract:
A previsão das condições térmicas de duas casas populares (ocupadas) na cidade de Descalvado-SP é tema deste trabalho. A pesquisa envolve o registro contínuo da variação das temperaturas interna e externa. A fórmula experimental, \"Predicting Indoor Air Temperature Formula\", proposta por Givoni (1999), está sendo aplicada e analisada para a previsão das temperaturas internas, máximas e mínimas. Para o registro contínuo das temperaturas, foi instalada no local uma estação meteorológica automática- CR10X- Campbell Scientific Inc., equipada com vários sensores para registro dos elementos do clima, e, também, por meio de multiplexador - AM416, de 32 canais, para conectar termopares - tipo T (cobre/constantan), que registram as temperaturas no interior das casas (ocupadas). Dos dados coletados, foram escolhidos 2 (dois) episódios representativos do clima, o primeiro representando a situação de primavera/verão (12 a 15/10/2000), e segundo, outono/inverno (14 a 20/05/2001), sendo analisados conforme a abordagem de análise dinâmica do clima, de acordo com a proposta de Vecchia (1997), adaptada de Monteiro (1967).<br>The forecast of the thermal conditions of two popular houses (busy) in the city of Descalvado - SP is therme of this work. The research involves the continuous registration of the variation of the internal temperatures and it expresses. The experimental formula \"Predicting Indoor Air Temperature Formulates\", proposed by Givoni (1999), it is being applied and analysed for the forecast of the internal temperatures, maxims and low. It goes the continuous registration of the temperatures it was installed un the place an automatic meteorological station - CR10X - Campbell Scientific Inc, equipped with sensor several, goes registration of the elements of the climate and also, through multiplexer - AM416, of 32 channels, to connect thermoocouples - type T(copper/constantan) that register the temperatures inside the houses (busy). Of the collected data they were chosen 2 (two) representative episodes of the climate, the first representing the spring/summer situation (12 to 15/10/2000) and second autumn/winter (14 to 20/05/2001), being analyzed according to the approach of dynamic analysis of the climate, in agreement with the proposal of Vecchia (1997) adapted of Monteiro (1967).
APA, Harvard, Vancouver, ISO, and other styles
36

Silva, Bruna Tavares Vieira da. "Bancada para análise de vibração: análise de falhas em máquinas rotativas." Universidade de Taubaté, 2012. http://www.bdtd.unitau.br/tedesimplificado/tde_busca/arquivo.php?codArquivo=572.

Full text
Abstract:
Elevados níveis de vibração podem levar um equipamento à fadiga, e consequente quebra, podendo causar perdas de produção, problemas de fornecimento de material ou de serviço. Este trabalho desenvolveu um sistema para acionamento, aquisição e análise de uma bancada de ensaio de vibração em máquinas rotativas. O sistema proposto é composto por uma bancada com um motor fixo a uma plataforma, cujo eixo está acoplado a um rotor que pode sofrer desbalanceamento, através de inserção de massas. A rotação do eixo do motor é mensurada por um sensor indutivo, a vibração no mancal é monitorada por um acelerômetro. Para controle de acionamento e aquisição de dados foi utilizado o software LabVIEW. Esta bancada foi desenvolvida com a finalidade de estudar o comportamento dinâmico do rotor que está apoiado em mancais de rolamento. A estrutura montada permite simulação de falhas. Neste trabalho foi proposto o desbalanceamento de massa em um único plano, que é classificado como desbalanceamento estático. Este tipo de simulação foi escolhido também, visto que o rotor só possui um plano para desbalanceamento. Foram realizados experimentos que possibilitaram a detecção das falhas através do nível de vibração medido pelo acelerômetro e através da frequência do sinal de vibração foi comprovado que a amplitude significativa do espectro ocorre na frequência de rotação do equipamento, quando se trata de desbalanceamento. A bancada foi desenvolvida para ser utilizada no Laboratório de Vibrações Mecânicas da Universidade de Taubaté, porém as técnicas desenvolvidas podem ter aplicabilidade no ramo industrial, principalmente em manutenção preditiva.<br>High levels of vibration equipment can lead to fatigue and consequent breakage, may cause production losses, problems of supply of equipment or service. This study developed a system for triggering, acquisition and analysis of a bench test vibration in rotating machines. The proposed system consists of a bench with a motor fixed to a platform whose shaft is coupled to a rotor imbalance can suffer through insertion of mass. The rotation of the motor shaft is measured by an inductive sensor, vibration in the bearing is monitored by an accelerometer. To drive control and data acquisition software was used LabVIEW. This bench was developed in order to study the dynamic behavior of the rotor that is supported by ball bearings. The assembled structure allows fault simulation. This work proposes the unbalance mass in a single plane, which is classified as static unbalance. Such simulation was also chosen since the rotor has only one plan for unbalance. Experiments were performed which allowed the detection of faults through the vibration level measured by the accelerometer and by the frequency of the vibration signal has been proven that the amplitude of the spectrum of significant vibration occurs in the rotation frequency of the machine when it comes to unbalance. The bench has been developed for use in Mechanical Vibration Laboratory at the University of Taubate, but the techniques developed may have applicability in the industrial sector, especially in predictive maintenance.
APA, Harvard, Vancouver, ISO, and other styles
37

Timaná, de la Flor Martín, and Romero María Alejandra Cuentas. "Biogeografía predictiva: técnicas de modelamiento de distribución de especies y su aplicación en el impacto del cambio climático." Pontificia Universidad Católica del Perú. Centro de Investigación en Geografía Aplicada, 2015. http://repositorio.pucp.edu.pe/index/handle/123456789/119831.

Full text
Abstract:
Species distribution modeling is presented as an analytical tool for biogeography and the study of climate change impact on biodiversity.  Key modeling concepts and applications are reviewed; the maximum entropy principle is described as well as its implementation in the Maxent software.  Lastly, two demonstrative examples of species modeling are presented using two plant species: Pycnophyllum spathulatum (Caryophyllaceae) and Prosopis pallida (Fabaceae).  Bothe species were modeled using current climate data and under a future climatic change scenario based on RCP8.5 to examine the potential impact of global warming on the species’ distribution.<br>Se presenta el modelamiento de distribución de especies como una herramienta analítica para la biogeografía y para el estudio del impacto del cambio climático en la biodiversidad.  Se revisan los conceptos y aplicaciones fundamentales de modelamiento; se describe el principio de máxima entropía así como su aplicación en el programa MaxEnt.  Finalmente, se presentan ejemplos ilustrativos de modelamiento de dos especies vegetales con MaxEnt: Pycnophyllum spathulatum (Caryophyllaceae) y Prosopis pallida (Fabaceae), utilizando los datos climáticos disponibles en WorldClim tanto para las condiciones climáticas presentes como también bajo un escenario futuro de cambio climático (RCP 8.5) para determinar el impacto potencial de este en la distribución de las especies modeladas.
APA, Harvard, Vancouver, ISO, and other styles
38

Cárdenas, Ochoa Humberto. "Modelo analítico-computacional (tif) para la aplicación de análisis predictivos en pozos de inyección de agua fracturados por inducción termal." Universidad Nacional de Ingeniería. Programa Cybertesis PERÚ, 2009. http://cybertesis.uni.edu.pe/uni/2009/cardenas_oh/html/index-frames.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Soares, Paulo da Silva 1966. "Sistema de avaliação preditiva de falhas em máquinas elétricas usando lógica fuzzy com análise dos parâmetros de vibração, corrente e temperatura." [s.n.], 2014. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260877.

Full text
Abstract:
Orientador: José Antonio Siqueira Dias<br>Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação<br>Made available in DSpace on 2018-08-25T04:25:15Z (GMT). No. of bitstreams: 1 Soares_PaulodaSilva_D.pdf: 5062177 bytes, checksum: b08acd7cd74b46ed7ade778b2cbed7cf (MD5) Previous issue date: 2014<br>Resumo: Neste trabalho é apresentado o desenvolvimento de um sistema de baixo custo para monitoração e acompanhamento de equipamentos industriais com vistas à manutenção preditiva. O sistema desenvolvido monitora a vibração do elemento em estudo, e faz o registro da mesma comparando-se a um padrão de vibração considerado nominal, ou seja, uma condição de operação satisfatória da máquina. Quando uma variação na vibração do dispositivo monitorado é identificada, há de se observar seu comportamento, não só de amplitude mas também no espectro de frequência, pois geralmente a incidência de falhas ou anomalias apresentam vibrações em frequências diferentes da nominal de trabalho de um dispositivo. A Transformada de Fourier do sinal e os registros de leituras frequentes nos permitem um acompanhamento contínuo do equipamento monitorado. Adicionalmente ao acompanhamento da vibração mecânica, faz-se o monitoramento da corrente elétrica do motor de acionamento do elemento para observância de eventual sobrecarga, desequilíbrio das fases e análise do espectro de frequência do sinal elétrico de corrente, que nos permite avaliar as alterações na alimentação do mesmo, indicando alguma anomalia de natureza elétrica ao motor em estudo. Por fim ainda monitora-se a temperatura dos elementos em estudo, pois a vida útil destes depende das temperaturas a que são submetidos em regime de operação que têm impacto direto em isolamentos de bobinas e lubrificantes das partes mecânicas. Este sistema permite uma avaliação de uma máquina, sem intervenção humana para as medições de vibração e elétricas, aliado ao histórico levantado, torna-se uma ferramenta poderosa para a implementação de um programa de manutenção preditiva<br>Abstract: This work aims to develop a low-cost system for monitoring and tracking of industrial equipment with a view to predictive maintenance. It presents a system that monitors vibration of the recording studied element comparing the same to a vibration pattern considered nominal. When it detects a change in the vibration of the device is to observe their behavior, not only amplitude but in the frequency spectrum, usually because the incidence of faults or anomalies exhibit vibrations at different frequencies of nominal working of a device. The Fourier transform of the signal and records of frequent readings allow to close monitoring of the element under study. In addition to monitoring the mechanical vibration, it is monitoring the electrical current of the motor drive element for compliance with any overload, phase imbalance and even the analysis of spectro signal frequency electric current, which allows us to evaluate changes feeding the same, indicating an abnormality of the electric motor in nature study. Finally even monitor the temperature of the elements under study, because the life of these depends on the temperatures to which they are subjected in operation regime that have direct impact on coil insulation and lubricants of the mechanical parts. This system permits an automatic evaluation of the condition of a machine, without human intervention for measurement of vibration and electrical therein, together with the historical raised, becomes a powerful tool for industry implementation of a predictive maintenance program<br>Doutorado<br>Eletrônica, Microeletrônica e Optoeletrônica<br>Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
40

RAMOS, JOSÉ DIVAL PASTOR. "DESENVOLVIMENTO DE UM SISTEMA MULTICANAL PARA ANÁLISE DE PULSAÇÃO DE PRESSÃO EM COMPRESSORES ALTERNATIVOS VISANDO A MANUTENÇÃO PREDITIVA." Escola Politécnica / Instituto de Matemática, 2006. http://repositorio.ufba.br/ri/handle/ri/21587.

Full text
Abstract:
Submitted by Diogo Barreiros (diogo.barreiros@ufba.br) on 2017-02-17T16:41:33Z No. of bitstreams: 9 Capitulo I.pdf: 29639 bytes, checksum: 8007a2f7dfe2a8a68371ae454ff21265 (MD5) Capitulo II.pdf: 2398618 bytes, checksum: 67ec1b928bbd365a7a6ebc67b63a0cc3 (MD5) Capitulo III.pdf: 729546 bytes, checksum: 7778ce88975d7784a5c831e8af33cc12 (MD5) Capitulo IV.pdf: 39255 bytes, checksum: f005a001f7b707ab00d207d6718633b3 (MD5) Capitulo V.pdf: 424609 bytes, checksum: c070a2136bd33f21641c2d67d3b860d5 (MD5) Capitulo VI.pdf: 656297 bytes, checksum: 72bcce0a93526c29edd43b88091f3b94 (MD5) Capitulo VII.pdf: 1134199 bytes, checksum: 7fa6475029a4659167bab63ca25d6a37 (MD5) Capitulo VIII.pdf: 28984 bytes, checksum: 1c011016b6a3107609e9ebc952e018b4 (MD5) Elementos Pre-textuais.pdf: 78941 bytes, checksum: 38125074504363e58154371d872e9499 (MD5)<br>Approved for entry into archive by Vanessa Reis (vanessa.jamile@ufba.br) on 2017-02-21T11:56:14Z (GMT) No. of bitstreams: 9 Capitulo I.pdf: 29639 bytes, checksum: 8007a2f7dfe2a8a68371ae454ff21265 (MD5) Capitulo II.pdf: 2398618 bytes, checksum: 67ec1b928bbd365a7a6ebc67b63a0cc3 (MD5) Capitulo III.pdf: 729546 bytes, checksum: 7778ce88975d7784a5c831e8af33cc12 (MD5) Capitulo IV.pdf: 39255 bytes, checksum: f005a001f7b707ab00d207d6718633b3 (MD5) Capitulo V.pdf: 424609 bytes, checksum: c070a2136bd33f21641c2d67d3b860d5 (MD5) Capitulo VI.pdf: 656297 bytes, checksum: 72bcce0a93526c29edd43b88091f3b94 (MD5) Capitulo VII.pdf: 1134199 bytes, checksum: 7fa6475029a4659167bab63ca25d6a37 (MD5) Capitulo VIII.pdf: 28984 bytes, checksum: 1c011016b6a3107609e9ebc952e018b4 (MD5) Elementos Pre-textuais.pdf: 78941 bytes, checksum: 38125074504363e58154371d872e9499 (MD5)<br>Made available in DSpace on 2017-02-21T11:56:14Z (GMT). No. of bitstreams: 9 Capitulo I.pdf: 29639 bytes, checksum: 8007a2f7dfe2a8a68371ae454ff21265 (MD5) Capitulo II.pdf: 2398618 bytes, checksum: 67ec1b928bbd365a7a6ebc67b63a0cc3 (MD5) Capitulo III.pdf: 729546 bytes, checksum: 7778ce88975d7784a5c831e8af33cc12 (MD5) Capitulo IV.pdf: 39255 bytes, checksum: f005a001f7b707ab00d207d6718633b3 (MD5) Capitulo V.pdf: 424609 bytes, checksum: c070a2136bd33f21641c2d67d3b860d5 (MD5) Capitulo VI.pdf: 656297 bytes, checksum: 72bcce0a93526c29edd43b88091f3b94 (MD5) Capitulo VII.pdf: 1134199 bytes, checksum: 7fa6475029a4659167bab63ca25d6a37 (MD5) Capitulo VIII.pdf: 28984 bytes, checksum: 1c011016b6a3107609e9ebc952e018b4 (MD5) Elementos Pre-textuais.pdf: 78941 bytes, checksum: 38125074504363e58154371d872e9499 (MD5)<br>A necessidade de novas metodologias para análise e monitoramento de compressores alternativos motivou o desenvolvimento de um sistema digital multicanal com capacidade de medir diferentes grandezas simultaneamente. Como base para este trabalho escolheu-se medir pressão dinâmica, vibração e deslocamento do pistão. O desenvolvimento deste trabalho dentro de um curso de Mecatrônica produziu um sistema simples e eficiente cujos resultados experimentais, apresentados sob a forma de gráficos e dados de desempenho, confirmaram os defeitos introduzidos artificialmente. Isto permitiu validar o Sistema de Diagnóstico de Compressores Alternativos (SDCA) e demonstrou o quanto este recurso é poderoso para o diagnóstico de defeitos, tanto nos componentes da parte de compressão (fluid end) quanto nos de acionamento (power end). Estas informações, transformadas em recomendações de reparo, serão a base para uma atuação preditiva dos setores de Planejamento de Manutenção.
APA, Harvard, Vancouver, ISO, and other styles
41

Klus, Petr 1985. ""The Clever machine"- a computational tool for dataset exploration and prediction." Doctoral thesis, Universitat Pompeu Fabra, 2016. http://hdl.handle.net/10803/482051.

Full text
Abstract:
The purpose of my doctoral studies was to develop an algorithm for large-scale analysis of protein sets. This thesis outlines the methodology and technical work performed as well as relevant biological cases involved in creation of the core algorithm, the cleverMachine (CM), and its extensions multiCleverMachine (mCM) and cleverGO. The CM and mCM provide characterisation and classification of protein groups based on physico-chemical features, along with protein abundance and Gene Ontology annotation information, to perform an accurate data exploration. My method provides both computational and experimental scientists with a comprehensive, easy to use interface for high-throughput protein sequence screening and classification.<br>El propósito de mis estudios doctorales era desarrollar un algoritmo para el análisis a gran escala de conjuntos de datos de proteínas. Esta tesis describe la metodología, el trabajo técnico desarrollado y los casos biológicos envueltos en la creación del algoritmo principal –el cleverMachine (CM) y sus extensiones multiCleverMachine (mCM) y cleverGO. El CM y mCM permiten la caracterización y clasificación de grupos de proteínas basados en características físico-químicas, junto con la abundancia de proteínas y la anotación de ontología de genes, para así elaborar una exploración de datos correcta. Mi método está compuesto por científicos tanto computacionales como experimentales con una interfaz amplia, fácil de usar para un monitoreo y clasificación de secuencia de proteínas de alto rendimiento.
APA, Harvard, Vancouver, ISO, and other styles
42

Lago, Daniel Fabiano [UNESP]. "Manutenção de redutores de velocidade pela integração das técnicas preditivas de análise de vibrações e análise de óleo lubrificante." Universidade Estadual Paulista (UNESP), 2007. http://hdl.handle.net/11449/94548.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:27:14Z (GMT). No. of bitstreams: 0 Previous issue date: 2007-11-13Bitstream added on 2014-06-13T19:55:36Z : No. of bitstreams: 1 lago_df_me_ilha.pdf: 2600686 bytes, checksum: 82a754d34e90e3dd82ddaab84ab68958 (MD5)<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)<br>Todo sistema ou equipamento mecânico está sujeito a processos de deterioração. Esta deterioração leva ao aparecimento de defeitos que podem atrapalhar a continuidade e qualidade do serviço (produção). Uma quebra não prevista traduz-se por uma parada brusca, levando geralmente a grandes prejuízos e a perda de tempo de produção. Para evitar paradas inesperadas eficientemente e reduzir os custo de manutenção são utilizadas técnicas de manutenção preditiva. Entre todas as técnicas existentes, as mais importantes na manutenção de redutores são a análise de vibrações e a análise de partículas de desgaste. A determinação da severidade, modos e tipos de desgaste em máquinas pode ser feita pela identificação da morfologia, acabamento superficial, coloração, natureza, quantidade e tamanho das partículas encontradas em amostras de óleo ou graxas. Pela análise do sinal vibratório é possível tomar decisões de intervir ou não na operação da máquina, aumentando a disponibilidade e confiabilidade da mesma. A integração destas técnicas tem o potencial para revolucionar práticas industriais e proporcionar para as companhias um significante alívio econômico. Para estudo destas duas técnicas, neste trabalho foi construída uma bancada experimental com o propósito de se realizar a manutenção preditiva em um redutor de velocidades. O Sistema foi posto para funcionar até o limite de utilização. Foram utilizados lubrificantes recomendados pelo fabricante do redutor, lubrificantes com contaminação líquida em várias porcentagens e lubrificantes com contaminação sólida em duas porcentagens. Foram observadas que para baixas rotações a análise de partículas foi vantajosa em relação à análise de vibrações e que a contaminação por água, embora tenha ocasionado uma maior oxidação do sistema, proporcionou menor desgaste do que o lubrificante sem contaminação.<br>Every system or mechanical equipment is subject to deterioration processes. This deterioration takes to the apparition of defects that can disturb the continuity and quality of the service (production). One break not foreseen translates for an abrupt stop, usually taking to great damages and waste of time of production. For avoid unexpected stops efficiently and reduce the cost, predictive maintenance techniques are used. Among all the existent techniques, the most important in the maintenance of reducers are vibration analysis and wear particle analysis. The determination of the severity, wear modes and types in machines can be done through the identification of the morphology, surface finishing, coloration, nature, quantity and size of the particles found in oil samples or lubricating greases. Vibration Analysis is one of the oldest techniques in the maintenance. By vibration sign analysis it is possible to make decisions of intervening or not in the machine operation, improving its availability and reliability. The integration of these techniques has the potential to revolutionize industry practices and provide a significant industrial economic relief. For the study of these two techniques, in this work, an experimental bench was built with the purpose of doing the predictive maintenance in a reducer. The System was put to work until the limit. It was observed that for low rotations the wear particle analysis were advantageous in relation to the vibration analysis and for oil with water contamination, although causing a larger oxidation in the system, a smaller wear than the lubricant without contamination was provided.
APA, Harvard, Vancouver, ISO, and other styles
43

Araujo, Risalve Hagler Brown. "Comparación de los modelos de regresión ordinal según su capacidad predictiva de la percepción de los padres de familia acerca de la calidad educativa escolar." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2020. https://hdl.handle.net/20.500.12672/16835.

Full text
Abstract:
El presente trabajo es de tipo aplicativo y de diseño no experimental de corte transversal. Se analizó la variable dependiente capacidad predictiva de los modelos de regresión ordinal de categorías adyacentes y acumulativo de ventajas proporcionales, utilizando como variable interviniente a la percepción de la calidad educativa escolar en el colegio Cristo Rey Salvador UGEL 06 Ate Vitarte, Lima. Para la estimación de los modelos de regresión ordinal de categorías adyacentes y acumulativo de ventajas proporcionales se utilizó los datos de una muestra de entrenamiento el cual está conformada por los padres de familia de los alumnos de secundaria del centro educativo, posteriormente mediante una muestra de validación se comparó la capacidad predictiva de ambos modelos estimados, prediciéndose para esto la percepción de la calidad educativa escolar, obteniéndose que la capacidad de predicción, obtenida como el porcentaje de predicciones correctas es la misma, utilizando ambos modelos de regresión ordinal.<br>Perú. Universidad Nacional Mayor de San Marcos. Vicerrectorado de Investigación y Posgrado. Programa de Promoción de Tesis de Pregrado. E18030044-PTPGRADO
APA, Harvard, Vancouver, ISO, and other styles
44

Calderón, Testa Benjamín Alberto. "Determinación de la propensión al aumento de consumo con tarjeta de crédito de clientes de una institución bancaria." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/141237.

Full text
Abstract:
Ingeniero Civil Industrial<br>La industria bancaria se caracteriza por ofrecer a sus clientes diferentes medios de pago dentro de los que destacan las tarjetas de crédito, con las cuales se transa anualmente un monto equivalente al 7% del PIB Chileno. Por otro lado, los clientes del banco con el que se desarrolla este trabajo utilizan menos la tarjeta que los clientes de los bancos líderes y además, la rentabilidad del negocio de tarjetas está directamente ligada al consumo. En base a lo anterior, el objetivo general de este proyecto es determinar las acciones con las cuales se puede incentivar el aumento de consumo con la tarjeta de crédito, usando información transaccional de los clientes. Considerando esto, se busca responder dos preguntas básicas del negocio ¿a quienes incentivar? y ¿con qué acciones hacerlo? Para responder esto se comienza clasificando a los clientes según variables transaccionales, con lo cual se encuentran cinco niveles de consumo que pueden tener los clientes durante un periodo. Dentro de estos destacan los clientes de Medio Bajo consumo, los cuales representan el 54% de la cartera del banco y se caracterizan por transar principalmente en rubros básicos como supermercados o grandes tiendas. Una vez clasificados los clientes, se realizan modelos predictivos para identificar a aquellos que aumentarán su nivel de consumo en el futuro, además de los principales factores que inducen este aumento. En base a esto se define que los clientes a incentivar son todos aquellos que no incrementarán su consumo, pues los otros lo harán con alta probabilidad sin necesidad de ser incentivados. Con respecto a las acciones, los resultados indican que se debe incentivar a los clientes a ampliar la variedad de rubros en que consumen, además de la cantidad de semanas en que tienen transacciones. Por otro lado, el banco debe incentivar los avances en efectivo, las compras internacionales y algunos rubros como supermercados o grandes tiendas. Se destaca además el hecho de que, al aplicar la metodología propuesta en este trabajo, el banco podría ganar 51 millones de pesos en un año, dejando de enviar promociones a clientes que no lo necesitan y generando nuevos aumentos de consumo. Finalmente como trabajo futuro se propone complementar el estudio con información de las promociones del banco, para así analizar además la efectividad de las campañas y determinar si aumentan el consumo de los clientes a largo plazo o sólo en el periodo en que se realizan.
APA, Harvard, Vancouver, ISO, and other styles
45

Néto, Karla Ferraz. "Análise gênica de comorbidades a partir da integração de dados epidemiológicos." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/95/95131/tde-29012015-150351/.

Full text
Abstract:
A identificação de genes responsáveis por doenças humanas pode fornecer conhecimentos sobre mecanismos patológicos e psicológicos que são essenciais para o desenvolvimento de novos diagnósticos e terapias. Sabemos que uma doença é raramente uma consequência de uma anormalidade num único gene, porém reflete desordens de uma rede intra e intercelular complexa. Muitas metodologias conhecidas na Bioinformática são capazes de priorizar genes relacionados a uma determinada doença. Algumas abordagens também podem validar a pertinência ou não destes genes em relação à doença estudada. Uma abordagem de priorização de genes é a investigação a partir de doenças que acometem pacientes ao mesmo tempo, as comorbidades. Existem muitas fontes de dados biomédicos que podem ser utilizadas para a coleta de comorbidades. Desta forma, podemos coletar pares de doenças que formam comorbidades epidemiológicas e assim analisar os genes de cada doença. Esta análise serve para expandirmos a lista de genes candidatos de cada uma dessas doenças e justificarmos a relação gênica entre essas comorbidades. O objetivo principal deste projeto é o de integração dos dados epidemiológicos e genéticos para a realização da predição de genes causadores de doenças. Isto se dará através do estudo de comorbidade destas doenças.<br>The identification of genes responsible for human diseases can provide knowledge about pathological and physiological mechanisms that are essential for the development of new diagnostics and therapeutics. It is known that a disease is rarely a consequence of an abnormality in a single gene, but reflects complex intra and intercellular network disorders. Many methodologies known in Bioinformatics are able to prioritize genes related to a particular disease. Some approaches can also validate how appropriate or not these genes are relative to a disease. An approach for prioritizing genes is the research from diseases afecting patients at the same time, i.e. comorbidities. There are many sources of biomedical data that can be used to collect comorbidities and analyse genes of each disease. We can also expand the list of candidate genes for each singular disease and justify the genetic relationship of these comorbidities. The main objective of this project is the integration of epidemiologic and genetic data to perform the prediction of causing genes through the study of comorbidity of these illnesses.
APA, Harvard, Vancouver, ISO, and other styles
46

Suguisawa, Liliane. "Ultra-sonografia para predição das características e composição da carcaça de bovinos." Universidade de São Paulo, 2002. http://www.teses.usp.br/teses/disponiveis/11/11139/tde-05072002-101058/.

Full text
Abstract:
No presente trabalho foi avaliada a técnica de ultra-sonografia em tempo real como ferramenta para predição da área de olho-de-lombo (AOL) e espessura da camada de gordura subcutânea (ECG) a partir de imagens tomadas em animais vivos. Foram utilizados 115 bovinos jovens (30 ½ Angus x Nelore; 30 ½ Canchim x Nelore; 30 ½ Simental x Nelore e 25 Nelores), peso inicial médio de 329 kg, de dois tamanhos à maturidade (pequeno e grande) no sistema de produção do novilho superprecoce. As medidas de ultra-sonografia foram realizadas a cada 28 dias totalizando quatro medições até o final do confinamento. Os resultados obtidos demonstraram que a precisão da predição aumentou em função da proximidade com a data do abate, sendo máxima na quarta medida (R 2 de 0,68 para AOL e 0,82 para ECG com as mesmas medidas na carcaça). O efeito de grupo genético e as medidas ultra-sonográficas foram significativos (P<0,05) para ECG, enquanto que na carcaça ambas medidas foram significativas. A AOL da ultra-sonografia por 100 kilogramas (kg) de peso vivo (AOL4PKG) foi significativamente (P<0,05) influenciada pelo grupo genético, mas não pelo tamanho corporal. Em relação à AOL da carcaça por 100 kg de carcaça (AOLPCAR), todos os grupos genéticos alcançaram o valor ideal apontado pela literatura como indicativo de bom rendimento de cortes cárneos. Não foi observada diferença significativa (P<0,05) na composição entre os dois grupos de tamanho corporal provavelmente devido à pequena variação existente entre eles. Os mestiços Simental apresentaram a maior porcentagem de músculo na carcaça, e os animais Nelore o menor valor (P<0,05). Os animais Nelore, mestiços Canchim e Angus tenderam a acumular maior porcentagem de gordura na carcaça quando comparados aos mestiços Simental (P<0,05). A AOL por ultra-sonografia apresentou correlações positivas com a quantidade de músculo (0,49), de cortes cárneos (0,42) e porcentagem de tecido muscular estimada da carcaça (0,30). A ECG por ultra-som foi positivamente correlacionada com a porcentagem (0,49) e a quantidade de tecido adiposo estimada na carcaça (0,52), e negativamente correlacionada com a porcentagem de traseiro (-0,49). O rendimento de cortes cárneos só apresentou correlações significativas com a medida de AOLPCAR (0,26), o peso vivo dos animais (-0,45) e o peso da carcaça quente (-0,44). As medidas ultra-sonográficas nos animais vivos não mostraram alta precisão na predição da AOL na carcaça. Em geral os coeficientes de determinação das equações regressão para predição das características da composição da carcaça pelas medidas ultra-sonográficas são similares ou superiores àqueles obtidos nas equações que utilizaram as mesmas medidas após o abate. Este fato indica que o erro na predição da AOL não necessariamente se deve a uma falha na técnica de ultra-sonografia, mas também pode ser causada por diferenças naturais entre as medidas tomadas na carcaça e no animal vivo.<br>In the present study real time ultrasonography was used to predict the ribeye area (AOL) and the subcutaneous fat thickness (ECG) in live animals. A total of 115 yearling steers from four genetic groups (30 ½ Angus x Nelore; 30 ½ Canchim x Nelore; 30 ½ Simental x Nelore e 25 Nelores), with 329 kg initial average weight, and two different finishing frame sizes (small and large) were used. Animals were kept in a feedlot during the whole study. Four ultrasonographic measurements were taken every 28 days until slaughter. AOL and ECG were measured in the carcasses and compared to the measurements made in the live animals. Predictive accuracy of the ultrasonographic measurements increased as the animals approached slaughter date, reaching the maximum value at the last one (R 2 = 0.68 and 0.82 for AOL and ECG, respectively). Genetic group influenced (P<0.05) AOL and ECG measurements in the carcass but only the ECG was significant with the ultrasound (P<0.05). AOL ultrasonographic measurements showed a significant difference (P<0.05) among the genetic groups when body weight (per 100 Kg of carcass) was taken into account (AOL4PKG). AOL per 100 kg of carcass (AOLPCAR) for all genetic groups showed higher values than those suggested by the literature. Frame size did not influence AOL or ECG probably due to the small, but distinctive differences between the two groups. The Simental crossed animals had higher (P<0.05) carcass muscle percentage, and the Nelore steers had the lowest. The Nelore, Canchim and Angus crossed animals showed higher carcass fattissue percentage (P<0.05) as compared to the Simental crosses. The ultrasound AOL showed a positive correlation (0.49) with muscle weight, carcass cutability (0.42) and muscle carcass percentage (0.30). The ultrasound ECG was positively correlated with fattissue percentage (0.49) and carcass total fat tissue amount (0.52) and negatively correlated with the hind cut yield (-0.49). Carcass meat yield was correlated only with AOLPCAR (0,26), live weight (-0.45) and hot carcass weight (0.44). The ultrasound AOL had a low prediction accuracy for the carcass AOL. Overall, the accuracy of the carcass composition’s predictive equations by ultrasound were similar or greater than the one obtained by direct carcass measurements. This suggests that the difference in AOL measurements by ultrasonography and in the carcass does not necessarily mean a faulty ultrasonographic measurement for differences can be expected when measurements are made in the carcass or in the live animal.
APA, Harvard, Vancouver, ISO, and other styles
47

Salas, Albornoz Luis. "Análisis de la actividad cerebral medida a partir de un electroencefalograma como variable predictiva de la toma de decisión de un usuario web." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/131837.

Full text
Abstract:
Ingeniero Civil Industrial<br>El proyecto AKORI está pensado como una plataforma informática basada en técnicas de Web Intelligence, y análisis de la exploración visual para mejorar la estructura y los contenidos de un sitio web. En su etapa de investigación, se han incorporado estudios relacionados con la dilatación pupilar, el posicionamiento ocular y análisis de la actividad cerebral de los usuarios web. Una de las líneas de investigación indagó en la relación entre la dilatación pupilar y la toma de decisión de los usuarios de sitios web. Para profundizar en este estudio, se pretende realizar una investigación exploratoria, relacionando la toma de decisión con un nuevo marcador fisiológico. El objetivo general es determinar si existe una relación entre el potencial eléctrico producido por la actividad cerebral y la toma de decisión de un usuario en un sitio web. La hipótesis de investigación se plantea de la siguiente manera: El potencial bioeléctrico producido por la actividad cerebral puede predecir la toma de decisión de un usuario web . La metodología de esta investigación considera cuatro etapas: Análisis del estado del arte en el área de la neurociencia y técnicas de Data Mining; Diseño e implementación de experimentos; Análisis y procesamiento de los datos para validar la hipótesis de investigación y la construcción del clasificador; y finalmente comparar los resultados de la metodología obtenidas anteriormente. Para obtener los datos, se utilizaron herramientas de Eye-Tracking y EEG, en experimentos que simulan una situación discriminatoria dentro de un sitio web, mostrando imágenes de valencia neutra y donde el usuario debía escoger una de ellas. Para poder realizar extrapolación, se experimentó con 20 sujetos, de los cuales 18 finalizaron con la totalidad de los registros. Para analizar los datos, se separaron las observaciones que coinciden con el objeto elegido y las que no. Aquellas que tenía más de 600ms. de duración, fueron promediadas y graficadas. Al graficar cada una de las curvas, no se observan diferencias significativas. Sin embargo, se observa un patrón de comportamiento común, que consiste en la disminución de la actividad cerebral en los primeros 100ms. y un alza abrupta en la actividad durante los siguientes 200ms. Dado que no hay diferencias significativas, se realizaron dos tipos de caracterizaciones descripción estadística y transformada de Wavelet, que finalmente no permitieron validar la hipótesis de este trabajo. Si bien, la hipótesis de investigación no fue validada con los parámetros descritos, se reconoce que existen variables fisiológicas que constituyen una fuente de información que puede ser aplicadas en diversos ámbitos, ya sea en web-intelligence, web-mining, u otra disciplina ajena a la medicina pura.
APA, Harvard, Vancouver, ISO, and other styles
48

Gómez, Contreras Ricardo Andrés. "Análisis técnico, económico y estratégico para una empresa de servicios predictivos para el retiro y abastecimiento de dineros custodiados de las entidades bancarias." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/117027.

Full text
Abstract:
Magíster en Gestión y Dirección de Empresas<br>La presente tesis a desarrollar es un análisis técnico, económico y estratégico para una empresa de servicios predictivos para el proceso de retiro y abastecimientos de dineros en entidades bancarias. En la primera parte del presente informe se entregan los objetivos generales de la tesis, la metodología propuesta para desarrollarla, y la carta Gantt del proyecto. En la segunda parte, se presenta el marco teórico del tema, dando una visión general de los bancos (mercado objetivo), su historia, presencia en Chile, el crecimiento actual y funcionamiento interno. En la tercera parte se realiza el estudio de la situación actual, definiendo los mercados potenciales con los datos extraídos en la encuesta, con lo indicado anteriormente podemos segmentar y cuantificar el tamaño de las entidades bancarias y el gran crecimiento distribuidas a nivel nacional, con los datos de la encuesta podemos además apreciar las características de los clientes y los aspectos relevantes para tomar el servicio estos son: Eficiencia de la Predicción Relación Precio/ calidad Entrega de la información Oportunamente. Además, se revisaron las competencias, como también las barreras de entradas, y finalmente como consecuencia del diagnostico de la situación actual, el resultado es un Análisis FODA En la cuarta parte se definieron los objetivos del negocio, donde se especifica los objetivos de ventas, destacando como se van a captar los clientes y las mejoras continúas, así también los objetivos del posicionamiento con la propuesta de valor y los objetivos de rentabilidad o margen. En la quinta y sexta parte se define la estrategia a utilizar y los principales riesgos estratégicos dentro del negocio como son: la alta barrera de entrada y la incorporación de las ETV en el rubro de la Predicción, por lo tanto las barreras de mitigación es el trabajar en conjunto con el banco con una comunicación directa con el personal operativo y de las sucursales, además el trabajo en conjunto en la seguridad de la confidencialidad de los datos y generar contratos de al menos 2 años con la entidad, con clausulas de multas por salidas anticipadas, mitigando así los efectos de ingreso al mercado predictivo a posibles competidores directos. Con esto se trabajo para formar una estrategia del proyecto a través de la metodología de CANVAS. En el séptima parte se realizo una evaluación financiera de la empresa predictiva para el abastecimiento y retiro de los valores custodiados de las entidades bancarias, donde el VPN a 3 años genero un valor $190.386.764.- pesos a una tasa de retorno exigida de un 15% y con una TIR del 95%. Como último punto la empresa predictiva a ofrecer es rentable dentro del VPN y el tiempo exigido del proyecto, pero los factores externos de la competencia como son la entrada de las ETV como empresa predictiva a corto plazo, por su gran experiencia en el mercado como posibles competidores, existe el riesgo de quedar fuera de mercado, en el caso de estar a largo plazo se puede participar con al menos 3 años desde que dura la factibilidad de la tesis actual.
APA, Harvard, Vancouver, ISO, and other styles
49

Panadero, Javier. "Predicción del rendimiento: Análisis de la escalabilidad de aplicaciones paralelas." Doctoral thesis, Universitat Autònoma de Barcelona, 2015. http://hdl.handle.net/10803/310211.

Full text
Abstract:
Executar aplicacions paral·leles de pas de missatges sobre un elevat nombre de recursos de manera eficient no és una tasca trivial. A causa de la complexa interacció entre l'aplicació paral·lela i el sistema HPC, a mesura que s'augmenta el nombre de processos de l'aplicació, depenent del sistema, pot arribar un punt on l'aplicació presenti el seu límit d'escalabilitat, moment a partir del qual es començaran a produir ineficiències en el sistema, comportant a un ús ineficient del mateix. Aquest problema es torna especialment crític en aplicacions paral·leles les quals han de ser executades freqüentment, utilitzant un elevat nombre de recursos sobre un llarg període de temps Per tal d'intentar solucionar aquests problemes i fer un ús eficient del sistema, com a principal contribució d'aquesta tesi, es proposa la metodologia P3S (Prediction of Parallel Program Scalability), la qual permet predir el rendiment de l'escalabilitat forta d'aplicacions paral·leles de pas de missatges en un determinat sistema, utilitzant un temps d'anàlisi limitat i un conjunt reduït de recursos del sistema. La metodologia P3S, es basa en analitzar el comportament repetitiu de les aplicacions paral·leles de pas de missatges. Aquest tipus d'aplicacions estan compostes per un conjunt de fases identificables, les quals es van repetint al llarg de tota l'aplicació, independentment del nombre de processos de l'aplicació. La metodologia consta de tres etapes. Una primera etapa de caracterització, on es caracteritzen les fases rellevants de l'aplicació paral·lela, a partir de la informació obtinguda de l'execució d'un conjunt de signatures de l'aplicació, per a un nombre reduït de processos. Una segona etapa de modelització de l'aplicació, on es genera el model lògic d'escalabilitat de cada fase rellevant de l'aplicació paral·lela, mitjançant el qual construir la traça lògica escalable de l'aplicació. Aquesta traça permetrà predir el comportament lògic de l'aplicació, a mesura que s'augmenta el seu nombre de processos. Finalment, l'última etapa de la metodologia consisteix en predir el rendiment de l'aplicació per a un nombre específic de processos. Per a això, la traça lògica escalable serà precisada per al nombre de processos per al qual es vol predir el rendiment de l'aplicació, amb l'objectiu de predir el temps de còmput i comunicació de cada fase rellevant de l'aplicació, per aquest nombre de processos , amb la finalitat d'obtenir el temps predit de l'aplicació. Gràcies a la corba d'escalabilitat de l'aplicació, proporcionada per la metodologia P3S, els usuaris poden seleccionar els recursos més adients per executar la seva aplicació al sistema destí, el que permet tenir la seguretat d'utilitzar els recursos del sistema de manera eficient.<br>Ejecutar aplicaciones paralelas de paso de mensajes sobre un elevado número de recursos de forma eficiente no es una tarea trivial. Debido a la compleja interacción entre la aplicación paralela y el sistema HPC, a medida que se aumenta el número de procesos de la aplicación, dependiendo del sistema, puede llegar un punto donde la aplicación presente su límite de escalabilidad, momento a partir del cual se empezarán a producir ineficiencias en el sistema, conllevando a un uso ineficiente del mismo. Este problema se vuelve especialmente crítico en aplicaciones paralelas las cuales tienen que ser ejecutadas frecuentemente, utilizando un elevado número de recursos sobre un largo período de tiempo Con el fin de intentar solventar estos problemas y hacer un uso eficiente del sistema, como principal contribución de esta tesis, se propone la metodología P3S (Prediction of Parallel Program Scalability), la cual permite predecir el rendimiento de la escalabilidad fuerte de aplicaciones paralelas de paso de mensajes en un determinado sistema, utilizando un tiempo de análisis limitado y un conjunto reducido de recursos del sistema. La metodología P3S, se basa en analizar el comportamiento repetitivo de las aplicaciones paralelas de paso de mensajes. Este tipo de aplicaciones están compuestas por un conjunto de fases identificables, las cuales se van repitiendo a lo largo de toda la aplicación, independientemente del número de procesos de la aplicación. La metodología consta de tres etapas. Una primera etapa de caracterización, donde se caracterizan las fases relevantes de la aplicación paralela, a partir de la información obtenida de la ejecución de un conjunto de firmas de la aplicación, para un número reducido de procesos. Una segunda etapa de modelización de la aplicación, donde se genera el modelo lógico de escalabilidad de cada fase relevante de la aplicación paralela, mediante el cual construir la traza lógica escalable de la aplicación. Esta traza permitirá predecir el comportamiento lógico de la aplicación, a medida que se aumenta su número de procesos. Finalmente, la última etapa de la metodología consiste en predecir el rendimiento de la aplicación para un número específico de procesos. Para ello, la traza lógica escalable será precisada para el número de procesos para el cual se desea predecir el rendimiento de la aplicación, con el objetivo de predecir el tiempo de cómputo y comunicación de cada fase relevante de la aplicación, para ese número de procesos, con la finalidad de obtener el tiempo predicho de la aplicación. Gracias a la curva de escalabilidad de la aplicación, proporcionada por la metodología P3S, los usuarios pueden seleccionar los recursos más adecuados para ejecutar su aplicación en el sistema objetivo, lo que permite tener la seguridad de utilizar los recursos del sistema de forma eficiente.<br>Executing message-­‐passing applications using an elevated number of resources is not a trivial task. Due to the complex interaction between the message-­‐passing applications and the HPC system, depending on the system, many applications may suffer performance inefficiencies, when they scale to a large number of processes. This problem is particularly serious when the application is executed many times over a long period of time. With the purpose of avoiding these problems and making an efficient use of the system, as main contribution of this thesis, we propose the methodology P3S (Prediction of Parallel Program Scalability), which allows us to analyze and predict the strong scalability behavior for message-­‐passing applications on a given system. The methodology strives to use a bounded analysis time, and a reduced set of resources to predict the application performance. The P3S methodology is based on analyzing the repetitive behavior of parallel message-­‐passing applications. Such applications are composed of a set of phases, which are repeated through the whole application, independently of the number of application processes. The methodology is made up of three stages. A first characterization step, where the relevant phases of the parallel application are characterized, from the execution of a set of small-­‐scale application signatures. A second stage of modeling of the application, where the application logical scalability model is generated for each relevant application phase, whereby to construct the scalable logical trace of the application. This trace will be used to predict the logical behavior of the application, as the number of the application processes increases. Finally, the last stage of the methodology consist of predicting the application performance for a specific number of processes. In order to do that, the scalable logical trace will be specified for the number of processes to predict the application performance, with the objective to predict the computational and communication time of each relevant phase for this number of processes, in order to obtain the performance prediction. The output of the P3S methodology will be the predicted curve of application speedup. Using this information, the users can select the most appropriate resources to execute his application on the target system, in order to use the system resources efficiently.
APA, Harvard, Vancouver, ISO, and other styles
50

FLORÊNCIO, João Carlos Procópio. "Análise e predição de bilheterias de filmes." Universidade Federal de Pernambuco, 2016. https://repositorio.ufpe.br/handle/123456789/17639.

Full text
Abstract:
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-08-08T12:41:40Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertacao-mestrado-jcpf.pdf: 6512881 bytes, checksum: 0e42b481cf73ab357ca212b410fbd5ee (MD5)<br>Made available in DSpace on 2016-08-08T12:41:40Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertacao-mestrado-jcpf.pdf: 6512881 bytes, checksum: 0e42b481cf73ab357ca212b410fbd5ee (MD5) Previous issue date: 2016-02-29<br>Prever o sucesso de um filme e, por consequência, seu sucesso nas bilheterias tem uma grande importância na indústria cinematográfica, desde a fase de pré-produção do filme, quando os investidores querem saber quais serão os filmes mais promissores, até nas semanas seguintes ao seu lançamento, quando se deseja prever as bilheterias das semanas restantes de exibição. Por conta disso, essa área tem sido alvo de muitos estudos que tem usado diferentes abordagens de predição, seja na seleção das características dos filmes como nas técnicas de aprendizagem, para atingir uma maior capacidade de prever o sucesso dos filmes. Neste trabalho de mestrado, foi feita uma investigação sobre o comportamento das principais características dos filmes (gênero, classificação etária, orçamento de produção, etc), com maior foco nos resultados das bilheterias e sua relação com as características dos filmes, de forma a obter uma visão mais clara de como as caracaterísticas dos filmes podem influenciar no seu sucesso, seja ele interpretado como lucro ou volume de bilheterias. Em seguida, em posse de uma base de filmes extraída do Box-Office Mojo e do IMDb, foi proposto um novo modelo de predição de box office utilizando os dados disponíveis dessa base, que é composta de: meta-dados dos filmes, palavras-chaves, e dados de bilheterias. Algumas dessas características são hibridizadas com o objetivo evidenciar as combinações de características mais importantes. É aplicado também um processo de seleção de características para excluir aquelas que não são relevantes ao modelo. O modelo utiliza Random Forest como máquina de aprendizagem. Os resultados obtidos com a técnica proposta sugerem, além de uma maior simplificação do modelo em relação a estudos anteriores, que o método consegue obter taxas de acerto superior 90% quando a classificação é medida com a métrica 1-away (quando a amostra é classificada com até 1 classe de distância), e consegue melhorar a qualidade da predição em relação a estudos anteriores quando testado com os dados da base disponível.<br>Predicting the success of a movie and, consequently, its box office success, has a huge importance in the motion pictures industry. Its importance comes since from the pre-production period, when the investors want to know the most promising movies to invest, until the first few weeks after release, when exhibitors want to predict the box office of the remaining weeks of exhibition. As result, this area has been subject of many studies which have used different prediction approaches, in both feature selection and learning methods, to achieve better capacity to predict movies’ success. In this mastership work, a deep research about the movie’s main features (genre, MPAA, production budget, etc) has been done, with more focus on the results of box offices and its relation with the movie’s features in order to get a clearer view of the organization of information and how variables can influence the success of a film, whether this success be interpreted as profit or revenue volumes at the box office. Then, in possession of a movie database extracted from Box-Office Mojo and IMDb, it was proposed a new box office prediction model based on available data from the database composed of: movie meta-data, key-words and box office data. Some of these features are hybridized aiming to emphasize the most important features’ combinations. A features’ selection process is also applied to exclude irrelevant features. The obtained results with the proposed method suggests, besides a further simplification of the model compared to previous studies, that the method can get hit rate of more than 90% when classification is measured with the metric 1-away (when the sample is classified within 1 class of distance from the right class), and achieve a improvement in the prediction quality when compared to previous studies using the available database.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!