To see the other types of publications on this topic, follow the link: Análisis de datos: técnicas.

Dissertations / Theses on the topic 'Análisis de datos: técnicas'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Análisis de datos: técnicas.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rantes, García Mónica Tahiz, and Quispe Lizbeth María Cruz. "Detección de fraudes usando técnicas de clustering." Universidad Nacional Mayor de San Marcos. Programa Cybertesis PERÚ, 2010. http://www.cybertesis.edu.pe/sisbib/2010/rantes_gm/html/index-frames.html.

Full text
Abstract:
El fraude con tarjetas de crédito es uno de los problemas más importantes a los que se enfrentan actualmente las entidades financieras. Si bien la tecnología ha permitido aumentar la seguridad en las tarjetas de crédito con el uso de claves PIN, la introducción de chips en las tarjetas, el uso de claves adicionales como tokens y mejoras en la reglamentación de su uso, también es una necesidad para las entidades bancarias, actuar de manera preventiva frente a este crimen. Para actuar de manera preventiva es necesario monitorear en tiempo real las operaciones que se realizan y tener la capacidad de reaccionar oportunamente frente a alguna operación dudosa que se realice. La técnica de Clustering frente a esta problemática es un método muy utilizado puesto que permite la agrupación de datos lo que permitiría clasificarlos por su similitud de acuerdo a alguna métrica, esta medida de similaridad está basada en los atributos que describen a los objetos. Además esta técnica es muy sensible a la herramienta Outlier que se caracteriza por el impacto que causa sobre el estadístico cuando va a analizar los datos
The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data
APA, Harvard, Vancouver, ISO, and other styles
2

Cruz, Quispe Lizbeth María, and García Mónica Tahiz Rantes. "Detección de fraudes usando técnicas de clustering." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/2644.

Full text
Abstract:
El fraude con tarjetas de crédito es uno de los problemas más importantes a los que se enfrentan actualmente las entidades financieras. Si bien la tecnología ha permitido aumentar la seguridad en las tarjetas de crédito con el uso de claves PIN, la introducción de chips en las tarjetas, el uso de claves adicionales como tokens y mejoras en la reglamentación de su uso, también es una necesidad para las entidades bancarias, actuar de manera preventiva frente a este crimen. Para actuar de manera preventiva es necesario monitorear en tiempo real las operaciones que se realizan y tener la capacidad de reaccionar oportunamente frente a alguna operación dudosa que se realice. La técnica de Clustering frente a esta problemática es un método muy utilizado puesto que permite la agrupación de datos lo que permitiría clasificarlos por su similitud de acuerdo a alguna métrica, esta medida de similaridad está basada en los atributos que describen a los objetos. Además esta técnica es muy sensible a la herramienta Outlier que se caracteriza por el impacto que causa sobre el estadístico cuando va a analizar los datos.
---The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
3

Gobantes, Marin Francisco. "Estudio de Técnicas de Recolección de Datos para la Investigación de Mercados: ¿Que Técnica Usar Para Cada Proyecto?" Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103970.

Full text
Abstract:
No autorizada por el autor para ser publicada a texto completo
La investigación de mercados es parte integral de los estudios de marketing que hoy en día se realizan en Chile. En particular, los que son a base de encuestas. Esta memoria estudia la relación que existe entre los tópicos de una encuesta y estratos de la población chilena con las diferencias en los resultados que presentan las distintas técnicas de recolección de datos no presenciales. El objetivo es poder identificar cómo cambiará la respuesta de un respondente al usar una técnica de recolección, un tópico de pregunta, y un estrato de la muestra determinado. La metodología utilizada se inició conel Levantamiento de Información Secundaria. Estudios Similares, donde se estudia el comportamiento de las personas en relación a los valores que estos tienen y sus distintas respuestas ante tópicos diferentes. Los errores muestrales, y estudios sobre comparación de escalas, de donde se puede extraer información importante acerca de los pasos metodológicos aplicados en esta memoria. El siguiente paso consistió en el diseño del Modelo de Espacio Encuesta y todas sus componentes. Luego, se procedió al diseño mismo de las encuestas. Lo que se busca es comparar metodologías, por lo que se debió generar cuestionarios para cada una de estas, de manera que los resultados obtenidos estén en la misma escala o “lenguaje”.Se analizó e interpretó los resultados obtenidos. Para esto, se utilizó el análisis de las brechas desarrollado con esta intención. Los principales hallazgos encontrados con esta metodología son que: La tasa de rechazo varía si se cambia el tópico de la encuesta. Al variar la técnica de recolección disminuyendo el nivel de interacción entre el encuestador y el encuestado (de CATI a IVR) se generan brechas no constantes entre los resultados; disminuye la media; aumenta la varianza, aunque en menor grado que la media, y el error asociado a esa varianza por la polarización de las respuestas; y cambia la forma en que el respondente conecta las variables preguntadas, lo que genera un cambio en la forma en que la variable global se ve explicada por las variables independientes. Las brechas generadas por el cambio de técnica se pueden predecir en cierto grado por la “incomodidad” del tópico de la pregunta, donde una pregunta más incomoda tiene una brecha mayor. Bajo el supuesto tomado, la deshonestidad aumenta al haber menos interacción entre el respondente y el encuestador o cuando los tópicos son más complicados de responder.
APA, Harvard, Vancouver, ISO, and other styles
4

Valerio, Jiminián Miguel Ernesto. "Nuevas técnicas de control social: análisis jurídico de las bases de datos de ADN." Doctoral thesis, Universitat Pompeu Fabra, 2016. http://hdl.handle.net/10803/384313.

Full text
Abstract:
La posibilidad estatal de almacenar información genética plantea importantes retos para las ciencias penales, pues las Bases de Datos de ADN agudizan la tensión entre los principios de libertad, seguridad e igualdad. Esta tensión es especialmente fuerte cuando los Estados tratan de conservar identificadores genéticos de las personas que han sido detenidas policialmente sin formularles cargos judiciales o de las que han sido absueltas de toda responsabilidad penal. Esta cuestión ha sido analizada, entre otros, por el Tribunal Europeo de Derechos Humanos y la Corte Suprema de Estados Unidos, alcanzando en ambos casos conclusiones distintas. En esta tesis se hace un análisis jurídico de la conservación estatal de perfiles genéticos con fines forenses y se pretende definir un modelo de registro equitativo que garantice los derechos fundamentales.
The State ability to store genetic information raises important challenges for criminal sciences, as DNA Databases exacerbate the tension among the principles of freedom, safety and equality. This tension is particularly strong when the States seek to preserve genetic identifiers of individuals that have been arrested by the police without any formal accusation or of those who have been acquitted of all penal responsibilities. This issue has been analyzed, inter alia, by the European Court of Human Rights and the Supreme Court of the United States, reaching, in both cases, different conclusions. In this Thesis, we have made a juridical analysis of the state conservation of genetic profiles for forensic purposes and it is pretended to define an equitable registration model that guarantees the fundamental rights of individuals.
APA, Harvard, Vancouver, ISO, and other styles
5

Morales, Jacob Fidel Elías. "Aplicación e interpretación de técnicas de reducción de datos según escalamiento óptimo: (Análisis de correspondencia múltiple y análisis de componentes principales categóricos)." Tesis, Universidad de Chile, 2004. http://www.repositorio.uchile.cl/handle/2250/113469.

Full text
Abstract:
Sociólogo
El presente texto se realiza con el fin de explorar la estructura de las técnicas de reducción de datos del modulo categorías del programa estadístico SPSS. Dicha exploración permitirá potenciar futuros análisis y mejorar la complementación de la información digital y analógica de las técnicas. El documento se divide en cuatro partes generales: La primera parte corresponde al planteamiento del problema, Objetivos y metodología utilizada en este texto. La segunda parte contiene el desarrollo del análisis de correspondencias múltiple. Para ello, se utiliza un esquema de flujo que representa los principales momentos de decisión del analista en la aplicación. El esquema de flujo se complementa con la aplicación concreta de la técnica a datos reales. La tercera parte contiene el desarrollo del análisis de componentes principales categóricos (no lineal). Para ello, se utiliza el mismo procedimiento al análisis de correspondencia múltiple. La cuarta parte muestra las conclusiones del estudio. Las conclusiones se ha dividido en dos partes: La primera parte muestra una “recurrencia operativa” descubierta durante la construcción de este texto, que es la ubicación de las variables independientes e incorrelacionadas en el modelo; La segunda parte muestra las conclusiones generales del texto según los objetivos investigados
APA, Harvard, Vancouver, ISO, and other styles
6

Díaz, Barriga Oscar Antonio. "Diseño de un proceso computacional basado en técnicas de minería de datos para el análisis del fenómeno de "El Niño"." Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9904.

Full text
Abstract:
El Perú es afectado recurrentemente por el fenómeno El Niño, el cual es un fenómeno climático que consiste en el aumento de la temperatura del mar en el Pacifico Ecuatorial. Este a su vez forma parte del ENSO (El Niño - Oscilación del Sur) que tiene un periodo de actuación de 2 a 7 años, con una fase cálida conocida como El Niño y una fase fría, La Niña. En la actualidad mediante un juicio experto se analizan las diversas fuentes de datos heterogéneas para poder encontrar posibles correlaciones útiles entre ellos. En el presente trabajo se propone un proceso computacional basado en técnicas de minería de datos que permita determinar la existencia de correlaciones espacio-temporales en relación a la temperatura superficial del mar y las variables meteorológicas pertenecientes a las regiones de la costa norte del Perú, en el periodo 2015 al 2016, último intervalo de tiempo en el que se presentó El Nino. Para esto se utiliza una metodología basada en KDD (Knowledge Discovery in Database), la cual está conformada por una serie de pasos como: la recolección de diferentes fuentes de datos, la integración en una base de datos explotable, limpieza y pretratamiento de los datos, creación de escenarios que permitan validar las posibles correlaciones, extracción de patrones mediante la librería SPMF y finalmente una propuesta de visualización, de los patrones encontrados, que permita comprender mejor el fenómeno. Los resultados obtenidos muestran la existencia de correlaciones espaciotemporales en las regiones del norte del Perú principalmente entre la temperatura de la superficie del mar y el caudal de los ríos de la costa, siendo estas correlaciones validadas por un experto miembro del IGP.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
7

Estrada, Gomero Daniel Carmelo. "Análisis del estándar celular TD-SCDMA y comparación técnica con WCDMA." Master's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/9548.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor
Realiza un análisis de las características técnicas de TD-SCDMA (Acceso síncrono múltiple por división de código y división de tiempo), el cual ha sido aprobado por la UIT como estándar oficial 3G. TD-SCDMA es un estándar 3G desarrollado por la Academia China de Tecnología de Telecomunicaciones y utiliza acceso múltiple por división de código (CDMA) y multiplexación por división de tiempo (TDD) para soportar en un mismo canal físico transmisiones de downlink y uplink. Este aspecto, junto con otras características técnicas de TD-SCDMA, son estudiados y evaluados para determinar las ventajas técnicas que ofrece con respecto a WCDMA. Así mismo, se realiza una comparación integral entre WCDMA y TD-SCDMA enfocando los aspectos de capacidad y cobertura. En esta comparación se incluirá el uso de HSDPA para ambas tecnologías. Por último se exponen aspectos comerciales sobre ambas tecnologías y se concluye con una recomendación sobre la viabilidad de implementar TD-SCDMA para un operador celular. Se deja en claro que tarde o temprano el mercado de servicios 3G va a despegar de manera agresiva y para entonces los operadores de red y proveedores de contenidos deberán estar preparados para prestar servicios avanzados relacionados con internet y aplicaciones basados en IP de alta velocidad, comercio electrónico, servicios basados en la ubicación del usuario, etc. En la actualidad, los 3 operadores de telefonía móvil nacionales ya tienen implementadas y en fase de desarrollo sus redes 3G y por esta razón no se aborda un estudio de factibilidad de implementar 3G, simplemente ya es una realidad.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
8

Frías, López Cristina. "Desarrollo de técnicas bioinformáticas para el análisis de datos de secuenciación masiva en sistemática y genómica evolutiva: Aplicación en el análisis del sistema quimiosensorial en artrópodos." Doctoral thesis, Universitat de Barcelona, 2019. http://hdl.handle.net/10803/668283.

Full text
Abstract:
Las tecnologías de secuenciación de próxima generación (NGS) proporcionan datos potentes para investigar cuestiones biológicas y evolutivas fundamentales, como estudios relacionados con la genómica evolutiva de la adaptación y la filogenética. Actualmente, es posible llevar a cabo proyectos genómicos complejos analizando genomas completos y / o transcriptomas, incluso de organismos no modelo. En esta tesis, hemos realizado dos estudios complementarios utilizando datos NGS. En primer lugar, hemos analizado el transcriptoma (RNAseq) de los principales órganos quimiosensoriales del quelicerado Macrothele calpeiana, Walckenaer, 1805, la única araña protegida en Europa, para investigar el origen y la evolución del sistema quimiosensorial (SQ) en los artrópodos. El SQ es un proceso fisiológico esencial para la supervivencia de los organismos, y está involucrado en procesos biológicos vitales, como la detección de alimentos, parejas o depredadores y sitios de ovoposición. Este sistema, está relativamente bien caracterizado en hexápodos, pero existen pocos estudios en otros linajes de artrópodos. El análisis de nuestro transcriptoma permitió detectar algunos genes expresados en los supuestos órganos quimiosensoriales de los quelicerados, como cinco NPC2 y dos IR. Además, también detectamos 29 tránscritos adicionales después de incluir en los perfiles de HMM nuevos miembros del SQ de genomas de artrópodos recientemente disponibles, como algunos genes de las familias de los SNMP, ENaC, TRP, GR y una OBP-like. Desafortunadamente, muchos de ellos eran fragmentos parciales. En segundo lugar, también hemos desarrollado algunas herramientas bioinformáticas para analizar datos de RNAseq y desarrollar marcadores moleculares. Los investigadores interesados en la aplicación biológica de datos NGS pueden carecer de la experiencia bioinformática requerida para el tratamiento de la gran cantidad de datos generados. En este contexto, principalmente, es necesario el desarrollo de herramientas fáciles de usar para realizar todos los procesos relacionados con el procesamiento básico de datos NGS y la integración de utilidades para realizar análisis posteriores. En esta tesis, hemos desarrollado dos herramientas bioinformáticas con interfaz gráfica, que permite realizar todos los procesos comunes del procesamiento de datos NGS y algunos de los principales análisis posteriores: i) TRUFA (TRanscriptome User-Friendly Analysis), que permite analizar datos RNAseq de organismos que no modelos, incluyendo la anotación funcional y el análisis de expresión génica diferencial; y ii) DOMINO (Development Of Molecular markers In Non-model Organisms), que permite identificar y seleccionar marcadores moleculares apropiados para análisis de biología evolutiva. Estas herramientas han sido validadas utilizando simulaciones por ordenador y datos experimentales, principalmente de arañas.
The Next Generation Sequencing (NGS) technologies are providing powerful data to investigate fundamental biological and evolutionary questions including phylogenetic and adaptive genomic topics. Currently, it is possible to carry out complex genomic projects analyzing the complete genomes and/or transcriptomes even in non-model organisms. In this thesis, we have performed two complementary studies using NGS data. Firstly, we have analyzed the transcriptome (RNAseq) of the main chemosensory organs of the chelicerate Macrothele calpeiana, Walckenaer, 1805, the only spider protected in Europe, to investigate the origin and evolution of the Chemosensory System (CS) in arthropods. The CS is an essential physiological process for the survival of organisms, and it is involved in vital biological processes, such as the detection of food, partners or predators and oviposition sites. This system, which has it relatively well characterized in hexapods, is completely unknown in other arthropod lineages. Our transcriptome analysis allowed to detect some genes expressed in the putative chemosensory organs of chelicerates, such as five NPC2s and two IRs. Furthermore, we detected 29 additional transcripts after including new CS members from recently available genomes in the HMM profiles, such as the SNMPs, ENaCs, TRPs, GRs and one OBP-like. Unfortunately, many of them were partial fragments. Secondly, we have also developed some bioinformatics tools to analyze RNAseq data, and to develop molecular markers. Researchers interested in the biological application of NGS data may lack the bioinformatic expertise required for the treatment of the large amount of data generated. In this context, the development of user-friendly tools for common data processing and the integration of utilities to perform downstream analysis is mostly needed. In this thesis, we have developed two bioinformatics tools with an easy to use graphical interface to perform all the basics processes of the NGS data processing: i) TRUFA (TRanscriptome User-Friendly Analysis), that allows analyzing RNAseq data from non-model organisms, including the functional annotation and differential gene expression analysis; and ii) DOMINO (Development of Molecular markers in Non-model Organisms), which allows identifying and selecting molecular markers appropriated for evolutionary biology analysis. These tools have been validated using computer simulations and experimental data, mainly from spiders.
APA, Harvard, Vancouver, ISO, and other styles
9

Sandoval, Linares Angel Gabriel. "Análisis de métodos y técnicas de limpieza de datos existentes y aplicación en un sistema CRM para una institución educativa limeña." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12619.

Full text
Abstract:
En la actualidad, las organizaciones emplean varios sistemas y varias fuentes de información para las actividades del día a día, y buscan tener toda esta información reunida e integrada en una única base de datos llamada data warehouse ya que permite fortalecer el trabajo del día a día, el análisis de datos y la toma de decisiones. Sin embargo, la información guardada debe de ser de buena calidad ya que una baja calidad de datos puede impactar severamente en el desempeño de la organización, la satisfacción del cliente, la toma de decisiones y reducir la habilidad de la organización de ejecutar correctamente sus planes estratégicos. En este contexto, aparece un problema crítico: la baja calidad de la información en los sistemas; y lo preocupante es que algunas empresas ignoran los impactos y consecuencias mencionados. Un sistema de información muy adquirido y usado por organizaciones Business-to- Consumer (B2C por su abreviatura en inglés) es el sistema de Gestión de Relación con el Cliente (Customer Relationship Management - CRM). Un sistema CRM es un sistema enfocado en la gestión de clientes. Los registros más importantes pertenecen a la entidad “clientes” y esta información es obtenida por las organizaciones a través de varios canales o mediante la compra de bases de datos de terceros. Finalmente, toda la información es almacenada en el data warehouse para ser consumida de allí para la toma de decisiones. Los problemas específicos para un sistema CRM son: registros duplicados de clientes, datos faltantes de un cliente como su teléfono o dirección, datos incorrectos, datos obsoletos que en algún momento fueron correctos y atributos con valores diferentes para un mismo cliente. Mantener estos registros limpios debe ser una actividad vital para la organización. Las instituciones educativas no son ajenas a esta herramienta de soporte CRM, y con el transcurso de los años, están apostando por adoptar sistemas CRM en las organizaciones (KaptureCRM, 2017). En este contexto, tener los datos de los estudiantes limpios es una tarea primordial para la organización. El desarrollo de este proyecto se enfoca en un análisis de los algoritmos, técnicas y métodos usados para la limpieza de datos, la implementación de procesos ETL (extracción, transformación y carga) que permitan la limpieza de cada fuente de datos, la integración de la información a una base de datos transaccional, la carga de la información de la base de datos transaccional a un data warehouse para su próxima explotación y, adicionalmente, el modelamiento de nuevos procesos de negocio para prevenir y mantener la correcta calidad de los datos en el sistema transaccional, para la institución educativa sobre la cual se realiza el proyecto.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
10

Molina, Salgado Javier Ignacio. "Plataforma de análisis e identificación de demanda de competencias laborales en los avisos de trabajo de la Bolsa Nacional de Empleo mediante técnicas de Text Mining." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/151668.

Full text
Abstract:
Ingeniero Civil Industrial
La Bolsa Nacional de Empleo (BNE), es una plataforma laboral estatal, pública y gratuita. Esta plataforma sirve de intermediario entre empleadores y personas que se encuentran en búsqueda de trabajo. Esta iniciativa depende del Ministerio del Trabajo y Previsión Social en conjunto con el SENCE, Servicio Nacional de Capacitación y Empleo. Por otro lado, existen competencias laborales, las cuales son definidas como habilidades, aptitudes y conocimientos que necesarios para la ejecución de alguna función dentro de una actividad laboral o puesto de trabajo. Estas son requeridas por los trabajos para ser correctamente ejecutados y también son poseídas por cada trabajador producto de su formación y experiencia. Esta memoria tiene dos objetivos principales: el primero es detectar las competencias laborales que requieren los avisos de trabajo de la BNE y en segundo lugar diseñar e implementar una plataforma de análisis para la información generada, de manera de disponer de una herramienta de apoyo a la gestión y decisión para las entidades involucradas. Para cumplir con dichas metas se desarrolló un sistema que utilizó técnicas de text mining, además de integrar un catálogo de competencias laborales junto a un motor de búsqueda para generar coincidencias entre las competencias laborales y los avisos de trabajo. Luego con la información generada se diseñó e implementó una plataforma de análisis (un data warehouse) accesible desde la web y que permite realizar distintos análisis de las competencias laborales demandadas segmentando por factores como temporalidad, sector económico, tipo de trabajo, entre otros. Finalmente, se desarrolló una herramienta de detección de competencias laborales y una plataforma para su análisis a niveles agregados o segmentados con una precisión del 95% para los grupos más altos de coincidencias. Las conclusiones de esta memoria apuntan a utilizar el trabajo desarrollado como base para nuevas líneas de investigación y aplicaciones prácticas en las distintas plataformas laborales, así como posibles mejoras al sistema actual.
Este trabajo ha sido financiado parcialmente por Proyecto FONDECYT Regular 1151479 y Proyecto CONICYT PIA SOC 1402
APA, Harvard, Vancouver, ISO, and other styles
11

Araos, Moya Andrés Arturo. "Análisis de las relaciones entre cursos del Departamento de Ingeniería Industrial en base a técnicas de data mining." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116163.

Full text
Abstract:
Ingeniero Civil Industrial
La mejora continua de los procesos de educación superior es entendida como uno de los objetivos de las instituciones que la imparten. Es bajo este contexto que existen los llamados Modelos Curriculares, que pretenden modelar las interacciones que existen entre los procesos educativos y administrativos, actores del sistema y variables clave, que son finalmente las que determinan qué tan eficiente y bueno será el aprendizaje del alumno. La Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile no es la excepción, por lo que ha ido avanzando en lograr una mejora continua de sus programas. Estos utilizan como referente el llamado Modelo Basado en Competencias, que plantea una mirada donde los estudiantes deben ir aprendiendo progresivamente habilidades y conocimientos previamente definidos en el perfil del profesional que se esté formando. En este Trabajo de Título se estudiará el caso particular de la carrera de Ingeniería Civil Industrial. Es bajo este contexto que se plantea como principal objetivo el análisis de las relaciones que existen entre los distintos cursos del departamento. Esto busca diagnosticar la eficacia con la que fue diseñada la Malla Curricular del departamento, que supone el camino lógico para la obtención de las competencias previamente definidas que debe tener un profesional egresado de ingeniero civil industrial de la Universidad de Chile. Para esto se propone la utilización de técnicas de Data Mining, específicamente la de Redes Bayesianas. Se espera de este trabajo un análisis de las relaciones observables de los cursos, tanto gráficamente como de las probabilidades condicionales, para así relacionar los cursos y los resultados académicos. Por otro lado, también se espera poder identificar las principales variables que influyen en el rendimiento académico del alumno. Los resultados muestran que existen relaciones entre varios cursos y que además muchas de ellas coinciden con las propuestas por la Malla Curricular. Por otro lado, se plantea que la distribución del tiempo en el semestre por parte del alumno y la motivación pueden ser variables determinantes, además de las habilidades y conocimientos que entregan los cursos. Por otro lado se plantea que el modelo debe ser mejorado o cambiado a uno que soporte la inclusión de una mayor cantidad de variables, puesto que este se ve limitado por la cantidad de datos y por la complejidad del problema.
APA, Harvard, Vancouver, ISO, and other styles
12

Hurtado, Carrera Katherine Lizet, and Zegarra Stefany Viviana Palomino. "Aplicación de la técnica DEA (Data Envelopment Analysis) en la medición de la eficiencia en MYPES de servicio de consultoría." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2019. http://hdl.handle.net/10757/626446.

Full text
Abstract:
El presente proyecto de investigación analiza el estudio sobre la medición de la eficiencia en MYPES de servicio de consultoría, con la aplicación del Análisis Envolvente de Datos (Data Envelopment Analysis) a un caso real, se muestra como la técnica permite identificar las unidades como eficientes e ineficientes, y determinar cuáles son las variables (entradas y salidas) que están afectando la eficiencia, y en base al resultado fijar metas u objetivos para las unidades ineficientes. Se espera que los resultados sean útiles para brindar una base a futuros investigadores sobre la forma de realizar la medición de la eficiencia, y la aplicación de la técnica acorde a sus necesidades y requerimientos específicos. Se concluye que la aplicación regular de la técnica DEA permitiría realizar un seguimiento del impacto de las acciones de mejora en las unidades encontradas como ineficientes, de modo que las empresas alcancen una mayor eficiencia en sus procesos o servicios.
This research project analyzes the study on the measurement of efficiency in MYPES of consulting service, with the application of Data Envelope Analysis (DEA) to a real case, it shows how the technique allows to identify the units as efficient and inefficient, and determine what variables (inputs and outputs) are affecting the efficiency, and based on the result, fix goals or objectives for inefficient units. The results are expected to be useful to provide a basis for future research on how to assess the efficiency measurement, and the application of the technique according to their specific needs and requirements. As a conclusion, the regular application of the DEA technique would allow monitoring the impact of improvement actions on the units found as inefficient, so that companies achieve greater efficiency in their processes or services.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
13

Villazana, Astucuri Jordy Ivo. "Sistema de procesamiento y análisis de imágenes para la caracterización fenotípica del cultivo de la papa." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/11789.

Full text
Abstract:
La caracterización y clasificación en la papa es de gran interés para muchas empresas e instituciones públicas y privadas, debido a la gran importancia nutricional, agroeconómica en los países donde son producidos Además este tubérculo ayuda al cumplimiento de uno de los objetivos del milenio declarados por la ONU denominada “Reducción del hambre y la pobreza”. En el contexto científico e industrial de nuestro país, el proceso de caracterización fenotípica basada en descriptores morfológicos es realizado manualmente, consumiendo recursos de personal especializado, costos y tiempo. El propósito de este estudio es desarrollar un sistema de visión artificial basado en el procesamiento y análisis de imágenes de la papa, aplicada a la automatización del proceso de caracterización. El sistema fue implementado en la plataforma de Matlab R2012a, usando el paquete ‘Image Processing Toolbox’, en la etapa del preprocesamiento de imagen se aplicó el filtro de la mediana, en la etapa de segmentación se aplicó el algoritmo de k-means clustering, mientras que para la determinación de la forma se aplicó la Transformada Rápida de Fourier para obtener los Descriptores de Fourier. En la validación se usaron fotografías caracterizadas por los especialistas del Instituto Nacional de Innovación Agraria y del Centro Internacional de la Papa. En los resultados se obtuvo un nivel de precisión de 78.03% al realizar la caracterización a partir de una imagen por muestra, mientras que al analizar 3 o más fotografías el nivel de precisión aumento a 89.62%. Sumando las 56 imágenes que sirvieron como entrenamiento para calibrar y determinar los factores para la caracterización, el nivel de precisión fue de 85.8% con una imagen por muestra, mientras que con 3 o más imágenes es de 93.2%. En conclusión, el sistema propuesto en la tesis puede ser aplicado para la caracterización de la forma y es un primer paso para automatizar el proceso considerando otros descriptores morfológicos de la papa a partir de las mismas imágenes analizadas.
Universidad Nacional Mayor de San Marcos (Lima). Vicerrectorado de Investigación y Posgrado
Tesis
APA, Harvard, Vancouver, ISO, and other styles
14

Herranz, Muñoz Diego. "Análisis de las anisotropías de la Radiación Cósmica del Fondo de Microondas mediante el uso de Filtros Adaptados." Doctoral thesis, Universidad de Cantabria, 2002. http://hdl.handle.net/10803/10646.

Full text
Abstract:
El estudio de las anisotropías de la Radiación Cósmica del Fondo de Microondas es una de las piedras de toque de la Cosmología actual. Una fase importante de dicho estudio consiste en el análisis previo de los datos mediante técnicas deprocesado estadístico que permiten identificar, separar y estudiar de forma independiente las diferentes componentes físicas que contribuyen a la emisión del cielo. En esta Tesis se propone una nueva técnica de filtrado, los Filtros Adaptados a la Escala, que permite detectar la emisión de fuentes compactas(galaxias y cúmulos de galaxias) de forma robusta atendiendo alas particularidades de su estructura espacial a pequeña escala.Los Filtros Adaptados a la Escala se introducen de forma teórica y posteriormente son aplicados a simulaciones realistas que reproducen las condiciones de la futura misión de la AgenciaEspacial Europea "Planck", tanto en el régimen unidimensional como en imágenes bidimensionales en una o varias frecuencias (según se trate de detección de galaxias o de cúmulos de galaxias). Se concluye que los Filtros Adaptados a la Escalaconstituyen una herramienta potente y robusta para la detección de fuentes compactas en imágenes astronómicas.
The study of the anisotropies of the Cosmic Microwave Background (CMB) is one of the milestones of modern Cosmology. Before the analysis of the CMB itself, it is importantto apply statistical tools to the data in order to identify and separate the different physical components that contribute to the sky emission at microwave wavelengths. In this Thesis a newlinear filter is proposed, the so-called Scale Adaptive Filter (SAF), that takes into account the characteristic spatial signature of compact sources (namely galaxies and galaxy clusters) inorder to optimise the detection of such sources in CMB data.The SAF is firstly theoretically introduced and then it is applied to realistic simulated CMB data as they will be observed by the upcoming ESA's Planck Mission. The considered cases includeboth unidimensional and bidimensional data sets at one single frequency (for the case of the detection of radio and infrared galaxies) or considering several frequency channels (for thecase of the detection of galaxy clusters via the Sunyaev-Zel'dovich effect). The SAF is found to be a robust and powerful tool for the detection of compact sources in astronomical images.
APA, Harvard, Vancouver, ISO, and other styles
15

Soliva, Sánchez Marta. "Estudio de filigranas en documentos administrativos del s.XVIII en el Archivo Histórico Municipal de Alicante. Análisis morfológico y puesta en valor." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/90633.

Full text
Abstract:
The present Doctoral Thesis presents a method for the study of watermarks in administrative documents of the 18th century at the Municipal Historical Archive of Alicante (A.M.A). For this purpose, 88 files corresponding to Libro 42, (Armario 1) and entitled Órdenes sobre Diputados y Personeros del común y economía y gobierno de abastos de los años 1766-1768 have been studied. These files are Government Orders and correspond to the series of Privileges and Real Provisions of the City of Alicante. In this study the Municipal Historical Archive of Alicante (A.M.A.) was chosen because of its varied, rich and extensive collection of documents of the city of Alicante dating from the 13th century to the present day. This dissertation, far beyond a mere typological and chronological catalog, aims to carry out an in-depth study of watermarks that leads to the identification of specifc design patterns as well as to understand if the use given to specific papers was done according to its documentary typology. To this end, a database and a technical data sheet was created for each watermark. Equally interesting, a new typology of watermark could be determined from the selected documents when observing that some sheets of paper presented two complementary (in some cases) and/or different watermarks (in others) in side of the papersheet. The added difficulty in this study was to establish a classification criteria for a material that is deeply heterogeneous since, these type of studies have been usually governed by the traditional method that classifies watermarks per individual sheets. Finally, a total of 279 watermarks were documented which -according to the established classification-, can be grouped into 47 different types. This new methodology aims to provide more complete information about watermarks and about the document that houses it, as well as to establish common classification criteria, avoiding repetitions and facilitating the extraction of conclusive data, in order to open the field of filigranology to new and future research.
La presente tesis doctoral muestra un método para el análisis morfológico y el estudio de las filigranas presentes en documentos administrativos del s. XVIII custodiados en el Archivo Histórico Municipal de Alicante (A.M.A.). Para ello se han estudiado 88 expedientes insertos en el Libro 42, (Armario 1) titulados Órdenes sobre Diputados y Personeros del común y economía y gobierno de abastos de los años 1766-1768. Dichos expedientes pertenecen al grupo documental Órdenes de gobierno y a la serie Privilegios y Provisiones Reales de la Ciudad de Alicante. Para este estudio se ha elegido el Archivo Histórico Municipal de Alicante (A.M.A.) por poseer una documentación muy variada, rica y amplia en documentos de la ciudad de Alicante desde el s. XIII hasta nuestros días. La presente tesis doctoral, más allá de un mero catálogo tipológico y cronológico, pretende realizar un estudio profundo de filigranas que permita abordar la existencia de patrones en un grupo específico de documentos así como determinar el uso que se le dio al papel en su contexto temporal y geográfico específico en función de su tipología documental. Para ello se establecieron una serie de parámetros de registro, la creación de una base de datos, una ficha técnica y además, se ha podido concretar una nueva tipología de filigranas en las obras estudiadas. Esto último se debe a que en el transcurso de la investigación pudo observarse que el pliego de papel podía presentar dos filigranas (ocupando ambas páginas del pliego), siendo complementarias en unos casos y/o diferente en otros. Por ello se ha podido establecer una nueva tipología. La dificultad añadida ha estado en poder establecer criterios de clasificación para un material profundamente heterogéneo a partir del estudio del pliego de papel dado que, hasta el momento, los estudios de las mismas se venían rigiendo por el método tradicional que clasifica la filigrana por motivo, es decir, por hoja individual. Finalmente se han localizado un total de 279 filigranas que -según la clasificación establecida-, se pueden agrupar en 47 Tipos distintos. Esta nueva metodología pretende aportar información más completa sobre las filigranas y el documento que las alberga, así como establecer criterios comunes de clasificación, evitando repeticiones y facilitando la extracción de datos concluyentes, con el fin de abrir el campo de la filigranología a nuevas y futuras investigaciones.
La present tesi doctoral mostra un mètode per al anàlisis morfològic i per al estudi de les filigranes presents en documents administratius del s. XVIII custodiats en l¿Arxiu Històric Municipal d¿Alacant (A.M.A.). Per a això s¿han estudiat 88 expedients inserits en el Libro 42, (Armario 1)titulats Órdenes sobre Diputados y Personeros del común y economía y gobierno de abastos de los años 1766-1768. Els dits expedients pertanyen al grup documental Ordes de govern i a la sèrie Privilegis i Provisions Reals de la Ciutat d¿Alacant. Per a este estudi s¿ha triat l¿Arxiu Històric Municipal d¿Alacant (A.M.A.) per posseir una documentació molt variada, rica i àmplia en documents de la ciutat d¿Alacant des del s. XIII fins als nostres dies. La present tesi doctoral, més enllà d¿un mer catàleg tipològic i cronològic, pretén realitzar un estudi profund de filigranes que permeta abordar l¿existència de patrons en un grup específic de documents així com determinar l¿ ús que se li va donar al paper en un context temporal i geogràfic específic en funció de la seua tipologia documental. Per a això es van establir una sèrie de paràmetres de registre, la creació d¿una base de dades, una fitxa tècnica i a més s¿ha pogut concretar una nova tipologia de filigranes en les obres estudiades. Açò últim se deu al fet que en el transcurs de la investigació va poder observar-se que el plec de paper podia presentar dos filigranes (ocupant ambdós pàgines del plec), sent complementàries en uns casos y/o diferent en altres. Per això s¿ha pogut establir una nova tipologia. La dificultat afegida ha estat a poder establir criteris de classificació per a un material profundament heterogeni a partir de l ¿estudi del plec de paper atés que, fins al moment, els estudis de les mateixes es venien regint pel mètode tradicional que classifica la filigrana per motiu, és a dir, per full individual. Finalment s¿han localitzat un total de 279 filigranes que -segons la classificació establida-, es poden agrupar en 47 Tipus distints. Esta nova metodologia pretén aportar informació més completa sobre les filigranes i el document que les alberga, així com establir criteris comuns de classificació, evitant repeticions i facilitant l¿extracció de dades concloents, a fi d¿obrir el camp de la filigranología a noves i futures investigacions.
Soliva Sánchez, M. (2017). Estudio de filigranas en documentos administrativos del s.XVIII en el Archivo Histórico Municipal de Alicante. Análisis morfológico y puesta en valor [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90633
TESIS
APA, Harvard, Vancouver, ISO, and other styles
16

Gusmão, Rui Jorge Coelho. "Complejación de iones metálicos con mezclas de fitoquelatinas, sus fragmentos y selenocistina. Estudio mediante voltamperometría - resolución multivariante de curvas, en combinación con técnicas espectrométricas y calorimétricas." Doctoral thesis, Universitat de Barcelona, 2012. http://hdl.handle.net/10803/107882.

Full text
Abstract:
El objetivo principal de la Tesis ha sido profundizar en el conocimiento de la complejación de metales por ligandos de S y Se. Se ha dedicado una atención especial a las fitoquelatinas (PCn), que son la base de la fitorremediación, por su capacidad de complejar los metales pesados. Se ha intentado conocer los complejos formados, mediante experimentos realizados con diferentes técnicas analíticas. En una primera fase, el trabajo se centra en el uso de la polarografia de impulsos diferencial (DPP) asistida con el método quimiométrico de Resolución Multivariante de Curvas por Mínimos Cuadrados Alternados (MCR-ALS) para resolver las mezclas de péptidos presentes en plantas (fitoquelatinas y sus fragmentos) y Cd2+. Los resultados obtenidos se han comparado con los obtenidos por la espectrometría de masas (ESI-MS). El siguiente objetivo fue estudiar la fitoquelatina PC5, en presencia de los iones Cd2+ y Pb2+. El mayor tamaño de este péptido, respecto a otras PCn estudiadas anteriormente, podria implicar a priori modelos de complejación competitiva más complejos. Por ello, se planteó un estudio sistemático basado en una combinación del análisis quimiométrico (mediante MCR-ALS y los nuevos algoritmos pHfit y GPA) de las medidas por DPP y Dicroísmo Circular (CD), y ESI-MS. El tercer objetivo fue estudiar la selenocistina (SeCyst), en diversas situaciones de complejación competitiva. El comportamiento electrónico de SeCyst sola o en presencia de un ion metálico (Bi3+, Cd2+, Co2+, Cu2+ , Cr3+ , Ni2+ , Pb2+ y Zn2+) fue estudiado por DPP en un amplio intervalo de pH. Se han realizado también estudios por Valoración Isotérmica Calorimétrica (ITC) a pH fisiológico (7.4) que además, permitieron obtener parámetros termodinámicos y constante de complejación. En un estudio más detallado, se seleccionó el Cd2+ como modelo para comportamiento de SeCyst en la presencia de un metal no esencial, en cambio, se eligió el Zn2+ para el caso de un elemento esencial. Además, se estudiaran mezclas de SeCyst y el glutatión (GSH) en presencia de Cd2+ a pH fisiológico. Un último objetivo consistió en evaluar la posible utilización de electrodos modificados para la detección de tioles. En una estancia en la Universidad de Oxford, se llevaron a cabo estudios de modificación de dos tipos de electrodos de carbono: el de carbono vitrificado (GCE) y el de grafito pirolítico “edge plane pyrolytic graphite” (EPPG), inmovilizando en sus superficies un centro metálico redox (derivados del Ferroceno, Fc). Finalmente, se estudió su respuesta catalítica en presencia de Cys.
The main goal of the Thesis has been to deepen the knowledge about metal complexation by ligands containing S and Se. A special attention has been paid to phytochelatins (PCn), which are on the basis of phytoremediation due to their ability to complex heavy metals. The formed complexes have been studied by means of different analytical techniques. In a first step, the work is focused on the use of Differential Pulse Polarography (DPP), assisted by Multivariate Curve Resolution by Alternating Least Squares (MCR-ALS), in order to resolve the mixtures of peptides present in plants (phytochelatins and their fragments) and Cd2+. The obtained results have been compared with those by mass spectrometry (ESI-MS). The next goal has been the study of the phytochelatin PC5 in the presence of Cd2+ and Pb2+. The bigger size of this PCn as compared to other previously studied could imply a priori more complicated models of competitive complexation. Then, a systematic study was devised based on the combination of chemometric analysis (by means of MCR-ALS and the new algorithms pHfit and GPA) of the data obtained by DPP and circular dichroism, and ESI-MS. A third goal has been the study of selenocystine (SeCyst) in different situations of competitive complexation. The electrochemical behaviour of SeCyst alone or in the presence of a metal ion (Bi3+, Cd2+, Co2+, Cu2+, Cr3+, Ni2+, Pb2+ and Zn2+) has been studied by DPP in a wide pH range. Studies by isothermal titration calorimetry (ITC) have also been made, which have provided thermodynamic parameters and complexation constants. In a more detailed study, Cd2+ and Zn2+ ions have been selected as models of non-essential and essential metal, respectively, in order to study their behaviour in the presence of SeCyst. Mixtures of SeCyst and glutathione have been also studied in the presence of Cd2+ at physiological pH. The last goal has been to evaluate the possible use of modified electrodes for the detection of thiols. During a stay in the University of Oxford, several studies were carried out on the modification of two kinds of carbon electrode: glassy carbon (GCE) and edge plane pyrolitic graphite (EPPG). The modification consisted on the immobilisation of a metallic redox center (a ferrocene derivative) onto the surface. Then, the catalytic responses in the presence of Cys have been studied.
APA, Harvard, Vancouver, ISO, and other styles
17

Chavez, Huerta Brian Francisco, and Castillejo Martín Andree Espíritu. "Aplicación de métodos de inspección y reparación en viviendas de albañileria confinada con presencia de daños en sus elementos estructurales provocado por un sismo." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2019. http://hdl.handle.net/10757/628110.

Full text
Abstract:
Los sismos a través del tiempo han sido perjudiciales en el desarrollo de construcciones hechas por el hombre. Un sismo es un movimiento repentino del terreno producido por fuerzas que actúan en el interior del planeta; sus orígenes son numerosos pero el más importante son los choques entre las placas tectónicas. Respecto a las estructuras dañadas por el sismo, en la mayoría de los casos, son las viviendas familiares las que se ven perjudicadas en mayor medida, son muchas las causas, pero uno de los más importantes es la construcción de edificaciones de albañilería confinada realizadas sin ningún parámetro ingenieril (Hermosa, 2003). Por ello, cuando ocurre un sismo suele aparecer fallas en sus elementos estructurales, que en algunos casos no se le toma la debida importancia por el usuario, vale mencionar que este acto no es el correcto debido a que, si ocurriera un sismo de alta magnitud podría colapsar y como consecuencia se perderían vidas humanas. Por esta razón, a todos los profesionales dedicados al rubro de la construcción les es imprescindible contar con nociones de inspección de los daños estructurales y asimismo saber repararlas. En este documento se aprenderá las diferentes aplicaciones de métodos de inspección de fisuras en elementos estructurales tanto en columnas, vigas y muros, pero enfocado principalmente en el muro ya que, en esta técnica constructiva, el muro es el que soporta los esfuerzos, este análisis será de dos formas: Evaluación rápida y evaluación detallada. En la evaluación rápida, se determina rápidamente el riesgo o seguridad que representa la estructura; esta información será almacenada en una aplicación, el cual será la herramienta para la evaluación con el fin de determinar el nivel de seguridad de la vivienda, las cuales son seguridad total, habitable, cuidado e insegura, estableciendo de esta manera si la vivienda es habitable o no (Pinto y Torres, 2016). Finalmente, si la vivienda se encontrase en el nivel de seguridad de cuidado o insegura se pasará a una evaluación detallada; en esta evaluación se recomienda una inspección no mayor a 6 horas. En la evaluación detallada, se realiza una reevaluación de acuerdo a los niveles establecidos en la evaluación rápida, centrándose en los últimos niveles, cuidado e inseguro, respectivamente; se determinará las causas que originaron los daños, así como la magnitud de daños en los elementos estructurales a través de equipos de inspección, siendo algunos de ellos, el pacómetro y el comparador; para la posterior aplicación de diversos métodos de reparación. Finalmente, la reparación involucra la inyección de resina epoxi en grietas, reforzamiento con fibra de carbono, malla electrosoldada, entre otros. El éxito de la aplicación de estos métodos tiene como objetivo lograr disminuir el porcentaje de probabilidad de colapso y eliminar la pérdida de vidas humanas que se realizará mediante un modelamiento de la vivienda reparada la cual tendrá que cumplir con las normas de diseño sismorresistente. Como resultado de este modelamiento en Etabs se pudo comprobar que efectivamente tras la reparación a través de fibra de carbono y malla electrosoldada en los muros de albañilería confinada, la estructura es capaz de soportar sismos de igual o mayor magnitud.
Earthquakes over time have been detrimental in the development of man-made constructions. An earthquake is a sudden movement of the land produced by forces acting inside the planet; Its origins are numerous but the most important are the clashes between the tectonic plates. Regarding the structures damaged by the earthquake, in most cases, it is family homes that are harmed to a greater extent, there are many causes, but one of the most important is the construction of confined masonry buildings made without no engineering parameter (Hermosa, 2003). Therefore, when an earthquake occurs, failures usually appear in its structural elements, which in some cases do not take due importance by the user, it is worth mentioning that this act is not correct because, if a high magnitude earthquake occurs It could collapse and as a result human lives would be lost. For this reason, all professionals dedicated to the construction sector are essential to have notions of inspection of structural damage and also know how to repair them. In this document we will learn the different applications of methods of inspection of fissures in structural elements both in columns, beams and walls, but focused mainly on the wall since, in this construction technique, the wall is the one that supports the efforts, this analysis It will be in two ways: Rapid evaluation and detailed evaluation. In the rapid assessment, the risk or safety of the structure is quickly determined; This information will be stored in an application, which will be the tool for the evaluation in order to determine the level of security of the house, which are total, habitable, careful and insecure security, establishing in this way if the house is habitable or not (Pinto y Torres, 2016). Finally, if the house is at the level of care or insecurity, a detailed evaluation will be carried out; In this evaluation, an inspection of no more than 6 hours is recommended. In the detailed evaluation, a reassessment is carried out according to the levels established in the rapid evaluation, focusing on the last levels, careful and insecure, respectively; the causes that caused the damage will be determined, as well as the magnitude of damage to the structural elements through inspection equipment, some of them being the pacometer and the comparator; for the subsequent application of various repair methods. Finally, the repair involves the injection of epoxy resin in cracks, reinforcement with carbon fiber, welded mesh, among others. The success of the application of these methods aims to reduce the likelihood of collapse and eliminate the loss of human lives that will be done through a modeling of repaired housing which will have to comply with seismic-resistant design standards. As a result of this modeling in Etabs, it was found that after the repair through carbon fiber and welded mesh in the confined masonry walls, the structure is capable of withstanding earthquakes of equal or greater magnitude.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
18

Pérez, Bernabeu Elena. "Propuesta de mejora de los gráficos de control por atributos mediante la metodología de Daudin." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/3786.

Full text
Abstract:
Esta Tesis Doctoral se centra en la propuesta de mejora del gráfico por atributos u. Se aplica a este gráfico el muestreo doble propuesto por J.J. Daudin (1992) para el gráfico de la media. Se trata de un caso particular en dos etapas del muestreo múltiple, y el gráfico propuesto recibe el nombre de DS-u. El objetivo de esta Tesis Doctoral es conocer cómo se comporta la metodología de Daudin aplicada al gráfico por atributos u, y si mejora la potencia que ofrece el gráfico u clásico. Para ello se ha programado una aplicación empleando algoritmos genéticos con la cual se han realizado simulaciones que han permitido la obtención de conclusiones. Se ha conseguido mejorar para algunos casos concretos.
Pérez Bernabeu, E. (2008). Propuesta de mejora de los gráficos de control por atributos mediante la metodología de Daudin [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3786
Palancia
APA, Harvard, Vancouver, ISO, and other styles
19

de, Aguiar Loureiro Juliana. "Técnicas de agrupamento de dados na mineração de dados químicos." Universidade Federal de Pernambuco, 2005. https://repositorio.ufpe.br/handle/123456789/2791.

Full text
Abstract:
Made available in DSpace on 2014-06-12T16:01:13Z (GMT). No. of bitstreams: 2 arquivo7201_1.pdf: 2018800 bytes, checksum: 53a5a6f555847d7a5b53bef8739ece02 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2005
O processo de descoberta de conhecimento em bases de dados (Knowledge Discovery in Databases KDD) tem por objetivo extrair informações úteis (conhecimento) a partir de uma extensa quantidade de dados. Este processo, por sua vez, se constitui de várias etapas, entre elas, a atividade de mineração dos dados, representada neste estudo sob forma de an´ alise de agrupamento. Um problema característico dessa etapa é identificar qual ou quais métodos de agrupamento podem realmente apresentar uma classificação útil e válida para o conjunto de dados em estudo. Entre os mecanismos de apoio à triagem e estudo das técnicas de análise de agrupamento está o conhecimento adquirido sobre o conjunto de dados, o conhecimento de técnicas estatísticas para realizar a análise exploratória dos dados e principalmente conhecer bem quais algoritmos são adequados ao problema de interesse. A presente dissertação visa considerar os procedimentos de KDD apropriados para a aplicação das técnicas de análise de agrupamento a um conjunto de dados químicos
APA, Harvard, Vancouver, ISO, and other styles
20

Bertolla, Jane Maiara. "Técnicas de análise de dados distribuídos em áreas /." Botucatu, 2015. http://hdl.handle.net/11449/126401.

Full text
Abstract:
Orientador: José Silvio Govone
Banca: Paulo Milton Barbosa Landim
Banca: Selene Maria Coelho Loibel
Resumo: O objetivo deste trabalho é estudar técnicas de análise espacial para compreender os padrões associados a dados por área, testar se o padrão observado é aleatório ou se o evento se distribui por aglomerado, obter mapas mais suaves que o mapa observado e procurar estimativas melhores de estruturas adjacentes. Utilizou-se um conjunto de dados referente a 1656 casos positivos de dengue na cidade de Rio Claro - SP registrados no primeiro semestre de 2011. Neste conjunto de dados, e com o auxílio do software Terra View 4.2.2, foram construídas as estimativas de Kernel para dois tipos de função de estimação: Kernel Normal e Kernel Quártico. Para a Função de Estimação Kernel Normal foram usados os seguintes raios de influência: 100m, 150m, 200m e 500m. Já para a Função de Estimação Kernel Quártico foram usados os seguintes raios de influência: 250m, 375m, 500m e 625m. Ainda no mesmo software foram construídos mapas para uma análise exploratória com três critérios diferentes: Intervalos iguais, Intervalos por quantil e Intervalos por desvios padrão. Em seguida, foram construídos os respectivos mapas de suavização através da Média Móvel Espacial. Dependendo do critério utilizado (quantil, intervalos iguais ou desvio padrão), notou-se que há diferenças nos resultados de ocorrências de dengue, tanto para os dados originais, quanto para os transformados pela média móvel. Observou-se que o comportamento do kernel quártico é similar ao do kernel normal, porém com diferentes raios de influência. Este resultado corrobora as observações de Bailey e Gatrell(1995), de que a função de ajuste não é de grande importância, já que o controle pode ser feito através do raio de influência para a estimativa em cada ponto. Através do teste de permutação aleatório verificou-se que há dependência espacial entre os valores observados, onde a estatística I é igual a 0,389828 e o p-valor igual a...
Abstract: The goal of this piece is to study spacial analysis techniques to understand the patterns associated to data over areas, test if the observed pattern is random or if the event distributes itself by agglomeration, get smoother maps than the observed maps and look for better estimates of adjacent structures. A database concerning of 1656 positive dengue occurrences in the city of Rio Claro-SP during the first semester of 2011 was used. With this database, using the software Terra View 4.2.2, it were constructed the kernel estimates for two kind of estimate functions: Normal Kernel and Quartic Kernel. For the Normal Kernel Function estimate it were used the following influence radius: 100m, 150m, 200m and 500m. On the other hand, for the Quartic Kernel Function estimate it were used the following influence radius: 250m, 375m, 500m and 625m. Yet using the same software, maps were constructed for a visual exploratory analysis with three different criterions: equal intervals, quintiles intervals and standard deviation intervals. In the sequence, the respective smoothing maps were constructed using the Spacial Moving Averages. Depending on the used criterion (quintiles, equal intervals or standard deviation) it was observed differences between the dengue occurrences, considering the original data or the ones transformed by the moving average. It was observed that the quartic kernel behavior is similar to the normal's kernel, but with different influence radius. This result corroborates Bailey and Gatrell's observations that the adjustment function is not of considerable importance, considering that the control can be made through the influence radius for the estimate in each point. Through the random permutation test it was verified that there is special dependence between the observed values, where the stats equals 0,389828 and the p-value equals 0,01. Kawamoto (2012) applied the kernel estimate for the same database, but considering the ...
Mestre
APA, Harvard, Vancouver, ISO, and other styles
21

Bertolla, Jane Maiara [UNESP]. "Técnicas de análise de dados distribuídos em áreas." Universidade Estadual Paulista (UNESP), 2015. http://hdl.handle.net/11449/126401.

Full text
Abstract:
Made available in DSpace on 2015-08-20T17:09:41Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-20. Added 1 bitstream(s) on 2015-08-20T17:26:37Z : No. of bitstreams: 1 000839869.pdf: 1792340 bytes, checksum: 4490a9a8babe32e8c2e64a0d2e2667c4 (MD5)
O objetivo deste trabalho é estudar técnicas de análise espacial para compreender os padrões associados a dados por área, testar se o padrão observado é aleatório ou se o evento se distribui por aglomerado, obter mapas mais suaves que o mapa observado e procurar estimativas melhores de estruturas adjacentes. Utilizou-se um conjunto de dados referente a 1656 casos positivos de dengue na cidade de Rio Claro - SP registrados no primeiro semestre de 2011. Neste conjunto de dados, e com o auxílio do software Terra View 4.2.2, foram construídas as estimativas de Kernel para dois tipos de função de estimação: Kernel Normal e Kernel Quártico. Para a Função de Estimação Kernel Normal foram usados os seguintes raios de influência: 100m, 150m, 200m e 500m. Já para a Função de Estimação Kernel Quártico foram usados os seguintes raios de influência: 250m, 375m, 500m e 625m. Ainda no mesmo software foram construídos mapas para uma análise exploratória com três critérios diferentes: Intervalos iguais, Intervalos por quantil e Intervalos por desvios padrão. Em seguida, foram construídos os respectivos mapas de suavização através da Média Móvel Espacial. Dependendo do critério utilizado (quantil, intervalos iguais ou desvio padrão), notou-se que há diferenças nos resultados de ocorrências de dengue, tanto para os dados originais, quanto para os transformados pela média móvel. Observou-se que o comportamento do kernel quártico é similar ao do kernel normal, porém com diferentes raios de influência. Este resultado corrobora as observações de Bailey e Gatrell(1995), de que a função de ajuste não é de grande importância, já que o controle pode ser feito através do raio de influência para a estimativa em cada ponto. Através do teste de permutação aleatório verificou-se que há dependência espacial entre os valores observados, onde a estatística I é igual a 0,389828 e o p-valor igual a...
The goal of this piece is to study spacial analysis techniques to understand the patterns associated to data over areas, test if the observed pattern is random or if the event distributes itself by agglomeration, get smoother maps than the observed maps and look for better estimates of adjacent structures. A database concerning of 1656 positive dengue occurrences in the city of Rio Claro-SP during the first semester of 2011 was used. With this database, using the software Terra View 4.2.2, it were constructed the kernel estimates for two kind of estimate functions: Normal Kernel and Quartic Kernel. For the Normal Kernel Function estimate it were used the following influence radius: 100m, 150m, 200m and 500m. On the other hand, for the Quartic Kernel Function estimate it were used the following influence radius: 250m, 375m, 500m and 625m. Yet using the same software, maps were constructed for a visual exploratory analysis with three different criterions: equal intervals, quintiles intervals and standard deviation intervals. In the sequence, the respective smoothing maps were constructed using the Spacial Moving Averages. Depending on the used criterion (quintiles, equal intervals or standard deviation) it was observed differences between the dengue occurrences, considering the original data or the ones transformed by the moving average. It was observed that the quartic kernel behavior is similar to the normal's kernel, but with different influence radius. This result corroborates Bailey and Gatrell's observations that the adjustment function is not of considerable importance, considering that the control can be made through the influence radius for the estimate in each point. Through the random permutation test it was verified that there is special dependence between the observed values, where the stats equals 0,389828 and the p-value equals 0,01. Kawamoto (2012) applied the kernel estimate for the same database, but considering the ...
APA, Harvard, Vancouver, ISO, and other styles
22

Bernardo, Jose M. "Análisis de datos y métodos bayesianos." Pontificia Universidad Católica del Perú, 2013. http://repositorio.pucp.edu.pe/index/handle/123456789/95635.

Full text
Abstract:
En este trabajo se describen las nuevas perspectivas abiertas en la ciencia estadística por dos hechos históricos relativamente recientes, el espectacular desarrollo de los métodos gráficos en microordenadores, y la axiomatización de la estadística matemática proporcionada por el paradigma Bayesiano.
APA, Harvard, Vancouver, ISO, and other styles
23

Consularo, Luís Augusto. "Técnicas de mineração de dados para análise de imagens." Universidade de São Paulo, 2000. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-14012009-101451/.

Full text
Abstract:
Imagens codificadas por matrizes de intensidade são tipicamente representadas por grande quantidade de dados. Embora existam inúmeras abordagens para análise de imagens, o conhecimento sobre problemas específicos é raramente considerado. Este trabalho trata sobre problemas de análises de imagens cujas soluções dependem do conhecimento sobre os dados envolvidos na aplicação específica. Para isso, utiliza técnicas de mineração de dados para modelar as respostas humanas obtidas de experimentos psicofísicos. Dois problemas de análise de imagens são apresentados: (1) a análise de formas e (2) a análise pictórica. No primeiro problema (1), formas de neurônios da retina (neurônios ganglionares de gato) são segmentadas e seus contornos submetidos a uma calibração dos parâmetros de curvatura considerando a segmentação manual de um especialista. Outros descritores, tais como esqueletos multi-escalas são explorados para eventual uso e avaliação da abordagem. No segundo problema (2), a análise pictórica de imagens de home-pages serve para avaliar critérios estéticos a partir de medidas de complexidade, contraste e textura. O sistema generaliza as respostas por um experimento psicofísico realizados com humanos. Os resultados objetivos com as duas abordagens revelaram-se promissores, surpreendentes e com ampla aplicabilidade.
Images coded by intensity matrices typically involve large amount of data. Although image analysis approaches are diverse, knowledge about specific problems is rarely considered. This work is about image analysis problems whose solutions depend on the knowledge about the involved data. In order to do so data mining techniques are applied to model human response to psychophysical experiments. Two image analysis problems are addressed: (1) shape analysis; and (2) pictorial analysis. In the former, neuronal images (ganglion retinal cells of cat) are segmented and curvature parameters are calibrated to identify extremities and branches on the shape considering human segmentation as a reference. Descriptors such as multiscale skeletons are also explored for potential application or evaluations. In the second problem, a pictorial analysis of home-pages images feed an artificial aesthetics criteria evaluator based on complexity, contrast and texture features. The system models and generalizes the obtained human responses to psychophysical experiment. The results for these two approaches are promising, surprising and widely applicable.
APA, Harvard, Vancouver, ISO, and other styles
24

Bonato, Jorge Vinicius Ruviaro. "Clusterização de dados meteorológicos para comparação de técnicas de nowcasting." reponame:Repositório Institucional da UFPR, 2014. http://hdl.handle.net/1884/36598.

Full text
Abstract:
Orientador : Prof. Dr. Paulo Henrique Siqueira
Co-orientador : Prof. Dr. Cesar Augustus Assis Beneti
Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 09/04/2014
Inclui referências
Área de concentração: Programação Matematica
Resumo: O interesse de empresas e sociedade em geral em saber, em tempo quase real e de maneira precisa, sobre a ocorrência de eventos severos tem gerado grande demanda por técnicas de previsão que sejam rápidas e confiáveis. Nessa busca, há criação de novas técnicas e/ou adaptação de outras já desenvolvidas e bem conhecidas. Neste trabalho foi feita uma adaptação da técnica ForTraCC para uso com dados de refletividade máxima de radar, provenientes de um radar meteorológico Banda-S Doppler operado pelo SIMEPAR no município de Teixeira Soares-PR, através de definição de novos limiares, além do desenvolvimento de uma técnica baseada em correlação espacial, denominada técnica XCorr, utilizando também o método K-Means++ para classificação de células convectivas e estratiformes. As duas técnicas foram então comparadas, através de gráficos de correlação entre dados observados e previsões geradas, com melhor desempenho para a técnica ForTraCC frente à baseada em técnicas de correlação espacial, que apesar de suas limitações apresentou bons resultados. Palavras-chave: Nowcasting, Eventos Severos, K-Means++, Classificação
Abstract: The interest of companies and society in general to know, in almost real time and accurately, the occurrence of severe weather events has generated great demand for predictive techniques that are fast and reliable. In this quest, there are the development of new techniques and / or adaptation of others already developed and well known. In this work it was made an adaptation of the ForTraCC technique using radar maximum reflectivity, from a Doppler S-Band weather radar operated by SIMEPAR installed in Teixeira Soares-PR, setting new thresholds, and the development of a technique based on spatial correlation, called XCorr technique, using K-Means++ method for classifying convective and stratiform cells. The two techniques were then compared using correlation graphs between observed and forecasted data, with better performance with ForTraCC instead of spatial correlation technique which, despite its limitations, also presented good results. Key-words: Nowcasting, Severe Weather, K-Means++, Classification
APA, Harvard, Vancouver, ISO, and other styles
25

Apolaya, Torres Carlos Humberto, and Diaz Adolfo Espinosa. "Técnicas de inferencias, predicción y minería de datos." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/624497.

Full text
Abstract:
En el primer capítulo, se describe la problemática que se quiere solucionar y se detalla los objetivos específicos que aportan al cumplimiento del objetivo general y el alcance del proyecto. En el segundo capítulo, se definen los conceptos básicos más importantes como Data Mining y Machine Learning, los cuales están relacionados al tema de estudio de la investigación. En el tercer capítulo, se encuentra el Estado del Arte, en el cual se revisará la investigación previa relacionada al proyecto indicando el rubro en el que fue implementado. Esto permite entender cómo se encuentra el tema investigado en la actualidad y tener una visión más clara de lo que se puede desarrollar. En el cuarto capítulo, se describe el desarrollo del proyecto, la metodología a utilizar, se detalla las fases de dicha metodología y el proceso a seguir para la correcta implementación del modelo utilizando arboles de decisión y la metodología Knowledge Discovery in Databases (KDD). En el quinto capítulo se detalla cómo se obtuvo un porcentaje de error de predicción de aproximadamente 9.13%, las pruebas realizadas y recomendaciones. Así como también las propuestas de continuidad del proyecto enfocados en la mejora del modelo de predicción. Finalmente, en el sexto capítulo se describen los resultados finales en la gestión propia del proyecto, en los aspectos de Resultado Final y las Gestiones de alcance, tiempo, comunicación, recursos humanos y riesgos.
In the first chapter, it describes the problem to be solved and it details the specific objectives that contribute to the fulfillment of the general objective and the scope of the project. In the second chapter, the most important basic concepts like Data Mining and Machine Learning are defined, which are related to the subject of research study. In the third chapter, there is the State of Art, in which the previous research related to the project will be reviewed indicating the area in which it was implemented. This allows us to understand how the subject is currently investigated and to have a clearer vision of what can be developed. In the fourth chapter, we describe the development of the project, the methodology to be used, details the phases of the methodology and the process to be followed for the correct implementation of the model using decision trees and the Knowledge Discovery in Databases (KDD) methodology. The fifth chapter details how we obtained a prediction error rate of approximately 9.13%, the tests performed and recommendations. As well as proposals for project continuity focused on improving the prediction model. Finally in the sixth chapter, the final results are described in the project's own management, in the aspects of Final Result and the Outreach, Time, Communication, Human Resources and Risk Management.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
26

Salicrú, Miquel. "Medidas de divergencia en análisis de datos." Doctoral thesis, Universitat de Barcelona, 1987. http://hdl.handle.net/10803/1569.

Full text
Abstract:
Un problema interesante que se plantea en análisis de datos es la elección adecuada de medidas que cuantifiquen las analogías y diferencias entre individuos, poblaciones o grupos de poblaciones.

De forma general, han sido desarrolladas distintas formas de elección de tales medidas, siendo destacables las medidas que provienen de diferencias intrínsecas entre individuos, las medidas que provienen de consideraciones sobre funciones, de entropía, y las medidas que provienen exclusivamente de consideraciones teóricas. En esta memoria, hemos estudiado estas medidas a partir de la clasificación de medidas de distanciación realizada por Burbea y Rao (1982).

En la primera parte (cap. 1, 2 y 3), se presentan las distintas divergencias, se estudian inter-relaciones y se analiza la convexidad.

En la segunda parte (cap. 4) se estudian las métricas diferenciales asociadas a divergencias invariantes frente a cambios no singulares de parámetros y variables aleatorias.

En la tercera parte (cap. 5 y 6) se analizan las relaciones entre la J-divergencia y las entropías comúnmente utilizadas.

Finalmente, en los anexos I y II se presentan los programas utilizados en el cap. 6.
APA, Harvard, Vancouver, ISO, and other styles
27

Fresno, Rodríguez Cristóbal. "Minería de datos en análisis ontológico-funcionales." Doctoral thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2014. http://hdl.handle.net/11086/1594.

Full text
Abstract:
Tesis (DCI)--FCEFN-UNC, 2014
Trata diferentes metologías que permiten un análisis más estructurado y completos de los datos obtenidos en uno o más experimentos, facilitando y enriqueciendo así el análisis ontológico-funcional. Se desarrolló un análisis de calidad de datos que permite detectar tendencias y evaluar su impacto, al igual que herramientas programáticas (automáticas) para integrar y validar computacionalmente los procesos funcionales alterados por el experimento.
APA, Harvard, Vancouver, ISO, and other styles
28

Sebastião, Fernando José do Nascimento. "Técnicas multivariadas de redução de dados: comparação, aplicabilidade e convergência de resultados." Doctoral thesis, ISA-UL, 2016. http://hdl.handle.net/10400.5/12016.

Full text
Abstract:
Doutoramento em Matemática e Estatística - Instituto Superior de Agronomia - UL
É muito comum a análise de dados recorrendo a técnicas multivariadas, nomeadamente para séries temporais. As principais metodologias consagradas, descritas ao longo desta dissertação, são a Análise em Componentes Principais (ACP), a Análise em Componentes Independentes (ACI), a Análise Espectral Singular (SSA) e a Análise Espectral Singular Multicanal (MSSA). A ACI tem sido considerada mais adequada que a ACP na análise de séries temporais, principalmente quando se admite a não normalidade e se exige que as componentes a estimar sejam independentes. Neste sentido, como alternativa à MSSA, é proposta uma nova abordagem baseada na ACI aplicada à matriz dos desfasamentos, que é designada Lag-Análise em Componentes Independentes (LagACI). Tal abordagem é desenvolvida e suportada teoricamente pelos conceitos algébricos e algoritmos existentes das duas técnicas envolventes. São dados exemplos de aplicação, com especial relevância para dados climáticos. O principal objetivo da tese é interligar o novo método com os restantes métodos estatísticos multivariados referidos, para permitir avaliar as semelhanças e diferenças entre estes. Analisam-se diferentes abordagens em cada método e estudam-se as implicações da escolha da matriz informativa das estruturas subjacentes aos dados, tendo em conta se estes estão ou não sujeitos a algum tipo de pré-processamento, como por exemplo a centragem. São ainda considerados alguns indicadores comparativos de avaliação do desempenho de modelos para averiguar o grau de semelhança nos resultados transversais às técnicas em estudo. Considera-se que a nova abordagem representa uma contribuição para novos desenvolvimentos teóricos e aplicações no campo da análise de séries temporais
APA, Harvard, Vancouver, ISO, and other styles
29

Frosch, Renato. "Análise e avaliação dos modelos de padronização de dados e procedimentos eletrônicos para desenhos e projetos da construção civil: estudo de caso." Universidade Federal de São Carlos, 2004. https://repositorio.ufscar.br/handle/ufscar/4683.

Full text
Abstract:
Made available in DSpace on 2016-06-02T20:09:18Z (GMT). No. of bitstreams: 1 DissRF.pdf: 3425323 bytes, checksum: 6fdfedf09bd08a52559902ffc71da500 (MD5) Previous issue date: 2004-11-24
This present work intends to analyze and evaluate a set of proposals, in discussion, about the utilization feasibility of preceding pattern models (AsBEA proposal, AIA-CSI, ISO), related to the CADD technology development used in civil construction projects, emphasizing a graphical representation and the information transference. From the previous proposal, there were checked alterations caused on the elaboration routine of projects through a questionnaire application to active professionals on the elaboration, edition and review of electronic drawings and case study. (builder and projects office). Aiming verify the adaptation of a set of old rules (NBRs related to traditional technical drawing) to a new concept based on a system of standard computerized technical drawing, finally, this work intends to put up subsidies for a national technical rule/manual elaboration. Expecting that the development of this work can contribute to the deepen of projects related studies, specifically, on the organization feasibility aspects and nomenclature definition, and the graphical representation appreciation suited to electronic drawings.
O presente trabalho analisa e avalia o conjunto de propostas, em discussão, sobre a viabilidade da utilização de modelos de padronização de procedimentos (propostas AsBEA, AIA-CSI, ISO), relacionados com o desenvolvimento da tecnologia CADD empregada nos projetos para a construção civil, enfatizando-se a representação gráfica e a transferência de informação. A partir da proposta anterior, foram verificadas as alterações provocadas na rotina de elaboração de projetos por intermédio de aplicação de questionários a profissionais atuantes na elaboração, edição e revisão de desenhos eletrônicos e estudo de casos (construtora e escritório de projetos). Com intuito de verificar a adaptação de um conjunto de normas antigas (NBRs relacionadas ao desenho técnico tradicional) para um novo conceito baseado em um sistema de desenho técnico informatizado padronizado, finalmente, este trabalho fornece subsídios para elaboração de manual/norma técnica nacional. Espera-se que este trabalho possa contribuir para o aprofundamento dos estudos relacionados ao projeto, especificamente, nos aspectos da viabilidade de organização e definição de nomenclaturas, e da valorização da representação gráfica adequada aos desenhos eletrônicos.
APA, Harvard, Vancouver, ISO, and other styles
30

Montaño, Moreno Juan José. "Redes neuronales artificiales aplicadas al análisis de datos." Doctoral thesis, Universitat de les Illes Balears, 2002. http://hdl.handle.net/10803/9441.

Full text
Abstract:
Este trabajo describe tres líneas de investigación desarrolladas en los últimos cinco años en torno a la aplicación de las Redes Neuronales Artificiales (RNA) en el ámbito del análisis de datos. Los campos de aplicación tratados son: el análisis de datos aplicado a conductas adictivas, el análisis de supervivencia, y el estudio del efecto de las variables de entrada en una red neuronal. Los resultados obtenidos ponen de manifiesto, en primer lugar, que las RNA son capaces de predecir el consumo de éxtasis con un margen de error pequeño a partir de las respuestas dadas a un cuestionario. Desde una perspectiva explicativa, el análisis de sensibilidad aplicado al modelo de red ha identificado los factores asociados al consumo de esta sustancia. En segundo lugar, los modelos de redes jerárquicas y secuenciales permiten el manejo de datos de supervivencia superando en algunos aspectos el rendimiento del modelo que tradicionalmente ha sido utilizado hasta el momento, el modelo de regresión de Cox. Por último, el análisis de sensibilidad numérico propuesto por nosotros es el procedimiento que permite evaluar con mayor exactitud la importancia o efecto de las variables de entrada de una red Perceptrón Multicapa. Por su parte, el programa informático Sensitivity Neural Network 1.0, desarrollado por nuestro equipo, permite simular el comportamiento de una red Perceptrón Multicapa e incorpora un conjunto de procedimientos numéricos y gráficos que han demostrado ser de utilidad en el análisis del efecto de las variables de entrada de una RNA.
This work describes three lines of research developed in the last five years around the application of Artificial Neural Networks (ANN) in the field of the data analysis. The aplication fields are: the data analysis applied to addictive behaviors, the survival analysis, and the study of the effect of the input variables in a neural network. The results show, in the first place, that the ANN is able to predict the ecstasy consumption with a good accuracy through the answers given to a questionnaire. From an explanatory perspective, the sensitivity analysis applied to the network model has identified the factors associated to the consumption of this substance. In second place, the hierarchical and sequential network models allow to manage the survival data overcoming in some aspects the performance of the model that traditionally has been used until the moment, Cox regression model. Lastly, the numeric sensitivity analysis proposed by us is the procedure that allows to evaluate with more accuracy the importance or effect of the input variables in a Multilayer Perceptron network. On the other hand, the computer program Sensitivity Neural Network 1.0, developed by our team, allows to simulate the behavior of a Multilayer Perceptron and it incorporates a series of numeric and graphics procedures that have demonstrated being of utility in the analysis of the effect of the input variables in ANN.
APA, Harvard, Vancouver, ISO, and other styles
31

Freire, J. E. M. "Classificação automática de vídeos aplicando técnicas de inteligência artificial/." reponame:Biblioteca Digital de Teses e Dissertações da FEI, 2014. http://sofia.fei.edu.br:8080/pergamumweb/vinculos/00000b/00000b0f.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Mancisidor, Oscar, and Paula Namur. "IANSA" agrobusiness intelligence : monitoreo y análisis de datos agrícolas." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143159.

Full text
Abstract:
TESIS PARA OPTAR AL GRADO DE MAGÍSTER EN ADMINISTRACIÓN
Oscar Mancisidor [Parte I], Paula Namur [Parte II]
Alza de costos eléctricos, escasez de agua, menor cantidad de personas dispuestas a trabajar en el campo e incertidumbre por el ambiente de reformas en el país. Son varios los desafíos que enfrenta el sector agrícola en Chile, que lo obligan a generar eficiencias para mantenerse competitivo. Uno de los afectados por esta situación es el sector remolachero, que se desempeña entre las regiones VII y VIII. Ante esta necesidad, la presente propuesta busca ofrecer un sistema de inteligencia de negocios (AgroBusiness Intelligence) que permita a los agricultores recibir información consolidada y analizada de sus predios con el objetivo de hacer un uso más eficiente de sus insumos. Con esto, se busca aumentar el rendimiento de la remolacha por hectárea sembrada -y, por lo tanto, el margen de los agricultores-, y al mismo tiempo lograr ahorros para Iansa en términos de una reducción de contrataciones de predios en el futuro. Para acceder a este servicio, el agricultor deberá pagar una cuota por temporada (UF1,5 por hectárea), para ingresar a un sitio web o aplicación móvil que le entregará información. El tamaño del mercado objetivo es de US$6,4 millones y se estima que la demanda alcanzará el 85%, debido a que ese es el promedio de compra de insumos adicionales que ofrece Iansa. Este proyecto se realizará al alero del área de Gestión Agrícola de Iansa, cuya ventaja competitiva, en comparación con otra empresa que buscara realizarlo, es su amplia experiencia y conocimiento técnico, además de una fuerte relación con agricultores remolacheros dispuestos a pagar por esta tecnología, dado que se traducirá en una mejora de sus rendimientos. Relacionado a lo anterior está la extensa red de servicio post venta que se logrará, gracias a que los técnicos habitualmente visitan a los agricultores en sus predios para ofrecerles asistencia técnica y venta de servicios e insumos adicionales. Si bien en principio se busca entregar este servicio a los agricultores proveedores de Iansa, el plan de escalamiento contempla ofrecerlo también a otros productores de la VII y VIII región que tengan riego tecnificado, y cuyos cultivos no sean necesariamente la remolacha, aprovechando tanto la tecnología como el equipo humano de Iansa. Este proyecto puro es rentable para la compañía porque tiene un VAN de US$ 357.446 y un Periodo de Recuperación de 3 años. En tanto, la TIR muestra que la rentabilidad del proyecto de inversión será de 47,87% una vez descontados los flujos. El periodo de recuperación es de 3 años. Se espera obtener ingresos por US$696,673.54 al quinto año, y ganancias netas del 36% sobre las ventas.
APA, Harvard, Vancouver, ISO, and other styles
33

Gertrudes, Jadson Castro. "Emprego de técnicas de análise exploratória de dados utilizados em Química Medicinal." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/100/100131/tde-14112013-124231/.

Full text
Abstract:
Pesquisas na área de Química Medicinal têm direcionado esforços na busca por métodos que acelerem o processo de descoberta de novos medicamentos. Dentre as diversas etapas relacionadas ao longo do processo de descoberta de substâncias bioativas está a análise das relações entre a estrutura química e a atividade biológica de compostos. Neste processo, os pesquisadores da área de Química Medicinal analisam conjuntos de dados que são caracterizados pela alta dimensionalidade e baixo número de observações. Dentro desse contexto, o presente trabalho apresenta uma abordagem computacional que visa contribuir para a análise de dados químicos e, consequentemente, a descoberta de novos medicamentos para o tratamento de doenças crônicas. As abordagens de análise exploratória de dados, utilizadas neste trabalho, combinam técnicas de redução de dimensionalidade e de agrupamento para detecção de estruturas naturais que reflitam a atividade biológica dos compostos analisados. Dentre as diversas técnicas existentes para a redução de dimensionalidade, são discutidas o escore de Fisher, a análise de componentes principais e a análise de componentes principais esparsas. Quanto aos algoritmos de aprendizado, são avaliados o k-médias, fuzzy c-médias e modelo de misturas ICA aperfeiçoado. No desenvolvimento deste trabalho foram utilizados quatro conjuntos de dados, contendo informações de substâncias bioativas, sendo que dois conjuntos foram relacionados ao tratamento da diabetes mellitus e da síndrome metabólica, o terceiro conjunto relacionado a doenças cardiovasculares e o último conjunto apresenta substâncias que podem ser utilizadas no tratamento do câncer. Nos experimentos realizados, os resultados alcançados sugerem a utilização das técnicas de redução de dimensionalidade juntamente com os algoritmos não supervisionados para a tarefa de agrupamento dos dados químicos, uma vez que nesses experimentos foi possível descrever níveis de atividade biológica dos compostos estudados. Portanto, é possível concluir que as técnicas de redução de dimensionalidade e de agrupamento podem possivelmente ser utilizadas como guias no processo de descoberta e desenvolvimento de novos compostos na área de Química Medicinal.
Researches in Medicinal Chemistry\'s area have focused on the search of methods that accelerate the process of drug discovery. Among several steps related to the process of discovery of bioactive substances there is the analysis of the relationships between chemical structure and biological activity of compounds. In this process, researchers of medicinal chemistry analyze data sets that are characterized by high dimensionality and small number of observations. Within this context, this work presents a computational approach that aims to contribute to the analysis of chemical data and, consequently, the discovery of new drugs for the treatment of chronic diseases. Approaches used in exploratory data analysis, employed in this work, combine techniques of dimensionality reduction and clustering for detecting natural structures that reflect the biological activity of the analyzed compounds. Among several existing techniques for dimensionality reduction, we have focused the Fisher\'s score, principal component analysis and sparse principal component analysis. For the clustering procedure, this study evaluated k-means, fuzzy c-means and enhanced ICA mixture model. In order to perform experiments, we used four data sets, containing information of bioactive substances. Two sets are related to the treatment of diabetes mellitus and metabolic syndrome, the third set is related to cardiovascular disease and the latter set has substances that can be used in cancer treatment. In the experiments, the obtained results suggest the use of dimensionality reduction techniques along with clustering algorithms for the task of clustering chemical data, since from these experiments, it was possible to describe different levels of biological activity of the studied compounds. Therefore, we conclude that the techniques of dimensionality reduction and clustering can be used as guides in the process of discovery and development of new compounds in the field of Medicinal Chemistry
APA, Harvard, Vancouver, ISO, and other styles
34

Araújo, Helmo Alan Batista de. "Estudo de técnicas em análise de dados de detectores de ondas gravitacionais." Instituto Tecnológico de Aeronáutica, 2008. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=974.

Full text
Abstract:
Neste trabalho inicialmente se investiga a possibilidade de utilização de uma inovadora transformada de tempo-frequência, conhecida como transformada S, para a análise de dados do detector de ondas gravitacionais ALLEGRO. Verifica-se que sua utilidade para este detector é limitada por causa da estreita largura de banda do mesmo. No entanto, argumenta-se que pode ser útil para detectores interferométricos. Em seguida, é apresentado um método robusto para a análise de dados baseado em um teste de hipótese conhecido como critério de Neyman-Pearson, para a determinação de eventos candidatos a sinais impulsivos. O método consiste na construção de funções de distribuição de probabilidade para a energia média ponderada dos blocos de dados gravados pelo detector, tanto na situação de ausência de sinal como para o caso de sinal misturado ao ruído. Com base nessas distribuições é possível encontrar a probabilidade do bloco de dados, (no qual um evento candidato é localizado), não coincidir com um bloco de ruído. Essa forma de busca por sinais candidatos imersos no ruído apresenta concordância com outro método utilizado para esse fim. Conclui-se que este é um método promissor, pois não é necessário passar por um processo mais refinado na busca por eventos candidatos, assim diminuindo o tempo de processamento computacional.
APA, Harvard, Vancouver, ISO, and other styles
35

Collados, Sariego Daniel, Orellana Felipe Durán, and Carmona Nicolás Rozas. "Técnicas de inversión : análisis técnico sobre comodities." Tesis, Universidad de Chile, 2002. http://repositorio.uchile.cl/handle/2250/141631.

Full text
Abstract:
Tesis para optar al titulo de Ingeniero Comercial
a)El presente estudio es un análisis técnico sobre los precios de algunos comodities, en particular el cobre, la celulosa, el petróleo, harina de pescado, trigo, plata, oro, etc…Este estudio se basa en la comparación de los resultados del análisis técnico con los de un inversionista pasivo. Es decir, se comparan los resultados del análisis técnico con los que habría obtenido un inversionista pasivo que hubiera comprado y vendido en los mismos períodos de tiempo. Además, se incluye la comparación de otros índices arrojados por el programa utilizado, los que se describen más adelante. Este estudio contiene análisis de corto plazo con precios diarios, y análisis de largo plazo con precios mensuales, así como también con períodos intermedios de 10 años. Dependiendo de la disponibilidad de datos, se han establecido distintos períodos de comparación. b)En el capítulo 1 presentamos una breve descripción respecto de qué es el análisis técnico, la metodología que emplea, sus técnicas, trasfondo matemático, ventajas y significados, así como también gráficos explicativos. c) En el capítulo 2 se explica cuáles fueron los comodities que se tomaron en cuenta, las técnicas seleccionadas, y los períodos que se consideraron, y se explica la estructura en que se ordena el estudio en sí. d) En el capítulo 3 se realiza el estudio matemático basado en las tablas que estarán al final en los anexos. e) Se incluye también un anexo con análisis técnico sobre el precio del dólar, en el que se intenta aplicar las técnicas de análisis técnico aplicado a inversiones en divisas. f) Finalmente, se adjunta la bibliografía utilizada.
APA, Harvard, Vancouver, ISO, and other styles
36

Calderón, López Emmanuel. "ANÁLISIS COMPARATIVO DE TÉCNICAS DE RECONOCIMIENTO FACIAL." Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2016. http://hdl.handle.net/20.500.11799/59235.

Full text
Abstract:
Los métodos de reconocimiento facial han sido estudiados en años recientes por muchos investigadores en diferentes áreas. Las técnicas más importantes en reconocimiento facial pueden utilizar: Análisis de Componentes Principales (PCA), Patrones Binarios Locales (LBP) y Análisis Discriminante Lineal (LDA). Estas son las técnicas con mejores desempeños en la literatura. Sin embargo, en la literatura actual no existe un estudio comparativo de estas técnicas. En esta tesis son comparadas estas técnicas bajo condiciones específicas en las imágenes de entrada.
APA, Harvard, Vancouver, ISO, and other styles
37

Muñoz, Jugo Cynthia Mariela. "Revisión matemática y análisis asintótico." Universidad Peruana de Ciencias Aplicadas - UPC, 2007. http://hdl.handle.net/10757/272793.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Daoudi, Jalila. "Nuevos modelos y técnicas estadísticas para el estudio de datos financieros." Doctoral thesis, Universitat Autònoma de Barcelona, 2009. http://hdl.handle.net/10803/130794.

Full text
Abstract:
Nuestra línea de investigación se ha desarrollado en el ámbito de la estadística aplicada a las finanzas. Nuestro objetivo es encontrar y analizar nuevos modelos estadísticos para ajustar los datos financieros y nuevas técnicas para estudiar el comportamiento de las colas. Una aplicación destacada de este trabajo es el estudio del riesgo operacional. En los últimos años, la industria bancaria ha cambiado profundamente por los procesos de liberalización, innovación financiera y tecnológica. Esto, ha generado en las entidades financieras una evolución en el ámbito de la modelización de procesos para la medición y gestión del riesgo. El riesgo financiero se define como el impacto adverso en el rendimiento debido a diferentes fuentes de incertidubre. En la actualidad, y desde una perspectiva avanzada de riesgos, se identificarían y se cuantificarían tres tipos de riesgo: riesgo de mercado, riesgo de crédito y riesgo operacional. A diferencia de los anteriores, el riesgo operacional es un riesgo que no es producto de la toma de una posición de riesgo, tiene su origen en sucesos que no pueden ser adscritos a riesgo de mercado o a riesgo de crédito, se define como la pérdida potencial por deficiencias en los controles, por los errores en el procesamiento y almacenamiento de las operaciones o en la transmisión de información, así como por resoluciones administrativas y judiciales adversas, fraudes, robos o por factores externos. El método más reciente para la cobertura de riesgo operacional es el método de medición avanzado (AMA) que consiste en la modelización de la distribución agregada de pérdidas (Loss Distribution Approach o LDA) que se ha utilizado con éxito en el ámbito de seguros. Bajo el supuesto de que las severidades son independientes entre si e independientes de la frecuencia de los sucesos, la metodología LDA requiere la modelización por separado de la frecuencia y de la severidad. El capital regulatorio se calcula como el percentil de la distribución agregada de pérdidas para un nivel de probabilidad del 99;9%. Las fluctuaciones pronunciadas de precios conducen a serias inestabilidades en los mercados financieros. Estas perturbaciones llevan a problemas en la gestión del riesgo. En este contexto, es necesaria la modelización del comportamiento de estos precios que alcanzan valores extremos. La distribución normal no determina con suficiente precisión dicho comportamiento, lo cual obliga a recurrir a otro tipo de distribuciones de colas pesadas o semi pesadas. En el Capítulo uno, haremos una descripción de las distribuciones de colas pesadas que son distribuciones que tienen colas más pesadas que la distribución exponencial. Históricamente se han utilizado en el mundo de seguros, especificamente las distribuciones subexponenciales. En la última década, esta metodología se ha trasladado al mundo de las finanzas. De forma más amplia los mercados financieros están bajo una permanente tensión por la interacción entre la oferta y la demanda, lo cual implica fluctuaciones pronunciadas en los precios. El modelo clásico para estudiar la evolución de los precios es el modelo de Black Scholes que supone normalidad en la distribución de los precios. Los estudios empíricos, que presentan una curtosis elevada y valores extremos que no se pueden ajustar por la distribución normal, muestran que este modelo está lejos de ser adecuado. Suponiendo normalidad de la distribución de la oferta y de la demanda, y si hay tantas ofertas como demandas (mercado ideal), las transacciones siguen una mixtura de normales. En caso contrario, cuando no se aceptan de la misma manera las ofertas y las demandas las transacciones pueden seguir una mixtura de normales truncadas. En el Capítulo dos, proponemos la mixtura de normales truncadas para ajustar los datos de tipo de cambio. Es un modelo muy apropiado dado que en la práctica nos permite estudiar la no-normalidad de los datos teniendo en cuenta la asimetría de los mismos. Para ello, primero desarrollamos las propiedades de la distribución propuesta y a continuación demostramos que la función de verosimilitud tiene un máximo único y que este máximo depende del coeficiente de variación. El enfoque basado en la modelización de la distribución de severidad mediante distribuciones de colas semi pesadas tales que la distribución lognormal, la inversa gaussiana y la mixtura de normales proporcionan estimaciones robustas estables del capital regulatorio, es decir, las cifras de capital entre dos periodos sólo pueden variar por su exposición al riesgo. El enfoque basado en la teoría de valor extremo que se caracteriza por el ajuste de los valores que superan un determinado umbral con la distribución de Pareto generalizada es de mucha importancia dado que las entidades se basan únicamente sobre las pérdidas elevadas, aunque la elección de manera eficiente del umbral a partir del cual se realiza el ajuste a una distribución de Pareto es crucial para obtener valores estables de las medidas de riesgo. Varios autores estudiaron la estimación de la distribución de Pareto generalizada mediante el método de máxima verosimilitud. No obstante, los métodos numéricos no siempre tienen soluciones sobretodo cuando las muestras son pequeñas, por ello se han propuesto otros métodos tales como el método de los momentos ponderados que sólo se puede utilizar cuando el momento de orden dos es finito, y el método que consiste en estimar los parámetros a través de los estadísticos de orden. En el Capítulo tres, explicaremos los problemas destacados de la no convergencia en algunos casos de la función profile verosimilitud de la distribución de Pareto generalizada. Luego, demostraremos que la función profile verosimilitud se caracteriza por el coeficiente de variación empírico. Por último, probaremos que en el caso de la distribución de Pareto, la función de verosimilitud tiene un máximo global cuando el coeficiente de variación empírico es mayor que uno. Por otro lado, ilustramos con un ejemplo que la función de verosimilitud de la distribución de Pareto generalizada puede no tener soluciones. En el Capítulo cuatro, utilizamos la caracterización de la distribución de Pareto generalizada a través del coeficiente de variación condicionado para desarrollar una metodología previa y complementaria a los estudios paramétricos y contrastar el modelo desde un punto de vista empírico. Es un método alternativo a los métodos clásicos ME-Plot y el Hill-Plot para estudiar las colas. Además nos permite encontrar de manera eficiente el umbral a partir del cual podemos ajustar los datos por una distribución de Pareto y estimar el parámetro del peso de la cola. Por otro lado, proponemos un test de exponencialidad contra las alternativas de cola Pareto. Una de las dificultades de la distribución de Pareto generalizada es que al incluir distribuciones de soporte acotado, existen problemas de convergencia de los estimadores. Además las ecuaciones de verosimilitud para muestras pequeñas pueden no tener soluciones. Por ello, proponemos la distribucón TNP que es la unión de la normal truncada, la distribución exponencial y la distribución de Pareto como alternativa a la distribución GPD.
Our line of investigation has developed in the field of the statistical applied to the finances. Our aim is to find and analyse new statistical models to adjust the financial data and new techniques to study the behavior of the tails. An application of this work is the study of operational risk. The banking business has changed deeply by the processes of liberalization, financial and technological innovation. This, has generated an evolution in the field of modeling the processes for the measurement and the quantification of the risk. The risk of loss has his origin in events that can not be attribute to market risk or to credit risk, it is resulting from inadequate or failed internal processes, people and systems or from external events. This definition includes legal risk but excludes strategic and reputacional risk. The most recent method for hedging the operational risk is the method of advanced measurement (AMA) that consists in modeling the aggregate distribution of losses (Loss Distribution Approach or LDA) that has been used successfully in the field of insurances. assuming that the severities are independent, and, that are independent of the frequency of the events, the methodology LDA requires modeling separately the frequency and the severity. The VaR is then calculated as the percentile of the aggregate distribution of losses for a level of probability 99;9%. In the Chapter one, we give an overview on heavy-tailed distributions. Historically, it have been used in the world of insurances, specifically the distributions subexponentials. In the last decade, this methodology has moved to the world of the finances. In the Chapter two, it is shown that the prices formation mechanism may explain some amount of non-normality. Assuming normality for bid and ask prices, the observed transaction prices may be a mixture of normal distributions or a mixture of left- right truncated normal distributions, the latter case being more likely. The statistical properties of the mixture of left-right truncated normal distri- butions are developed. It is proved that there is only one maximum for the likelihood function and the maximum is closely related to the coeficient of variation. Our results show that continuity at zero of this distribution can be avoided in statistical analysis. Empirical work suggests that in financial data non-normality is also produced for a large number of values close to the mean, here referred to as ïnliers". This could explain that the Laplace approximation is often a better approach than normal distribution for daily returns. The approach based in the modeling the distribution of severity by semi weighed distributions such as the lognormal distribution, the inverse gaussian and the mixture of normal provide robust estimates estables of the VaR. The approach based in the theory of extreme value that adjust the values over an determined threshold by the generalized Pareto distribution is of importance To obtain values estables of the measures of the risk. In the Chapter three, we provide precise arguments to explain the anomalous behavior of the likelihood surface when sampling from the generalized Pareto distribution for small or moderate samples. The behavior of the profile-likelihood function is characterized in terms of the empirical coefficient of variation. A suficient condition is given for global maximum of the likelihood function of the Pareto distribution to be at a finite point. In the Chapter four, we develop a previous and complementary methodology to the parametric studies to contrast the model from a point of empirical view. New methods to decide between polynomial or exponential tails are introduced. Is an alternative method to the classical methods ME-Plot and the Hill-Plot. The key idea is based on a characterization of the exponential distribution and uses the residual coefficient of variation as a random process. A graphical method, called a CV plot, is introduced to distinguish between exponential and polynomial tails. Moreover, new statistics introduced from a multivariate point of view allow for testing exponentiality using simultaneously several thresholds. The usefulness of our approach is clearly shown with the daily returns of exchange rates between the US dollar and the Japan yen. One of the difficulties of the distribution of generalized Pareto is that include bounded distributions, there lead a problems of convergence of the estimators. Besides the likelihood functions for small samples can not having solutions. Thus, we propose the TNP distribution that is the union of the normal truncated, the exponential distribution and the distribution of Pareto and is an alternative to the distribution GPD to modeling financial data.
APA, Harvard, Vancouver, ISO, and other styles
39

Kurusu, Ricardo Salles. "Avaliação de técnicas de diagnóstico para a análise de dados com medidas repetidas." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/45/45133/tde-21062013-202727/.

Full text
Abstract:
Dentre as possíveis propostas encontradas na literatura estatística para analisar dados oriundos de estudos com observações correlacionadas, estão os modelos condicionais e os modelos marginais. Diversas técnicas têm sido propostas para a análise de diagnóstico nesses modelos. O objetivo deste trabalho é apresentar algumas das técnicas de diagnóstico disponíveis para os dois tipos de modelos e avaliá-las por meio de estudos de simulação. As técnicas apresentadas também foram aplicadas em um conjunto de dados reais.
Conditional and marginal models are among the possibilities in statistical literature to analyze data from studies with correlated observations. Several techniques have been proposed for diagnostic analysis in these models. The objective of this work is to present some of the diagnostic techniques available for both modeling approaches and to evaluate them by simulation studies. The presented techniques were also applied in a real dataset.
APA, Harvard, Vancouver, ISO, and other styles
40

Silva, Adinarte Correa da. "Modelo para análise de dados de gerência de redes utilizando técnicas de KDD." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/83701.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.
Made available in DSpace on 2012-10-20T02:32:25Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T02:46:09Z : No. of bitstreams: 1 208297.pdf: 4084097 bytes, checksum: 7b462f6003d99c52f3001e14a4083b49 (MD5)
APA, Harvard, Vancouver, ISO, and other styles
41

González, Rojas Victor Manuel. "Análisis conjunto de múltiples tablas de datos mixtos mediante PLS." Doctoral thesis, Universitat Politècnica de Catalunya, 2014. http://hdl.handle.net/10803/284659.

Full text
Abstract:
The fundamental content of this thesis corresponds to the development of the GNM-NIPALIS, GNM-PLS2 and GNM-RGCCA methods, used to quantify qualitative variables parting from the first k components given by the appropriate methods in the analysis of J matrices of mixed data. These methods denominated GNM-PLS (General Non Metric Partial Least Squares) are an extension of the NM-PLS methods that only take the first principal component in the quantification function. The transformation of the qualitative variables is done through optimization processes, usually maximizing functions of covariance or correlation, taking advantage of the flexibility of the PLS algorithms and keeping the properties of group belonging and order if it exists; The metric variables are keep their original state as well, excepting standardization. GNM-NIPALS has been created for the purpose of treating one (J = 1) mixed data matrix through the quantification via ACP type reconstruction of the qualitative variables parting from a k components aggregated function. GNM-PLS2 relates two (J = 2) mixed data sets Y~X through PLS regression, quantifying the qualitative variables of a space with the first H PLS components aggregated function of the other space, obtained through cross validation under PLS2 regression. When the endogenous matrix Y contains only one answer variable the method is denominated GNM-PLS1. Finally, in order to analyze more than two blocks (J = 2) of mixed data Y~X1+...+XJ through their latent variables (LV) the GNM-RGCCA was created, based on the RGCCA (Regularized Generalized Canonical Correlation Analysis) method, that modifies the PLS-PM algorithm implementing the new mode A and specifies the covariance or correlation maximization functions related to the process. The quantification of the qualitative variables on each Xj block is done through the inner Zj = Σj ej Yj function, which has J dimension due to the aggregation of the outer Yj estimations. Zj, as well as Yj estimate the ξj component associated to the j-th block.
El contenido fundamental de esta tesis corresponde al desarrollo de los métodos GNM-NIPALS, GNM-PLS2 y GNM-RGCCA para la cuantificación de las variables cualitativas a partir de las primeras k componentes proporcionadas por los métodos apropiados en el análisis de J matrices de datos mixtos. Estos métodos denominados GNM-PLS (General Non Metric Partial Least Squares) son una extensión de los métodos NM-PLS que toman sólo la primera componente principal en la función de cuantificación. La trasformación de las variables cualitativas se lleva a cabo mediante procesos de optimización maximizando generalmente funciones de covarianza o correlación, aprovechando la flexibilidad de los algoritmos PLS y conservando las propiedades de pertenencia grupal y orden si existe; así mismo se conservan las variables métricas en su estado original excepto por estandarización. GNM-NIPALS ha sido creado para el tratamiento de una (J=1) matriz de datos mixtos mediante la cuantificación vía reconstitución tipo ACP de las variables cualitativas a partir de una función agregada de k componentes. GNM-PLS2 relaciona dos (J=2) conjuntos de datos mixtos Y~X mediante regresión PLS, cuantificando las variables cualitativas de un espacio con la función agregada de las primeras H componentes PLS del otro espacio, obtenidas por validación cruzada bajo regresión PLS2. Cuando la matriz endógena Y contiene sólo una variable de respuesta el método se denomina GNM-PLS1. Finalmente para el análisis de más de dos bloques (J>2) de datos mixtos Y~X1+...+XJ a través de sus variables latentes (LV) se implementa el método NM-RGCCA basado en el método RGCCA (Regularized Generalized Canonical Correlation Analysis) que modifica el algoritmo PLS-PM implementando el nuevo modo A y especifica las funciones de maximización de covarianzas o correlaciones asociadas al proceso. La cuantificación de las variables cualitativas en cada bloque Xj se realiza mediante la función inner Zj de dimensión J debido a la agregación de las estimaciones outer Yj. Tanto Zj como Yj estiman la componente ξj asociad al j-ésimo bloque.
APA, Harvard, Vancouver, ISO, and other styles
42

Ferreiro, Pérez César Miguel. "Análisis de datos de movimiento de clientes en un supermercado." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/148583.

Full text
Abstract:
Ingeniero Civil Industrial
La creciente incidencia de la tecnología en los procesos de compra ha facilitado poder hacer seguimiento de los clientes a través de las distintas etapas que componen una compra, tanto en formatos físicos como digitales. En partciular en una tienda física es posible conocer la ubicación del cliente a largo de su visita a la sala de ventas. En el presente trabajo se cuenta con la secuencia de ubicaciones seguidas por los clientes al interior de un supermercado en la ciudad de Santiago, estos fueron capturados a través de sensores dispuestos en la sala de ventas que detectan aquellos dispositivos móviles con la opción de wifi encendida. El principal objetivo del presente trabajo es entender como esta nueva fuente de información puede ayudar a enriquecer los análisis que se hacen actualmente sobre comportamiento de compra, donde generalmente solo se usan datos transaccionales. Para esto el análisis se divide en 3 partes: temporal, espacial y relacional. Primero los datos son pre procesados aplicando filtros sobre estos para restringir el análisis sobre secuencias de ubicaciones que correspondan a viajes de compra. En particular se definen criterios sobre las zonas en que son detectadas las observaciones y la duración de las visitas a la sala de ventas. Una vez hecho esto se analiza como varía la frecuencia de observación de acuerdo con las distintas trayectorias observadas. De esta parte se concluye que una gran fracción de las observaciones no puede ser asignada a un viaje de compra. Posteriormente se analizan los datos en su dimensión temporal a través de las variables hora de llegada y visitas por día. Estos datos se contrastan con variables análogas obtenidas a través de datos transaccionales. El principal resultado que se obtiene de esta comparación es que los patrones observados en datos transaccionales son consistentes con los obtenidos a través de datos móviles. Adicionalmente se logra estimar el tiempo que están los clientes al interior de la sala de ventas lo que no es posible con los datos transaccionales. Luego se analizan los datos en su dimensión espacial, esto es como se mueven los clientes al interior de la sala de ventas. En particular se construye el indicador de velocidad y se estudia como este varía de acuerdo con distintas variables. Una vez hecho esto se analiza cómo cambian los resultados al introducir correcciones a las trayectorias capturadas. Finalmente se comparan las visitas a ciertas zonas de la sala de ventas con las compras registradas en dichas zonas. El principal resultado de esta parte es la detección de brechas entre las compras y las visitas en distintas zonas de la sala de ventas. Esta información tiene el potencial de ser usada para mejorar la oferta de la sala de ventas en layout, ubicación de producto y ofertas entre otros.
APA, Harvard, Vancouver, ISO, and other styles
43

Chávez, Barbaste Joaquín Gonzalo. "Análisis y modelos de datos de redes para seguridad informática." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/138269.

Full text
Abstract:
Ingeniero Civil Eléctrico
Hoy en día son cientos los servicios que se ofrecen de manera virtual a través de Internet, muchas veces exigiendo la transferencia y almacenamiento de datos prioritarios o sensibles a través de las redes de comunicaciones. Esto obliga a que los factores de seguridad, estabilidad y confiabilidad de las plataformas sea un elemento clave a considerar en el desarrollo de las aplicaciones y, por lo tanto, la utilización de herramientas dedicadas a la prevención y detección de fallas de seguridad toma un rol crítico. Considerando lo anterior, este trabajo propone diseñar e implementar un ambiente de simulación de redes que permita explorar la aplicación de distintas técnicas de inteligencia computacional en tópicos de seguridad informática, enfocándose principalmente en la utilización de modelos autoregresivos integrales de media móvil (conocidos como ARIMA por su sigla en inglés) y la divergencia de Kullback-Leibler para la detección de ataques de denegación de servicio a un servidor web. Para esto se desarrolla una arquitectura representativa de un proveedor de servicios de Internet utilizando como plataforma el programa de simulación de redes conocido como GNS3 (Graphical Network Simulator 3), en donde se tienen tres routers, un simulador de clientes, una máquina atacante, un servidor web y una máquina dedicada a la recolección y análisis de datos, todos funcionando como máquinas virtuales dentro de un mismo computador principal. Utilizando este ambiente se ejecutan múltiples simulaciones de tráfico web para condiciones normales de operación y bajo ataque de denegación de servicio, obteniéndose series de tiempo de alrededor de doce horas de duración para capturar el comportamiento a nivel IP del tráfico durante períodos de volumen de usuarios con carga baja, media y alta. De esta manera se logra recolectar suficientes datos para poder realizar el análisis estadístico respectivo y la generación de modelos de predicción de tráfico y detección de ataques con la ayuda del lenguaje para análisis estadístico R. A partir de los resultados obtenidos se verifica la factibilidad de utilizar modelos ARIMA para la predicción del tráfico que fluye a través de los routers que conforman las vías troncales de la red y como herramienta complementaria de detección de cambios bruscos en el nivel de tráfico de subida a un servidor web. Además, se obtienen resultados exitosos para la utilización de la divergencia de Kullback-Leibler como mecanismo de detección de ataques de denegación de servicio, en base a los cambios bruscos de tráfico, permitiendo la detección dentro de los primeros cinco minutos de comenzada la falla. Este tipo de herramientas permitirían a los proveedores implementar sistemas inteligentes para la detección temprana de ataques de denegación de servicio dentro de su red, pudiendo aplicar maniobras de mitigación a tiempo y, por lo tanto, fortaleciendo la seguridad del sistema en su totalidad.
APA, Harvard, Vancouver, ISO, and other styles
44

García, Ubilla Arnol David. "Análisis de datos y búsqueda de patrones en aplicaciones médicas." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136150.

Full text
Abstract:
Ingeniero Civil Matemático
El suicidio en Chile se ha convertido en uno de los problemas más necesarios de hacer frente en salud pública, más aún, si consideramos que la enorme mayoría de las personas que mueren por suicidio presentan algún diagnóstico psiquiátrico y han consultado a un especialista los meses antes de cometer suicidio. Esto, motiva la creación de indicadores y alertas para detectar de forma eficaz y oportuna cuando una persona ingresa a una zona de riesgo suicida. En el presente trabajo se aborda este problema, definiendo una zona o espectro de riesgo suicida, y generando modelos matemáticos y estadísticos para la detección de pacientes en esta zona de riesgo. Para esto, se utiliza una base de datos de 707 pacientes, consultantes de salud mental, de tres centros de salud distintos de la región metropolitana. La base de datos a su vez contempla 343 variables, incluyendo tanto información sociodemográfica de cada paciente, como también sus respuestas en siete instrumentos clínicos utilizados habitualmente en salud mental (DEQ, STAXI, OQ, RFL, APGAR, PBI Madre y PBI Padre). Inicialmente la base de datos es depurada eliminando aquellos campos y/o registros con gran porcentaje de valores nulos, mientras que la imputación de valores perdidos se realiza mediante técnicas tradicionales y en algunos casos según el criterio experto, donde se utiliza un método de imputación según valor de subescala para los distintos instrumentos clínicos. Posteriormente, se realiza una reducción de atributos mediante el uso de herramientas estadísticas y provenientes del machine learning. Con esta información, se generan cinco modelos utilizando distintas técnicas y herramientas del ámbito de la minería de datos y machine learning mediante aprendizaje supervisado. Los modelos son generados y calibrados usando el lenguaje estadístico R, y se comparan sus resultados mediante cuatro métricas distintas: precisión (o accuracy), sensibilidad, especificidad, y mediante su representación en el espacio ROC. El modelo o clasificador finalmente propuesto corresponde a un modelo de support vector machine, que permite discriminar cuando un paciente se encuentra en una zona de riesgo suicida. El modelo fue entrenado utilizando un kernel de tipo RBF, y utiliza tan sólo 22 variables predictoras, entregando una precisión aproximada del $78%, calculada mediante k-validación cruzada de n-folds con k=100 y n=10.
APA, Harvard, Vancouver, ISO, and other styles
45

Toro, Reyes Felipe Andrés. "Aplicación de network calculus para análisis de redes de datos." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112000.

Full text
Abstract:
Ingeniero Civil Electricista
En las redes de datos cada día se desarrollan nuevos servicios y topologías más complejas, con más usuarios y restricciones diferenciadas para los diversos servicios. De esta forma, la estimación de parámetros de red, como por ejemplo, delay, backlog, tasas máximas de transferencia de datos, factores de ocupación, etc. son de interés para el dimensionamiento de los nodos a utilizar en las redes. Los flujos de tráfico que atraviesan las redes de computadores están sujetos a restricciones impuestos por los componentes del sistema. Estas restricciones pueden ser expresadas y analizadas con Network Calculus, lo que permite entender las propiedades de los distintos servicios entregados por las redes convergentes, para planificar y dimensionar los parámetros de las redes. El objetivo de este trabajo es aplicar Network Calculus en redes de datos y comparar la estimación de parámetros con mediciones reales y cálculos algebraicos. Se utilizan herramientas Open Source para la implementación de escenarios de red que simulan el servicio de video streaming. De los resultados que se obtienen de las mediciones de delay y pérdidas de paquetes del tráfico generado, se comparan con las estimaciones que resulta de aplicar Network Calculus a las curvas de servicio y llegada. Network Calculus resulta ser una herramienta que permite hacer estimaciones del peor caso, es por esto que el delay que se obtiene al ser aplicado Network Calculus es superior al delay medido. No se obtienen pérdidas de paquetes para ver si las estimaciones de backlog, que entrega el Network Calculus, son las correctas. Esto se debe principalmente a la gran capacidad de transmisión que tienen los routers. Como posibles futuros trabajos tenemos: realizar escenarios de pruebas más complejos; aplicar Network Calculus a otros tipos de tráficos; utilizar diversas políticas de encolamiento en los routers y una mejora en la estimación en la curva de servicio de los routers.
APA, Harvard, Vancouver, ISO, and other styles
46

Meyer-Pantin, Thomas Alex. "Análisis comparativo de cookies y la protección de datos personales." Tesis, Universidad de Chile, 2004. http://www.repositorio.uchile.cl/handle/2250/107493.

Full text
Abstract:
Memoria (licenciado en ciencias jurídicas y sociales)
Todo usuario de Internet se ha visto enfrentado alguna vez a mensajes de correo no solicitados, y se ha preguntado de qué modo el remitente obtuvo su cuenta de correo, como también le ha llamado la atención la atractiva oferta contenida en el mensaje. Más comunes aún, son los afiches de propaganda que aparecen en las páginas web, los cuales casi siempre se relacionan a la edad, sexo, e intereses del usuario. Por ejemplo, ofertas de suscripción a sitios eróticos aparecerán en los afiches publicitarios virtuales cuando el navegante sea hombre. La razón es muy sencilla, los publicistas saben quién es el navegante y donde se encuentra. ¿Cómo logran esto los comerciantes electrónicos y los publicistas de internet? A través de una tecnología denominada “cookies”, un fichero de texto que algunos servidores piden a nuestro navegador que escriba en nuestro disco duro, con información acerca de lo que hemos estado haciendo por sus páginas. En otras palabras, las cookies constituyen una potente herramienta empleada por los servidores Web para almacenar y recuperar información acerca de sus visitantes. Dado que el Protocolo de Transferencia de Hipertexto (http) es un protocolo sin estados (no almacena el estado de la sesión entre peticiones sucesivas), las cookies proporcionan una manera de conservar información entre peticiones del cliente, extendiendo significativamente las capacidades de las aplicaciones cliente/servidor basadas en la Web. Mediante el uso de cookies se permite al servidor Web recordar algunos datos concernientes al usuario, como sus preferencias para la visualización de las páginas de ese servidor, nombre y contraseña, productos que más le interesan, etc. De este modo, los publicistas virtuales utilizan la información recabada por la cookie para establecer un perfil del usuario basado en las páginas que visita más frecuentemente, y consiguientemente, utiliza ese perfil para presentarle avisos virtuales al usuario cada vez que se conecte, como también para enviarle correo con ofertas de productos
APA, Harvard, Vancouver, ISO, and other styles
47

Pérez, Rodríguez Karla Milagros. "Utilización del análisis envolvente de datos en la seguridad ciudadana." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/1519.

Full text
Abstract:
El análisis envolvente de datos (Data Envelopment Analysis), desarrollado por A. Charnes, W Cooper y E. Rhodes, es un método no paramétrico, basado en programación lineal y benchmarking, para medir la productividad y la eficiencia relativa de unidades de organización. El objetivo fundamental de DEA es hallar una frontera de eficiencia, formada por aquellas combinaciones de recursos que optimizan la cantidad de productos fabricados minimizando los costos de producción, y a partir de esta frontera, evaluar la eficiencia relativa de las combinaciones de recursos que no pertenezcan a la misma. En este trabajo se mostrará la eficiencia de la Seguridad Ciudadana de los distintos distritos de Lima Metropolitana utilizando DEA donde se utilizo el programa Frontier Analyst para el análisis correspondiente.
-- Data Envelopment Analysis (DEA) developed for Charnes, W Cooper and Rhodes, is a method not paramétrico, based on linear programming, to measure the productivity and the relative efficiency of units of organization. DEA's fundamental goal is to find a border of efficiency, formed by those combinations of resources that optimize the quantity of made products minimizing the costs of production, and from this border, to evaluate the relative efficiency of the combinations of resources that do not belong(concern) to the same one. In this work there will appear the efficiency of the Civil Security of the different districts of Metropolitan Lima using DEA where I use the program Frontier Analyst for the corresponding analysis.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
48

Lopes, Adão Baptista Pereira. "Aplicação de técnicas de business intelligence a base de dados prosopográficas." Master's thesis, Universidade de Évora, 2017. http://hdl.handle.net/10174/22072.

Full text
Abstract:
A análise multidimensional de informação e a descoberta de padrões desconhecidos em dados são um vetor estruturante dos sistemas modernos de análise de dados. Este trabalho pretende, em termos globais, apresentar um conjunto de técnicas e métodos de Business Intelligence que aplicadas a uma base de dados prosopográfica – o sistema SPARES – melhorem a forma atual de exploração de dados que é essencialmente baseada em filtros avulsos. A análise temporal é de vital importância para Data Warehousing. A maior quantidade de problemas que surgem na resposta a dar, na análise de dados, aos utilizadores de Data Warehousing, nomeadamente aos gestores empresariais, está relacionada com a falta de uma dimensão “DATA”. Geralmente, a maioria de perguntas para tomada de decisões, tem como restrição o tempo (data), podendo-se então afirmar sem margem de dúvida que é um dos recursos mais valioso no modelo dimensional. Feito este enquadramento, surge então a questão cerne do nosso objeto de estudo: será possível ter uma dimensão Temporal, de acordo com o ambiente de exploração de dados do sistema SPARES? Isto é de grande importância tendo em conta a multiplicidade de vetores que definem uma data em dados históricos entre os séculos XVI e XVIII. Paralelamente ao objetivo de otimizar e operacionalizar a análise de dados de relações e eventos com o suporte em informação prosopográfica, o trabalho incide particularmente na construção de uma aplicação do tipo CUBO, com a finalidade de melhorar a análise e exploração de dados no sistema SPARES; Application of Business Intelligence to Prosopographic Database Abstract: The multi-dimensional information analysis and the discovery of unknown patterns in data are a structural vector of modern data analysis systems. This work intends, overall, to present a set of techniques and methods of business intelligence that applied to a prosopographic database - the SPARES system - can improve the current form of data exploration which is essentially based on single filters. The majority number of problems that arise in the data analysis response to data warehousing users, namely to Business managers, is related with the lack of a "DATE" dimension. Generally, the majority of questions that decision making have, is the constraint of time (date), and it can then be argued beyond doubt that it is one of the most valuable features in the dimensional model. Once this framework is in place, the main question of our object of study arises: will it be possible to have a Temporal dimension, according to the data exploration environment of the SPARES system? This is of great importance in view of the multiplicity of vectors that define a date in historical data between the sixteenth and eighteenth centuries. Parallel to the objective of optimizing and operationalizing the analysis of data of relations and events with the support in prosopographic information, the work focuses particularly on the construction of an application of the type CUBE, with the purpose of improving the analysis and exploitation of data in the SPARES system.
APA, Harvard, Vancouver, ISO, and other styles
49

Aguilar, Saborit Josep. "Técnicas para la mejora del join paralelo y del procesamiento de secuencias temporales de datos." Doctoral thesis, Universitat Politècnica de Catalunya, 2006. http://hdl.handle.net/10803/5995.

Full text
Abstract:
A continuación se presenta la Tesis doctoral que lleva por título Técnicas para la mejora del join paralelo y del procesamiento de secuencias temporales de datos, llevada a cabo por Josep Aguilar Saborit y dirigida por el profesor Josep.L Larriba-Pey.

Los Sistemas Gestores de Bases de Datos (SGBDs) son las herramientas con las que se gestiona la información almacenada en una Base de Datos, ya sea para realizar consultas, actualizaciones o modificaciones. Los SGBDs se han convertido en una importante fuente de investigación y desarrollo encaminada a encontrar nuevas técnicas que hagan de los mismos unas herramientas lo más eficientes posible.

Dentro del álgebra relacional, la operación más compleja y costosa de llevar a cabo por un SGBD, es la operación de join. Los métodos más conocidos y extendidos en la literatura para una ejecución rápida y eficaz de esta operación, son: Merge Sort Join, Nested Loop Join, Hash Join. Las dos primeras, para una ejecución eficiente, requieren de un cierto orden en los datos de sus relaciones fuente. Esto implica una ordenación previa o bien el soporte de una estructura auxiliar que de por si mantenga el orden de dichos datos. Por el contrario, la operación Hash Join no precisa de ningún orden sobre las relaciones fuente y utiliza hashing sobre los datos para resolver el join. Hash Join es una de las operaciones más utilizadas por los SGBDs y ha sido un importante foco de investigación con el fin de explotar al máximo sus posibilidades.

Esta Tesis presenta cinco ténicas. Cuatro de ellas están destinadas a mejorar el rendimiento de la operación de join en SGBDs paralelos, tanto en configuraciones paralelas con recursos compartidos, como en configuraciones paralelas sin recursos compartidos. La última técnica, y que abarca un denso capítulo de la Tesis, presenta nuevas estructuras para representar de forma eficiente en espacio y tiempo secuencias temporales de datos.

Todas las técnicas presentadas han sido publicadas. Los respectivos artículos también se adjuntan al final de esta documentación. Las referencias a dichos artículos se pueden consultar en el último apéndice de la Tesis.
APA, Harvard, Vancouver, ISO, and other styles
50

Giner, Bosch Vicent. "Precontrol óptimo. Caracterización, análisis y técnicas de resolución." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/46373.

Full text
Abstract:
El precontrol es una herramienta para el control de la calidad que tiene como objeto evaluar la aptitud de un proceso para producir piezas dentro de unas especificaciones dadas. Es usada, entre otros contextos, en la validación de la puesta a punto de procesos con ciclos de ejecución cortos. Basa su funcionamiento en la comparación de las sucesivas observaciones individuales muestreadas frente a los límites de tolerancia y los llamados límites de precontrol, y utiliza conteos acumulados para emitir un juicio sobre la validez del proceso. Es una técnica sencilla, rápida y fácil de aplicar. El hecho de que, en su versión original, la técnica del precontrol no tenga en cuenta la variabilidad natural del proceso objeto de monitorización, unido a la sencillez de su diseño, provocan que, bajo ciertas circunstancias, su comportamiento no sea tan eficaz como sería deseable, en términos de la tasa de falsa alarma y de la potencia para detectar desviaciones inaceptables, hasta el punto de que algunos autores rechazan su uso. En este sentido, existen en la literatura diversas propuestas encaminadas a mejorar el comportamiento de la técnica original mediante la modificación, en mayor o menor medida, de sus reglas de funcionamiento. En esta tesis doctoral se aborda la mejora del precontrol como herramienta para la cualificación de procesos, a través de la determinación óptima de los parámetros que rigen su comportamiento, utilizando técnicas de programación no lineal entera mixta. El objetivo es desarrollar una metodología para automatizar el proceso de elección del valor de los parámetros del precontrol, de manera que éste se ajuste lo mejor posible a los requerimientos del usuario. Este enfoque de Optimización, inédito en el precontrol, ha sido aplicado con éxito a otras técnicas de control de la calidad en las últimas décadas, permitiendo obtener mejores herramientas para la toma de decisiones. Para ello, en primer lugar se realiza una revisión exhaustiva de las diferentes propuestas existentes en la literatura en torno al precontrol. Posteriormente, se define el problema a resolver y se desarrolla un modelo de programación matemática específico para la obtención de los denominados planes de precontrol óptimos. Se realiza una completa experiencia numérica con software de optimización de propósito general, mediante la que se evidencia la eficacia del modelo propuesto y, al mismo tiempo, se pone de manifiesto la existencia de diferencias significativas entre los resultados proporcionados por los diferentes algoritmos tomados en consideración, debidas en parte a la doble naturaleza no lineal y entera del problema, así como la incapacidad de dichos algoritmos para garantizar la convergencia a un óptimo global, a causa de la existencia de no convexidades. Todo ello justifica el diseño de algoritmos específicos para la obtención de planes de precontrol óptimos, tarea que también se aborda en la presente tesis doctoral. Previamente, se realiza un estudio de las propiedades matemáticas del modelo de optimización construido, que permite ampliar el conocimiento sobre el problema del precontrol óptimo. Este conocimiento es empleado en la elaboración de un algoritmo exacto para la resolución de dicho problema, denominado OPCenum, el cual combina una estrategia enumerativa implícita con una búsqueda local basada en métodos de búsqueda de raíces sin uso de derivadas. El algoritmo es implementado y probado sobre la misma batería de ejemplos que conformaban la experiencia numérica anterior. Las pruebas revelan la eficacia y eficiencia del algoritmo OPCenum como método para la obtención de planes de precontrol óptimos a partir de unos requerimientos dados. La elaboración de una interfaz gráfica para hacer más accesible el algoritmo al usuario final, la adaptación del problema a funciones de distribución asimétricas y a ámbitos como el de la fiabilidad, así como el desarrollo de un enfoque paralelo al acometido aquí en el que se considere el precontrol como herramienta para validar la capacidad del proceso destacan como líneas futuras de investigación que surgen a partir de los resultados obtenidos en la presente tesis doctoral.
Giner Bosch, V. (2014). Precontrol óptimo. Caracterización, análisis y técnicas de resolución [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/46373
TESIS
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography