Dissertations / Theses on the topic 'Análisis de datos: técnicas'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Análisis de datos: técnicas.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Rantes, García Mónica Tahiz, and Quispe Lizbeth María Cruz. "Detección de fraudes usando técnicas de clustering." Universidad Nacional Mayor de San Marcos. Programa Cybertesis PERÚ, 2010. http://www.cybertesis.edu.pe/sisbib/2010/rantes_gm/html/index-frames.html.
Full textThe credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data
Cruz, Quispe Lizbeth María, and García Mónica Tahiz Rantes. "Detección de fraudes usando técnicas de clustering." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/2644.
Full text---The credit card fraud is one of the most important problems currently facing financial institutions. While technology has enhanced security in credit cards with the use of PINs, the introduction of chips on the cards, the use of additional keys as tokens and improvements in the regulation of their use, is also a need for banks, act preemptively against this crime. To act proactively need real-time monitoring operations are carried out and have the ability to react promptly against any questionable transaction that takes place. Clustering technique tackle this problem is a common method since it allows the grouping of data allowing classifying them by their similarity according to some metric, this measure of similarity is based on the attributes that describe the objects. Moreover, this technique is very sensitive to Outlier tool that is characterized by the impact they cause on the statistic when going to analyze the data.
Tesis
Gobantes, Marin Francisco. "Estudio de Técnicas de Recolección de Datos para la Investigación de Mercados: ¿Que Técnica Usar Para Cada Proyecto?" Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103970.
Full textLa investigación de mercados es parte integral de los estudios de marketing que hoy en día se realizan en Chile. En particular, los que son a base de encuestas. Esta memoria estudia la relación que existe entre los tópicos de una encuesta y estratos de la población chilena con las diferencias en los resultados que presentan las distintas técnicas de recolección de datos no presenciales. El objetivo es poder identificar cómo cambiará la respuesta de un respondente al usar una técnica de recolección, un tópico de pregunta, y un estrato de la muestra determinado. La metodología utilizada se inició conel Levantamiento de Información Secundaria. Estudios Similares, donde se estudia el comportamiento de las personas en relación a los valores que estos tienen y sus distintas respuestas ante tópicos diferentes. Los errores muestrales, y estudios sobre comparación de escalas, de donde se puede extraer información importante acerca de los pasos metodológicos aplicados en esta memoria. El siguiente paso consistió en el diseño del Modelo de Espacio Encuesta y todas sus componentes. Luego, se procedió al diseño mismo de las encuestas. Lo que se busca es comparar metodologías, por lo que se debió generar cuestionarios para cada una de estas, de manera que los resultados obtenidos estén en la misma escala o “lenguaje”.Se analizó e interpretó los resultados obtenidos. Para esto, se utilizó el análisis de las brechas desarrollado con esta intención. Los principales hallazgos encontrados con esta metodología son que: La tasa de rechazo varía si se cambia el tópico de la encuesta. Al variar la técnica de recolección disminuyendo el nivel de interacción entre el encuestador y el encuestado (de CATI a IVR) se generan brechas no constantes entre los resultados; disminuye la media; aumenta la varianza, aunque en menor grado que la media, y el error asociado a esa varianza por la polarización de las respuestas; y cambia la forma en que el respondente conecta las variables preguntadas, lo que genera un cambio en la forma en que la variable global se ve explicada por las variables independientes. Las brechas generadas por el cambio de técnica se pueden predecir en cierto grado por la “incomodidad” del tópico de la pregunta, donde una pregunta más incomoda tiene una brecha mayor. Bajo el supuesto tomado, la deshonestidad aumenta al haber menos interacción entre el respondente y el encuestador o cuando los tópicos son más complicados de responder.
Valerio, Jiminián Miguel Ernesto. "Nuevas técnicas de control social: análisis jurídico de las bases de datos de ADN." Doctoral thesis, Universitat Pompeu Fabra, 2016. http://hdl.handle.net/10803/384313.
Full textThe State ability to store genetic information raises important challenges for criminal sciences, as DNA Databases exacerbate the tension among the principles of freedom, safety and equality. This tension is particularly strong when the States seek to preserve genetic identifiers of individuals that have been arrested by the police without any formal accusation or of those who have been acquitted of all penal responsibilities. This issue has been analyzed, inter alia, by the European Court of Human Rights and the Supreme Court of the United States, reaching, in both cases, different conclusions. In this Thesis, we have made a juridical analysis of the state conservation of genetic profiles for forensic purposes and it is pretended to define an equitable registration model that guarantees the fundamental rights of individuals.
Morales, Jacob Fidel Elías. "Aplicación e interpretación de técnicas de reducción de datos según escalamiento óptimo: (Análisis de correspondencia múltiple y análisis de componentes principales categóricos)." Tesis, Universidad de Chile, 2004. http://www.repositorio.uchile.cl/handle/2250/113469.
Full textEl presente texto se realiza con el fin de explorar la estructura de las técnicas de reducción de datos del modulo categorías del programa estadístico SPSS. Dicha exploración permitirá potenciar futuros análisis y mejorar la complementación de la información digital y analógica de las técnicas. El documento se divide en cuatro partes generales: La primera parte corresponde al planteamiento del problema, Objetivos y metodología utilizada en este texto. La segunda parte contiene el desarrollo del análisis de correspondencias múltiple. Para ello, se utiliza un esquema de flujo que representa los principales momentos de decisión del analista en la aplicación. El esquema de flujo se complementa con la aplicación concreta de la técnica a datos reales. La tercera parte contiene el desarrollo del análisis de componentes principales categóricos (no lineal). Para ello, se utiliza el mismo procedimiento al análisis de correspondencia múltiple. La cuarta parte muestra las conclusiones del estudio. Las conclusiones se ha dividido en dos partes: La primera parte muestra una “recurrencia operativa” descubierta durante la construcción de este texto, que es la ubicación de las variables independientes e incorrelacionadas en el modelo; La segunda parte muestra las conclusiones generales del texto según los objetivos investigados
Díaz, Barriga Oscar Antonio. "Diseño de un proceso computacional basado en técnicas de minería de datos para el análisis del fenómeno de "El Niño"." Master's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9904.
Full textTesis
Estrada, Gomero Daniel Carmelo. "Análisis del estándar celular TD-SCDMA y comparación técnica con WCDMA." Master's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/9548.
Full textRealiza un análisis de las características técnicas de TD-SCDMA (Acceso síncrono múltiple por división de código y división de tiempo), el cual ha sido aprobado por la UIT como estándar oficial 3G. TD-SCDMA es un estándar 3G desarrollado por la Academia China de Tecnología de Telecomunicaciones y utiliza acceso múltiple por división de código (CDMA) y multiplexación por división de tiempo (TDD) para soportar en un mismo canal físico transmisiones de downlink y uplink. Este aspecto, junto con otras características técnicas de TD-SCDMA, son estudiados y evaluados para determinar las ventajas técnicas que ofrece con respecto a WCDMA. Así mismo, se realiza una comparación integral entre WCDMA y TD-SCDMA enfocando los aspectos de capacidad y cobertura. En esta comparación se incluirá el uso de HSDPA para ambas tecnologías. Por último se exponen aspectos comerciales sobre ambas tecnologías y se concluye con una recomendación sobre la viabilidad de implementar TD-SCDMA para un operador celular. Se deja en claro que tarde o temprano el mercado de servicios 3G va a despegar de manera agresiva y para entonces los operadores de red y proveedores de contenidos deberán estar preparados para prestar servicios avanzados relacionados con internet y aplicaciones basados en IP de alta velocidad, comercio electrónico, servicios basados en la ubicación del usuario, etc. En la actualidad, los 3 operadores de telefonía móvil nacionales ya tienen implementadas y en fase de desarrollo sus redes 3G y por esta razón no se aborda un estudio de factibilidad de implementar 3G, simplemente ya es una realidad.
Tesis
Frías, López Cristina. "Desarrollo de técnicas bioinformáticas para el análisis de datos de secuenciación masiva en sistemática y genómica evolutiva: Aplicación en el análisis del sistema quimiosensorial en artrópodos." Doctoral thesis, Universitat de Barcelona, 2019. http://hdl.handle.net/10803/668283.
Full textThe Next Generation Sequencing (NGS) technologies are providing powerful data to investigate fundamental biological and evolutionary questions including phylogenetic and adaptive genomic topics. Currently, it is possible to carry out complex genomic projects analyzing the complete genomes and/or transcriptomes even in non-model organisms. In this thesis, we have performed two complementary studies using NGS data. Firstly, we have analyzed the transcriptome (RNAseq) of the main chemosensory organs of the chelicerate Macrothele calpeiana, Walckenaer, 1805, the only spider protected in Europe, to investigate the origin and evolution of the Chemosensory System (CS) in arthropods. The CS is an essential physiological process for the survival of organisms, and it is involved in vital biological processes, such as the detection of food, partners or predators and oviposition sites. This system, which has it relatively well characterized in hexapods, is completely unknown in other arthropod lineages. Our transcriptome analysis allowed to detect some genes expressed in the putative chemosensory organs of chelicerates, such as five NPC2s and two IRs. Furthermore, we detected 29 additional transcripts after including new CS members from recently available genomes in the HMM profiles, such as the SNMPs, ENaCs, TRPs, GRs and one OBP-like. Unfortunately, many of them were partial fragments. Secondly, we have also developed some bioinformatics tools to analyze RNAseq data, and to develop molecular markers. Researchers interested in the biological application of NGS data may lack the bioinformatic expertise required for the treatment of the large amount of data generated. In this context, the development of user-friendly tools for common data processing and the integration of utilities to perform downstream analysis is mostly needed. In this thesis, we have developed two bioinformatics tools with an easy to use graphical interface to perform all the basics processes of the NGS data processing: i) TRUFA (TRanscriptome User-Friendly Analysis), that allows analyzing RNAseq data from non-model organisms, including the functional annotation and differential gene expression analysis; and ii) DOMINO (Development of Molecular markers in Non-model Organisms), which allows identifying and selecting molecular markers appropriated for evolutionary biology analysis. These tools have been validated using computer simulations and experimental data, mainly from spiders.
Sandoval, Linares Angel Gabriel. "Análisis de métodos y técnicas de limpieza de datos existentes y aplicación en un sistema CRM para una institución educativa limeña." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12619.
Full textTesis
Molina, Salgado Javier Ignacio. "Plataforma de análisis e identificación de demanda de competencias laborales en los avisos de trabajo de la Bolsa Nacional de Empleo mediante técnicas de Text Mining." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/151668.
Full textLa Bolsa Nacional de Empleo (BNE), es una plataforma laboral estatal, pública y gratuita. Esta plataforma sirve de intermediario entre empleadores y personas que se encuentran en búsqueda de trabajo. Esta iniciativa depende del Ministerio del Trabajo y Previsión Social en conjunto con el SENCE, Servicio Nacional de Capacitación y Empleo. Por otro lado, existen competencias laborales, las cuales son definidas como habilidades, aptitudes y conocimientos que necesarios para la ejecución de alguna función dentro de una actividad laboral o puesto de trabajo. Estas son requeridas por los trabajos para ser correctamente ejecutados y también son poseídas por cada trabajador producto de su formación y experiencia. Esta memoria tiene dos objetivos principales: el primero es detectar las competencias laborales que requieren los avisos de trabajo de la BNE y en segundo lugar diseñar e implementar una plataforma de análisis para la información generada, de manera de disponer de una herramienta de apoyo a la gestión y decisión para las entidades involucradas. Para cumplir con dichas metas se desarrolló un sistema que utilizó técnicas de text mining, además de integrar un catálogo de competencias laborales junto a un motor de búsqueda para generar coincidencias entre las competencias laborales y los avisos de trabajo. Luego con la información generada se diseñó e implementó una plataforma de análisis (un data warehouse) accesible desde la web y que permite realizar distintos análisis de las competencias laborales demandadas segmentando por factores como temporalidad, sector económico, tipo de trabajo, entre otros. Finalmente, se desarrolló una herramienta de detección de competencias laborales y una plataforma para su análisis a niveles agregados o segmentados con una precisión del 95% para los grupos más altos de coincidencias. Las conclusiones de esta memoria apuntan a utilizar el trabajo desarrollado como base para nuevas líneas de investigación y aplicaciones prácticas en las distintas plataformas laborales, así como posibles mejoras al sistema actual.
Este trabajo ha sido financiado parcialmente por Proyecto FONDECYT Regular 1151479 y Proyecto CONICYT PIA SOC 1402
Araos, Moya Andrés Arturo. "Análisis de las relaciones entre cursos del Departamento de Ingeniería Industrial en base a técnicas de data mining." Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/116163.
Full textLa mejora continua de los procesos de educación superior es entendida como uno de los objetivos de las instituciones que la imparten. Es bajo este contexto que existen los llamados Modelos Curriculares, que pretenden modelar las interacciones que existen entre los procesos educativos y administrativos, actores del sistema y variables clave, que son finalmente las que determinan qué tan eficiente y bueno será el aprendizaje del alumno. La Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile no es la excepción, por lo que ha ido avanzando en lograr una mejora continua de sus programas. Estos utilizan como referente el llamado Modelo Basado en Competencias, que plantea una mirada donde los estudiantes deben ir aprendiendo progresivamente habilidades y conocimientos previamente definidos en el perfil del profesional que se esté formando. En este Trabajo de Título se estudiará el caso particular de la carrera de Ingeniería Civil Industrial. Es bajo este contexto que se plantea como principal objetivo el análisis de las relaciones que existen entre los distintos cursos del departamento. Esto busca diagnosticar la eficacia con la que fue diseñada la Malla Curricular del departamento, que supone el camino lógico para la obtención de las competencias previamente definidas que debe tener un profesional egresado de ingeniero civil industrial de la Universidad de Chile. Para esto se propone la utilización de técnicas de Data Mining, específicamente la de Redes Bayesianas. Se espera de este trabajo un análisis de las relaciones observables de los cursos, tanto gráficamente como de las probabilidades condicionales, para así relacionar los cursos y los resultados académicos. Por otro lado, también se espera poder identificar las principales variables que influyen en el rendimiento académico del alumno. Los resultados muestran que existen relaciones entre varios cursos y que además muchas de ellas coinciden con las propuestas por la Malla Curricular. Por otro lado, se plantea que la distribución del tiempo en el semestre por parte del alumno y la motivación pueden ser variables determinantes, además de las habilidades y conocimientos que entregan los cursos. Por otro lado se plantea que el modelo debe ser mejorado o cambiado a uno que soporte la inclusión de una mayor cantidad de variables, puesto que este se ve limitado por la cantidad de datos y por la complejidad del problema.
Hurtado, Carrera Katherine Lizet, and Zegarra Stefany Viviana Palomino. "Aplicación de la técnica DEA (Data Envelopment Analysis) en la medición de la eficiencia en MYPES de servicio de consultoría." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2019. http://hdl.handle.net/10757/626446.
Full textThis research project analyzes the study on the measurement of efficiency in MYPES of consulting service, with the application of Data Envelope Analysis (DEA) to a real case, it shows how the technique allows to identify the units as efficient and inefficient, and determine what variables (inputs and outputs) are affecting the efficiency, and based on the result, fix goals or objectives for inefficient units. The results are expected to be useful to provide a basis for future research on how to assess the efficiency measurement, and the application of the technique according to their specific needs and requirements. As a conclusion, the regular application of the DEA technique would allow monitoring the impact of improvement actions on the units found as inefficient, so that companies achieve greater efficiency in their processes or services.
Tesis
Villazana, Astucuri Jordy Ivo. "Sistema de procesamiento y análisis de imágenes para la caracterización fenotípica del cultivo de la papa." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/11789.
Full textUniversidad Nacional Mayor de San Marcos (Lima). Vicerrectorado de Investigación y Posgrado
Tesis
Herranz, Muñoz Diego. "Análisis de las anisotropías de la Radiación Cósmica del Fondo de Microondas mediante el uso de Filtros Adaptados." Doctoral thesis, Universidad de Cantabria, 2002. http://hdl.handle.net/10803/10646.
Full textThe study of the anisotropies of the Cosmic Microwave Background (CMB) is one of the milestones of modern Cosmology. Before the analysis of the CMB itself, it is importantto apply statistical tools to the data in order to identify and separate the different physical components that contribute to the sky emission at microwave wavelengths. In this Thesis a newlinear filter is proposed, the so-called Scale Adaptive Filter (SAF), that takes into account the characteristic spatial signature of compact sources (namely galaxies and galaxy clusters) inorder to optimise the detection of such sources in CMB data.The SAF is firstly theoretically introduced and then it is applied to realistic simulated CMB data as they will be observed by the upcoming ESA's Planck Mission. The considered cases includeboth unidimensional and bidimensional data sets at one single frequency (for the case of the detection of radio and infrared galaxies) or considering several frequency channels (for thecase of the detection of galaxy clusters via the Sunyaev-Zel'dovich effect). The SAF is found to be a robust and powerful tool for the detection of compact sources in astronomical images.
Soliva, Sánchez Marta. "Estudio de filigranas en documentos administrativos del s.XVIII en el Archivo Histórico Municipal de Alicante. Análisis morfológico y puesta en valor." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/90633.
Full textLa presente tesis doctoral muestra un método para el análisis morfológico y el estudio de las filigranas presentes en documentos administrativos del s. XVIII custodiados en el Archivo Histórico Municipal de Alicante (A.M.A.). Para ello se han estudiado 88 expedientes insertos en el Libro 42, (Armario 1) titulados Órdenes sobre Diputados y Personeros del común y economía y gobierno de abastos de los años 1766-1768. Dichos expedientes pertenecen al grupo documental Órdenes de gobierno y a la serie Privilegios y Provisiones Reales de la Ciudad de Alicante. Para este estudio se ha elegido el Archivo Histórico Municipal de Alicante (A.M.A.) por poseer una documentación muy variada, rica y amplia en documentos de la ciudad de Alicante desde el s. XIII hasta nuestros días. La presente tesis doctoral, más allá de un mero catálogo tipológico y cronológico, pretende realizar un estudio profundo de filigranas que permita abordar la existencia de patrones en un grupo específico de documentos así como determinar el uso que se le dio al papel en su contexto temporal y geográfico específico en función de su tipología documental. Para ello se establecieron una serie de parámetros de registro, la creación de una base de datos, una ficha técnica y además, se ha podido concretar una nueva tipología de filigranas en las obras estudiadas. Esto último se debe a que en el transcurso de la investigación pudo observarse que el pliego de papel podía presentar dos filigranas (ocupando ambas páginas del pliego), siendo complementarias en unos casos y/o diferente en otros. Por ello se ha podido establecer una nueva tipología. La dificultad añadida ha estado en poder establecer criterios de clasificación para un material profundamente heterogéneo a partir del estudio del pliego de papel dado que, hasta el momento, los estudios de las mismas se venían rigiendo por el método tradicional que clasifica la filigrana por motivo, es decir, por hoja individual. Finalmente se han localizado un total de 279 filigranas que -según la clasificación establecida-, se pueden agrupar en 47 Tipos distintos. Esta nueva metodología pretende aportar información más completa sobre las filigranas y el documento que las alberga, así como establecer criterios comunes de clasificación, evitando repeticiones y facilitando la extracción de datos concluyentes, con el fin de abrir el campo de la filigranología a nuevas y futuras investigaciones.
La present tesi doctoral mostra un mètode per al anàlisis morfològic i per al estudi de les filigranes presents en documents administratius del s. XVIII custodiats en l¿Arxiu Històric Municipal d¿Alacant (A.M.A.). Per a això s¿han estudiat 88 expedients inserits en el Libro 42, (Armario 1)titulats Órdenes sobre Diputados y Personeros del común y economía y gobierno de abastos de los años 1766-1768. Els dits expedients pertanyen al grup documental Ordes de govern i a la sèrie Privilegis i Provisions Reals de la Ciutat d¿Alacant. Per a este estudi s¿ha triat l¿Arxiu Històric Municipal d¿Alacant (A.M.A.) per posseir una documentació molt variada, rica i àmplia en documents de la ciutat d¿Alacant des del s. XIII fins als nostres dies. La present tesi doctoral, més enllà d¿un mer catàleg tipològic i cronològic, pretén realitzar un estudi profund de filigranes que permeta abordar l¿existència de patrons en un grup específic de documents així com determinar l¿ ús que se li va donar al paper en un context temporal i geogràfic específic en funció de la seua tipologia documental. Per a això es van establir una sèrie de paràmetres de registre, la creació d¿una base de dades, una fitxa tècnica i a més s¿ha pogut concretar una nova tipologia de filigranes en les obres estudiades. Açò últim se deu al fet que en el transcurs de la investigació va poder observar-se que el plec de paper podia presentar dos filigranes (ocupant ambdós pàgines del plec), sent complementàries en uns casos y/o diferent en altres. Per això s¿ha pogut establir una nova tipologia. La dificultat afegida ha estat a poder establir criteris de classificació per a un material profundament heterogeni a partir de l ¿estudi del plec de paper atés que, fins al moment, els estudis de les mateixes es venien regint pel mètode tradicional que classifica la filigrana per motiu, és a dir, per full individual. Finalment s¿han localitzat un total de 279 filigranes que -segons la classificació establida-, es poden agrupar en 47 Tipus distints. Esta nova metodologia pretén aportar informació més completa sobre les filigranes i el document que les alberga, així com establir criteris comuns de classificació, evitant repeticions i facilitant l¿extracció de dades concloents, a fi d¿obrir el camp de la filigranología a noves i futures investigacions.
Soliva Sánchez, M. (2017). Estudio de filigranas en documentos administrativos del s.XVIII en el Archivo Histórico Municipal de Alicante. Análisis morfológico y puesta en valor [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90633
TESIS
Gusmão, Rui Jorge Coelho. "Complejación de iones metálicos con mezclas de fitoquelatinas, sus fragmentos y selenocistina. Estudio mediante voltamperometría - resolución multivariante de curvas, en combinación con técnicas espectrométricas y calorimétricas." Doctoral thesis, Universitat de Barcelona, 2012. http://hdl.handle.net/10803/107882.
Full textThe main goal of the Thesis has been to deepen the knowledge about metal complexation by ligands containing S and Se. A special attention has been paid to phytochelatins (PCn), which are on the basis of phytoremediation due to their ability to complex heavy metals. The formed complexes have been studied by means of different analytical techniques. In a first step, the work is focused on the use of Differential Pulse Polarography (DPP), assisted by Multivariate Curve Resolution by Alternating Least Squares (MCR-ALS), in order to resolve the mixtures of peptides present in plants (phytochelatins and their fragments) and Cd2+. The obtained results have been compared with those by mass spectrometry (ESI-MS). The next goal has been the study of the phytochelatin PC5 in the presence of Cd2+ and Pb2+. The bigger size of this PCn as compared to other previously studied could imply a priori more complicated models of competitive complexation. Then, a systematic study was devised based on the combination of chemometric analysis (by means of MCR-ALS and the new algorithms pHfit and GPA) of the data obtained by DPP and circular dichroism, and ESI-MS. A third goal has been the study of selenocystine (SeCyst) in different situations of competitive complexation. The electrochemical behaviour of SeCyst alone or in the presence of a metal ion (Bi3+, Cd2+, Co2+, Cu2+, Cr3+, Ni2+, Pb2+ and Zn2+) has been studied by DPP in a wide pH range. Studies by isothermal titration calorimetry (ITC) have also been made, which have provided thermodynamic parameters and complexation constants. In a more detailed study, Cd2+ and Zn2+ ions have been selected as models of non-essential and essential metal, respectively, in order to study their behaviour in the presence of SeCyst. Mixtures of SeCyst and glutathione have been also studied in the presence of Cd2+ at physiological pH. The last goal has been to evaluate the possible use of modified electrodes for the detection of thiols. During a stay in the University of Oxford, several studies were carried out on the modification of two kinds of carbon electrode: glassy carbon (GCE) and edge plane pyrolitic graphite (EPPG). The modification consisted on the immobilisation of a metallic redox center (a ferrocene derivative) onto the surface. Then, the catalytic responses in the presence of Cys have been studied.
Chavez, Huerta Brian Francisco, and Castillejo Martín Andree Espíritu. "Aplicación de métodos de inspección y reparación en viviendas de albañileria confinada con presencia de daños en sus elementos estructurales provocado por un sismo." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2019. http://hdl.handle.net/10757/628110.
Full textEarthquakes over time have been detrimental in the development of man-made constructions. An earthquake is a sudden movement of the land produced by forces acting inside the planet; Its origins are numerous but the most important are the clashes between the tectonic plates. Regarding the structures damaged by the earthquake, in most cases, it is family homes that are harmed to a greater extent, there are many causes, but one of the most important is the construction of confined masonry buildings made without no engineering parameter (Hermosa, 2003). Therefore, when an earthquake occurs, failures usually appear in its structural elements, which in some cases do not take due importance by the user, it is worth mentioning that this act is not correct because, if a high magnitude earthquake occurs It could collapse and as a result human lives would be lost. For this reason, all professionals dedicated to the construction sector are essential to have notions of inspection of structural damage and also know how to repair them. In this document we will learn the different applications of methods of inspection of fissures in structural elements both in columns, beams and walls, but focused mainly on the wall since, in this construction technique, the wall is the one that supports the efforts, this analysis It will be in two ways: Rapid evaluation and detailed evaluation. In the rapid assessment, the risk or safety of the structure is quickly determined; This information will be stored in an application, which will be the tool for the evaluation in order to determine the level of security of the house, which are total, habitable, careful and insecure security, establishing in this way if the house is habitable or not (Pinto y Torres, 2016). Finally, if the house is at the level of care or insecurity, a detailed evaluation will be carried out; In this evaluation, an inspection of no more than 6 hours is recommended. In the detailed evaluation, a reassessment is carried out according to the levels established in the rapid evaluation, focusing on the last levels, careful and insecure, respectively; the causes that caused the damage will be determined, as well as the magnitude of damage to the structural elements through inspection equipment, some of them being the pacometer and the comparator; for the subsequent application of various repair methods. Finally, the repair involves the injection of epoxy resin in cracks, reinforcement with carbon fiber, welded mesh, among others. The success of the application of these methods aims to reduce the likelihood of collapse and eliminate the loss of human lives that will be done through a modeling of repaired housing which will have to comply with seismic-resistant design standards. As a result of this modeling in Etabs, it was found that after the repair through carbon fiber and welded mesh in the confined masonry walls, the structure is capable of withstanding earthquakes of equal or greater magnitude.
Tesis
Pérez, Bernabeu Elena. "Propuesta de mejora de los gráficos de control por atributos mediante la metodología de Daudin." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/3786.
Full textPérez Bernabeu, E. (2008). Propuesta de mejora de los gráficos de control por atributos mediante la metodología de Daudin [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3786
Palancia
de, Aguiar Loureiro Juliana. "Técnicas de agrupamento de dados na mineração de dados químicos." Universidade Federal de Pernambuco, 2005. https://repositorio.ufpe.br/handle/123456789/2791.
Full textO processo de descoberta de conhecimento em bases de dados (Knowledge Discovery in Databases KDD) tem por objetivo extrair informações úteis (conhecimento) a partir de uma extensa quantidade de dados. Este processo, por sua vez, se constitui de várias etapas, entre elas, a atividade de mineração dos dados, representada neste estudo sob forma de an´ alise de agrupamento. Um problema característico dessa etapa é identificar qual ou quais métodos de agrupamento podem realmente apresentar uma classificação útil e válida para o conjunto de dados em estudo. Entre os mecanismos de apoio à triagem e estudo das técnicas de análise de agrupamento está o conhecimento adquirido sobre o conjunto de dados, o conhecimento de técnicas estatísticas para realizar a análise exploratória dos dados e principalmente conhecer bem quais algoritmos são adequados ao problema de interesse. A presente dissertação visa considerar os procedimentos de KDD apropriados para a aplicação das técnicas de análise de agrupamento a um conjunto de dados químicos
Bertolla, Jane Maiara. "Técnicas de análise de dados distribuídos em áreas /." Botucatu, 2015. http://hdl.handle.net/11449/126401.
Full textBanca: Paulo Milton Barbosa Landim
Banca: Selene Maria Coelho Loibel
Resumo: O objetivo deste trabalho é estudar técnicas de análise espacial para compreender os padrões associados a dados por área, testar se o padrão observado é aleatório ou se o evento se distribui por aglomerado, obter mapas mais suaves que o mapa observado e procurar estimativas melhores de estruturas adjacentes. Utilizou-se um conjunto de dados referente a 1656 casos positivos de dengue na cidade de Rio Claro - SP registrados no primeiro semestre de 2011. Neste conjunto de dados, e com o auxílio do software Terra View 4.2.2, foram construídas as estimativas de Kernel para dois tipos de função de estimação: Kernel Normal e Kernel Quártico. Para a Função de Estimação Kernel Normal foram usados os seguintes raios de influência: 100m, 150m, 200m e 500m. Já para a Função de Estimação Kernel Quártico foram usados os seguintes raios de influência: 250m, 375m, 500m e 625m. Ainda no mesmo software foram construídos mapas para uma análise exploratória com três critérios diferentes: Intervalos iguais, Intervalos por quantil e Intervalos por desvios padrão. Em seguida, foram construídos os respectivos mapas de suavização através da Média Móvel Espacial. Dependendo do critério utilizado (quantil, intervalos iguais ou desvio padrão), notou-se que há diferenças nos resultados de ocorrências de dengue, tanto para os dados originais, quanto para os transformados pela média móvel. Observou-se que o comportamento do kernel quártico é similar ao do kernel normal, porém com diferentes raios de influência. Este resultado corrobora as observações de Bailey e Gatrell(1995), de que a função de ajuste não é de grande importância, já que o controle pode ser feito através do raio de influência para a estimativa em cada ponto. Através do teste de permutação aleatório verificou-se que há dependência espacial entre os valores observados, onde a estatística I é igual a 0,389828 e o p-valor igual a...
Abstract: The goal of this piece is to study spacial analysis techniques to understand the patterns associated to data over areas, test if the observed pattern is random or if the event distributes itself by agglomeration, get smoother maps than the observed maps and look for better estimates of adjacent structures. A database concerning of 1656 positive dengue occurrences in the city of Rio Claro-SP during the first semester of 2011 was used. With this database, using the software Terra View 4.2.2, it were constructed the kernel estimates for two kind of estimate functions: Normal Kernel and Quartic Kernel. For the Normal Kernel Function estimate it were used the following influence radius: 100m, 150m, 200m and 500m. On the other hand, for the Quartic Kernel Function estimate it were used the following influence radius: 250m, 375m, 500m and 625m. Yet using the same software, maps were constructed for a visual exploratory analysis with three different criterions: equal intervals, quintiles intervals and standard deviation intervals. In the sequence, the respective smoothing maps were constructed using the Spacial Moving Averages. Depending on the used criterion (quintiles, equal intervals or standard deviation) it was observed differences between the dengue occurrences, considering the original data or the ones transformed by the moving average. It was observed that the quartic kernel behavior is similar to the normal's kernel, but with different influence radius. This result corroborates Bailey and Gatrell's observations that the adjustment function is not of considerable importance, considering that the control can be made through the influence radius for the estimate in each point. Through the random permutation test it was verified that there is special dependence between the observed values, where the stats equals 0,389828 and the p-value equals 0,01. Kawamoto (2012) applied the kernel estimate for the same database, but considering the ...
Mestre
Bertolla, Jane Maiara [UNESP]. "Técnicas de análise de dados distribuídos em áreas." Universidade Estadual Paulista (UNESP), 2015. http://hdl.handle.net/11449/126401.
Full textO objetivo deste trabalho é estudar técnicas de análise espacial para compreender os padrões associados a dados por área, testar se o padrão observado é aleatório ou se o evento se distribui por aglomerado, obter mapas mais suaves que o mapa observado e procurar estimativas melhores de estruturas adjacentes. Utilizou-se um conjunto de dados referente a 1656 casos positivos de dengue na cidade de Rio Claro - SP registrados no primeiro semestre de 2011. Neste conjunto de dados, e com o auxílio do software Terra View 4.2.2, foram construídas as estimativas de Kernel para dois tipos de função de estimação: Kernel Normal e Kernel Quártico. Para a Função de Estimação Kernel Normal foram usados os seguintes raios de influência: 100m, 150m, 200m e 500m. Já para a Função de Estimação Kernel Quártico foram usados os seguintes raios de influência: 250m, 375m, 500m e 625m. Ainda no mesmo software foram construídos mapas para uma análise exploratória com três critérios diferentes: Intervalos iguais, Intervalos por quantil e Intervalos por desvios padrão. Em seguida, foram construídos os respectivos mapas de suavização através da Média Móvel Espacial. Dependendo do critério utilizado (quantil, intervalos iguais ou desvio padrão), notou-se que há diferenças nos resultados de ocorrências de dengue, tanto para os dados originais, quanto para os transformados pela média móvel. Observou-se que o comportamento do kernel quártico é similar ao do kernel normal, porém com diferentes raios de influência. Este resultado corrobora as observações de Bailey e Gatrell(1995), de que a função de ajuste não é de grande importância, já que o controle pode ser feito através do raio de influência para a estimativa em cada ponto. Através do teste de permutação aleatório verificou-se que há dependência espacial entre os valores observados, onde a estatística I é igual a 0,389828 e o p-valor igual a...
The goal of this piece is to study spacial analysis techniques to understand the patterns associated to data over areas, test if the observed pattern is random or if the event distributes itself by agglomeration, get smoother maps than the observed maps and look for better estimates of adjacent structures. A database concerning of 1656 positive dengue occurrences in the city of Rio Claro-SP during the first semester of 2011 was used. With this database, using the software Terra View 4.2.2, it were constructed the kernel estimates for two kind of estimate functions: Normal Kernel and Quartic Kernel. For the Normal Kernel Function estimate it were used the following influence radius: 100m, 150m, 200m and 500m. On the other hand, for the Quartic Kernel Function estimate it were used the following influence radius: 250m, 375m, 500m and 625m. Yet using the same software, maps were constructed for a visual exploratory analysis with three different criterions: equal intervals, quintiles intervals and standard deviation intervals. In the sequence, the respective smoothing maps were constructed using the Spacial Moving Averages. Depending on the used criterion (quintiles, equal intervals or standard deviation) it was observed differences between the dengue occurrences, considering the original data or the ones transformed by the moving average. It was observed that the quartic kernel behavior is similar to the normal's kernel, but with different influence radius. This result corroborates Bailey and Gatrell's observations that the adjustment function is not of considerable importance, considering that the control can be made through the influence radius for the estimate in each point. Through the random permutation test it was verified that there is special dependence between the observed values, where the stats equals 0,389828 and the p-value equals 0,01. Kawamoto (2012) applied the kernel estimate for the same database, but considering the ...
Bernardo, Jose M. "Análisis de datos y métodos bayesianos." Pontificia Universidad Católica del Perú, 2013. http://repositorio.pucp.edu.pe/index/handle/123456789/95635.
Full textConsularo, Luís Augusto. "Técnicas de mineração de dados para análise de imagens." Universidade de São Paulo, 2000. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-14012009-101451/.
Full textImages coded by intensity matrices typically involve large amount of data. Although image analysis approaches are diverse, knowledge about specific problems is rarely considered. This work is about image analysis problems whose solutions depend on the knowledge about the involved data. In order to do so data mining techniques are applied to model human response to psychophysical experiments. Two image analysis problems are addressed: (1) shape analysis; and (2) pictorial analysis. In the former, neuronal images (ganglion retinal cells of cat) are segmented and curvature parameters are calibrated to identify extremities and branches on the shape considering human segmentation as a reference. Descriptors such as multiscale skeletons are also explored for potential application or evaluations. In the second problem, a pictorial analysis of home-pages images feed an artificial aesthetics criteria evaluator based on complexity, contrast and texture features. The system models and generalizes the obtained human responses to psychophysical experiment. The results for these two approaches are promising, surprising and widely applicable.
Bonato, Jorge Vinicius Ruviaro. "Clusterização de dados meteorológicos para comparação de técnicas de nowcasting." reponame:Repositório Institucional da UFPR, 2014. http://hdl.handle.net/1884/36598.
Full textCo-orientador : Prof. Dr. Cesar Augustus Assis Beneti
Dissertação (mestrado) - Universidade Federal do Paraná, Setor de Tecnologia, Programa de Pós-Graduação em Métodos Numéricos em Engenharia. Defesa: Curitiba, 09/04/2014
Inclui referências
Área de concentração: Programação Matematica
Resumo: O interesse de empresas e sociedade em geral em saber, em tempo quase real e de maneira precisa, sobre a ocorrência de eventos severos tem gerado grande demanda por técnicas de previsão que sejam rápidas e confiáveis. Nessa busca, há criação de novas técnicas e/ou adaptação de outras já desenvolvidas e bem conhecidas. Neste trabalho foi feita uma adaptação da técnica ForTraCC para uso com dados de refletividade máxima de radar, provenientes de um radar meteorológico Banda-S Doppler operado pelo SIMEPAR no município de Teixeira Soares-PR, através de definição de novos limiares, além do desenvolvimento de uma técnica baseada em correlação espacial, denominada técnica XCorr, utilizando também o método K-Means++ para classificação de células convectivas e estratiformes. As duas técnicas foram então comparadas, através de gráficos de correlação entre dados observados e previsões geradas, com melhor desempenho para a técnica ForTraCC frente à baseada em técnicas de correlação espacial, que apesar de suas limitações apresentou bons resultados. Palavras-chave: Nowcasting, Eventos Severos, K-Means++, Classificação
Abstract: The interest of companies and society in general to know, in almost real time and accurately, the occurrence of severe weather events has generated great demand for predictive techniques that are fast and reliable. In this quest, there are the development of new techniques and / or adaptation of others already developed and well known. In this work it was made an adaptation of the ForTraCC technique using radar maximum reflectivity, from a Doppler S-Band weather radar operated by SIMEPAR installed in Teixeira Soares-PR, setting new thresholds, and the development of a technique based on spatial correlation, called XCorr technique, using K-Means++ method for classifying convective and stratiform cells. The two techniques were then compared using correlation graphs between observed and forecasted data, with better performance with ForTraCC instead of spatial correlation technique which, despite its limitations, also presented good results. Key-words: Nowcasting, Severe Weather, K-Means++, Classification
Apolaya, Torres Carlos Humberto, and Diaz Adolfo Espinosa. "Técnicas de inferencias, predicción y minería de datos." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/624497.
Full textIn the first chapter, it describes the problem to be solved and it details the specific objectives that contribute to the fulfillment of the general objective and the scope of the project. In the second chapter, the most important basic concepts like Data Mining and Machine Learning are defined, which are related to the subject of research study. In the third chapter, there is the State of Art, in which the previous research related to the project will be reviewed indicating the area in which it was implemented. This allows us to understand how the subject is currently investigated and to have a clearer vision of what can be developed. In the fourth chapter, we describe the development of the project, the methodology to be used, details the phases of the methodology and the process to be followed for the correct implementation of the model using decision trees and the Knowledge Discovery in Databases (KDD) methodology. The fifth chapter details how we obtained a prediction error rate of approximately 9.13%, the tests performed and recommendations. As well as proposals for project continuity focused on improving the prediction model. Finally in the sixth chapter, the final results are described in the project's own management, in the aspects of Final Result and the Outreach, Time, Communication, Human Resources and Risk Management.
Tesis
Salicrú, Miquel. "Medidas de divergencia en análisis de datos." Doctoral thesis, Universitat de Barcelona, 1987. http://hdl.handle.net/10803/1569.
Full textDe forma general, han sido desarrolladas distintas formas de elección de tales medidas, siendo destacables las medidas que provienen de diferencias intrínsecas entre individuos, las medidas que provienen de consideraciones sobre funciones, de entropía, y las medidas que provienen exclusivamente de consideraciones teóricas. En esta memoria, hemos estudiado estas medidas a partir de la clasificación de medidas de distanciación realizada por Burbea y Rao (1982).
En la primera parte (cap. 1, 2 y 3), se presentan las distintas divergencias, se estudian inter-relaciones y se analiza la convexidad.
En la segunda parte (cap. 4) se estudian las métricas diferenciales asociadas a divergencias invariantes frente a cambios no singulares de parámetros y variables aleatorias.
En la tercera parte (cap. 5 y 6) se analizan las relaciones entre la J-divergencia y las entropías comúnmente utilizadas.
Finalmente, en los anexos I y II se presentan los programas utilizados en el cap. 6.
Fresno, Rodríguez Cristóbal. "Minería de datos en análisis ontológico-funcionales." Doctoral thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2014. http://hdl.handle.net/11086/1594.
Full textTrata diferentes metologías que permiten un análisis más estructurado y completos de los datos obtenidos en uno o más experimentos, facilitando y enriqueciendo así el análisis ontológico-funcional. Se desarrolló un análisis de calidad de datos que permite detectar tendencias y evaluar su impacto, al igual que herramientas programáticas (automáticas) para integrar y validar computacionalmente los procesos funcionales alterados por el experimento.
Sebastião, Fernando José do Nascimento. "Técnicas multivariadas de redução de dados: comparação, aplicabilidade e convergência de resultados." Doctoral thesis, ISA-UL, 2016. http://hdl.handle.net/10400.5/12016.
Full textÉ muito comum a análise de dados recorrendo a técnicas multivariadas, nomeadamente para séries temporais. As principais metodologias consagradas, descritas ao longo desta dissertação, são a Análise em Componentes Principais (ACP), a Análise em Componentes Independentes (ACI), a Análise Espectral Singular (SSA) e a Análise Espectral Singular Multicanal (MSSA). A ACI tem sido considerada mais adequada que a ACP na análise de séries temporais, principalmente quando se admite a não normalidade e se exige que as componentes a estimar sejam independentes. Neste sentido, como alternativa à MSSA, é proposta uma nova abordagem baseada na ACI aplicada à matriz dos desfasamentos, que é designada Lag-Análise em Componentes Independentes (LagACI). Tal abordagem é desenvolvida e suportada teoricamente pelos conceitos algébricos e algoritmos existentes das duas técnicas envolventes. São dados exemplos de aplicação, com especial relevância para dados climáticos. O principal objetivo da tese é interligar o novo método com os restantes métodos estatísticos multivariados referidos, para permitir avaliar as semelhanças e diferenças entre estes. Analisam-se diferentes abordagens em cada método e estudam-se as implicações da escolha da matriz informativa das estruturas subjacentes aos dados, tendo em conta se estes estão ou não sujeitos a algum tipo de pré-processamento, como por exemplo a centragem. São ainda considerados alguns indicadores comparativos de avaliação do desempenho de modelos para averiguar o grau de semelhança nos resultados transversais às técnicas em estudo. Considera-se que a nova abordagem representa uma contribuição para novos desenvolvimentos teóricos e aplicações no campo da análise de séries temporais
Frosch, Renato. "Análise e avaliação dos modelos de padronização de dados e procedimentos eletrônicos para desenhos e projetos da construção civil: estudo de caso." Universidade Federal de São Carlos, 2004. https://repositorio.ufscar.br/handle/ufscar/4683.
Full textThis present work intends to analyze and evaluate a set of proposals, in discussion, about the utilization feasibility of preceding pattern models (AsBEA proposal, AIA-CSI, ISO), related to the CADD technology development used in civil construction projects, emphasizing a graphical representation and the information transference. From the previous proposal, there were checked alterations caused on the elaboration routine of projects through a questionnaire application to active professionals on the elaboration, edition and review of electronic drawings and case study. (builder and projects office). Aiming verify the adaptation of a set of old rules (NBRs related to traditional technical drawing) to a new concept based on a system of standard computerized technical drawing, finally, this work intends to put up subsidies for a national technical rule/manual elaboration. Expecting that the development of this work can contribute to the deepen of projects related studies, specifically, on the organization feasibility aspects and nomenclature definition, and the graphical representation appreciation suited to electronic drawings.
O presente trabalho analisa e avalia o conjunto de propostas, em discussão, sobre a viabilidade da utilização de modelos de padronização de procedimentos (propostas AsBEA, AIA-CSI, ISO), relacionados com o desenvolvimento da tecnologia CADD empregada nos projetos para a construção civil, enfatizando-se a representação gráfica e a transferência de informação. A partir da proposta anterior, foram verificadas as alterações provocadas na rotina de elaboração de projetos por intermédio de aplicação de questionários a profissionais atuantes na elaboração, edição e revisão de desenhos eletrônicos e estudo de casos (construtora e escritório de projetos). Com intuito de verificar a adaptação de um conjunto de normas antigas (NBRs relacionadas ao desenho técnico tradicional) para um novo conceito baseado em um sistema de desenho técnico informatizado padronizado, finalmente, este trabalho fornece subsídios para elaboração de manual/norma técnica nacional. Espera-se que este trabalho possa contribuir para o aprofundamento dos estudos relacionados ao projeto, especificamente, nos aspectos da viabilidade de organização e definição de nomenclaturas, e da valorização da representação gráfica adequada aos desenhos eletrônicos.
Montaño, Moreno Juan José. "Redes neuronales artificiales aplicadas al análisis de datos." Doctoral thesis, Universitat de les Illes Balears, 2002. http://hdl.handle.net/10803/9441.
Full textThis work describes three lines of research developed in the last five years around the application of Artificial Neural Networks (ANN) in the field of the data analysis. The aplication fields are: the data analysis applied to addictive behaviors, the survival analysis, and the study of the effect of the input variables in a neural network. The results show, in the first place, that the ANN is able to predict the ecstasy consumption with a good accuracy through the answers given to a questionnaire. From an explanatory perspective, the sensitivity analysis applied to the network model has identified the factors associated to the consumption of this substance. In second place, the hierarchical and sequential network models allow to manage the survival data overcoming in some aspects the performance of the model that traditionally has been used until the moment, Cox regression model. Lastly, the numeric sensitivity analysis proposed by us is the procedure that allows to evaluate with more accuracy the importance or effect of the input variables in a Multilayer Perceptron network. On the other hand, the computer program Sensitivity Neural Network 1.0, developed by our team, allows to simulate the behavior of a Multilayer Perceptron and it incorporates a series of numeric and graphics procedures that have demonstrated being of utility in the analysis of the effect of the input variables in ANN.
Freire, J. E. M. "Classificação automática de vídeos aplicando técnicas de inteligência artificial/." reponame:Biblioteca Digital de Teses e Dissertações da FEI, 2014. http://sofia.fei.edu.br:8080/pergamumweb/vinculos/00000b/00000b0f.pdf.
Full textMancisidor, Oscar, and Paula Namur. "IANSA" agrobusiness intelligence : monitoreo y análisis de datos agrícolas." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143159.
Full textOscar Mancisidor [Parte I], Paula Namur [Parte II]
Alza de costos eléctricos, escasez de agua, menor cantidad de personas dispuestas a trabajar en el campo e incertidumbre por el ambiente de reformas en el país. Son varios los desafíos que enfrenta el sector agrícola en Chile, que lo obligan a generar eficiencias para mantenerse competitivo. Uno de los afectados por esta situación es el sector remolachero, que se desempeña entre las regiones VII y VIII. Ante esta necesidad, la presente propuesta busca ofrecer un sistema de inteligencia de negocios (AgroBusiness Intelligence) que permita a los agricultores recibir información consolidada y analizada de sus predios con el objetivo de hacer un uso más eficiente de sus insumos. Con esto, se busca aumentar el rendimiento de la remolacha por hectárea sembrada -y, por lo tanto, el margen de los agricultores-, y al mismo tiempo lograr ahorros para Iansa en términos de una reducción de contrataciones de predios en el futuro. Para acceder a este servicio, el agricultor deberá pagar una cuota por temporada (UF1,5 por hectárea), para ingresar a un sitio web o aplicación móvil que le entregará información. El tamaño del mercado objetivo es de US$6,4 millones y se estima que la demanda alcanzará el 85%, debido a que ese es el promedio de compra de insumos adicionales que ofrece Iansa. Este proyecto se realizará al alero del área de Gestión Agrícola de Iansa, cuya ventaja competitiva, en comparación con otra empresa que buscara realizarlo, es su amplia experiencia y conocimiento técnico, además de una fuerte relación con agricultores remolacheros dispuestos a pagar por esta tecnología, dado que se traducirá en una mejora de sus rendimientos. Relacionado a lo anterior está la extensa red de servicio post venta que se logrará, gracias a que los técnicos habitualmente visitan a los agricultores en sus predios para ofrecerles asistencia técnica y venta de servicios e insumos adicionales. Si bien en principio se busca entregar este servicio a los agricultores proveedores de Iansa, el plan de escalamiento contempla ofrecerlo también a otros productores de la VII y VIII región que tengan riego tecnificado, y cuyos cultivos no sean necesariamente la remolacha, aprovechando tanto la tecnología como el equipo humano de Iansa. Este proyecto puro es rentable para la compañía porque tiene un VAN de US$ 357.446 y un Periodo de Recuperación de 3 años. En tanto, la TIR muestra que la rentabilidad del proyecto de inversión será de 47,87% una vez descontados los flujos. El periodo de recuperación es de 3 años. Se espera obtener ingresos por US$696,673.54 al quinto año, y ganancias netas del 36% sobre las ventas.
Gertrudes, Jadson Castro. "Emprego de técnicas de análise exploratória de dados utilizados em Química Medicinal." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/100/100131/tde-14112013-124231/.
Full textResearches in Medicinal Chemistry\'s area have focused on the search of methods that accelerate the process of drug discovery. Among several steps related to the process of discovery of bioactive substances there is the analysis of the relationships between chemical structure and biological activity of compounds. In this process, researchers of medicinal chemistry analyze data sets that are characterized by high dimensionality and small number of observations. Within this context, this work presents a computational approach that aims to contribute to the analysis of chemical data and, consequently, the discovery of new drugs for the treatment of chronic diseases. Approaches used in exploratory data analysis, employed in this work, combine techniques of dimensionality reduction and clustering for detecting natural structures that reflect the biological activity of the analyzed compounds. Among several existing techniques for dimensionality reduction, we have focused the Fisher\'s score, principal component analysis and sparse principal component analysis. For the clustering procedure, this study evaluated k-means, fuzzy c-means and enhanced ICA mixture model. In order to perform experiments, we used four data sets, containing information of bioactive substances. Two sets are related to the treatment of diabetes mellitus and metabolic syndrome, the third set is related to cardiovascular disease and the latter set has substances that can be used in cancer treatment. In the experiments, the obtained results suggest the use of dimensionality reduction techniques along with clustering algorithms for the task of clustering chemical data, since from these experiments, it was possible to describe different levels of biological activity of the studied compounds. Therefore, we conclude that the techniques of dimensionality reduction and clustering can be used as guides in the process of discovery and development of new compounds in the field of Medicinal Chemistry
Araújo, Helmo Alan Batista de. "Estudo de técnicas em análise de dados de detectores de ondas gravitacionais." Instituto Tecnológico de Aeronáutica, 2008. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=974.
Full textCollados, Sariego Daniel, Orellana Felipe Durán, and Carmona Nicolás Rozas. "Técnicas de inversión : análisis técnico sobre comodities." Tesis, Universidad de Chile, 2002. http://repositorio.uchile.cl/handle/2250/141631.
Full texta)El presente estudio es un análisis técnico sobre los precios de algunos comodities, en particular el cobre, la celulosa, el petróleo, harina de pescado, trigo, plata, oro, etc…Este estudio se basa en la comparación de los resultados del análisis técnico con los de un inversionista pasivo. Es decir, se comparan los resultados del análisis técnico con los que habría obtenido un inversionista pasivo que hubiera comprado y vendido en los mismos períodos de tiempo. Además, se incluye la comparación de otros índices arrojados por el programa utilizado, los que se describen más adelante. Este estudio contiene análisis de corto plazo con precios diarios, y análisis de largo plazo con precios mensuales, así como también con períodos intermedios de 10 años. Dependiendo de la disponibilidad de datos, se han establecido distintos períodos de comparación. b)En el capítulo 1 presentamos una breve descripción respecto de qué es el análisis técnico, la metodología que emplea, sus técnicas, trasfondo matemático, ventajas y significados, así como también gráficos explicativos. c) En el capítulo 2 se explica cuáles fueron los comodities que se tomaron en cuenta, las técnicas seleccionadas, y los períodos que se consideraron, y se explica la estructura en que se ordena el estudio en sí. d) En el capítulo 3 se realiza el estudio matemático basado en las tablas que estarán al final en los anexos. e) Se incluye también un anexo con análisis técnico sobre el precio del dólar, en el que se intenta aplicar las técnicas de análisis técnico aplicado a inversiones en divisas. f) Finalmente, se adjunta la bibliografía utilizada.
Calderón, López Emmanuel. "ANÁLISIS COMPARATIVO DE TÉCNICAS DE RECONOCIMIENTO FACIAL." Tesis de Licenciatura, Universidad Autónoma del Estado de México, 2016. http://hdl.handle.net/20.500.11799/59235.
Full textMuñoz, Jugo Cynthia Mariela. "Revisión matemática y análisis asintótico." Universidad Peruana de Ciencias Aplicadas - UPC, 2007. http://hdl.handle.net/10757/272793.
Full textDaoudi, Jalila. "Nuevos modelos y técnicas estadísticas para el estudio de datos financieros." Doctoral thesis, Universitat Autònoma de Barcelona, 2009. http://hdl.handle.net/10803/130794.
Full textOur line of investigation has developed in the field of the statistical applied to the finances. Our aim is to find and analyse new statistical models to adjust the financial data and new techniques to study the behavior of the tails. An application of this work is the study of operational risk. The banking business has changed deeply by the processes of liberalization, financial and technological innovation. This, has generated an evolution in the field of modeling the processes for the measurement and the quantification of the risk. The risk of loss has his origin in events that can not be attribute to market risk or to credit risk, it is resulting from inadequate or failed internal processes, people and systems or from external events. This definition includes legal risk but excludes strategic and reputacional risk. The most recent method for hedging the operational risk is the method of advanced measurement (AMA) that consists in modeling the aggregate distribution of losses (Loss Distribution Approach or LDA) that has been used successfully in the field of insurances. assuming that the severities are independent, and, that are independent of the frequency of the events, the methodology LDA requires modeling separately the frequency and the severity. The VaR is then calculated as the percentile of the aggregate distribution of losses for a level of probability 99;9%. In the Chapter one, we give an overview on heavy-tailed distributions. Historically, it have been used in the world of insurances, specifically the distributions subexponentials. In the last decade, this methodology has moved to the world of the finances. In the Chapter two, it is shown that the prices formation mechanism may explain some amount of non-normality. Assuming normality for bid and ask prices, the observed transaction prices may be a mixture of normal distributions or a mixture of left- right truncated normal distributions, the latter case being more likely. The statistical properties of the mixture of left-right truncated normal distri- butions are developed. It is proved that there is only one maximum for the likelihood function and the maximum is closely related to the coeficient of variation. Our results show that continuity at zero of this distribution can be avoided in statistical analysis. Empirical work suggests that in financial data non-normality is also produced for a large number of values close to the mean, here referred to as ïnliers". This could explain that the Laplace approximation is often a better approach than normal distribution for daily returns. The approach based in the modeling the distribution of severity by semi weighed distributions such as the lognormal distribution, the inverse gaussian and the mixture of normal provide robust estimates estables of the VaR. The approach based in the theory of extreme value that adjust the values over an determined threshold by the generalized Pareto distribution is of importance To obtain values estables of the measures of the risk. In the Chapter three, we provide precise arguments to explain the anomalous behavior of the likelihood surface when sampling from the generalized Pareto distribution for small or moderate samples. The behavior of the profile-likelihood function is characterized in terms of the empirical coefficient of variation. A suficient condition is given for global maximum of the likelihood function of the Pareto distribution to be at a finite point. In the Chapter four, we develop a previous and complementary methodology to the parametric studies to contrast the model from a point of empirical view. New methods to decide between polynomial or exponential tails are introduced. Is an alternative method to the classical methods ME-Plot and the Hill-Plot. The key idea is based on a characterization of the exponential distribution and uses the residual coefficient of variation as a random process. A graphical method, called a CV plot, is introduced to distinguish between exponential and polynomial tails. Moreover, new statistics introduced from a multivariate point of view allow for testing exponentiality using simultaneously several thresholds. The usefulness of our approach is clearly shown with the daily returns of exchange rates between the US dollar and the Japan yen. One of the difficulties of the distribution of generalized Pareto is that include bounded distributions, there lead a problems of convergence of the estimators. Besides the likelihood functions for small samples can not having solutions. Thus, we propose the TNP distribution that is the union of the normal truncated, the exponential distribution and the distribution of Pareto and is an alternative to the distribution GPD to modeling financial data.
Kurusu, Ricardo Salles. "Avaliação de técnicas de diagnóstico para a análise de dados com medidas repetidas." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/45/45133/tde-21062013-202727/.
Full textConditional and marginal models are among the possibilities in statistical literature to analyze data from studies with correlated observations. Several techniques have been proposed for diagnostic analysis in these models. The objective of this work is to present some of the diagnostic techniques available for both modeling approaches and to evaluate them by simulation studies. The presented techniques were also applied in a real dataset.
Silva, Adinarte Correa da. "Modelo para análise de dados de gerência de redes utilizando técnicas de KDD." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/83701.
Full textMade available in DSpace on 2012-10-20T02:32:25Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T02:46:09Z : No. of bitstreams: 1 208297.pdf: 4084097 bytes, checksum: 7b462f6003d99c52f3001e14a4083b49 (MD5)
González, Rojas Victor Manuel. "Análisis conjunto de múltiples tablas de datos mixtos mediante PLS." Doctoral thesis, Universitat Politècnica de Catalunya, 2014. http://hdl.handle.net/10803/284659.
Full textEl contenido fundamental de esta tesis corresponde al desarrollo de los métodos GNM-NIPALS, GNM-PLS2 y GNM-RGCCA para la cuantificación de las variables cualitativas a partir de las primeras k componentes proporcionadas por los métodos apropiados en el análisis de J matrices de datos mixtos. Estos métodos denominados GNM-PLS (General Non Metric Partial Least Squares) son una extensión de los métodos NM-PLS que toman sólo la primera componente principal en la función de cuantificación. La trasformación de las variables cualitativas se lleva a cabo mediante procesos de optimización maximizando generalmente funciones de covarianza o correlación, aprovechando la flexibilidad de los algoritmos PLS y conservando las propiedades de pertenencia grupal y orden si existe; así mismo se conservan las variables métricas en su estado original excepto por estandarización. GNM-NIPALS ha sido creado para el tratamiento de una (J=1) matriz de datos mixtos mediante la cuantificación vía reconstitución tipo ACP de las variables cualitativas a partir de una función agregada de k componentes. GNM-PLS2 relaciona dos (J=2) conjuntos de datos mixtos Y~X mediante regresión PLS, cuantificando las variables cualitativas de un espacio con la función agregada de las primeras H componentes PLS del otro espacio, obtenidas por validación cruzada bajo regresión PLS2. Cuando la matriz endógena Y contiene sólo una variable de respuesta el método se denomina GNM-PLS1. Finalmente para el análisis de más de dos bloques (J>2) de datos mixtos Y~X1+...+XJ a través de sus variables latentes (LV) se implementa el método NM-RGCCA basado en el método RGCCA (Regularized Generalized Canonical Correlation Analysis) que modifica el algoritmo PLS-PM implementando el nuevo modo A y especifica las funciones de maximización de covarianzas o correlaciones asociadas al proceso. La cuantificación de las variables cualitativas en cada bloque Xj se realiza mediante la función inner Zj de dimensión J debido a la agregación de las estimaciones outer Yj. Tanto Zj como Yj estiman la componente ξj asociad al j-ésimo bloque.
Ferreiro, Pérez César Miguel. "Análisis de datos de movimiento de clientes en un supermercado." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/148583.
Full textLa creciente incidencia de la tecnología en los procesos de compra ha facilitado poder hacer seguimiento de los clientes a través de las distintas etapas que componen una compra, tanto en formatos físicos como digitales. En partciular en una tienda física es posible conocer la ubicación del cliente a largo de su visita a la sala de ventas. En el presente trabajo se cuenta con la secuencia de ubicaciones seguidas por los clientes al interior de un supermercado en la ciudad de Santiago, estos fueron capturados a través de sensores dispuestos en la sala de ventas que detectan aquellos dispositivos móviles con la opción de wifi encendida. El principal objetivo del presente trabajo es entender como esta nueva fuente de información puede ayudar a enriquecer los análisis que se hacen actualmente sobre comportamiento de compra, donde generalmente solo se usan datos transaccionales. Para esto el análisis se divide en 3 partes: temporal, espacial y relacional. Primero los datos son pre procesados aplicando filtros sobre estos para restringir el análisis sobre secuencias de ubicaciones que correspondan a viajes de compra. En particular se definen criterios sobre las zonas en que son detectadas las observaciones y la duración de las visitas a la sala de ventas. Una vez hecho esto se analiza como varía la frecuencia de observación de acuerdo con las distintas trayectorias observadas. De esta parte se concluye que una gran fracción de las observaciones no puede ser asignada a un viaje de compra. Posteriormente se analizan los datos en su dimensión temporal a través de las variables hora de llegada y visitas por día. Estos datos se contrastan con variables análogas obtenidas a través de datos transaccionales. El principal resultado que se obtiene de esta comparación es que los patrones observados en datos transaccionales son consistentes con los obtenidos a través de datos móviles. Adicionalmente se logra estimar el tiempo que están los clientes al interior de la sala de ventas lo que no es posible con los datos transaccionales. Luego se analizan los datos en su dimensión espacial, esto es como se mueven los clientes al interior de la sala de ventas. En particular se construye el indicador de velocidad y se estudia como este varía de acuerdo con distintas variables. Una vez hecho esto se analiza cómo cambian los resultados al introducir correcciones a las trayectorias capturadas. Finalmente se comparan las visitas a ciertas zonas de la sala de ventas con las compras registradas en dichas zonas. El principal resultado de esta parte es la detección de brechas entre las compras y las visitas en distintas zonas de la sala de ventas. Esta información tiene el potencial de ser usada para mejorar la oferta de la sala de ventas en layout, ubicación de producto y ofertas entre otros.
Chávez, Barbaste Joaquín Gonzalo. "Análisis y modelos de datos de redes para seguridad informática." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/138269.
Full textHoy en día son cientos los servicios que se ofrecen de manera virtual a través de Internet, muchas veces exigiendo la transferencia y almacenamiento de datos prioritarios o sensibles a través de las redes de comunicaciones. Esto obliga a que los factores de seguridad, estabilidad y confiabilidad de las plataformas sea un elemento clave a considerar en el desarrollo de las aplicaciones y, por lo tanto, la utilización de herramientas dedicadas a la prevención y detección de fallas de seguridad toma un rol crítico. Considerando lo anterior, este trabajo propone diseñar e implementar un ambiente de simulación de redes que permita explorar la aplicación de distintas técnicas de inteligencia computacional en tópicos de seguridad informática, enfocándose principalmente en la utilización de modelos autoregresivos integrales de media móvil (conocidos como ARIMA por su sigla en inglés) y la divergencia de Kullback-Leibler para la detección de ataques de denegación de servicio a un servidor web. Para esto se desarrolla una arquitectura representativa de un proveedor de servicios de Internet utilizando como plataforma el programa de simulación de redes conocido como GNS3 (Graphical Network Simulator 3), en donde se tienen tres routers, un simulador de clientes, una máquina atacante, un servidor web y una máquina dedicada a la recolección y análisis de datos, todos funcionando como máquinas virtuales dentro de un mismo computador principal. Utilizando este ambiente se ejecutan múltiples simulaciones de tráfico web para condiciones normales de operación y bajo ataque de denegación de servicio, obteniéndose series de tiempo de alrededor de doce horas de duración para capturar el comportamiento a nivel IP del tráfico durante períodos de volumen de usuarios con carga baja, media y alta. De esta manera se logra recolectar suficientes datos para poder realizar el análisis estadístico respectivo y la generación de modelos de predicción de tráfico y detección de ataques con la ayuda del lenguaje para análisis estadístico R. A partir de los resultados obtenidos se verifica la factibilidad de utilizar modelos ARIMA para la predicción del tráfico que fluye a través de los routers que conforman las vías troncales de la red y como herramienta complementaria de detección de cambios bruscos en el nivel de tráfico de subida a un servidor web. Además, se obtienen resultados exitosos para la utilización de la divergencia de Kullback-Leibler como mecanismo de detección de ataques de denegación de servicio, en base a los cambios bruscos de tráfico, permitiendo la detección dentro de los primeros cinco minutos de comenzada la falla. Este tipo de herramientas permitirían a los proveedores implementar sistemas inteligentes para la detección temprana de ataques de denegación de servicio dentro de su red, pudiendo aplicar maniobras de mitigación a tiempo y, por lo tanto, fortaleciendo la seguridad del sistema en su totalidad.
García, Ubilla Arnol David. "Análisis de datos y búsqueda de patrones en aplicaciones médicas." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136150.
Full textEl suicidio en Chile se ha convertido en uno de los problemas más necesarios de hacer frente en salud pública, más aún, si consideramos que la enorme mayoría de las personas que mueren por suicidio presentan algún diagnóstico psiquiátrico y han consultado a un especialista los meses antes de cometer suicidio. Esto, motiva la creación de indicadores y alertas para detectar de forma eficaz y oportuna cuando una persona ingresa a una zona de riesgo suicida. En el presente trabajo se aborda este problema, definiendo una zona o espectro de riesgo suicida, y generando modelos matemáticos y estadísticos para la detección de pacientes en esta zona de riesgo. Para esto, se utiliza una base de datos de 707 pacientes, consultantes de salud mental, de tres centros de salud distintos de la región metropolitana. La base de datos a su vez contempla 343 variables, incluyendo tanto información sociodemográfica de cada paciente, como también sus respuestas en siete instrumentos clínicos utilizados habitualmente en salud mental (DEQ, STAXI, OQ, RFL, APGAR, PBI Madre y PBI Padre). Inicialmente la base de datos es depurada eliminando aquellos campos y/o registros con gran porcentaje de valores nulos, mientras que la imputación de valores perdidos se realiza mediante técnicas tradicionales y en algunos casos según el criterio experto, donde se utiliza un método de imputación según valor de subescala para los distintos instrumentos clínicos. Posteriormente, se realiza una reducción de atributos mediante el uso de herramientas estadísticas y provenientes del machine learning. Con esta información, se generan cinco modelos utilizando distintas técnicas y herramientas del ámbito de la minería de datos y machine learning mediante aprendizaje supervisado. Los modelos son generados y calibrados usando el lenguaje estadístico R, y se comparan sus resultados mediante cuatro métricas distintas: precisión (o accuracy), sensibilidad, especificidad, y mediante su representación en el espacio ROC. El modelo o clasificador finalmente propuesto corresponde a un modelo de support vector machine, que permite discriminar cuando un paciente se encuentra en una zona de riesgo suicida. El modelo fue entrenado utilizando un kernel de tipo RBF, y utiliza tan sólo 22 variables predictoras, entregando una precisión aproximada del $78%, calculada mediante k-validación cruzada de n-folds con k=100 y n=10.
Toro, Reyes Felipe Andrés. "Aplicación de network calculus para análisis de redes de datos." Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112000.
Full textEn las redes de datos cada día se desarrollan nuevos servicios y topologías más complejas, con más usuarios y restricciones diferenciadas para los diversos servicios. De esta forma, la estimación de parámetros de red, como por ejemplo, delay, backlog, tasas máximas de transferencia de datos, factores de ocupación, etc. son de interés para el dimensionamiento de los nodos a utilizar en las redes. Los flujos de tráfico que atraviesan las redes de computadores están sujetos a restricciones impuestos por los componentes del sistema. Estas restricciones pueden ser expresadas y analizadas con Network Calculus, lo que permite entender las propiedades de los distintos servicios entregados por las redes convergentes, para planificar y dimensionar los parámetros de las redes. El objetivo de este trabajo es aplicar Network Calculus en redes de datos y comparar la estimación de parámetros con mediciones reales y cálculos algebraicos. Se utilizan herramientas Open Source para la implementación de escenarios de red que simulan el servicio de video streaming. De los resultados que se obtienen de las mediciones de delay y pérdidas de paquetes del tráfico generado, se comparan con las estimaciones que resulta de aplicar Network Calculus a las curvas de servicio y llegada. Network Calculus resulta ser una herramienta que permite hacer estimaciones del peor caso, es por esto que el delay que se obtiene al ser aplicado Network Calculus es superior al delay medido. No se obtienen pérdidas de paquetes para ver si las estimaciones de backlog, que entrega el Network Calculus, son las correctas. Esto se debe principalmente a la gran capacidad de transmisión que tienen los routers. Como posibles futuros trabajos tenemos: realizar escenarios de pruebas más complejos; aplicar Network Calculus a otros tipos de tráficos; utilizar diversas políticas de encolamiento en los routers y una mejora en la estimación en la curva de servicio de los routers.
Meyer-Pantin, Thomas Alex. "Análisis comparativo de cookies y la protección de datos personales." Tesis, Universidad de Chile, 2004. http://www.repositorio.uchile.cl/handle/2250/107493.
Full textTodo usuario de Internet se ha visto enfrentado alguna vez a mensajes de correo no solicitados, y se ha preguntado de qué modo el remitente obtuvo su cuenta de correo, como también le ha llamado la atención la atractiva oferta contenida en el mensaje. Más comunes aún, son los afiches de propaganda que aparecen en las páginas web, los cuales casi siempre se relacionan a la edad, sexo, e intereses del usuario. Por ejemplo, ofertas de suscripción a sitios eróticos aparecerán en los afiches publicitarios virtuales cuando el navegante sea hombre. La razón es muy sencilla, los publicistas saben quién es el navegante y donde se encuentra. ¿Cómo logran esto los comerciantes electrónicos y los publicistas de internet? A través de una tecnología denominada “cookies”, un fichero de texto que algunos servidores piden a nuestro navegador que escriba en nuestro disco duro, con información acerca de lo que hemos estado haciendo por sus páginas. En otras palabras, las cookies constituyen una potente herramienta empleada por los servidores Web para almacenar y recuperar información acerca de sus visitantes. Dado que el Protocolo de Transferencia de Hipertexto (http) es un protocolo sin estados (no almacena el estado de la sesión entre peticiones sucesivas), las cookies proporcionan una manera de conservar información entre peticiones del cliente, extendiendo significativamente las capacidades de las aplicaciones cliente/servidor basadas en la Web. Mediante el uso de cookies se permite al servidor Web recordar algunos datos concernientes al usuario, como sus preferencias para la visualización de las páginas de ese servidor, nombre y contraseña, productos que más le interesan, etc. De este modo, los publicistas virtuales utilizan la información recabada por la cookie para establecer un perfil del usuario basado en las páginas que visita más frecuentemente, y consiguientemente, utiliza ese perfil para presentarle avisos virtuales al usuario cada vez que se conecte, como también para enviarle correo con ofertas de productos
Pérez, Rodríguez Karla Milagros. "Utilización del análisis envolvente de datos en la seguridad ciudadana." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/1519.
Full text-- Data Envelopment Analysis (DEA) developed for Charnes, W Cooper and Rhodes, is a method not paramétrico, based on linear programming, to measure the productivity and the relative efficiency of units of organization. DEA's fundamental goal is to find a border of efficiency, formed by those combinations of resources that optimize the quantity of made products minimizing the costs of production, and from this border, to evaluate the relative efficiency of the combinations of resources that do not belong(concern) to the same one. In this work there will appear the efficiency of the Civil Security of the different districts of Metropolitan Lima using DEA where I use the program Frontier Analyst for the corresponding analysis.
Tesis
Lopes, Adão Baptista Pereira. "Aplicação de técnicas de business intelligence a base de dados prosopográficas." Master's thesis, Universidade de Évora, 2017. http://hdl.handle.net/10174/22072.
Full textAguilar, Saborit Josep. "Técnicas para la mejora del join paralelo y del procesamiento de secuencias temporales de datos." Doctoral thesis, Universitat Politècnica de Catalunya, 2006. http://hdl.handle.net/10803/5995.
Full textLos Sistemas Gestores de Bases de Datos (SGBDs) son las herramientas con las que se gestiona la información almacenada en una Base de Datos, ya sea para realizar consultas, actualizaciones o modificaciones. Los SGBDs se han convertido en una importante fuente de investigación y desarrollo encaminada a encontrar nuevas técnicas que hagan de los mismos unas herramientas lo más eficientes posible.
Dentro del álgebra relacional, la operación más compleja y costosa de llevar a cabo por un SGBD, es la operación de join. Los métodos más conocidos y extendidos en la literatura para una ejecución rápida y eficaz de esta operación, son: Merge Sort Join, Nested Loop Join, Hash Join. Las dos primeras, para una ejecución eficiente, requieren de un cierto orden en los datos de sus relaciones fuente. Esto implica una ordenación previa o bien el soporte de una estructura auxiliar que de por si mantenga el orden de dichos datos. Por el contrario, la operación Hash Join no precisa de ningún orden sobre las relaciones fuente y utiliza hashing sobre los datos para resolver el join. Hash Join es una de las operaciones más utilizadas por los SGBDs y ha sido un importante foco de investigación con el fin de explotar al máximo sus posibilidades.
Esta Tesis presenta cinco ténicas. Cuatro de ellas están destinadas a mejorar el rendimiento de la operación de join en SGBDs paralelos, tanto en configuraciones paralelas con recursos compartidos, como en configuraciones paralelas sin recursos compartidos. La última técnica, y que abarca un denso capítulo de la Tesis, presenta nuevas estructuras para representar de forma eficiente en espacio y tiempo secuencias temporales de datos.
Todas las técnicas presentadas han sido publicadas. Los respectivos artículos también se adjuntan al final de esta documentación. Las referencias a dichos artículos se pueden consultar en el último apéndice de la Tesis.
Giner, Bosch Vicent. "Precontrol óptimo. Caracterización, análisis y técnicas de resolución." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/46373.
Full textGiner Bosch, V. (2014). Precontrol óptimo. Caracterización, análisis y técnicas de resolución [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/46373
TESIS