To see the other types of publications on this topic, follow the link: Procesamiento electrónico de datos.

Dissertations / Theses on the topic 'Procesamiento electrónico de datos'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Procesamiento electrónico de datos.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cárdenas, Cruz Carlos Alberto. "Procesamiento de datos, diseño y construcción de un analizador electrónico de rugosidad de pavimentos." Universidad Nacional de Ingeniería. Programa Cybertesis PERÚ, 2007. http://cybertesis.uni.edu.pe/uni/2007/cardenas_cc/html/index-frames.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Villalobos, Luengo César Alexis. "Análisis de archivos Logs semi-estructurados de ambientes Web usando tecnologías Big-Data." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/140417.

Full text
Abstract:
Magíster en Tecnologías de la Información<br>Actualmente el volumen de datos que las empresas generan es mucho más grande del que realmente pueden procesar, por ende existe un gran universo de información que se pierde implícito en estos datos. Este proyecto de tesis logró implementar tecnologías Big Data capaces de extraer información de estos grandes volúmenes de datos existentes en la organización y que no eran utilizados, de tal forma de transformarlos en valor para el negocio. La empresa elegida para este proyecto se dedicada al pago de cotizaciones previsionales de forma electrónica por internet. Su función es ser el medio por el cual se recaudan las cotizaciones de los trabajadores del país. Cada una de estas cotizaciones es informada, rendida y publicada a las instituciones previsionales correspondientes (Mutuales, Cajas de Compensación, AFPs, etc.). Para realizar su función, la organización ha implementado a lo largo de sus 15 años una gran infraestructura de alto rendimiento orientada a servicios web. Actualmente esta arquitectura de servicios genera una gran cantidad de archivos logs que registran los sucesos de las distintas aplicaciones y portales web. Los archivos logs tienen la característica de poseer un gran tamaño y a la vez no tener una estructura rigurosamente definida. Esto ha causado que la organización no realice un eficiente procesamiento de estos datos, ya que las actuales tecnologías de bases de datos relaciones que posee no lo permiten. Por consiguiente, en este proyecto de tesis se buscó diseñar, desarrollar, implementar y validar métodos que sean capaces de procesar eficientemente estos archivos de logs con el objetivo de responder preguntas de negocio que entreguen valor a la compañía. La tecnología Big Data utilizada fue Cloudera, la que se encuentra en el marco que la organización exige, como por ejemplo: Que tenga soporte en el país, que esté dentro de presupuesto del año, etc. De igual forma, Cloudera es líder en el mercado de soluciones Big Data de código abierto, lo cual entrega seguridad y confianza de estar trabajando sobre una herramienta de calidad. Los métodos desarrollados dentro de esta tecnología se basan en el framework de procesamiento MapReduce sobre un sistema de archivos distribuido HDFS. Este proyecto de tesis probó que los métodos implementados tienen la capacidad de escalar horizontalmente a medida que se le agregan nodos de procesamiento a la arquitectura, de forma que la organización tenga la seguridad que en el futuro, cuando los archivos de logs tengan un mayor volumen o una mayor velocidad de generación, la arquitectura seguirá entregando el mismo o mejor rendimiento de procesamiento, todo dependerá del número de nodos que se decidan incorporar.
APA, Harvard, Vancouver, ISO, and other styles
3

González, Ulloa Alonso Emilio. "Efficient non-interactive zero-knowledge Proofs." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144465.

Full text
Abstract:
Doctor en Ciencias, Mención Computación<br>Non-Interactive Zero-Knowledge (NIZK) proofs, are proofs that yield nothing beyond their validity. As opposed to the interactive variant, NIZK proofs consist of only one message and are more suited for high-latency scenarios and for building inherently non- interactive schemes, like signatures or encryption. With the advent of pairing-based cryptography many cryptosystems have been built using bilinear groups, that is, three abelian groups G1,G2,GT oforderqtogetherwithabilinear function e : G1 × G2 → GT . Statements related to pairing-based cryptographic schemes are naturally expressed as the satisfiability of equations over these groups and Zq. The Groth-Sahai proof system, introduced by Groth and Sahai at Eurocrypt 2008, provides NIZK proofs for the satisfiability of equations over bilinear groups and over the integers modulo a prime q. Although Groth-Sahai proofs are quite efficient, they easily get expensive unless the statement is very simple. Specifically, proving satisfiability of m equations in n variables requires sending as commitments to the solutions Θ(n) elements of a bilinear group, and a proof that they satisfy the equations, which we simply call the proof, requiring additional Θ(m) group elements. In this thesis we study how to construct aggregated proofs i.e. proofs of size independent of the number of equations for different types of equations and how to use them to build more efficient cryptographic schemes. We show that linear equations admit aggregated proofs of size Θ(1). We then study the case of quadratic integer equations, more concretely the equation b(b − 1) = 0 which is the most useful type of quadratic integer equation, and construct an aggregated proof of size Θ(1). We use these results to build more efficient threshold Groth-Sahai proofs and more efficient ring signatures. We also study a natural generalization of quadratic equations which we call set-membership proofs i.e. show that a variable belongs to some set. We first construct an aggregated proof of size Θ(t), where t is the set size, and of size Θ(logt) if the set is of the form [0,t − 1] ⊂ Zq. Then, we further improve the size of our set-membership proofs and construct aggregated proofs of size Θ(log t). We note that some cryptographic schemes can be naturally constructed as set-membership proofs, specifically we study the case of proofs of correctness of a shuffle and range proofs. Starting from set-membership proofs as a common building block, we build the shortest proofs for both proof systems.<br>Este trabajo ha sido parcialmente financiado por CONICYT, CONICYT-PCHA/Doctorado Nacional/2013-21130937
APA, Harvard, Vancouver, ISO, and other styles
4

Cantera, Salazar Mirella, and Cañari Cindy Susan Salazar. "Data mart para el análisis de información de clientes y sus facturaciones en una empresa de telecomunicaciones del Perú." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/11876.

Full text
Abstract:
Desarrolla una solución de inteligencia de negocio (BI) que resuelva los problemas de explotación de información de clientes y sus facturaciones, en el Área de Administración y Finanzas de una empresa de Telecomunicaciones del Perú, para llevar a cabo un adecuado análisis de información, entregando una herramienta automática para la generación de los reportes solicitados por la Gerencia General en la toma de decisiones. Para seleccionar la solución de BI más opta a las necesidades de la empresa, se realizó un análisis comparativo con otras investigaciones similares, obteniéndose como resultado el desarrollo de un Data Mart aplicando la metodología propuesta por Gill Harjinder y Rao Prakash.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
5

Palma, Pradena Camilo Pablo Antonio. "Visualización espacio/temporal de eventos noticiosos." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113917.

Full text
Abstract:
Ingeniero Civil en Computación<br>Todos los días y a toda hora ocurren eventos en el mundo. Los eventos importantes pasan a ser noticia y generan contenido en la Web. La motivación de este trabajo es visualizar este tipo de datos, mediante la construcción de una aplicación, para saber qué ocurre en un determinado intervalo de tiempo y a su vez utilizar esta herramienta para investigación de datos estructurados de noticias. Para ello fue necesario investigar cómo visualizar eventos, para entregar de manera efectiva la información de estas noticias. También, analizar las distintas fuentes de datos de noticias disponibles en la web, como Google News y Feedzilla, para poder recolectar datos y validar una solución. Además, se modeló un diseño de base de datos que permite unificar la estructura de los datos de distintas fuentes. Se desarrolló una aplicación web llamada Eventsvis capaz de visualizar datos estructurados de noticias, en la que se muestra la relevancia, ubicación, categoría y fecha en la que ocurren estas noticias. También, se desarrollaron dos módulos capaces de recolectar noticias tanto de la API de Google News como de la API de Feedzilla. Además, esta información se enriqueció con información adicional que no era entregada por las fuentes, como la ubicación de las noticias y keywords del contenido de estas. Finalmente se pudo automatizar la recolección de noticias mediante un cron. Como resultado de la solución desarrollada, se pudo obtener información adicional de los conjuntos de datos solamente observando la visualización. Se determinó que ciertas categorías son más difíciles de georeferenciar que otras, también que en ciertos intervalos de tiempo no se recolectaban datos y que ciertas ubicaciones poseen más noticias que otras. Al mismo tiempo, se construye una herramienta capaz de mostrar los eventos ocurridos en un intervalo de tiempo. Finalmente, se discute cómo sería posible extender este trabajo o reutilizar este trabajo para utilizar otras fuentes de datos.
APA, Harvard, Vancouver, ISO, and other styles
6

Caldas, Correa Ruth. "Aplicación del voto electrónico en el Perú. Un análisis de las ventajas y limitaciones del voto electrónico sobre el modelo tradicional de elección popular." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/11875.

Full text
Abstract:
El Voto Electrónico es un tema que se viene madurando dentro de un proceso de modernización del Estado y de perfeccionamiento de la democracia. Es por ello que la Oficina Nacional de Procesos Electorales (ONPE), viene implementando este mecanismo de elecciones de manera gradual y progresiva a pedido de los primeros poderes del Estado y del pueblo. La presente investigación toma como punto de partida el conocer las ventajas y a la vez las limitaciones que pueda proporcionar la implementación del voto electrónico, así como el impacto social, la confianza y las facilidades a las cuales debe estar inmiscuida la población.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
7

Jara, Pinochet Rodolfo Alejandro. "Uso de modelos en OpticStudio (Zemax) para caracterizar el perfil de luz de imágenes astronómicas." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144119.

Full text
Abstract:
Ingeniero Civil en Computación<br>La luz visible es la única parte de la radiación electromagnética que es reconocida como un estímulo detectable en el sistema visual humano. Para mejorar la capacidad de observar imágenes astronómicas se han desarrollado grandes y precisos telescopios. Asimismo, la sensibilidad de las observaciones actualmente ha mejorado al usar detectores CCD (Charge- Coupled Device), que recogen fotones y convierten a formato digital la información que se recibe del objeto astronómico en observación. A partir de modelos en OpticStudio (modelos ópticos) se simularon PSFs (Point Spread Function) en dispositivos CCD y se verifico que las simulaciones realizadas producían una respuesta igual de buena como la predicha por la teoría de aberraciones clásica. Como información de contexto se explican conceptos de óptica, Point Spread Function (PSF), modelos de telescopios, una descripción pormenorizada de los dispositivos CCD. Se describe las funciones atingentes a la generación de una PSF a partir de un modelo óptico en el software OpticStudio y se explica cómo se llegó al código (en Matlab) utilizado para realizar las simulaciones. Del modelo en OpticStudio se exportaba la grilla de datos de la Huygens PSF a Matlab, donde se integraba, se asignaba a los pixeles del CCD y se agregaban las fuentes de ruido para producir las simulaciones, de las cuales se producían cientos o miles de realizaciones que eran exportadas en formato fits, las cuales eran posteriormente procesadas por un conjunto de rutinas en un ambiente de reducción de datos astronómico (donde los datos astronómicos son manipulados para obtener la información útil al astrónomo). Dentro de las simulaciones se realizaron variaciones desviando el eje óptico (como si el espejo se inclinara) y se compararon dichas variaciones con modelos teóricos, los cuales concordaron en alta medida con la teoría de las aberraciones (coma y astigmatismo), demostrando la utilidad de usar esta forma de estudiar dispositivos ópticos para reproducir efectos ópticos producidos en espejos parabólicos y esféricos (dado que estos son de uso frecuente en astronomía) y así caracterizar el perfil de luz de imágenes astronómicas.<br>Este trabajo ha sido parcialmente financiado por Proyecto FONDECYT N° 1151213
APA, Harvard, Vancouver, ISO, and other styles
8

Cano, Delgado Ignacio. "Clasificación fotométrica de supernovas." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143348.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>Entre los desafíos mas importantes para la cosmología actual se encuentran la expansión y composición del universo. Una de las herramientas mas útiles para la investigación en estos campos son las supernovas de tipo Ia, eventos de gran liberacion energetica que siguen al colapso de una estrella en un sistema binario, esto debido a que las caracteristicas de esta explosión permiten calcular distancias en base a su corrimiento al rojo. El problema es que su identificación y clasificación es un problema no trivial, y el método clasico, el espectroscópico, resulta incapaz de adaptarse al rápido aumento en la información disponible, proveniente de sondeos de última generación. Por lo que resulta de gran importancia encontrar la forma de aprovechar al máximo la información fotométrica, mucho mas abundante que la espec- troscópica. El objetivo de esta memoria es diseñar una metodología para la clasificación de supernovas tipo Ia, que entregue resultados competitivos con los presentes en la literatura, esto mediante la aplicación de correntropía mutua ranurada, una medida discreta de disi- militud, sobre la información fotométrica de estas. Se generan matrices de disimilitud para cada uno de los filtros disponibles (griz ) y se prueban diferentes métodos para la combina- ción de esta información. Se explora el efecto de añadir la información de corrimiento al rojo fotométrico (photo-z ) y la forma de introducirla al proceso de clasificación. La clasificación es realizada utilizando tres implementaciones diferentes de algoritmos de vecinos cercanos (K-nearest neighbours, weighted K-nearest neighbours, y distance-weighted K-nearest neigh- bours). La base de datos utilizada corresponde a la versión corregida de un set de supernovas simuladas creada con motivo del Supernova Photometric Classification Challenge (SNPCC), que contiene la información fotométrica de cerca de 21000 supernovas. El entrenamiento se realiza utilizando un conjunto de 1100 objetos cuya clase ha sido espectroscópicamente confirmada, este subconjunto intenta simular las condiciones de captura esperables (e.g. dis- tribución no representativa de clases, preferencia por objetos mas brillantes) y por lo tanto se ha decidido mantenerlo. Tambien se exploran los resultados obtenidos al utilizar una versión de este conjunto modificada para tener una distribución mas representativa, tanto en ter- minos de clases como de corrimiento al rojo. Se obtiene pureza = 0.556(0.824), eficiencia = 0.567(0.307), y FoM = 0.167(0.187) utilizando el conjunto espectroscópicamente confirmado (en su versión modificada) para el entrenamiento.
APA, Harvard, Vancouver, ISO, and other styles
9

Toro, Valdivia Jorge Francisco. "Herramienta ETL para Logs de procesos." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/142422.

Full text
Abstract:
Ingeniero Civil en Computación<br>Hoy en día las empresas nacen como respuesta a distintos problemas o desafíos entregando diversas de soluciones, las cuales se llevan a cabo ejecutando una serie de procesos. Estos pueden estar definidos formalmente o se van construyendo de forma natural a partir de la forma en que las personas abordan los problemas. Por esto, se hace fundamental poder realizar distintos análisis sobre dichos procesos, en especial descubrir cómo se llevan a cabo en forma real. Estos análisis nos permiten optimizar, mejorar, transformar estos procesos permitiendo a las empresas y grupos de trabajo evolucionar. Muchos de estos análisis, y los programas que los implementan, suelen ser de alta complejidad y tienden a tomar datos de los procesos en formatos específicos. Esto ocasiona que los registros de datos, también conocidos como logs de procesos, deban adaptarse a dichos formatos y por consiguiente a las herramientas y/o personas que los generan. Otra opción, es realizar un desarrollo sobre los programas de análisis para que puedan aceptar un nuevo formato, lo que tiene un costo proporcional a la complejidad del software. Es por esto que se propuso una nueva opción: desarrollar una herramienta ETL intermediaria que nos permita transformar logs desde distintos formatos a un formato utilizado por programas de descubrimientos de procesos u otros tipos de análisis relacionados. Se logró desarrollar una aplicación que, a través de una GUI, permite hacer distintas transformaciones desde bases de datos y planillas Excel al formato XES, el cual es usado por varios programas de descubrimiento de procesos. Esta aplicación permite al usuario configurar sus conversiones eligiendo los datos de origen así como su tipo. Este programa fue validado a través de distintas pruebas, utilizando datos reales y un programa que realiza descubrimientos de procesos sobre archivos XES. Este desarrollo ha permitido abarcar una amplia gama de formatos sin tener que modificar datos ni los otros programas que los utilizaban, permitiendo que diversos procesos puedan ser estudiados y mejorados.<br>Este trabajo ha sido parcialmente financiado por Proyecto Gems.
APA, Harvard, Vancouver, ISO, and other styles
10

Mahú, Sinclair Rodrigo Manuel. "Caracterización de exoplanetas mediante técnicas de procesamiento de señales y método de las velocidades radiales." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/141037.

Full text
Abstract:
Ingeniero Civil Electricista<br>El método de las velocidades radiales permite la detección de planetas en otros sistemas solares, al obtener las características y configuración del sistema planetario. Esto es usualmente realizado por métodos secuenciales, que no garantizan obtener una solución global del problema. Una distorsión en la primera señal detectada, en conjunto con la ventana de muestreo no uniforme pueden causar la aparición de componentes artificiales. En este trabajo se desarrolló un método para encontrar una solución global del problema. Determinando tanto el número de componentes como las características de estas. Para esto se implementó dos programas en C, que en conjunto permitirán determinar las características y configuración de sistema. Estos se evalúan tanto en la validez de los resultados que entregan, como de la eficiencia computacional de los mismos. Para la validación se utilizó señales reales proporcionadas por astrónomos y señales artificiales. Se muestra como el periodograma basado en MMSE entrega resultados comparables con los del periodograma Lomb Scargle. Entregando además los parámetros de las componentes detectadas. Se utilizó un análisis de grilla para detectar la configuración del sistema y refinar las soluciones.
APA, Harvard, Vancouver, ISO, and other styles
11

Peña, Álvarez Gerardo Andrés. "Diseño e implementación de un algoritmo de pre-procesamiento de datos sísmicos en túneles utilizando fuentes sísmicas controladas." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144471.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>Las crecientes necesidades energéticas, de conectividad y de extracción de minerales, además del aumento de las exigencias medioambientales hacen del uso de túneles una buena alternativa al momento de desarrollar un proyecto. Construir túneles no es una tarea fácil, el riesgo que conlleva el excavar en roca y mantener la estructura sin que se colapse por el peso del sitio, requiere de estudios acabados de la geología del lugar antes y durante la construcción del túnel. Es en estos estudios donde se utilizan sondajes junto con las técnicas de prospección sísmica. En este trabajo de título se estudió un método de prospección sísmica el cual utiliza cargas explosivas como fuentes sísmicas controladas y acelerómetros para registrar las ondas reflejadas por estructuras geológicas que se encuentran más adelante de la cara del túnel, método probado y utilizado por una empresa privada, la cual no entrega información a fondo del funcionamiento del sistema por motivos comerciales. Durante el estudio del método, se generó un algoritmo de pre-procesamiento de trazas sísmicas obtenidas en túneles que hace filtrados secuenciales de las señales y las prepara para aplicarles tomografía y estimar las estructuras geológicas en la sección del túnel que no ha sido excavada. El algoritmo de pre-procesamiento generado se aplicó a dos conjuntos de datos sísmicos obtenidos en un túnel, en dos niveles de avance consecutivos. Los resultados obtenidos se compararon con un software comercial obteniéndose en la mayoría de los pasos aplicados resultados similares o mejores al software comercial, lo cual indica que el estudio realizado puede ser utilizado para desarrollar un nuevo producto, que entregue de manera confiable y segura, la información que los profesionales necesitan durante la construcción de túneles modernos. Finalmente, se deja a libre disposición de la comunidad docente y estudiantil el algoritmo diseñado, el cual da un primer paso en estudio del área de procesamiento de señales sísmicas en túneles y se motiva a la comunidad a continuar y perfeccionar el trabajo realizado, con el objetivo futuro de diseñar el hardware y software necesario para realizar las mediciones en terreno y representar los resultados de manera clara y transparente al operador.
APA, Harvard, Vancouver, ISO, and other styles
12

Calixto, Mejía Omar Rodolfo. "Participación de las empresas peruanas en el mercado electrónico minero : propuesta de un modelo de factores que afectan la participación y estrategias para su desarrollo." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2007. https://hdl.handle.net/20.500.12672/1158.

Full text
Abstract:
El presente estudio trata sobre la participación de las empresas peruanas en el Mercado Electrónico Minero (a partir de ahora MEM), identificando las razones que estimulan y amenazan su participación, basado en estudios realizados sobre los mercados electrónicos, el Intercambio Electrónico de Datos (EDI) y el análisis del sector minero peruano. La investigación valida el modelo de participación de empresas en los mercados electrónicos propuesto por Joost Buijsen (2003) en el contexto peruano, a través del análisis de encuestas realizadas a empresas compradoras y empresas proveedoras de bienes y servicios e involucradas en el sector minero peruano. Este modelo señala cuatro factores principales que influyen en la participación de las empresas: los beneficios percibidos (debido a la positiva percepción que las organizaciones tienen de la tecnología de información), las amenazas percibidas (debido a la negativa percepción que las organizaciones tienen de la tecnología de información), la preparación organizacional (debido al nivel de capacidad de la tecnología de información y disponibilidad de recursos en la organización), y presión externa (debido a la débil posición de la organización en el mercado). Posteriormente se formula estrategias para fomentar la participación de las empresas peruanas en el MEM y finalmente se presenta las conclusiones y recomendaciones del presente estudio.<br>This study deals with on the participation the enterprise peruvians, in the Mining Electronic Market (from now on MEM) identifying the reasons that stimulate and threaten their participation, based on studies made on the electronic marketplaces, the Electronic Interchange of data (EDI), and the analysis of the peruvian mining sector. The first part of the investigation is valued the model of participation of companies in the electronic markets proposed by Joost Buijsen (2003) in the peruvian context, through analysis of surveys made to buying companies and companies suppliers of goods and services and involved in the mining sector. This model indicates four factors main that they influence in the participation of the companies: benefits perceived (due to the positive perception which the organizations have of the information technology), the perceived threats (due to the negative perception that the organizations have of the information technology), the organizational preparation (due to the low levels of sophistication of the technology of information and the availability of resources of the organization), and external pressure (due to the weak position of the organization in the market). After prepare strategies to foment the participation of the peruvian companies in the MEM and finally one appears the conclusions and recommendations of the present study.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
13

Chávez, Barbaste Joaquín Gonzalo. "Análisis y modelos de datos de redes para seguridad informática." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/138269.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>Hoy en día son cientos los servicios que se ofrecen de manera virtual a través de Internet, muchas veces exigiendo la transferencia y almacenamiento de datos prioritarios o sensibles a través de las redes de comunicaciones. Esto obliga a que los factores de seguridad, estabilidad y confiabilidad de las plataformas sea un elemento clave a considerar en el desarrollo de las aplicaciones y, por lo tanto, la utilización de herramientas dedicadas a la prevención y detección de fallas de seguridad toma un rol crítico. Considerando lo anterior, este trabajo propone diseñar e implementar un ambiente de simulación de redes que permita explorar la aplicación de distintas técnicas de inteligencia computacional en tópicos de seguridad informática, enfocándose principalmente en la utilización de modelos autoregresivos integrales de media móvil (conocidos como ARIMA por su sigla en inglés) y la divergencia de Kullback-Leibler para la detección de ataques de denegación de servicio a un servidor web. Para esto se desarrolla una arquitectura representativa de un proveedor de servicios de Internet utilizando como plataforma el programa de simulación de redes conocido como GNS3 (Graphical Network Simulator 3), en donde se tienen tres routers, un simulador de clientes, una máquina atacante, un servidor web y una máquina dedicada a la recolección y análisis de datos, todos funcionando como máquinas virtuales dentro de un mismo computador principal. Utilizando este ambiente se ejecutan múltiples simulaciones de tráfico web para condiciones normales de operación y bajo ataque de denegación de servicio, obteniéndose series de tiempo de alrededor de doce horas de duración para capturar el comportamiento a nivel IP del tráfico durante períodos de volumen de usuarios con carga baja, media y alta. De esta manera se logra recolectar suficientes datos para poder realizar el análisis estadístico respectivo y la generación de modelos de predicción de tráfico y detección de ataques con la ayuda del lenguaje para análisis estadístico R. A partir de los resultados obtenidos se verifica la factibilidad de utilizar modelos ARIMA para la predicción del tráfico que fluye a través de los routers que conforman las vías troncales de la red y como herramienta complementaria de detección de cambios bruscos en el nivel de tráfico de subida a un servidor web. Además, se obtienen resultados exitosos para la utilización de la divergencia de Kullback-Leibler como mecanismo de detección de ataques de denegación de servicio, en base a los cambios bruscos de tráfico, permitiendo la detección dentro de los primeros cinco minutos de comenzada la falla. Este tipo de herramientas permitirían a los proveedores implementar sistemas inteligentes para la detección temprana de ataques de denegación de servicio dentro de su red, pudiendo aplicar maniobras de mitigación a tiempo y, por lo tanto, fortaleciendo la seguridad del sistema en su totalidad.
APA, Harvard, Vancouver, ISO, and other styles
14

Obregón, Núñez José Miguel. "Desarrollo de un sistema de adquisición de datos de temperatura para evaluación funcional de incubadoras / José Miguel Obregón Núñez." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2007. http://tesis.pucp.edu.pe/repositorio/handle/123456789/227.

Full text
Abstract:
El sistema de adquisición de datos de temperatura implementado provee la información de la temperatura en puntos específicos en el habitáculo de una incubadora neonatal. Estos datos son necesarios para realizar el ensayo especificado en la Norma IEC 601219.50.102 el cual determina la precisión de los datos de funcionamiento de la incubadora en lo que respecta a temperatura. El presente trabajo comienza con la revisión de los conceptos sobre medición de temperatura, tipos de sensores, los métodos para procesamiento de señales analógicas y las normas que determinan las características del equipo (rango de medición, precisión y número de puntos de medición). Se toma como referencia los ensayos realizados en el prototipo documentado en el proyecto Sistema de Supervisión Gráfica en 3D de Temperaturas en Tiempo Real de un Ambiente Cerrado y las observaciones encontradas durante su desarrollo para plantear el esquema general del sistema de adquisición de datos de temperatura. Éste se divide en dos partes: La unidad de sensado, en donde se realiza la adquisición y acondicionamiento de la señal del sensor y el módulo central de adquisición de datos, el cual tendría como finalidad servir de interfaz para establecer una comunicación entre las unidades de sensado y la computadora personal. Tiene también como función adicional, la alimentación de las unidades de sensado.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
15

Muñoz, Vildósola Caterina. "Implementación de un algoritmo distribuido de generación de claves RSA con umbral." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143565.

Full text
Abstract:
Ingeniera Civil en Computación<br>La presente memoria detalla el proceso de implementación de un algoritmo distribuido de generación de claves RSA umbral. RSA es un sistema criptográfico de clave privada. Esto significa que se requieren dos claves distintas para realizar las operaciones criptográficas: una privada y una pública. En un sistema RSA la clave privada consiste en un valor privado (llamado exponente de firma o desencriptación) mientras que la clave pública consiste en dos valores (el exponente de verificación o encriptación, más un valor denominado módulo ). En un sistema RSA tanto el exponente privado como la factorización del módulo deben mantener secretos para garantizar la seguridad. En RSA umbral, la operación privada está distribuida entre n nodos. De los n nodos mencionados, se requieren t para poder realizar una operación criptográfica privada de manera exitosa. Dado que la operación privada está distribuida, la clave privada también debe estarlo. Además, tanto la claves privadas como la factorización del módulo RSA deben seguir siendo secretos. Dado lo anterior, al momento de generar las claves ningún nodo debe tomar conocimiento ni de las claves privadas ajenas, ni de la factorización del módulo RSA. El trabajo de esta memoria consistió en implementar el algoritmo de generación distribuida de claves RSA umbral propuesto por D. Boneh y M. Franklin. Dicho algoritmo logra generar un módulo RSA y un conjunto de claves privadas umbral sin que ningún nodo obtenga información sobre la factorización del módulo ni sobre las claves ajenas. A diferencia de trabajos previos, el algoritmo logra lo anterior sin requerir de un actor confiable que genere y distribuya las claves. Cabe destacar que el tiempo de ejecución del algoritmo es aleatorizado, por lo que no se puede predecir cuánto tomará en ejecutarse. A pesar de lo anterior, hay un tiempo de ejecución esperado. Se realizaron pruebas que comprobaron que la implementación estaba correcta y se comportaba de acuerdo a lo especificado en el algoritmo original. Además, se pudo comprobar que el promedio de los tiempos de ejecución medidos fueron menores al tiempo de ejecución esperado.<br>Este trabajo ha sido parcialmente financiado por Nic Chile Research Labs
APA, Harvard, Vancouver, ISO, and other styles
16

Muñoz, Gallardo Sebastián Andrés. "Datos biométricos y derechos fundamentales." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/145203.

Full text
Abstract:
Memoria (licenciado en ciencias jurídicas y sociales)<br>La presente investigación efectúa un análisis de la situación normativa y fáctica en la que se encuentran los datos biométricos en Chile. Para esto, el trabajo se desarrolla a través de diversos capítulos. El primero de ellos explica a grandes rasgos en qué consisten y para qué se utiliza la información biométrica, tomando en consideración los avances tecnológicos e informáticos desarrollados a nivel mundial. En segundo lugar, se abordan las problemáticas jurídicas que estos datos representan, enfocado principalmente en las diversas relaciones que estos tienen con derechos fundamentales. El tercer capítulo analiza cuál es la protección que nuestro ordenamiento jurídico ofrece a este tipo de información, para finalmente pasar a analizar, en el cuarto y último capítulo, acerca de la situación y protección ofrecida por otros países de América y Europa, a esta problemática específica.
APA, Harvard, Vancouver, ISO, and other styles
17

Tenorio, Gonzales Candy Veronica. "Guía gerencial para la construcción de un Datamart electoral utilizando la metodología de Ralph Kimball." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/9601.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Presenta una guía gerencial para la construcción de un Datamart mediante la metodología de Ralph Kimball, para la toma de decisiones que sea capaz de brindar información estadística relevante de manera fácil, oportuna y consolidada. Una de las características de una sociedad demócrata es su poder de elegibilidad, por lo que los procesos electorales ocupan un lugar importante en el espacio político y en los que administran dicha información. Finalizado el sufragio y la contabilización de actas, se generan indicadores que serán solicitados por los diversos órganos que conforman la Institución responsable de los procesos electorales así como las entidades veedoras.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
18

Zumaeta, Rivera Luis Alejandro. "Sistema integral de historias clínicas electrónicas utilizando tecnología clúster para la especialidad de pediatría." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2012. https://hdl.handle.net/20.500.12672/12150.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Describe la implementación de un sistema de información el cual permitirá gestionar historias clínicas electrónicas para la especialidad de pediatría garantizando la integridad, confidencialidad y disponibilidad de la información de salud del niño. Este sistema permitió a los profesionales de salud tener el rápido acceso de la información histórica del niño en el momento preciso y así asegurar una atención personalizada y de calidad. Para la implementación de este sistema, el cual integrará las historias clínicas pediátricas se utilizará tecnología clúster por su alto rendimiento, escalabilidad y economía. En este sentido, el modelo establecido permitirá consolidar y optimizar un conjunto de circuitos de comunicación entre la Atención Primaria y Especializada, como son: citas previas, informe de interconsulta de alguna especialidad, solicitud y resultados de pruebas de laboratorio e imagen, transferencias a distintos centros hospitalarios, logrando así obtener la información necesaria para garantizar la calidad de atención de salud del niño.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
19

Carrasco, Chanamé Victor Eduardo. "La calidad de los datos como un valor de activo diferencial." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/8797.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>El documento digital no refiere asesor<br>Propone un modelo de calidad de datos que permita evaluar y mejorar la calidad de los datos en aquellas organizaciones en las que se utilizan diferentes fuentes de base de datos con la misma información, pero con contenido diferente, lo cual no les permite tomar decisiones en forma correcta y oportuna. Específicamente se busca desarrollar un enfoque sistemático, disciplinado y estructurado que se apoye en el modelo propuesto, y que provea las pautas y guías para que la aplicación del modelo de calidad de datos pueda ser repetible y generalizable sobre los datos de cualquier organización. Otro objetivo planteado es mostrar que producto del creciente avance tecnológico relacionado con los datos y la información las organizaciones que deseen estar a la vanguardia deben utilizar un mecanismo que garantice la calidad de los datos apoyados en un modelo como el propuesto en este trabajo. Para la realización del presente trabajo hemos utilizado el método científico, y el tipo de investigación utilizado es de tipo aplicada, que se caracteriza por su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos. La investigación aplicada busca el conocer para hacer, para actuar, para construir, para modificar.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
20

García, Abarca Wily John. "Expediente judicial digitalizado (expediente electrónico) en el ámbito del desarrollo de los procesos de alimentos." Master's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7353.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>El documento digital no refiere asesor<br>Determina en qué medida la ejecución de un expediente judicial digitalizado incidiría en la optimización del proceso de alimentos para facilitar el acceso a la tutela jurisdiccional de los alimentistas. Describe la realidad de los procesos de alimentos y la incidencia en la carga procesal. Desarrolla una investigación descriptiva, correlacional y transversal, dado que no se manipulan las variables y se desea obtener datos fidedignos de la realidad. La muestra está compuesta por 100 operadores jurídicos especialistas en juzgados de Paz letrado de Lima y abogados. Concluye en la existencia de una relación significativa entre la ejecución de un expediente judicial digitalizado (electrónico) en la optimización del proceso de alimentos para facilitar el acceso a la tutela jurisdiccional de los alimentistas, en la existencia de una relación significativa entre la exagerada duración de los procesos de alimentos, que agrava la situación de los hijos alimentistas, el cual no encuentra los medios para hacer cumplir al padre sus derechos que le corresponde, y pone en peligro su propia subsistencia; y en la existencia de una relación significativa entre la implementación de un expediente judicial digitalizado en el proceso de alimentos, que estaría acorde a un proceso de tutela a favor de menores, principalmente a raíz de la evaluación del interés superior del niño.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
21

Maguiña, Huerta Ciro Daniel. "Implementación de un sistema de información para la explotación de datos y apoyo para la mejora de la toma de decisiones basada en tecnologías de inteligencia empresarial - almacén de datos del censo y encuestas." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/10096.

Full text
Abstract:
Describe la implementación de un sistema de información para la explotación de datos y apoyo a la mejora en la toma de decisiones en base a sistemas de inteligencia de negocios, Data Warehouse de censos y encuestas para el Instituto Nacional de Estadística e Informática (INEI), adecuando los estándares de desarrollo internacional de la ISO/NTP 12207, PMBOK, RUP y de los protocolos internaciones de SMMX y de los tipos de meta data indicados por el sistema estadístico internacional establecido por las convenciones de Ginebra, Suiza, los cuales rigen para todos los institutos de estadística de la región. El problema que se identificó fue que el INEI en el año 2008, detecta en sus procesos de explotación de los datos y de la necesidad de brindar información de la información a los tomadores de forma ágil y versátil. Ante eso, básicamente los objetivos que se plantearon y alcanzaron fueron: diseñar, desarrollar e implementar un sistema de gestión de la información con el uso de las metodologías y tecnologías de inteligencia de negocios para el INEI de todas las fuentes de base de datos, específicamente para los datos del Censo de Población y Vivienda del 2007 y de los demás censos como Económico y Agropecuario, relacionando información de forma trasversal a todos ellos. Para ello, se identificaron procesos de desarrollo de software, adecuándolos a las buenas prácticas descritas en el modelo.<br>Trabajo de Suficiencia Profesional
APA, Harvard, Vancouver, ISO, and other styles
22

Molina, Tejada Gonzalo Andrés. "Sistema para Normalizar Bases de Datos de Aromas Medidos con Nariz Electrónica." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/104005.

Full text
Abstract:
No autorizada por el autor para ser publicada a texto completo<br>En este trabajo se desarrolla un sistema computacional, que permite normalizar bases de datos de aromas vitivinícolas medidos con una nariz electrónica, en momentos diferentes. Al comparar los perfiles se observan desplazamientos provocados por el envejecimiento de la columna cromatográfica y/o por el hecho de no haber seguido estrictamente el protocolo de limpieza de ella. Esto motiva implementar un método que elimine estos desplazamientos, para comparar la base de datos ajustada con la base original usando el criterio de cual tiene una distribución, que permita discriminar categorías dentro de ella de mejor manera. Para esto se estudian dos casos de normalización. En el primer caso se considera una base de datos construida entre los años 2004 y 2006 de 3330 perfiles, que presentan en diferentes zonas de la señal desplazamientos que varían­ entre distintos aromas. Se pretende ajustar estos desplazamientos a una referencia, para que todos los perfiles queden con la misma forma. Esta referencia es el perfil que tiene la forma que más se repite en la base. El propósito de hacer esto es comparar la capacidad de discriminación, que tiene un clasificador para separar la base de datos en categorías, cuando esta presenta corrimientos entre señales y cuando estos son eliminados. En el segundo caso se ajusta la base de datos descrita anteriormente a un aroma medido en 2009, que presenta un importante desplazamiento respecto a los perfiles en esta base. Esto se hace con el objetivo de entrenar un clasificador usando la base ajustada, para clasificar aromas con el tipo de corrimiento del perfil medido en 2009. Para construir los discriminadores se utilizan las herramientas de análisis: Máquina de Soporte Vectorial, Discriminante Lineal de Fisher y Transformada Wavelet. Se obtiene que la normalización de la base respecto a una referencia dentro de la misma, reduce levemente el rendimiento del clasificador utilizado. Se concluye que la normalización descrita en el primer caso no mejora el rendimiento del clasificador implementado. Por otro lado la normalización de la base respecto a un perfil medido en 2009, permite clasificar correctamente el 100% de los aromas probados, sin embargo este resultado no se puede generalizar, debido al escaso número de ejemplos con que se cuenta para validar el clasificador.
APA, Harvard, Vancouver, ISO, and other styles
23

Braga, Calderon Iván Miguel. "Diseño de una metodología para evaluar impacto en sistemas electrónicos de compras públicas. Aplicación al caso Chilecompra." Tesis, Universidad de Chile, 2008. http://www.repositorio.uchile.cl/handle/2250/111737.

Full text
Abstract:
Magíster en Ciencias de la Ingeniería, Mención Industrial<br>El uso del comercio electrónico entendido como el soporte a las relaciones de negocio utilizando tecnologías de información para apoyar los procesos de compras y contrataciones, ha sido ampliamente adoptado por los gobiernos desde el año 2000 en adelante. Sin embargo la complejidad asociada a este tipo de transformaciones, hace difícil el evaluar con claridad el impacto efectivo alcanzado por las distintas iniciativas desarrolladas. Confirma esta conclusión la escasa información disponible a nivel internacional, sobre el impacto logrado en este tipo de proyectos. En este contexto, la tesis se planteó como objetivo el diseñar una metodología que soporte la evaluación de los sistemas electrónicos de compras públicas, proponiendo un enfoque que permita una comprensión integral del impacto de estas iniciativas. Para validar su utilización, esta metodología se aplicó al caso de Chilecompra. El método propuesto se basa en 5 etapas, a través de las cuales se conduce el proceso de evaluación. Se inicia con una reconstrucción del diseño inicial del proyecto de compras públicas electrónicas (etapa A), para luego vincular este diseño con los resultados esperados (etapa B). Se realiza además un análisis de las limitaciones y restricciones asociadas al proceso de evaluación (etapa C). En la etapa D se desarrollan los métodos de evaluación específicos de acuerdo a los objetivos planteados para la iniciativa estudiada. Finalmente se sintetiza la evaluación y se extraen conclusiones (etapa E), para lo cual se analizan los resultados de la etapa D, desde la perspectiva del diseño y las expectativas iniciales. Para cada etapa, se proponen herramientas específicas que permiten apoyar el análisis de impacto para los objetivos más frecuentes en este tipo de iniciativas: el ahorro en precios, las mejoras de procesos y el aporte a la transparencia. La estructura del método es abierta, permitiendo adicionalmente la incorporación de otras herramientas y métodos de evaluación específicos, que contribuyan a la evaluación. La propuesta metodológica fue aplicada al caso de Chilecompra, confirmándose su capacidad para sintetizar el diseño original del proyecto, con sus múltiples objetivos y componentes y lográndose que tanto el método, como las herramientas, se adaptaran adecuadamente al caso, permitiendo la obtención de conclusiones. En esta aplicación, sobre la base de la evidencia analizada, se confirmaron impactos en los ámbitos originalmente buscados para la iniciativa: ahorros, eficiencia en los procesos, aporte a la transparencia e impulso al uso de tecnología en las empresas proveedoras. Si bien el método propuesto presenta algunas restricciones, que se discuten en la tesis, su aplicabilidad para analizar las iniciativas de compras públicas electrónicas es amplia, ya que permite desarrollar un proceso de evaluación en forma estructurada y flexible, gracias a que el diseño de las herramientas propuestas, soporta los objetivos y componentes presentes en la generalidad de este tipo de proyectos, considerándose además una forma de tratar objetivos particulares. Adicionalmente, la arquitectura general del método puede aplicarse también como marco de análisis de impacto de otras iniciativas públicas, aportando a los enfoques disponibles para este objetivo.
APA, Harvard, Vancouver, ISO, and other styles
24

Macedo, Pereira Alejandro. "Uso de una arquitectura basada en eventos como capa de comunicación para microservicios." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/16979.

Full text
Abstract:
La presente investigación tiene como enfoque presentar el uso de eventos para la comunicación entre servicios/aplicaciones en un sistema distribuido, como es el de microservicios. Aunque exista la posibilidad de usar APIs Rest como arquitectura de comunicación, esta cuenta con la gran desventaja de ser un intercambio de mensajes síncrono y que, en una arquitectura con un gran número de microservicios, estos mensajes consumen un gran ancho de banda por ser comunicaciones 1 a 1. Por lo tanto, este trabajo tiene como objetivos: definir el concepto de eventos y una arquitectura de comunicación basado en ellos para microservicios, presentar las dificultades y posibles soluciones que se presentan al implementar esta arquitectura; y, finalmente, compararlo con una arquitectura API Rest en cuanto a uso de recursos y overhead que se produce. Para lograr estos objetivos, se realizará una investigación bibliográfica.<br>Trabajo de investigación
APA, Harvard, Vancouver, ISO, and other styles
25

Morales, Yáñez Catalina Patricia. "Inversión del tensor de momento sísmico y función fuente temporal de terremotos utilizando registros de campo cercano." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/141056.

Full text
Abstract:
Magíster en Ciencias, Mención Geofísica<br>Obtener parámetros de la fuente sísmica a partir de datos sismológicos y/o geodésicos es de suma importancia en la caracterización de la fuente de terremotos, lo cual cobra especial relevancia en sistemas de monitoreo sísmico en tiempo real. Existen modelos y metodologías que permiten realizar estas inferencias asumiendo distintos niveles de complejidad en el modelo de la fuente sísmica. Sin embargo, la inversión simultánea del tensor de momento y función fuente temporal utilizando datos regionales y de campo cercano de terremotos es un tema poco estudiado. El obje- tivo principal de este trabajo es invertir la función fuente temporal y el tensor de momento sísmico utilizando datos sismológicos de campo cercano y regional. Para ello se planteó una metodología y se desarrolló una herramienta computacional propia, la cual se usó para estudiar parámetros de la fuente de sismos magnitud Mw > 6.0 ocurridos en la zona Norte de Chile. El código computacional se escribió en lenguaje de programación Python, el cual permite in- vertir el tensor de momento sísmico y la función fuente temporal usando registros de campo cer- cano. Para calcular las funciones de Green del medio se utilizaron los programas computacionales Computer Programs in Seismology (CPS). El programa de inversión lee las funciones de Green precalculadas y minimiza el error de ajuste entre los sismogramas sintéticos y observados usando el método de mínimos cuadrados para estimar las componentes del tensor de momento. La función fuente se parametrizó como la suma de funciones bases, donde las amplitudes de éstas son las in- cógnitas del problema. Para estimar la función fuente se aplicó la técnica de mínimos cuadrados no negativo con un término adicional de regularización que impone una condición de suavidad sobre la función fuente. El código realiza la búsqueda del mejor centroide espacial para el ajuste de los datos, para ello itera primero en latitud y longitud, fijando la profundidad, y una vez obtenidas las coordenadas óptimas realiza una segunda iteración esta vez en profundidad. La metodología se aplicó a eventos de la secuencia sísmica del terremoto de Pisagua del 2014, Mw 8.1, y a un evento ocurrido el 2011 a 130 km de profundidad en la zona de estudio. El análisis de las soluciones obtenidas de los eventos estudiados muestra que los resultados son confiables y robustos al compararlos con soluciones publicadas por agencias sismológicas, pudiéndose incluso obtener relaciones entre la función fuente y las características del evento tales como su magnitud o profundidad (superficial, en la zona de contacto o profundo). El método de inversión si bien posee algunas limitaciones que pueden ser mejoradas, logra recuperar el tensor de momento y la función fuente en forma robusta. Las diferencias observadas con otras soluciones se encuentran en el rango de error y se observa que la función fuente depende de la zona sismogénica en donde ocurre.
APA, Harvard, Vancouver, ISO, and other styles
26

Lobos, Morales Rodrigo Alejandro. "Application of statistical signal processing techniques in natural rock textures characterization and astrometry." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/135080.

Full text
Abstract:
Magíster en Ciencias de la Ingeniería, Mención Eléctrica<br>Ingeniero Civil Eléctrico<br>Tanto en ingeniería en minas como en astronomía existen problemas inversos en los cuales técnicas del procesamiento de señales juegan un rol importante al momento de procesar la información existente de manera óptima. En este trabajo de Tesis los problemas de clasifi- cación de texturas de roca y astronometría son abordados usando técnicas del procesamiento estadístico de señales. En ingeniería en minas es de gran importancia contar con una buena caracterización del subsuelo. Para ello diversas fuentes de información son utilizadas, encontrándose entre ellas la información visual de la textura de las rocas. Pese al amplio uso de estas fuentes para hacer inferencia del tipo de roca, no se ha logrado el desarrollo de técnicas de procesamiento computacional y automático que las implementen de manera exitosa. En este trabajo de tesis, seis clases de textura de roca son analizadas utilizando técnicas avanzadas del procesamiento de imágenes. Específicamente, para cada clase se propone la extracción de características especialmente diseñadas para esa clase. Las características propuestas ofrecen un alto poder discriminador y baja dimensionalidad. Adicionalmente, se propone un esquema de banco de detectores binarios con el fin de poner a prueba las características diseñadas. Finalmente, el desempeño de clasificación del método propuesto es comparado con métodos en el estado del arte de clasificación de texturas, mostrando ganancias importantes en cuanto a error de clasificación. El problema de astrometría corresponde a la determinación de la posición de astros me- diante dispositivos detectores, comúnmente CCDs (Charged Coupled Devices). Dichos dis- positivos presentan fuentes de ruido que afectan negativamente los métodos de localización. En este trabajo de tesis el método de mínimos cuadrados es analizado en detalle. En este contexto dicho método corresponde a un problema de regresión no lineal, por lo cual el desempeño o varianza del estimador resultante no puede ser caracterizado de manera aná- litica. Para ello se propone un método de aproximación de la varianza del estimador, que permite la comparación analítica con la cota de Cramér-Rao. Finalmente, análisis empíricos son desarrollados utilizando diversas configuraciones experimentales, encontrándose que, en determinadas condiciones de medición, el estimador es eficiente con respecto a la cota de Cramér-Rao.
APA, Harvard, Vancouver, ISO, and other styles
27

Toledo, Acuña Luis Esteban. "Gestión integral de productividades para el Departamento de Ciencias de la Computación." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/136188.

Full text
Abstract:
Magíster en Tecnologías de la Información<br>El Departamento de Ciencias de la Computación de la Universidad de Chile (DCC) cuenta con un programa de monitoreo de las actividades de todos sus funcionarios y académicos, con el cual se define las asignaciones económicas (productividades) de la gente que compone el Departamento. El programa de productividades actualmente funciona mediante un proceso artesanal, basado en transferencias de datos a través de emails y comunicaciones cara-a-cara. El procesamiento de estos datos también se realiza de forma manual (usando planillas Excel), pues no existe un sistema de software capaz de apoyar la gestión completa de dicho programa. Debido a la poca automatización de la solución actual, el proceso se vuelve susceptible a errores y poco visible para la mayoría de los involucrados. Por otra parte, las limitaciones de esta solución hacen difícil la extracción de estadísticas precisas, que permitan apoyar la toma de decisiones en este ámbito. Además, el costo de informar a los funcionarios y académicos acerca de sus productividades del mes en curso, o acerca de su historial de productividad, se vuelve sumamente alto. En resumen, el programa de productividades es actualmente un mecanismo susceptible a errores, y poco visible y accesible para la mayoría de los miembros del DCC. El propósito de este trabajo de tesis es diseñar e implementar una solución de software que le permita a este programa: (1) ser fácilmente accesible y visible para todos los involucrados; (2) realizar un manejo seguro y preciso de la información de productividades; (3) manejar la generación y entrega de información en forma online en base a perfiles de usuarios; y (4) generar estadísticas que permitan apoyar la toma de decisiones de las autoridades del DCC. De esa manera, se buscará mejorar parte de la gestión interna del Departamento, volviéndolo más robusto y transparente en un ámbito que es sumamente sensible para la gente.
APA, Harvard, Vancouver, ISO, and other styles
28

Arribasplata, Morales Nathaly Milagros. "Implementación de motor de limpieza de datos para la estandarización de los datos insumo del análisis de riesgos en una entidad del Estado." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/17038.

Full text
Abstract:
Las acciones de control aduanero de operaciones de comercio exterior deben garantizar la reducción de los delitos aduaneros, realizándose de manera oportuna, así como evitando sobrecostos en su ejecución. Debido al gran número de operaciones de importación y exportación realizadas en el Perú, el control físico de su totalidad es inviable, por lo cual adquiere suma importancia la gestión del riesgo de fraude aduanero, cuya finalidad consiste en seleccionar las mercancías a inspeccionar según el canal de control asignado como resultado del análisis e identificación del riesgo. Asimismo, la información que identifica a los principales participantes extranjeros de dichas operaciones es consignada durante el registro de la documentación aduanera en campos de formato libre – ya que no existe un catálogo unificado de personas jurídicas y naturales extranjeras – con datos no exactos. Dado que estos datos son insumo del análisis de riesgos, deben ser estandarizados previamente por un proceso de limpieza. Esto se realizaba de manera manual, impactando negativamente en la comunicación oportuna de posibles alertas de inmovilización de mercancía de riesgo. En este sentido, se implementó un motor de limpieza de datos que ha permitido al sistema de selección de carga de exportación para acciones de control extraordinario, disponer de manera ágil, de información estandarizada como insumo, contribuyendo en la disminución del tiempo de desfase en la comunicación de alertas de inmovilización y en la reducción del esfuerzo humano implicado en la gestión del riesgo. El motor de limpieza y sus módulos de mantenimiento han sido implementados con la metodología de desarrollo de sistemas de información propia de la Institución donde se realizó este proyecto, la cual utiliza el Lenguaje de Modelado Unificado (UML) y tiene similitud con el marco de trabajo del Proceso Unificado.
APA, Harvard, Vancouver, ISO, and other styles
29

Valeriano, Loli Enrique. "Implementación de una aplicación para el análisis y visualización de eventos en español usando extracción automática de ontologías." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13476.

Full text
Abstract:
La globalización y la aparición de diferentes tecnologías como las redes sociales han ocasionado que la información relacionada a noticias y eventos se propague de una manera más rápida. Ahora las empresas deben estar siempre pendientes a los datos generados para así ser más eficaces en su relación con ellos. Sin embargo, esta es una tarea difícil debido a la gran cantidad de datos y a la falta de procesos automáticos para analizar estos, sobre todo en el idioma español. Como objetivo de este proyecto, se busca brindar una aplicación la cual de manera automática pueda realizar análisis de datos de eventos en español y permitan visualizar los aspectos más importantes relacionados a estos datos. Para esto se implementarán algoritmos de Análisis de Formal de Conceptos y Análisis de Patrones Léxico-Sintácticos. Además, se usarán ontologías para poder estructurar la información recolectada a partir de los algoritmos. Se concluye que los algoritmos desarrollados permiten obtener las entidades y relaciones más relevantes encontradas en los datos con porcentajes relativamente altos de precisión y exhaustividad sobre todo usando datos limpios. Además, es posible mostrar la información recolectada de manera adecuada debido a la flexibilidad de las ontologías.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
30

Quiróz, Villalobos Lennin Paúl. "Implementación de una interfaz hardwaresoftware y sus módulos de supervisión y análisis de datos para un sistema de pesaje electrónico." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. http://cybertesis.unmsm.edu.pe/handle/cybertesis/10105.

Full text
Abstract:
Propone proveer a los instrumentos de medición, de capacidad de comunicación inalámbrica, así como implementar los módulos software de captura, análisis, supervisión y visualización de datos desde un computador remoto y una aplicación móvil. Para implementar la solución propuesta, se usó un módulo convertidor Serial-Wifi, para transmitir los datos hacia una PC remota, sockets cliente-servidor en lenguaje Java para el módulo de captura de datos, MongoDB para el módulo de almacenamiento y análisis de datos, LabVIEW para el módulo de supervisión y visualización, finalmente AppInventor para la aplicación móvil para el Sistema Operativo Android. Como resultado del presente proyecto, Miyake SCRL, teniendo la plataforma software como valor agregado, ha mejorado la demanda de sus equipos de medición y ha obtenido una ventaja competitiva al ser reconocida en su rubro como empresa innovadora y generadora de tecnología. Así mismo, las empresas clientes, también se han beneficiado, ya que la solución implementada permite alinear la tecnología con sus objetivos empresariales, disponiendo ahora de información útil y oportuna para sus procesos de control, auditoria y toma de decisiones.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
31

Ramiro, Cid Víctor Alejandro. "Un Modelo Abierto de Proximidad para el Descubrimiento de Servicios en Computación Pervasiva." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/102137.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Del, Carpio Gómez Diego Jason Danilo. "Elaboración de un plan de migración de servicios de recaudación de un sistema centralizado a un sistema distribuido orientado a servicios aplicado a una entidad bancaria peruana." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/8833.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Abarca la problemática desde el caso de estudio del negocio de la recaudación bancaria donde no existen experiencias para llevar a cabo una migración de sistemas de información centralizado que cumple las características de un sistema de información heredado a un sistema distribuido orientado a servicios. Es por ello que en este estudio se propone la elaboración de un plan de migración que abarque las consideraciones realizadas por los diferentes autores englobando los aspectos más importantes y definiendo nuevas actividades en forma detallada que abarquen la planificación, desarrollo y ejecución de una migración, con el objetivo de garantizar un correcto desempeño en la transición de los servicios de recaudación a migrar de la entidad bancaria en estudio.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
33

Konow, Krause Roberto Daniel. "Compact data structures for information retrieval on natural languages." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/141252.

Full text
Abstract:
Doctor en Ciencias, Mención Computación<br>El principal objetivo de los sistemas de recuperación de información (SRI) es encontrar, lo más rápido posible, la mejor respuesta para una consulta de un usuario. Esta no es una tarea simple: la cantidad de información que los SRI manejan es típicamente demasiado grande como para permitir búsquedas secuenciales, por lo que es necesario la construcción de índices. Sin embargo, la memoria es un recurso limitado, por lo que estos deben ser eficientes en espacio y al mismo tiempo rápidos para lidiar con las demandas de eficiencia y calidad. La tarea de diseñar e implementar un índice que otorgue un buen compromiso en velocidad y espacio es desafiante tanto del punto de vista teórico como práctico. En esta tesis nos enfocamos en el uso, diseño e implementación de estructuras de datos compactas para crear nuevos índices que sean más rápidos y consuman menos espacio, pensando en ser utilizados en SRI sobre lenguaje natural. Nuestra primera contribución es una nueva estructura de datos que compite con el índice invertido, que es la estructura clásica usada en SRIs por más de 40 años. Nuestra nueva estructura, llamada {\em Treaps Invertidos}, requiere espacio similar a las mejores alternativas en el estado del arte, pero es un orden de magnitud más rápido en varias consultas de interés, especialmente cuando se recuperan unos pocos cientos de documentos. Además presentamos una versión incremental que permite actualizar el índice a medida que se van agregando nuevos documentos a la colección. También presentamos la implementación de una idea teórica introducida por Navarro y Puglisi, llamada Dual-Sorted, implementando operaciones complejas en estructuras de datos compactas. En un caso más general, los SRI permiten indexar y buscar en colecciones formadas por secuencias de símbolos, no solamente palabras. En este escenario, Navarro y Nekrich presentaron una solución que es óptima en tiempo, que requiere de espacio lineal y es capaz de recuperar los mejores $k$ documentos de una colección. Sin embargo, esta solución teórica requiere más de 80 veces el tamaño de la colección, haciéndola poco atractiva en la práctica. En esta tesis implementamos un índice que sigue las ideas de la solución óptima. Diseñamos e implementamos nuevas estructuras de datos compactas y las ensamblamos para construir un índice que es órdenes de magnitud más rápido que las alternativas existentes y es competitivo en términos de espacio. Además, mostramos que nuestra implementación puede ser adaptada fácilmente para soportar colecciones de texto que contengan lenguaje natural, en cuyo caso el índice es más poderoso que los índices invertidos para contestar consultas de frases. Finalmente, mostramos cómo las estructuras de datos, algoritmos y técnicas desarrolladas en esta tesis pueden ser extendidas a otros escenarios que son importantes para los SRI. En este sentido, presentamos una técnica que realiza agregación de información de forma eficiente en grillas bidimensionales, una representación eficiente de registros de accesos a sitios web que permite realizar operaciones necesarias para minería de datos, y un nuevo índice que mejora las herramientas existentes para representar colecciones de trazas de paquetes de red.<br>Este trabajo ha sido parcialmente financiado por Millennium Nucleus Information and Coordination in Networks ICM/FIC P10-024F, Fondecyt Grant 1-140796, Basal Center for Biotechnology and Bioengineering (CeBiB) y Beca de Doctorado Nacional Conicyt
APA, Harvard, Vancouver, ISO, and other styles
34

Chira, Huamán Hernán Elías. "Implementación de nuevos algoritmos de las listas estáticas basado en las propiedades de los algoritmos genéticos, que demuestre que las listas estáticas son más eficientes en tiempo de gestión de datos que las listas dinámicas." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2019. https://hdl.handle.net/20.500.12672/10031.

Full text
Abstract:
Aplica la implementación de las operaciones de listas dinámicas en base a registros denominados listas estáticas. A su vez, se demuestra que las operaciones en listas estáticas pueden ser semejantes o más eficientes en las inserciones o eliminaciones en tiempo que las listas dinámicas. Las listas dinámicas podrán ser más eficientes que los registros en la utilización y ahorro de espacio de memoria, pero aun así demanda más tiempo en almacenar los datos uno por uno al crear nuevos nodos, e inclusive puede haber problemas de interrupción del compilador en la gestión de datos. Las listas estáticas permiten una mayor eficiencia en gestión de menores cantidades de datos en comparación de las listas dinámicas. Finalmente, proponiendo la creación de algoritmos en el uso de inserción, eliminación, búsqueda, guardado y recuperado de datos de listas estáticas, se debe expandir su respectivo uso lógico y expandir sus características de implementación lógica de las demás estructuras de datos dinámicos, permitiendo múltiples aplicaciones en el rendimiento de control de tiempo y estabilidad del espacio de memoria en la gestión de datos. Todo esto constituye el aporte que se brinda al desarrollo de la programación y aplicaciones múltiples de la estructura de datos.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
35

Díaz, Mendoza Nestor Esteban. "Rediseño de procesos en la mesa de partes física de la Corte Superior de Justicia de Lima para la implementación del expediente judicial electrónico y la mesa de partes electrónica." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/16988.

Full text
Abstract:
El presente trabajo de suficiencia profesional detalla el rediseño de los procesos en la Mesa de Partes Física de la Corte Superior de Justicia de Limacon relación ala recepción de documentos presentados partes interesadas en un proceso judicial, para lo cual se utilizó como metodología el Ciclo de vida del Business Project Managment – BPM proporcionado por Bernhard Hitpass en su libro “Manual de Referencia y Guía Práctica – 5ta Edición”. El principal objetivo de este rediseño es alinear el proceso de recepción de documentos e incorporar nuevos procesos a la mesa de partes en aras de la Implementación del Expediente Judicial Electrónico y la Mesa de Partes Electrónica, lo que logró un gran cambio dentro del Poder Judicial, consistente en pasar de un trabajo tradicional basado en documentación física a un trabajo en formato digital, lo que permitió que los procesos judiciales sean más céleres y transparentes, brindando una justicia oportuna y al alcance de todos. Asimismo, la Mesa de Partes Electrónica es un mecanismo fundamental, en la actual situación de emergencia sanitaria que atraviesa el país, para que los usuarios continúen presentando sus documentos con el uso del internet, sin la necesidad de apersonare a las mesas de partes física exponiendo su salud.
APA, Harvard, Vancouver, ISO, and other styles
36

Quiróz, Villalobos Lennin Paúl. "Implementación de una interfaz hardware-software y sus módulos de supervisión y análisis de datos para un sistema de pesaje electrónico." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/10105.

Full text
Abstract:
Propone proveer a los instrumentos de medición, de capacidad de comunicación inalámbrica, así como implementar los módulos software de captura, análisis, supervisión y visualización de datos desde un computador remoto y una aplicación móvil. Para implementar la solución propuesta, se usó un módulo convertidor Serial-Wifi, para transmitir los datos hacia una PC remota, sockets cliente-servidor en lenguaje Java para el módulo de captura de datos, MongoDB para el módulo de almacenamiento y análisis de datos, LabVIEW para el módulo de supervisión y visualización, finalmente AppInventor para la aplicación móvil para el Sistema Operativo Android. Como resultado del presente proyecto, Miyake SCRL, teniendo la plataforma software como valor agregado, ha mejorado la demanda de sus equipos de medición y ha obtenido una ventaja competitiva al ser reconocida en su rubro como empresa innovadora y generadora de tecnología. Así mismo, las empresas clientes, también se han beneficiado, ya que la solución implementada permite alinear la tecnología con sus objetivos empresariales, disponiendo ahora de información útil y oportuna para sus procesos de control, auditoria y toma de decisiones.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
37

Rabínes, Lara Franco Mario. "Diseño e implementación de un sistema de monitoreo de parámetros físicos y eléctricos de grupos electrógenos / Franco Mario Rabínes Lara." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2006. http://tesis.pucp.edu.pe/repositorio/handle/123456789/236.

Full text
Abstract:
El tema del estudio se enfoca en el monitoreo de las señales eléctricas como lo son la potencia, el voltaje y la corriente así como los parámetros físicos de temperatura, presión de aceite entre otros, por medio de microcontroladores y circuitos integrados de bajo costo. Se ha planteado una solución con dos módulos del tipo Maestro-Esclavo. El módulo esclavo va conectado directamente al grupo electrógeno, mientras que el módulo maestro se encuentra en un tablero remoto conectado al módulo esclavo por medio de un bus RS-485.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
38

Ramos, Córdova Dante Wenceslao. "Proyecto de migración de datos hacia un Data Lake para una entidad de seguros." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2022. https://hdl.handle.net/20.500.12672/17956.

Full text
Abstract:
Describe el proyecto de implementación de un Data Lake en una empresa del sector Asegurador, como una solución analítica de Big Data. Debido al gran aumento de clientes y datos, se tuvieron dificultades dentro de las Bases de Datos de la entidad. Tales como lentitud de procesos, bloqueo de tablas productivas por los tiempos de procesamiento, y la generación de reportes poco confiables. A la vez que se requería ofrecer campañas 100% personalizadas para los clientes, y para esto debía de integrarse la información del cliente que se encontraba dispersa en los múltiples aplicativos y tablas de la entidad Aseguradora. Es por ello que se optó por implementar un repositorio único de datos que será utilizado como una fuente de cálculo del CLV (Customer Lifetime Value1), obteniendo el valor de vida de cada cliente, de esta manera poder ofrecer productos específicos y/o promociones para fidelizar al consumidor final.
APA, Harvard, Vancouver, ISO, and other styles
39

Maldonado, Bravo Felipe Alejandro. "Diseño de propuesta de arquitectura de gestión de datos científicos para el Centro de Investigación Web Intelligence Centre." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/143450.

Full text
Abstract:
Ingeniero Civil Industrial<br>El presente trabajo de título busca diseñar una propuesta de arquitectura de gestión de datos de investigación enfocada en el acceso abierto a los datos para el Web Intelligence Centre (WIC, centro perteneciente a la Facultad de Ciencias Físicas y Matemáticas (FCFM) de la Universidad de Chile), con el fin de prevenir la falta de disponibilidad de datos generados en el centro para trabajos futuros y así evitar el tener que llevar a cabo los experimentos por segunda vez. El primer pilar de la arquitectura son las políticas de gestión de datos científicos. Para su diseño se utilizó una serie de pasos ofrecida por el Data Curation Centre (UK). El primer paso fue realizar una evaluación del estado actual del WIC respecto a la gestión de datos, posterior a ello se efectuó una revisión y comparación de las recomendaciones sobre los contenidos de las políticas de un número de entidades que ha desarrollado la materia en los últimos años. De este ejercicio se extrajeron los contenidos mínimos que debe contener este documento. A continuación, se analizó quiénes serán los encargados de aprobar la propuesta para poder realizar una versión borrador del documento sujeto a cambios, los cuales se vieron reflejados en el diseño de la versión final. El segundo pilar de la arquitectura es la infraestructura tecnológica (TI) que soportará la gestión de los datos. Para esto se realizó un levantamiento de requerimientos con el fin de realizar un benchmark de los repositorios y software especializados en la creación de repositorios científicos existentes. De esta fase se consideró a la plataforma DSpace como la mejor solución para diseñar y crear finalmente la propuesta de repositorio de datos del centro. El tercer y último pilar tiene relación al soporte necesario para realizar la gestión de datos en el centro, para esto se diseñaron guías, documentos y plantillas de documentos. Además se esquematizaron los procesos principales que se desprenden de las políticas diseñadas. Después se llevó a cabo un proceso de validación de la arquitectura creada respecto a los términos técnicos y requisitos para poder ejecutar la gestión buscada. Donde se concluye que la propuesta permitirá realizar una gestión de datos científicos en el Web Intelligence Centre y con esto traer beneficios, que a pesar de no ser directamente cuantificables en contraste a los costos, se verán reflejados en el corto y largo plazo tanto en el funcionamiento interno del centro como en la investigación que se realizará en el futuro, los cuales ayudarán a cumplir los objetivos del centro. También se presentaron propuestas de mejoras a la arquitectura desprendidas de la validación realizada. Por último, se realizó una propuesta relacionada a la gestión del cambio que se deberá llevar a cabo en el centro con el fin de implementar la arquitectura propuesta de manera correcta para poder generar finalmente el valor que se busca.
APA, Harvard, Vancouver, ISO, and other styles
40

Garcés, Castillo Sebastián Alejandro. "Software para la determinación de la carta de operación de generadores sincrónicos de rotor cilíndrico." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137411.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>El presente trabajo de título consiste en el diseño e implementación de una herramienta computacional para la determinación de la carta de operación de generadores síncronos de rotor cilíndrico, orientado específicamente a centrales térmicas que forman parte del sistema eléctrico chileno, el cual se divide en dos grandes bloques llamados; Sistema Interconectado Central y Sistema Interconectado del Norte Grande, o en sus siglas SIC y SING respectivamente. Es necesario disponer de un software que dibuje los diagramas de operación de las unidades generadoras, pues muchas centrales en el país no disponen de estas, y son una exigencia por parte del Centro de Despacho Económico de Carga del Sistema Interconectado Central y Sistema Interconectado del Norte Grande; CDEC-SIC y CDEC-SING hacia las centrales. Por otro lado permite un mejor monitoreo de las unidades generadoras por parte de los operadores en las centrales. El prototipo se diseña a través del software computacional Matlab, la cual posee un lenguaje de programación muy cómoda para el usuario. Matlab además posee aplicaciones, como la Interfaz Gráfica de Usuario, con su sigla en inglés GUI, que permite el diseño de interfaces, las que interactúan con el usuario en una amplia gama de aplicaciones. En esta memoria representa al sistema de Supervisión, Control y Adquisición de datos, SCADA. El modelo se valida mediante la comparación con los diagramas de operación de las unidades generadoras, Huasco TG (Turbina Gas): unidades 1-2-3, Huasco TV (Turbina Vapor): unidades 1-2, Bocamina: unidad 1, Diego de Almagro: unidad 1, todas propiedad de Endesa. Con esta herramienta computacional el operador de la central puede disponer del diagrama y punto de operación (Qop,Pop) de la unidad generadora en tiempo real, y de los datos de placa de este. Con ello se dispone de la zona factible de trabajo, y se evita exceder los límites del generador para así mejorar la coordinación y estabilidad en la operación del sistema. La confiabilidad que otorga el prototipo permite una operación técnico-económica más eficiente, óptima y en la toma de decisiones apropiadas por parte del operador ante contingencias en el sistema eléctrico de potencia.
APA, Harvard, Vancouver, ISO, and other styles
41

Allende, Prieto Esteban Armando. "Improving the efficiency and reliability of gradual typing." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/132317.

Full text
Abstract:
Doctor en Ciencias, Mención Computación<br>Gradual Typing permite a un programador aplicar tipos estáticos a ciertas partes de un programa, dejando el resto dinámicamente tipeado. Sin embargo, esto viene con un costo en el rendimiento. Una razón es que el runtime tiene que realizar siempre un casteo en el borde entre tipos estáticos y dinámicos. Otra razón es que el borde puede ser creado accidentalmente. Esto también trae un efecto lateral de reducir la fiabilidad del código estático, porque ahora el programador no puede garantizar que su código no arrojará errores de tipo en tiempo de ejecución. En este trabajo de tesis, mejoramos el rendimiento y la fiabilidad de los programas gradualmente tipeados. Para esto, desarrollamos un lenguaje gradualmente tipeado, Gradualtalk, y luego presentamos dos novedosas ideas: hybrid strategy y Confined Gradual Typing. La hybrid strategy es una nueva forma de insertar los casts al invocar métodos que combina dos estrategias existentes, permitiendo obtener el mejor rendimiento de ambas. Validamos esta afirmación con benchmarks. Confined Gradual Typing refina gradual typing con anotaciones para prohibir explícitamente ciertos cruces de frontera entre el código estáticamente y dinámicamente tipeado. Nosotros desarrollamos formalmente dos variantes de CGT que capturan diferentes compromisos entre flexibilidad/garantías. Probamos que CGT es type sound y que las anotaciones ofrecen las garantías esperadas.
APA, Harvard, Vancouver, ISO, and other styles
42

Billadoni, Villavicencio Majorie Denisse. "Clustering de clientes de un grupo de e-Marketplaces del Perú." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/17530.

Full text
Abstract:
El crecimiento exponencial de los e-maketplaces en el Perú junto a la relevancia de los datos transaccionales que se generan con cada compra, hace que cada vez más profesionales de las áreas comerciales y de marketing estén interesados y se encuentren en la necesidad de descubrir los patrones ocultos tras los comportamientos de compra de los clientes, los cuales son utilizados posteriormente para fijar estrategias que sigan beneficiando al crecimiento de este sector. El presente trabajo presenta, en esencia, la aplicación del algoritmo de clusterización bietápica sobre un conjunto de datos que reúne las características de compra de clientes de cuatro emarketplaces del Perú que realizaron transacciones durante los meses de mayo, junio y julio de 2021. El dataset utilizado consistió de un total de 35,881 clientes y se consideró una variable cuantitativa: Recencia, y dos cualitativas: NombreDePago y Marketplace. Tras la aplicación se encontró una agrupación aceptable de la que resultaron dos clústeres: el primero conformado por el 31% de clientes y el segundo, por el 69% restante. Se describió el perfil del cliente tipo de cada uno de los clústeres y se propusieron estrategias comerciales y de marketing que serán de gran valor para impulsar el crecimiento de las ventas.
APA, Harvard, Vancouver, ISO, and other styles
43

Kuncar, C. Ignacio, and H. Carlos Soto. "Medición de la calidad del servicio en la banca on line en Chile." Tesis, Universidad de Chile, 2005. http://repositorio.uchile.cl/handle/2250/144771.

Full text
Abstract:
SEMINARIO PARA OPTAR AL TÍTULO DE INGENIERO COMERCIAL, MENCIÓN ADMINISTRACIÓN<br>Este estudio se presenta como el primer intento por desarrollar una escala de medición de la calidad del servicio en la banca On Line en Chile. A lo largo de la revisión literaria se revisan distintos modelos creados con el fin de medir la calidad del servicio en general, como modelos particulares para la banca. A grandes rasgos la calidad del servicio puede ser definida según Parasuraman et al., (1985) como la diferencia entre las expectativas y las percepciones que los consumidores tienen de un servicio en particular. El principal objetivo de esta investigación es determinar la factibilidad de replicar en Chile un instrumento de medida de la calidad del servicio en la banca electrónica realizado en Inglaterra por Jayawardhena (2004). De esta manera, se determinó en una etapa cualitativa, que la escala utilizada en ese país debía ser adaptada a los requerimientos de los usuarios en Chile. Un análisis factorial llevado a cabo entrego como resultado 19 atributos relevantes acerca de que es lo que los consumidores valoran de la experiencia de ingresar al sitio Web de su banco, las que se distribuyeron en cuatro dimensiones. Finalmente una regresión llevada a cabo indicó el peso que cada dimensión tenía en la valoración de la calidad del servicio en la banca electrónica en Chile Los resultados obtenidos en este estudio no son del todo concluyentes, por lo que se sugiere su utilización como base en una futura investigación acerca del mismo tema abordado a lo largo de este estudio. Sin embargo, esta investigación da un Proxy confiable acerca de que valoran los consumidores al momento de utilizar la banca On Line.
APA, Harvard, Vancouver, ISO, and other styles
44

Saldaña, Pomazunco Jorge Luis. "Creación de estándares para planos mediante el software CAD Autodesk Inventor Professional 2012: caso: diseño de una matriz de corte y embutido." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2012. https://hdl.handle.net/20.500.12672/13911.

Full text
Abstract:
El objetivo principal de este informe es resaltar el proceso de creación de estándares para la elaboración de planos de fabricación en el contexto del diseño de un prototipo digital como se muestra en el caso específico de una matriz de corte y embutido logrando de esta manera un incremento de la productividad, en función a la precisión, claridad y tiempos minimizados en la producción de los planos de fabricación. Mediante el software CAD Autodesk Inventor v. 2011 se diseñó el prototipo digital, una matriz de corte y embutido, se modeló todos los componentes de la herramienta de alta producción, se procedió a crear asimismo los subensambles y el ensamble general. Asimismo se realizó el modelado de los mismos componentes en Autocad realizándose un cuadro comparativo de tiempos de modelado entre ambos software CADs que confirmó al primero como una alternativa de software CAD para la creación de estándares, no obstante un tercer software CAD como Solidworks se presentaba como una alternativa de características muy similares a las de Autodesk Inventor, sin embargo, factores determinantes como costos de licencia, mantenimiento, soporte técnico, herramientas complementarias entre otros, señalaron al producto de Autodesk la alternativa CAD ideal. En el presente trabajo se explica detalladamente los procedimientos para la creación de cada estilo relacionado a las normas ISO correspondientes a las anotaciones propias de un plano de fabricación.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
45

Zúñiga, Vilca Carla Patricia. "Análisis exploratorio de datos espaciales de las enfermedades respiratorias en consulta externa del Hospital Santa Rosa – 2006." Master's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/10185.

Full text
Abstract:
Plantea una aplicación del Análisis Exploratorio de Datos Espaciales (AEDE) para evaluar el tipo de patrón espacial que siguen los casos de pacientes con Infecciones Respiratorias Agudas (IRAS) del año 2006 en la ciudad de Lima - Perú y que fueron atendidos por el Hospital Santa Rosa. De igual forma también se analizan el total de casos de IRAS ocurridos en el año 2015 en Lima Metropolitana. Los resultados mostraron que los casos de IRAS atendidos por el Hospital Santa Rosa se distribuyen de forma no homogénea a lo largo de Lima Metropolitana, siendo en mayor intensidad en aquellos distritos más cercanos a dicho hospital y específicamente en el distrito de Pueblo Libre. A partir del índice de LISA y el índice de Morán se encontraron la presencia de clústeres significativos de distritos con alta demanda de las tres enfermedades más prevalentes del sistema respiratorio en consulta externa del Hospital Santa Rosa. Estos distritos son Pueblo Libre, Breña, Jesús María, Magdalena del Mar, San Miguel y Lima. A su vez se identificó un patrón espacial distinto para el total de casos de infecciones respiratorias agudas (IRAS) registrados en Lima Metropolitana al 2015. En estos casos son los distritos de San Bartolo, Chaclacayo, Punta Negra y Pucusana las que presentaron las tasas más altas de IRAS por encima de 36% de su población expuesta y representan las zonas de mayor riesgo para contraer infecciones respiratorias.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
46

Meza, Romero Javier César, and Pariona Victor Gabriel Leaño. "Sistema de monitoreo de una red de buses de transporte público e información para usuarios empleando transceptores GPS/GSM." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2017. http://tesis.pucp.edu.pe/repositorio/handle/123456789/9781.

Full text
Abstract:
Vivimos en una ciudad en donde la movilidad se ha convertido en un acto de violencia, en donde “orden”, en materia de transporte, no es más que una palabra que se repite una y otra vez sin que se haga algo al respecto. Se opera bajo un modelo urbanístico anticuado, donde el transporte privado se impone sobre el público, y donde la calle se convierte en un lugar violento, desprovisto de incentivos para que la gente camine y disfrute de su entorno. Usualmente la solución al tráfico y congestión es la de ampliar la oferta. Esto se traduce en la ampliación de avenidas, construcción de ‘bypass’ y nuevas vías expresas en zonas urbanas que no representan una solución sostenible. En lugar de ampliar la oferta vial, una alternativa es el modelo de ciudad que controla la demanda de viajes en vehículo privado y promueve la demanda del transporte sostenible. Este modelo representa una tendencia global en el urbanismo y ha sido exitoso en otras ciudades latinoamericanas como Bogotá o Curitiba. [1] Por tanto el presente trabajo de tesis aborda el desarrollo de un sistema de monitoreo de una red de buses de transporte público integral, mediante el empleo de tecnologías modernas de comunicación y posicionamiento, con un sistema de procesamiento de información que permita al administrador del sistema la regulación de los flujos de tránsito, controlar las unidades de transporte, disminuir el riesgo de accidentes y ofrecer una mejor calidad de vida a los ciudadanos. El sistema de monitoreo se desarrolla principalmente para ser implementado en la flota de las empresas de transporte público, teniendo como finalidad apoyar a la creación de un sistema inteligente de transporte para nuestra capital. El empleo de transceptores GPS/GSM nos permitirá obtener datos de posición (latitud, longitud), fecha, hora y velocidad de desplazamiento del móvil monitoreado. Esta información será enviada a una central en la que será procesada junto a la data recopilada de otras fuentes. Una vez procesada la información, el administrador podrá tomar acciones correctivas necesarias, como aumentar o disminuir la frecuencia de los buses, controlar el exceso de velocidad, informar a los choferes de potenciales peligros y rutas alternativas, proveer la información de tiempo y distancia de llegada a los usuarios a través de mensajes de texto o aplicación para Smartphone. Se muestra las potencialidades del sistema mediante el desarrollo de un sistema de visualización que provea información de horas de arribo a los usuarios. Este sistema de monitoreo puede ser integrado a los sistemas actuales como el Metropolitano y el Metro de Lima, unificando así los mecanismos de transporte y lograr el tan ansiado Sistema Integrado de Transporte.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
47

Chavéz, Picasso Jorge. "Administración de conflictos entre nombres de dominio y signos distintivos." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2004. https://hdl.handle.net/20.500.12672/2239.

Full text
Abstract:
Buscamos con el presente trabajo, llamar la atención sobre la necesidad de una debida y adecuada administración de controversias, considerando los derechos tutelables de un signo distintivo en relación con la concesión desmesurada e inconsciente de derechos sobre nombres de dominio. En primer lugar, daremos una visión general del Internet, llegando a dar las razones necesarias para que éste sea considerado como un medio en el cual puedan realizarse perfectamente relaciones comerciales y que pueda ser considerado, así mismo, parte del mercado. En el segundo capítulo, desarrollaremos el concepto, funciones y características tanto técnicas como comerciales del nombre de dominio, llegando a establecer el carácter distintivo como ser principal función en el mercado. En el tercer capítulo veremos como la flexibilización de las características de la propiedad basadas en la función social del Estado y otro elementos, han cambiado a través de la historia; los objetos de comprensión de la misma, como por ejemplo la flexiblización del carácter perpetuo de la propiedad y el requisito de materialidad de los bienes. De otro lado, nuestra finalidad en el capítulo cuarto, es la de llegar a enmarcar las características distintivas del nombre de dominio dentro de las características generales de distintividad de las marcas, nombres comerciales y demás signos distintivos. En el capítulo quinto abordamos uno de los principales temas del trabajo, los tipos de conflictos sobrevinientes con el registro y uso de nombres de dominio, en donde nuestro objetivo es llegar a determinar y mostrar los tipos de controversias que pueden surgir entre titulares de derechos marcarios y titulares de nombres de dominio. Así en el sexto y sétimo capítulo determinamos la regulación vigente, y la función del Estado en la necesidad de incluir dentro de la esta misma regulación, procedimientos de solución de controversias y la tutela efectiva de los derechos sui géneris de propiedad industrial. Finalmente, no obstante, del interés del Estado peruano en mantener la vanguardia a nivel legislativo frente a las nuevas tecnologías, y las emergentes necesidades de tutela, no se ha podido a la fecha, deshacer el interés de la inversión privada frente a la necesidad de dicha tutela. Consideramos importante el análisis de la naturaleza jurídica de un bien, que causó tanta polémica en sus inicios sobre la forma de su tratamiento, y que en la actualidad no se tienen ideas claras sobre los efectos que produce y la importancia de un control, si bien no ex ante en todos los casos, si efectivo, sobre los derechos de la misma o similar naturaleza que pueda vulnerar.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
48

Cereceda, Francisco, Sharif Chacoff, Ignacio Montiglio, Giordana Saavedra, and Sergio Sariego. "Digital systems." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/111669.

Full text
Abstract:
Tesis para optar al grado de Magíster en Administración (MBA)<br>No disponible a texto completo<br>La promulgación y entrada en vigencia en abril de 2009 de la Ley 20285 de transparencia y acceso a la información pública obliga a los órganos del Estado a disponer de herramientas y formas expeditas y rápidas, que atiendan y respondan los requerimientos que cualquier ciudadano u organización realice acerca de información que el organismo posea y administre. La aplicación de esta normativa encuentra a los órganos del Estado en una situación de precariedad estructural compleja de resolver en cuanto a la capacidad de responder a los requerimientos de información, sobre todo con aquella dimensión que se denomina Transparencia Pasiva y que se refiere a la información histórica acumulada por años en forma física, comúnmente sin respaldo y sin posibilidad de acceso rápido y expedito a ella. En las primeras 32 semanas de vigencia de la ley, según el informe n°8 de la Comisión de Probidad y Transparencia1 de noviembre de 2009, se han registrado 22073 solicitudes de información realizadas por ciudadanos y organizaciones a los diversos órganos del ejecutivo a los que se les aplica la norma, excluyendo a los municipios. De la investigación realizada (ver anexo 3) se desprende que no han tenido mayor dificultad para responder en tiempo y oportunidad cuando la información requerida corresponde a una antigüedad no mayor a 3 años. Esta situación se revierte cuando la información tiene una antigüedad superior a los 3 años. Y mientras más antigua es la información solicitada, más dificultoso es responder al requerimiento en forma rápida, eficiente y confiable. Para abordar esta necesidad Digital Systems, empresa orientada al desarrollo de tecnologías de la información y al diseño de sistemas de administración y procesamiento de datos para las empresas y organizaciones en general, ha diseñado una solución tecnológica para responder a la obligación que genera la 1 Informe n°8: http://www.leydetransparencia.cl/index.php?option=com_content&view=article&id=17&Itemid=7 Diciembre 30, 2009 Digital Systems Plan de Negocios MBA -ICCI 3 Ley de Transparencia a los órganos del Estado, específicamente las obligaciones que están asociadas a Transparencia Pasiva. El servicio consiste en el desarrollo de una Biblioteca Digital en la que se almacena la información documental, la que se organiza según una estructura y se le implanta un motor de búsqueda que permite realizar búsquedas exactas y rápidas. El mercado lo constituyen inicialmente los cerca de 620 órganos del Estado definidos por la normativa (ver anexo 2). Posteriormente ampliaremos la operación a las demás organizaciones públicas que no están sujetas a esta obligación (empresas públicas, poder judicial, poder legislativo y órganos contralores) y a las organizaciones privadas que operan en Chile y en países de Latino América para las que una solución como la planteada puede representar una solución que agrega valor a sus operaciones. La propuesta de valor se basa en que genera ahorros de dinero por la eliminación del almacenamiento de documentos físicos que implica; permite ahorros de espacio por el que se libera generando usos alternativos; y de tiempo por la posibilidad de encontrar rápidamente lo que se requiere. Esto redundará en no sólo cumplir con la ley y disminuir costos, sino que cumplir con calidad, promoviendo el uso de tecnología para el servicio más eficiente y expedito de los usuarios. Requiere de baja inversión; tiene buen retorno, proyectándose utilidades desde el año 2 de operación por más de $30 millones, superando el año 4 los $100 millones. Se ha transformado en una necesidad creciente para los órganos del Estado por la obligatoriedad de la norma y la inexistencia de diseño y sistemas para gestionar dicha información. Diciembre 30, 2009 Digital Systems Plan de Negocios MBA -ICCI 4 El equipo gestor cuenta con experiencia en el diseño y desarrollo de sistemas documentales digitales y bases de datos electrónicas, además del conocimiento de los clientes y de su estado de necesidad.
APA, Harvard, Vancouver, ISO, and other styles
49

Mallqui, Merma Luis Miguel. "Desarrollo de un sistema web dinámico para la emisión de reportes regulatorios en una entidad bancaria." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/17046.

Full text
Abstract:
Describe el desarrollo de un sistema web dinámico para la emisión de reportes regulatorios en una entidad bancaria. La necesidad surge por los cambios frecuentes e imprevistos por resoluciones de la Superintendencia de Banca y Seguros (SBS), quien es el ente regulador de las empresas financiera en Perú. Otras de las causas fueron la dependencia con otras áreas para re-procesar los reportes, la manualidad para cuadre de reportes en etapas de auditoría que generaban costo, esfuerzo e insatisfacción en el proceso de generación y envío de reportes regulatorios. El sistema web desarrollado automatiza la carga y generación de los reportes regulatorios, tiene la flexibilidad para cambiar de formato en la estructura de los archivos inputs como en la formulación de la data a procesar, permite generar manualmente los reportes en caso de contingencia y permite tener trazabilidad de la formulación para procesos de auditorías.
APA, Harvard, Vancouver, ISO, and other styles
50

Vargas, Martinez Alex. "Mejora del proceso de gestión de solicitudes de renovación de pólizas en una base de datos." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/16837.

Full text
Abstract:
La implementación de las reglas en la carga de solicitudes de renovación contribuye en mejorar la gestión de las solicitudes de renovación para fidelizar a sus clientes. El proyecto implementado en la compañía fue uno de sus principales proyectos de los últimos 3 años, esto se ve manifiesto en la cantidad de reuniones entre las gerencias de las áreas involucradas y definir las reglas que deben ser implementadas en el módulo de renovaciones (Sistema de Web de control de solicitudes). Estas reglas implementadas trajeron consigo los siguientes aportes o beneficios a la compañía. Definir las actividades que deben realizar las áreas (son consideradas también como parte de su deber). Eso mejora se ve reflejado en los tiempos de atención de las solicitudes (total y por área) desde el momento de su implementación. Estas reglas permiten también dar las alertas necesarias sobre las solicitudes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!