To see the other types of publications on this topic, follow the link: Grandes Volúmenes de Datos.

Journal articles on the topic 'Grandes Volúmenes de Datos'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 journal articles for your research on the topic 'Grandes Volúmenes de Datos.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Torres-Domínguez, Omar, Samuel Sabater-Fernández, Lisandra Bravo-Ilisatigui, Diana Martin-Rodríguez, and Milton García-Borroto. "Detección de anomalías en grandes volúmenes de datos." Revista Facultad de Ingeniería 28, no. 50 (January 10, 2019): 62–76. http://dx.doi.org/10.19053/01211129.v28.n50.2019.8793.

Full text
Abstract:
El desarrollo de la era digital ha traído como consecuencia un incremento considerable de los volúmenes de datos. A estos grandes volúmenes de datos se les ha denominado big data ya que exceden la capacidad de procesamiento de sistemas de bases de datos convencionales. Diversos sectores consideran varias oportunidades y aplicaciones en la detección de anomalías en problemas de big data. Para realizar este tipo de análisis puede resultar muy útil el empleo de técnicas de minería de datos porque permiten extraer patrones y relaciones desde grandes cantidades de datos. El procesamiento y análisis de estos volúmenes de datos, necesitan de herramientas capaces de procesarlos como Apache Spark y Hadoop. Estas herramientas no cuentan con algoritmos específicos para la detección de anomalías. El objetivo del trabajo es presentar un nuevo algoritmo para la detección de anomalías basado en vecindad para de problemas big data. A partir de un estudio comparativo se seleccionó el algoritmo KNNW por sus resultados, con el fin de diseñar una variante big data. La implementación del algoritmo big data se realizó en la herramienta Apache Spark, utilizando el paradigma de programación paralela MapReduce. Posteriormente se realizaron diferentes experimentos para analizar el comportamiento del algoritmo con distintas configuraciones. Dentro de los experimentos se compararon los tiempos de ejecución y calidad de los resultados entre la variante secuencial y la variante big data. La variante big data obtuvo mejores resultados con diferencia significativa. Logrando que la variante big data, KNNW-BigData, pueda procesar grandes volúmenes de datos.
APA, Harvard, Vancouver, ISO, and other styles
2

Fernández Morales, Mynor Eduardo, and Roger Bonilla Carrión. "Bibliominería, datos y el proceso de toma de decisiones." Revista Interamericana de Bibliotecología 43, no. 2 (May 2, 2020): eI8. http://dx.doi.org/10.17533/udea.rib.v43n2ei8.

Full text
Abstract:
Este artículo trata sobre bibliominería de datos, que es minería de datos aplicada a grandes volúmenes de datos disponibles en las bibliotecas, como resultado de la operación de los principales sistemas transaccionales, tales como préstamos, referencia, adquisiciones, entre otros. Así, la bibliominería de datos es el proceso que tiene como propósito descubrir, extraer y almacenar información relevante de grandes bases de datos existentes en las bibliotecas, mediante la utilización de programas de búsqueda e identificación de patrones y relaciones globales, tendencias, desviaciones y otros indicadores que pueden extraerse mediante distintas técnicas de minería de datos. Es importante señalar que para el análisis bibliométrico se requiere de la participación de equipos interdisciplinarios formados por ingenieros de sistemas, estadísticos y bibliotecólogos.
APA, Harvard, Vancouver, ISO, and other styles
3

Ramos-Simón, Luis Fernando. "El uso de las licencias libres en los datos públicos abiertos." Revista española de Documentación Científica 40, no. 3 (September 8, 2017): 179. http://dx.doi.org/10.3989/redc.2017.3.1376.

Full text
Abstract:
Los datos masivos o big data recopilados a través de distintas herramientas tecnológicas o extraídos de grandes colecciones de información en distintos formatos son capaces de generar nuevo conocimiento en los sectores más diversos, pero, a la vez, plantean problemas tanto de titularidad como de su uso posterior. El estudio analiza el concepto de análisis de datos, los distintos tipos de datos y su posible regulación, presentando un panorama sobre cómo en los últimos años los países más avanzados en apertura de datos han comenzado a aplicar unos esquemas de licencias abiertas que remueven los obstáculos legales para incorporar estos tipos de datos a la creación de nuevo conocimiento. La investigación realizada muestra cómo distintos gobiernos y otras corporaciones y organismos internacionales productores de datos públicos han encontrado en estas licencias —en particular, las modalidades PPDL y CC0 en las que se renuncia a todos los derechos sobre las bases de datos— un mecanismo adecuado para favorecer el uso y reutilización de estos grandes volúmenes de datos.
APA, Harvard, Vancouver, ISO, and other styles
4

Calcaneo Monts, Mauricio Augusto. "Big data, big data analytics y datos personales en los tiempos del Internet: de la autorregulación estadounidense al Reglamento General de Protección de Datos de la Unión Europea." Estudios en Derecho a la Información 1, no. 8 (September 6, 2019): 21. http://dx.doi.org/10.22201/iij.25940082e.2019.8.13882.

Full text
Abstract:
El artículo expone y explica las implicaciones derivadas del surgimiento y uso cada vez más extendido del internet, en términos de los datos personales de sus usuarios. En particular, se aborda lo relativo al impacto que tiene el big data o la existencia de grandes volúmenes de datos personales obtenidos a partir de los registros electrónicos, así como el procesamiento y análisis de dichos datos mediante el big data analytics. Para ello, se analizan los modelos regulatorios que existen sobre la materia en Estados Unidos y la Unión Europea, concluyéndose sobre la inviabilidad de la autorregulación norteamericana y la necesidad de enfoques más amplios, como el europeo.
APA, Harvard, Vancouver, ISO, and other styles
5

Tejada-Escobar, Freddy, Rossana Murrieta-Marcillo, Freddy Villao-Santos, and Jenny Garzón-Balcázar. "Big Data en la Educación: Beneficios e Impacto de la Analítica de Datos." Revista Científica y Tecnológica UPSE 5, no. 2 (December 20, 2018): 80–88. http://dx.doi.org/10.26423/rctu.v5i2.424.

Full text
Abstract:
La vertiginosidad de permanentes cambios en las instituciones educativas ha generado grandes volúmenes de datos, que presentados en los diferentes formatos solicitados por los organismos reguladores, ocasionan nuevos desafíos apoyados en tecnologías de información y comunicación como las nubes de información que permiten la manipulación y análisis que de estos se desprenden, dan como consecuencia grandes impactos socio-tecnológicos y beneficios hacia un país, exclusivamente a su población. El presente trabajo describe cómo el análisis de datos masivos “BigData” coadyuva en la toma de decisiones en la educación, generados por causas tales como la reestructuración y/o reordenamiento de las instituciones educativas, crecimiento de la población escolar e, incremento del número de docente, entre otros indicadores asociados. La metodología aplicada en este estudio se basa en el tipo de investigación: descriptiva, documental, histórica, longitudinal y transversal. Se analizan resultados estadísticos que permiten indagar sobre la participación del Ministerio de Educación (MINEDUC) en Ecuador, con la finalidad de fortalecer la educación a través de datos pertinentes, y a la vez lograr altos estándares de calidad.
APA, Harvard, Vancouver, ISO, and other styles
6

Narváez, Miryan Estela, Pablo Ronny Calapucha Grefa, Marco Vinicio Tarco Caisa, and Pamela Alexandra Buñay Guisñan. "Análisis de Desempeño entre MONGODB y COUCHDB utilizando Norma ISO/IEC 25000." Revista Perspectivas 2, no. 2 (July 5, 2020): 13–20. http://dx.doi.org/10.47187/perspectivas.vol2iss2.pp13-20.2020.

Full text
Abstract:
Las bases de datos NoSQL han surgido para dar respuesta a problemas de escalabilidad y rendimiento, que en general, las bases de datos relacionales no pueden abarcar. La gran flexibilidad y las posibilidades de optimización en sus diseños las convierten en una atractiva variante a tener en cuenta para el desarrollo de aplicaciones de gestión de información. El objetivo principal del proyecto de investigación fue un estudio comparativo entre MongoDB y CouchDB utilizando la norma ISO/IEC 25010, con el fin de analizar y medir el desempeño de los gestores de base de datos NoSQL, en cuanto al consumo de recursos utilizados. Como resultado de la investigación se obtuvo que MongoDB fue ligeramente superior a CouchDB, demostrando que las bases de datos NoSQL tienen mejor rendimiento al momento de administrar grandes volúmenes de datos.
APA, Harvard, Vancouver, ISO, and other styles
7

Vanegas, Diego Armando, Giovanny Mauricio Tarazona Bermudez, and Luz Andrea Rodriguez Rojas. "Mejora de la toma de decisiones en ciclo de ventas del subsistema comercial de servicios en una empresa de IT." Revista Científica 38, no. 2 (May 2, 2020): 174–83. http://dx.doi.org/10.14483/23448350.15241.

Full text
Abstract:
El alto volumen de datos, el tiempo de procesamiento y la visualización de información, son problemas que hoy en día debe enfrentar las organizaciones en el sector de tecnología, en particular el subsistema comercial. En esta investigación se desarrolló un modelo para la toma de decisiones basado en la interacción de los criterios y las etapas del ciclo de ventas. Se usó una herramienta especializada en inteligencia de negocios que facilitó el manejo de grandes volúmenes de datos, su procesamiento y la visualización de la información. Dentro de los resultados obtenidos se encontró una significativa reducción en el tiempo de obtención de la información, pasando de horas a minutos.
APA, Harvard, Vancouver, ISO, and other styles
8

COLINA, Mairene, Katherine COLINA, Alberto FERNANDEZ, Manuel MAIA, and Daniela TORREALBA. "Un recorrido electoral en Twitter Venezuela durante el periodo enero de 2019 a diciembre de 2020." Espacios 42, no. 12 (June 30, 2021): 94–114. http://dx.doi.org/10.48082/espacios-a21v42n12p08.

Full text
Abstract:
Se presenta un análisis exhaustivo de cómo se percibió el tema electoral en Venezuela por parte de los usuarios de la red social Twitter. Este análisis se realizó haciendo uso de técnicas estadísticas y de inteligencia artificial que facilitan el análisis de la información disponible en grandes volúmenes de datos. Se determinaron: las opiniones de mayor impacto, el sentimiento expresado, los usuarios más activos, los más citados, etc. El lapso analizado está comprendido entre el 08-01-2019 y el 06-12-2020
APA, Harvard, Vancouver, ISO, and other styles
9

Carrillo Zenteno, José Antonio. "Big Data - Analítica del aprendizaje y minería de datos aplicados en la Universidad." Pro Sciences: Revista de Producción, Ciencias e Investigación 2, no. 8 (March 30, 2018): 39–54. http://dx.doi.org/10.29018/issn.2588-1000vol2iss8.2018pp29-54.

Full text
Abstract:
El término Big Data abarca el manejo de grandes volúmenes de información, está tecnología ha tenido un enorme impacto en las organizaciones deseosas de administrar sus datos eficientemente. Es así que, el presente artículo tiene como objetivo hacer una revisión de los conceptos de Big Data y la influencia que ésta tecnología ha tenido en diferentes sectores, enfocándose principalmente en el sector de la educación, que hoy en día se ha convertido en un repositorio de mucha información que pocas veces es tratada de manera eficiente. Al mismo tiempo, la Analítica del Aprendizaje y la Minería de datos permiten mejorar las metodologías pedagógicas, obtener patrones y tomar decisiones a partir de datos procedentes de Big Data. El presente artículo expone información sobre Big Data y el framework Hadoop, Analítica del Aprendizaje, Minería de Datos y cómo estas pueden ayudar en la problemática de deserción estudiantil, a través de la revisión de información relacionada con la temática abordada.
APA, Harvard, Vancouver, ISO, and other styles
10

León, F., Fco J. Rodríguez-Lozano, A. Cubero-Fernández, José M. Palomares, and J. Olivares. "SysGpr: Sistema de generación de señales sintéticas pseudo-realistas." Revista Iberoamericana de Automática e Informática industrial 16, no. 3 (June 12, 2019): 369. http://dx.doi.org/10.4995/riai.2019.10025.

Full text
Abstract:
Las señales obtenidas desde sensores son ampliamente utilizadas en diferentes campos científicos. Sin embargo, no siempre se dispone de los recursos necesarios para obtener dichos datos, debido a limitaciones estructurales, físicas, económicas, ambientales, fallos en la recolección de los datos, etc. Es en este escenario limitante, donde se erige la generación de datos sintéticos. La generación de datos sintéticos tiene la característica de reducir tiempos de espera frente a los largos periodos temporales que necesitan algunos sensores para obtener grandes volúmenes de muestras. Además, los datos generados pueden llegar a ser todo lo robustos que los usuarios necesiten. Por ello este trabajo presenta un sistema de generación de señales sintéticas con carácter pseudo-realista para su uso aplicado a la validación de métodos y diseño de experimentos. El método de la generación de señales propuesto, hace uso de modelos estadísticos y el comportamiento del gradiente de la señal para ir generando nuevos datos. El sistema desarrollado se encuentra disponible públicamente como herramienta web.
APA, Harvard, Vancouver, ISO, and other styles
11

Vallejo P., Diego, and Germán Tenelanda V. "Minería de datos aplicada en detección de intrusos." Ingenierías USBMed 3, no. 1 (June 30, 2012): 50–61. http://dx.doi.org/10.21500/20275846.264.

Full text
Abstract:
Con base a los fundamentos y técnicas de la minería de datos se pueden diseñar y elaborar modelos que permiten encontrar comportamientos clandestinos de fácil detección a simple vista como lo es la información no evidente -desconocida a priori y potencialmente útil- en referencia a hechos determinados. En particular la utilidad de la minería de datos en esta área radica en una serie de técnicas, algoritmos y métodos que imitan la característica humana del aprendizaje: ser capaz de extraer nuevos conocimientos a partir de las experiencias. La minería de datos posee características como: análisis de grandes volúmenes de información, generación de comportamientos que no son fácilmente perceptibles, depuración de datos para toma de decisiones. Estas características pueden ser de vital importancia para ser aplicadas en la seguridad de la información a través de la detección de intrusos. En la actualidad la seguridad de la información es uno de los grandes retos que tiene el mundo, y en especial, la detección de anomalías en los registros de acceso de los diferentes sistemas de información. Con esta aplicabilidad resulta un método básico y muy eficiente de poder prevenir intrusiones. Se centra el campo de en la detección de intrusos al nutrir el proceso de seguimiento de los acontecimientos que ocurren en la red informática, seguido del análisis de los mismos; con el fin de detectar los factores que ponen en peligro la confidencialidad, integridad, disponibilidad y no repudio de los datos. En el presente trabajo se pretende mostrar el aporte a la seguridad de la información de la minería de datos en el contexto de la detección de intrusos.
APA, Harvard, Vancouver, ISO, and other styles
12

Contreras Barrera, Marcial. "Minería de texto: una visión actual." Biblioteca Universitaria 17, no. 2 (December 30, 2015): 129–38. http://dx.doi.org/10.22201/dgb.0187750xp.2014.2.72.

Full text
Abstract:
En la actualidad, debido a las actividades sociales, económicas y académicas, en conjunto con la utilización de las Tecnologías de Información y Comunicación (TIC), la producción de conocimiento y de información digital se genera cada vez con mayor rapidez y, en ocasiones, se acumula en enormes volúmenes de información en espera de un procesamiento adecuado. Áreas como la minería de datos y la minería de texto son utilizadas en el procesamiento automatizado de información, las cuales ofrecen la posibilidad de explorar grandes cantidades de datos o texto, estructurados y no estructurados, para buscar patrones, encontrar relaciones y extraer conocimiento; por lo que el propósito del presente artículo es mostrar las características y aplicación de la minería de texto como área emergente en el procesamiento de información digital.
APA, Harvard, Vancouver, ISO, and other styles
13

Castorena Peña, Jesús Abraham, Alicia Elena Silva Ávila, Alma Jovita Domínguez Lugo, and Diana Laura Rodríguez Montelongo. "El uso de herramientas tecnológicas de minería de datos en el análisis de datos climatológicos / The use of technological tools for data mining in the analysis of climatological data." RECI Revista Iberoamericana de las Ciencias Computacionales e Informática 7, no. 13 (February 11, 2018): 1–18. http://dx.doi.org/10.23913/reci.v7i13.75.

Full text
Abstract:
El análisis de grandes volúmenes de datos se está convirtiendo en un elemento clave para las organizaciones de cualquier sector debido al soporte que brinda en la toma de decisiones. El propósito de la siguiente investigación es aportar soluciones tecnológicas que permitan identificar el comportamiento o generar patrones en torno a datos climatológicos, como la precipitación registrada por el Servicio Meteorológico Nacional (SMN) en los estados de Chiapas, Oaxaca, Tabasco y Veracruz, contrastada con el nivel del gasto de los principales ríos de dichos estados. Para este estudio se utilizó la herramienta computacional de minería de datos Watson Analytics, la cual se caracteriza por realizar de forma automática la modelización de los datos y mostrar los hechos más relevantes, así como los patrones y relaciones que subyacen en ellos. En cuanto a la metodología de minería de datos empleada, se utilizó la metodología CRISP-DM propuesta por Chapman et al. (2000), debido a las características de esta investigación. La extracción de comportamiento y patrones de datos climatológicos proporcionaron información relevante para que organizaciones como el Servicio Meteorológico Nacional pueda tomar medidas y formular estrategias de prevención ante cualquier eventualidad ocasionada por el clima.
APA, Harvard, Vancouver, ISO, and other styles
14

Moreno, Francisco Javier, Nataly Castrillón Charari, and Camilo Taborda Zuluaga. "Procesamiento en paralelo y distribuido en dos SGBDS: un caso de estudio." Revista Tecnura 21, no. 52 (April 1, 2017): 111. http://dx.doi.org/10.14483/10.14483/udistrital.jour.tecnura.2017.2.a09.

Full text
Abstract:
Contexto: Una de las estrategias para la gestión de grandes volúmenes de datos es la computación distribuida y en paralelo. Entre las herramientas que permiten aplicar estas características se encuentran algunos sistemas de gestión de bases de datos (SGBD), como Oracle, SQL Sever y DB2.Método: En este artículo se presenta un caso de estudio donde se evalúa el rendimiento de una consulta SQL en dos de estos SGBD. La evaluación se hace mediante diversas formas de distribución de los datos en una red computadores y con diferentes grados de paralelismo.Resultados: Aunque son necesarias pruebas más exhaustivas y con mayor variedad de consultas, se evidenciaron las diferencias de rendimiento entre los dos SGBD analizados.Conclusiones: Las diferencias en rendimiento de los dos SGBDs analizados muestran que a la hora de evaluar este aspecto, se deben considerar las particularidades de cada SGBD y el grado de paralelismo de las consultas.
APA, Harvard, Vancouver, ISO, and other styles
15

Rodríguez Pérez, Andrés Felipe, and Robert Romero. "Exploración del poder predictivo de datos extraídos de StockTwits respecto a la dirección de variación futura del precio de un activo transado en la Bolsa de Valores de Nueva York,." Comunicaciones en Estadística 13, no. 2 (November 1, 2020): 51–61. http://dx.doi.org/10.15332/2422474x.6285.

Full text
Abstract:
Diariamente se generan grandes volúmenes de información, especialmente en las redes sociales. El uso de esta información como insumo para el estudio del comportamiento de los agentes en el mercado de valores ha venido cobrando fuerza, especialmente en el campo del aprendizaje de máquina. Es por ello que, en este artículo se presenta un estudio de la capacidad predictiva de la información que generan los agentes del mercado en la red social StockTwits sobre la variación de la dirección del precio de una activo transado en la Bolsa de Valores de Nueva York, valiéndose de herramientas de minería de datos y algoritmos de aprendizaje de máquina.
APA, Harvard, Vancouver, ISO, and other styles
16

Pilicita Garrido, Anabel, Yolanda Borja López, and Gonzalo Gutiérrez Constante. "Rendimiento de MariaDB y PostgreSQL." Revista Científica y Tecnológica UPSE 7, no. 2 (December 4, 2020): 09–16. http://dx.doi.org/10.26423/rctu.v7i2.538.

Full text
Abstract:
El almacenamiento de información en las bases de datos es un tema importante para toda organización, en la actualidad. Son los Sistemas Gestores de Bases de Datos conocidos como SGDB encargados de ocultar la complejidad que conlleva la administración de las base de datos. Es común que cada día sean almacenados millones de datos más aún porque en la actualidad existen nuevas tendencias y exigencias para el procesamiento de grandes volúmenes de datos a gran velocidad. Por lo tanto, es indispensable que los SGBD tengan un correcto rendimiento para hacer frente a estas nuevas exigencias. El presente trabajo muestra los resultados obtenidos al realizar pruebas de rendimiento en los Sistemas Gestores de Base de Datos MariaDB y PostgreSQL, aplicando la arquitectura de tres capas para los escenarios de prueba. Ambos SGBD son potentes y muy utilizados por diferentes sistemas. Los resultados obtenidos están relacionados con la cantidad de peticiones por segundo procesadas por estos sistemas. En este caso, MariaDB fue superior que PostgreSQL a medida que aumentó la cantidad de usuarios que realizaban en diferentes escenarios gracias a sus motores de búsqueda que generan mejores velocidades para el procesamiento de datos.
APA, Harvard, Vancouver, ISO, and other styles
17

Rodriguez, Ana Magela. "ACADEMIC ANALYTICS: APLICANDO TÉCNICAS DE BUSINESS INTELLIGENCE SOBRE DATOS DE PERFORMANCE ACADÉMICA EN ENSEÑANZA SUPERIOR." Interfaces Científicas - Exatas e Tecnológicas 1, no. 2 (May 28, 2015): 35–46. http://dx.doi.org/10.17564/2359-4942.2015v1n2p35-46.

Full text
Abstract:
En la actualidad, los volúmenes de datos generados y almacenados por las organizaciones crecen de forma desmesurada. Esta situación trae consigo grandes desafíos, entre ellos como integrar y transformar estos datos en informaciones relevantes de forma que se pueda optimizar el proceso de toma de decisiones en los negocios. En el contexto descripto para la efectiva utilización como apoyo al proceso de toma de decisiones, es necesaria una base para organizar e integrar los datos disponibles de fácil entendimiento y que posibilite acceder a los datos de forma rápida. Permitiendo de esta manera la exploración de datos para identificar informaciones nuevas y útiles para atender las expectativas y necesidades estratégicas de las organizaciones. El presente trabajo tiene como principal objetivo presentar un enfoque de las etapas de aplicación de técnicas de Business Intelligence para optimizar el proceso de toma de decisiones en una Institución de Enseñanza Superior. De esta manera con la conclusión del proyecto de investigación se pretende disponibilizar un conjunto de tecnologías y servicios que posibiliten una mejor administración de la Institución a través de análisis de informaciones relevantes y descubiertas de tendencias futuras proporcionando un entorno favorable al desenvolvimiento dinámico de las actividades de la Universidad.
APA, Harvard, Vancouver, ISO, and other styles
18

Rojas Roncancio, Eveling Y., and Ricardo A. Peña Silva. "Epidemiología digital como herramienta para la evaluación de enfermedades del oído y la vía aérea en Colombia, durante los años 2012-2014: Un estudio ecológico." ACTA DE OTORRINOLARINGOLOGÍA & CIRUGÍA DE CABEZA Y CUELLO 46, no. 3 (April 13, 2019): 202–7. http://dx.doi.org/10.37076/acorl.v46i3.423.

Full text
Abstract:
Introducción: Las tecnologías de información y la facilidad de acceso a grandes volúmenes de datos “big data” están revolucionando la epidemiología. Objetivo: Analizar datos del sistema integral de Información “SISPRO” del Ministerio de Salud para obtener los motivos más frecuentes de consulta en otorrinolaringología en consulta externa y urgencias. Diseño: Estudio descriptivo ecológico. Metodología: En SISPRO se usaron los códigos CIE-10 para analizar los datos de atención en salud para patologías de oído (H60-H959) y vía aérea superior (J00-J399). Resultados: Los principales motivos de consulta incluyen: infecciones de la vía aérea superior (rinofaringitis, faringitis, amigdalitis, otitis media aguda e infecciones no especificadas) con 14.935.729 atenciones, 7.877.189 personas atendidas y un promedio de 1,9 consultas por persona; Rinitis (1.760.055 atenciones, 899.349 personas y 1,96 consultas/persona); Vértigo (1.632.012 atenciones, 686.470 personas y 2,38 consultas/persona); Cerumen impactado (554.744 atenciones, 296.324 personas y 18,76 consultas/persona); Hipoacusia (853.047 atenciones, 366.037 personas y 2,33 consultas/persona).
APA, Harvard, Vancouver, ISO, and other styles
19

Montoya Suarez, Lina María, and Gustavo Andrés Gil Restrepo. "Actualidad e importancia de la implementación de Big Data utilizando las herramientas Hadoop y Spark." Lámpsakos, no. 19 (January 16, 2018): 67–72. http://dx.doi.org/10.21501/21454086.2403.

Full text
Abstract:
En el presente artículo se realizó una revisión sobre la actualidad e importancia del Big data a través de las herramientas Hadoop y Spark. En un principio se contextualiza el concepto Big Data desde diferentes autores y haciendo referencia a su importancia en las diferentes organizaciones, teniendo como premisa las tres V que deben estar presentes a la hora de implementar Big Data (Volumen, Variedad y Velocidad). Luego se analizan las herramientas Hadoop y Spark, identificando su capacidad de hacer más eficiente el procesamiento de grandes volúmenes de datos, de diferentes tipos de datos y a gran velocidad dando solución a los problemas que se presentaban antes cuando se iba a trabajar sobre muchos datos. Por último se hace una reflexión sobre la importancia del Big Data en la toma de decisiones de una organización, teniendo en cuenta que la toma de decisiones permite que una organización sea competitiva y pueda perdurar en el tiempo.
APA, Harvard, Vancouver, ISO, and other styles
20

Sánchez Rojas, Naddiel Jesús, Amaury Machín Armenteros, and Yusney Marrero García. "Sistema informático para la gestión de ensayos fisicoquímicos en la Central Termoeléctrica Ernesto Guevara." AlfaPublicaciones 2, no. 2 (November 18, 2020): 29–46. http://dx.doi.org/10.33262/ap.v2i2.27.

Full text
Abstract:
La gestión de la información asociada a los ensayos fisicoquímicos que se llevan a cabo en el Departamento de Química de la Central Termoeléctrica Ernesto Guevara se ve afectada debido a que dicha gestión se realiza a través de documentos de textos, y hojas de cálculo. Esto impide una buena explotación de los datos e implica que se generen grandes volúmenes de información, difíciles de guardar y procesar, lo cual dificulta el control del proceso de generación eléctrica. Por estas razones se decide desarrollar un sistema informático que mejore la gestión de información. Como resultado del presente trabajo se obtuvo un sistema que permite la gestión y control de la información, lo cual garantiza una mayor organización, respuestas rápidas ante las consultas, y datos precisos que podrán ser utilizados como apoyo en el proceso de toma de decisiones en el Departamento de Química.
APA, Harvard, Vancouver, ISO, and other styles
21

Gutiérrez Idrobo, Daniela Iboth, Edwin Mauricio Realpe Grijalba, Luis Alfonso Vejarano Sánchez, and María Alejandra Varona Taborda. "Inteligencia de negocios para las citas médicas del hospital Nuestra Señora de Lourdes en Argelia Cauca." SATHIRI 15, no. 2 (December 23, 2020): 237–48. http://dx.doi.org/10.32645/13906925.1000.

Full text
Abstract:
En este artículo se presenta una solución de Inteligencia de Negocios con el propósito de generar un prototipo de análisis e interpretación de los datos de citas médicas de los sistemas existentes en el Hospital Nuestra Señora de Lourdes en el municipio de Argelia en el departamento del Cauca, donde la creciente necesidad de atención médica integrada ha llevado a las organizaciones a la adopción de amplios sistemas de apoyo para el manejo de grandes volúmenes de datos que requieren ser atendidos y procesados de forma rápida y eficaz para garantizar la excelencia en la prestación del servicio, estas entidades en especial las del sector público deben tomar decisiones orientadas a satisfacer la demanda de servicios de los pacientes que acuden a centros de salud. Haciendo uso de la metodología Hefesto que se adaptó a los requerimientos promoviendo el buen desarrollo y análisis de los datos y se construyó una bodega de datos que permitió la generación de reportes para brindar un mejor servicio al paciente, al personal médico y administrativo.
APA, Harvard, Vancouver, ISO, and other styles
22

Mamani Rodríguez, Zoraida, Luz Del Pino Rodríguez, and Augusto Cortez Vasquez. "Minerٕía de datos distribuida usando clustering k-means en la predictibilidad del proceso petitorio en una organización pública." Industrial Data 20, no. 2 (December 21, 2017): 123. http://dx.doi.org/10.15381/idata.v20i2.13949.

Full text
Abstract:
La minería de datos distribuida está contemplada en el campo de la investigación e implica la aplicación del proceso de extracción de conocimiento sobre grandes volúmenes de información almacenados en bases de datos distribuidas. Las organizaciones modernas requieren de herramientas que realicen tareas de predicción, pronósticos, clasificación entre otros y en línea, sobre sus bases de datos que se ubican en diferentes nodos interconectados a través de internet, de manera que les permita mejorar la calidad de sus servicios. El Clustering es una de las principales tecnicas de modelado de la mineria de datos la cual consiste en dividir la información en grupos diferentes, internamente los miembros de cada grupo son muy similares unos de otros y disimiles respecto a los miembos de los otros grupos. Los grupos o clusters resultantes permiten predecir patrones de comportamiento que pueden aportar en la toma de decisiones de las organizaciones. Es en este contexto que el presente trabajo elabora una propuesta de un prototipo de aplicación de minería de datos distribuida basado en la técnica k-means en la predictibilidad del proceso petitorio de una organizacion pública.
APA, Harvard, Vancouver, ISO, and other styles
23

Gil, Víctor, and Angélica Velasco López. "Minería de datos aplicada a la detección de la deserción en adolescentes infractores." Ingenierías USBMed 7, no. 2 (October 4, 2016): 61–66. http://dx.doi.org/10.21500/20275846.2420.

Full text
Abstract:
La deserción de adolescentes infractores de la ley que no están privados de la libertad pertenecientes a las comunidades terapéuticas administradas por la Congregación de Religiosos Terciarios Capuchinos, se ha convertido en una problemática que interrumpe el proceso de rehabilitación y pone en riesgo la integridad de los mismos en la sociedad. Este trabajo presenta un modelo para identificar adolescentes pertenecientes a estas instituciones candidatos a ser posibles desertores. Se empleó la técnica de minería de datos de búsqueda de relaciones entre variables, la cual permite identificar patrones en grandes volúmenes de información, facilitando la formulación de estrategias y la toma de decisiones en cualquier área de conocimiento. Se empleó una base de datos que reunía la información básica de 300 adolescentes: edad, sexo, consumo de sustancias psicoactivas, tipo de vivienda, zona de procedencia, número de ingresos semestrales y anuales a los programas de rehabilitación. Este trabajo concluye que el consumo de sustancias psicoactivas es el factor que más motiva a los adolescentes a desertar de estas instituciones, razón por la cual se deben formular e implementar estrategias que permitan evitar la proliferación de nuevos consumidores y rehabilitar a los existentes.
APA, Harvard, Vancouver, ISO, and other styles
24

Caparó, Rafael, and Elizabeth Pari. "Modelos de econometría espacial para la lucha contra la delincuencia en el Perú: un enfoque de optimización en tiempo real." Revista IECOS 18 (March 19, 2021): 40–71. http://dx.doi.org/10.21754/iecos.v18i0.1174.

Full text
Abstract:
El grado de correlación espacial mostrado entre las regiones evidencia que existe unefecto contagio a nivel de delincuencia sobre todo en las regiones periféricas de Lima,se ha encontrado una relación positiva que avanza de región en región, de distritoen distrito, con tendencias positivas y con claras dependencias con los niveles deingresos y densidad poblacional, sobre todo en los distritos que se encuentran en losconos, confirmando que el modelo puede contrastar la realidad y predecir escenarios futuros en cuanto a niveles de delincuencia. Si bien la tecnología relacionada al alma-cenaje de información es reducida, se presenta una alternativa para la recolección de datos y algunos códigos para almacenar grandes volúmenes de datos, sobre todolos relacionados a las posiciones georreferenciadas de zonas de alta delincuencia, loscuales han servido para encontrar patrones de expansión regional de actos delictivos,monitorear los mismos y proponer alternativas de mejora.
APA, Harvard, Vancouver, ISO, and other styles
25

Sanchez Paz, Hector R. "Evolución de los sistemas celulares." Ingeniería y Región 3 (December 30, 2004): 89–96. http://dx.doi.org/10.25054/22161325.862.

Full text
Abstract:
El sistema celular en sus dos décadas de existencia, se ha convertido en el sistema de comunicaciones de mayor crecimiento anual, con cambios tecnológicos radicales aproximadamente cada 10 años.Hasta el presente han existido dos generaciones de celulares, la primera con tecnología analógica diseñada para ofrecer servicio de voz y la segunda totalmente digital, lo que permitió además ofrecer servicios de datos hasta una zona máxima de transmisión de 9.6 kbps. Ambas generaciones celulares emplearon canales de radio de banda estrecha y velocidades de transmisión baja, típicas de los servicios telefónicos de voz. En la actualidad, se está desplegando una tercera generación con velocidades de transmisión de hasta 2 Mbps y canales de radio de 5Mhz, lo que le permite ofrecer servicios de banda ancha. La 3G, a pesar de sus ventajas, no se ha desarrollado según los pronósticos, debido en primer lugar a la recesión económica mundial y en segundo, a problemas técnicos al no alcanzar grandes incrementos en su capacidad gracias ya que su eficiencia espectral es a un baja, dando lugar a que sus servicios de banda ancha sean caros. La necesidad de transmitir grandes volúmenes de datos a bajo costo, continúa impulsando la realización de nuevas investigaciones, para superar los problemas fundamentales en la cuarta generación de celulares.
APA, Harvard, Vancouver, ISO, and other styles
26

Moscoso Zea, Oswaldo. "Megastore: structured storage for Big Data." Enfoque UTE 3, no. 2 (December 31, 2012): 01–12. http://dx.doi.org/10.29019/enfoqueute.v3n2.1.

Full text
Abstract:
Megastore es uno de los componentes principales de la infraestructura de datos de Google, elcual ha permitido el procesamiento y almacenamiento de grandes volúmenes de datos (BigData) con alta escalabilidad, confiabilidad y seguridad. Las compañías e individuos que usanestá tecnología se están beneficiando al mismo tiempo de un servicio estable y de altadisponibilidad. En este artículo se realiza un análisis de la infraestructura de datos de Google,comenzando por una revisión de los componentes principales que se han implementado en losúltimos años hasta la creación de Megastore. Se presenta también un análisis de los aspectostécnicos más importantes que se han implementado en este sistema de almacenamiento y que le han permitido cumplir con los objetivos para los que fue creado.Abstract:Megastore is one of the building blocks of Google’s data infrastructure. It has allowed storingand processing operations of huge volumes of data (Big Data) with high scalability, reliabilityand security. Companies and individuals using this technology benefit from a highly availableand stable service. In this paper an analysis of Google’s data infrastructure is made, startingwith a review of the core components that have been developed in recent years until theimplementation of Megastore. An analysis is also made of the most important
APA, Harvard, Vancouver, ISO, and other styles
27

Cuadros Garrido, María Elisa. "La protección de los derechos fundamentales de la persona trabajadora ante la utilización de GPS: ¿reformulación o continuidad?" Lan Harremanak - Revista de Relaciones Laborales, no. 42 (December 24, 2019): 127–48. http://dx.doi.org/10.1387/lan-harremanak.21087.

Full text
Abstract:
Los datos de tiempo-localización son una de las fuentes del Big Data más sensibles a la privacidad de los usuarios; por ello tienen una enorme aplicación práctica, además de la oportunidad del uso de grandes volúmenes de datos, traen consigo enormes riesgos para la privacidad y son una enorme fuente creciente de datos. Desde la óptica de la regularidad de la obtención de las informaciones del GPS, con el objeto de que puedan servir de prueba en un posible proceso judicial, por ello hay que entender que nos encontramos, en muchos casos, ante datos sensibles de la vida privada, por lo que en España se ha optado por una regulación expresa de la materia. La normativa actual vigente, establece un deber de información previo a la fiscalización del GPS, de manera a que obliga que se detalle por parte de la empresa de manera previa, expresa, clara e inequívoca. El derecho que resulta más afectado aquí es la autodeterminación informativa por su relación instrumental con el derecho a la intimidad este segundo derecho que también es objeto de protección, pero no de una manera colateral por lo que la redacción del precepto no es del todo afortunada, lo que podemos afirmar sin dudarlo que ello puede llevar a posibles interpretaciones judiciales contradictorias.
APA, Harvard, Vancouver, ISO, and other styles
28

Aguilera Faraco, Ana Isabel, and Marlene Goncalves Da Silva. "Una Implementación para el Agrupamiento Difuso en SQL." Revista Tecnica De La Facultad De Ingenieria Universidad Del Zulia 44, no. 1 (January 1, 2021): 36–43. http://dx.doi.org/10.22209/rt.v44n1a05.

Full text
Abstract:
Los sistemas de gestión de bases de datos (SGBD) relacionales tienen una gran utilidad en el almacenamiento eficiente de grandes volúmenes de datos. En este sentido, se han propuesto algunas extensiones de los SGBD basadas en la lógica difusa, para mejorar la expresividad de los lenguajes de consulta, entre ellos, el lenguaje SQLf (extensión de SQL que soporta condiciones difusas). Por otra parte, el Group-By es un operador de base de datos ampliamente utilizado en el análisis de datos y en los sistemas de apoyo a la toma de decisiones. En muchos casos, parece útil agrupar los valores según su similitud con un determinado concepto en lugar de establecer la agrupación sobre la base de valores iguales. En este contexto, se ha propuesto una nueva estructura de SQLf denominada Fuzzy Group By (FGB), para apoyar una agrupación basada en particiones difusas. En este trabajo, se incorporó la agrupación difusa en PostgreSQLf, que es una extensión del SGBD PostgreSQL, para el manejo de consultas difusas utilizando el lenguaje SQLf con una arquitectura fuertemente acoplada (directamente en el SGBD). Se pronone un algoritmo basado en un hash para evaluar el operador FGB y también se evalúa empíricamente el rendimiento de PostgreSQLf sobre el Benchmark™ TPC-H.
APA, Harvard, Vancouver, ISO, and other styles
29

Moreno Arboleda, Francisco Javier, John Freddy Duitama Muñoz, and Luis Fernando Montoya Gómez. "Una propuesta para la clasificación emocional de un álbum a partir de la letra de sus canciones." Revista Tecnura 20, no. 47 (February 18, 2016): 57. http://dx.doi.org/10.14483/udistrital.jour.tecnura.2016.1.a05.

Full text
Abstract:
<p>Los grandes volúmenes de datos que se manejan actualmente demandan métodos automáticos para la extracción de conocimiento. En particular, la minería de texto se ocupa de la extracción de conocimiento a partir de textos. En este artículo se proponen dos algoritmos para determinar a partir de las letras de sus canciones, la tendencia emocional de un álbum. Se sigue un enfoque jerárquico: las categorías emocionales para clasificar los álbumes agrupan a las subcategorías emocionales de las canciones. Esto es razonable, porque una canción tiende a estar orientada a una (sub)categoría emocional específica. De esta forma la categoría emocional de un álbum es una ponderación de las subcategorías emocionales de sus canciones. Esta ponderación puede ser configurada por parte del analista musical, lo que permite incorporar un elemento de subjetividad en la propuesta. Mediante una serie de experimentos se evaluaron los algoritmos propuestos. Aunque es necesario experimentar con más datos, los resultados evidenciaron la conveniencia, consistencia y utilidad de los algoritmos propuestos</p>
APA, Harvard, Vancouver, ISO, and other styles
30

Castro Fernández, Mario Fernando, Daissy Milena Díaz Casallas, and Carlos Enrique Montenegro Marín. "Análisis de la Calidad del Agua del Río Bogotá Dura nte el Periodo 2008 – 2015 a Par tir de Herra mientas de Minería de Datos." Publicaciones e Investigación 9 (October 22, 2015): 37. http://dx.doi.org/10.22490/25394088.1432.

Full text
Abstract:
Actualmente, llevar a cabo acciones que reduzcan el impacto ambiental en todo tipo de procesos, tanto industriales, como comerciales o de la vida cotidiana, son preocupaciones pertinentes [1]being them social, scientific, cultural, economical or political. Environmental sensing and monitoring initiatives will be gratified by new Information System (IS. Con la llegada del big data, los grandes volúmenes de datos con una relación armónica de “gente – tierra - tiempo” entró gradualmente en el campo de la gestión<br />de recursos naturales [2]. A diferencia de la cantidad de agua, dato que se puede expresar en términos precisos, la calidad es un atributo de múltiples parámetros. Este proceso arroja un volumen considerable<br />de datos, que finalmente se almacenan en las tablas de datos, pero que no se traducen en información inteligible que describa el estado de la masa de agua. Los índices de calidad del agua -ICA- se convierten en una herramienta de fácil comunicación de la información científica de expertos al público en general [3]. Las anteriores razones motivan la exploración de las diferentes herramientas de minería de datos que día tras día hacen presencia en el mundo. Se logró acceder a los monitoreos realizados a la<br />cuenca del río Bogotá durante el periodo comprendido entre 2007 – 2015. Con esta información se realizó el cálculo de los Indicadores de Calidad del Agua para cada una de las estaciones monitoreadas y cada uno de los diferentes periodos estudiados, logrando, así, analizar y evaluar el espacio temporal de la calidad del río Bogotá.
APA, Harvard, Vancouver, ISO, and other styles
31

Zepeda Ortega, Ana J. "Los Big Data: conceptos relacionados y algunas aplicaciones en pediatría." Revista Chilena de Pediatría 90, no. 4 (August 14, 2019): 376. http://dx.doi.org/10.32641/rchped.v90i4.1306.

Full text
Abstract:
El avance de la tecnología médica, el registro de salud electrónico (EHR, por sus siglas en inglés) y la producción compleja de datos biomoleculares están generando grandes volúmenes de información, en varios formatos y de múltiples fuentes, que se conocen como “Big Data”. El análisis integrado de estos datos ha abierto una amplia posibilidad para explorar respuestas a problemas de salud. En pediatría, se han incrementado los estudios se analizan Big Data o se utilizan las herramientas informáticas que se han desarrollado para analizar estos datos. Los propósitos de esos estudios han sido variados, por ejemplo: en la detección y prevención temprana de una amplia gama de afecciones médicas, mejoramiento de los diagnósticos, para especificar tratamientos o anticipar el resultado de alguna patología, etc. El presente documento tiene como objetivo revisar los conceptos principales involucrados en el análisis de Big Data o en las tecnologías informáticas asociadas, así como también examinar sus aplicaciones, potencialidades y limitaciones actuales. Este estudio se realizó sobre la base de una revisión bibliográfica no sistemática, centrada en el campo de la pediatría. En la selección de los ejemplos de aplicación, se consideró que eran fuentes primarias, publicadas en los últimos cinco años y con poblaciones infanto-juveniles.
APA, Harvard, Vancouver, ISO, and other styles
32

Pissolato, Luciana, and Carles Tebé. "Reflexiones sobre la metodología terminológica en contextos de traducción: ¿qué se pierde en el trabajo con herramientas informáticas?" Mutatis Mutandis. Revista Latinoamericana de Traducción 12, no. 1 (April 30, 2019): 272–93. http://dx.doi.org/10.17533/udea.mut.v12n1a11.

Full text
Abstract:
Los supuestos metodológicos del trabajo en terminología desde una aproximación lingüística y textualista están bien establecidos desde hace años. No puede hablarse de una metodología terminológica única, puesto que lo que denominaremos escenarios terminológicos pueden suponer recorridos y etapas metodológicas muy diferentes –por ejemplo, una recopilación de neologismos de prensa, la compilación de un glosario para la traducción, o un trabajo de normalización de términos.La diversidad de escenarios terminológicos se corresponde con una gran variedad de herramientas disponibles para el terminólogo: gestores de bases de datos, alineadores, concordanciadores, herramientas de traducción asistida y automática, detectores de terminología, extractores de definiciones, etc. Cada escenario de trabajo exige su propio conjunto de herramientas.En este artículo, planteamos una serie de reflexiones metodológicas en torno al trabajo en terminología: si bien las herramientas nos permiten tratar grandes volúmenes de datos, ser más consistentes, y validar hipótesis de una forma más objetivable, sobre todo cuantitativamente, ¿qué se pierde al dejar que sea la herramienta, y no el investigador, quien extraiga evidencias y presente resultados? A partir de ejemplos concretos, responderemos a las siguientes preguntas: ¿se pierden datos relevantes? ¿En qué etapas, mayormente? ¿Qué tipo de datos son y qué impacto tienen sobre la investigación? Además de datos, ¿qué otros aspectos de la metodología se pueden ver afectados? Puesto que la investigación se desarrolló en un escenario de traducción, en las conclusiones proyectaremos las consecuencias de estas reflexiones sobre la enseñanza-aprendizaje de la terminología en contextos de traducción.
APA, Harvard, Vancouver, ISO, and other styles
33

González-Hernández, Isidro Jesús, Rosa I. Romero-Torres, Andrik E. Castillo-Leyva, Sabrina A. Fernández-Amador, Juan Á. Juárez-García, and Francisca Santana-Robles. "La evolución tecnológica de los sistemas de fabricación y la ciencia estadística." Ingenio y Conciencia Boletín Científico de la Escuela Superior Ciudad Sahagún 8, no. 16 (July 5, 2021): 53–63. http://dx.doi.org/10.29057/escs.v8i16.7120.

Full text
Abstract:
Las industrias manufactureras, así como las empresas de servicios, se han enfrentado a varias revoluciones industriales para hacer frente a la competencia en cuanto a capacidad de producción mundial, calidad y costo. Las revoluciones industriales del pasado se han visto influidas por varias innovaciones técnicas. Sin embargo, una de las principales características de la cuarta revolución industrial ha sido el desarrollo y aplicación de las tecnologías de la información y la comunicación que se están impregnando en todos los aspectos de los sistemas industriales y de fabricación, lo que ha provocado la aceleración y generación de grandes volúmenes de datos industriales. Estos desarrollos están cambiando la naturaleza de aplicar la Ciencia Estadística, la cual tiene como objetivo coadyuvar a la toma decisiones eficientes con base en datos analizados. En este trabajo se realizó una descripción cualitativa de carácter bibliográfico y documental sobre el desarrollo de las revoluciones industriales y la evolución de la Ciencia Estadística. Este análisis permitió identificar que la transición de las revoluciones industriales fue por la implementación masiva de las innovaciones tecnológicas y científicas que se implementaron en los diferentes sistemas de fabricación, provocando al mismo tiempo revoluciones sociales, económicas y formas de vivir. Desde el contexto de la Estadística se puede observar que la cuarta revolución industrial ha creado nuevas tendencias tecnológicas y científicas para recopilar, organizar y analizar datos, tales como el Big data, la Ciencia de Datos y la Analítica de Datos.
APA, Harvard, Vancouver, ISO, and other styles
34

Zamora Zamora, Geovanny, Tito Max Banegas Peña, María Eliza Flores Flores, and Jorge Edison Becerra Molina. "Análisis multivariante para el estudio socio-económico - parroquia Carmen de Pijili." Ciencia Digital 3, no. 2.3 (May 17, 2019): 66–91. http://dx.doi.org/10.33262/cienciadigital.v3i2.3.489.

Full text
Abstract:
La complejidad de los fenómenos de las ciencias en general hace que los investigadores se vean obligados a enfrentarse a problemas complejos, multivalentes, en los cuales intervienen y coexisten variables llamadas predictoras y las llamadas de resultados, respuesta o eventos, que requieren se tipificadas entre grandes volúmenes de datos. Por esta razón se realiza un estudio socioeconómico de la comunidad, empleando las técnicas métricas para determinar la situación social y económica utilizando conceptos avanzados y herramientas para el examen e interpretación integral de los resultados. El análisis multivariante (Martínez Arias, 2008) “es una herramienta que, en los últimos años ha alcanzado gran desarrollo en las investigaciones de las ciencias sociales, a pesar de no ser esta herramienta de fácil aplicación para los estudiosos”. El objetivo del presente trabajo tiene como fin realizar un análisis multivariante para el estudio socio-económico de la parroquia Carmen de Pijili y sus zonas aledañas, información que permita determinar las grandes necesidades, tomar las mejores decisiones, planificar las políticas públicas y proyectar la asistencia social a las personas más desfavorecidas y poder optimizar la calidad de vida de los habitantes. De un universo de 580 familias, se tomó una muestra de 69 familias, mismas que fueron consultadas sobre variables de índole socio-económico y equipamiento local. La base de datos, fue procesada y depurada en el software Dyana y SPSS, para obtener los indicadores estadísticos requeridos en el análisis social.
APA, Harvard, Vancouver, ISO, and other styles
35

Montero, Sharon Corrales, Karen Miranda Hernández, Édgar Casasola Murillo, Jorge Antonio Leoni de León, and Mario Hernández-Delgado. "Análisis de texto para la identificación automática de marcadores lingüísticos definicionales en recetas de gastronomía de Costa Rica." Káñina 42, no. 3 (December 28, 2018): 65–78. http://dx.doi.org/10.15517/rk.v42i3.35786.

Full text
Abstract:
El análisis de contextos definicionales permite clasificar y sistematizar las informaciones definicionales pertenecientes a un dominio específico y, posteriormente, identificar estándares de las formas en que se definen las palabras y términos en tal dominio. En este artículo, se describe el proceso realizado para automatizar el análisis de contextos definicionales en el dominio gastronómico de Costa Rica. La labor se realizó mediante el uso de herramientas computacionales para el procesamiento de lenguaje natural. La automatización permite el análisis sobre grandes volúmenes de datos y obtener resultados en menos tiempo del requerido por el análisis manual. Ahora bien, el procedimiento consta de dos módulos, uno de clasificación de documentos en textos con recetas o sin ellas y un segundo módulo de identificación de los ingredientes de cocina con base en patrones lingüísticos formales. Palabras clave: análisis lingüístico de recetas, análisis de contextos definicionales, patrones definicionales, marcadores definicionales, procesamiento del lenguaje natural.
APA, Harvard, Vancouver, ISO, and other styles
36

Díaz, Diego, and Clara Boj. "Prácticas artísticas en la época del dataceno. Data Biography: rastros digitales para la exploración biográfica de la identidad personal." Artnodes, no. 24 (July 17, 2019): 121–33. http://dx.doi.org/10.7238/a.v0i24.3293.

Full text
Abstract:
Cada vez más detalles de nuestra vida son registrados y almacenados para formar parte de lo que ha venido a llamarse big data. Nuestra vida, en todos sus aspectos, deja un rastro digital que se actualiza continuamente en función de actividades, tanto de la vida física como de la vida digital, que alimentan bases de datos en las que se refleja tanto el último libro que hemos comprado como las visitas médicas que hemos realizado. Muchos de esos datos son abiertos y accesibles, otros son propiedad de empresas privadas que comercializan con ellos. En esta publicación inicialmente introducimos y justificamos la conveniencia de utilizar el termino dataceno, entendido como una metáfora para comprender la sociedad actual como una sociedad mediada por los datos digitales. Posteriormente, realizamos una clasificación de las practicas artísticas contemporáneas con distintas aproximaciones al uso y análisis de datos complejos: desde la creación de atractivas visualizaciones bajo el propósito de acceder a la información escondida en los grandes volúmenes de datos, hasta aproximaciones más conceptuales que nos acercan a un planteamiento crítico sobre el volumen, recolección, uso y comercialización de los mismos. En la última parte de esta publicación, nos centramos en analizar las creaciones artísticas basadas en rastros digitales y en el concepto de biografía narrativa en la era del dataceno. Por último, analizamos nuestra obra Data Biography, una propuesta de diseño especulativo que cuestiona la escritura biográfica, utilizando los datos recogidos de nuestro rastro digital en redes sociales, WhatsApp, correos electrónicos, sitios web visitados, búsquedas en Google, imágenes, ubicación de gps, etc.
APA, Harvard, Vancouver, ISO, and other styles
37

Espinosa Zúñiga, Javier Jesús. "Aplicación de metodología CRISP-DM para segmentación geográfica de una base de datos pública." Ingeniería Investigación y Tecnología 21, no. 1 (January 1, 2020): 1–13. http://dx.doi.org/10.22201/fi.25940732e.2020.21n1.008.

Full text
Abstract:
El avance tecnológico ha permitido a las organizaciones en todos los niveles almacenar grandes volúmenes de datos. Sin embargo, un problema al cual se están enfrentando actualmente es el análisis de dichos datos a fin de extraer conocimiento útil para toma de decisiones en problemas reales. Actualmente existen varias metodologías que facilitan el análisis de datos a fin de extraer información que se pueda convertir en conocimiento: una de ellas es la metodología CRISP-DM (acrónimo de Cross Industry Standard Process for Data Mining) que a pesar de ser la metodología más utilizada para proyectos de Minería de Datos y de tener más de veinte años desde su creación no es muy conocida en el ámbito laboral de muchas organizaciones de todo tipo en México. El presente artículo tiene como objetivo ejemplificar la aplicación de la metodología CRISP-DM en la obtención de un modelo de segmentación básico sobre la base pública de unidades económicas (establecimientos y empresas) del Directorio Nacional de Unidades Económicas (DENUE). Para ello se aplicaron los seis pasos de la metodología (comprensión del problema, comprensión de datos, preparación de datos, modelado, evaluación del modelo e implementación del mismo) para obtener un modelo de segmentación que dividió las unidades económicas de México en dos grupos (el primer grupo conteniendo seis entidades y el segundo grupo conteniendo veintiséis entidades) con volumetrías de unidades económicas similares y con un patrón geográfico de interés. Aunque se trata de un primer modelo sobre la base del DENUE que es susceptible de mejora, muestra el beneficio de aplicar la metodología CRISP-DM lo cual sin duda es de utilidad para las organizaciones que aplican actualmente dichos proyectos en México y también muestra la potencialidad de explotar una base pública con información valiosa como la base del DENUE en muchos sentidos (comercial, académico, etc.) mediante Minería de Datos.
APA, Harvard, Vancouver, ISO, and other styles
38

Insua-Suárez, Ernesto, Marlis Fulgueira-Camilo, and Venus Henry-Fuenteseca. "Paralelización del Algoritmo Expectación–Maximización Utilizando OpenCL." Lámpsakos, no. 13 (January 1, 2015): 51. http://dx.doi.org/10.21501/21454086.1361.

Full text
Abstract:
Actualmente, las organizaciones y empresas almacenan grandes volúmenes de datos para lograr sus propósitos. Una de las variantes para obtener información valiosa consiste en el empleo de la Minería de datos. Dentro de esta, existen diferentes tareas, una de ellas es el agrupamiento. En esta tarea los datos se agrupan según sus semejanzas entre si y diferencias con elementos de otros grupos. Dentro de los algoritmos que realizan estos agrupamientos se encuentra Expectación-Maximización, el cual presenta elevados tiempos de ejecución en la medida que aumenta el tamaño de los datos. En el presente artículo se discute acerca de la paralelización del algoritmo, utilizando técnicas de programación paralela. El diseño del algoritmo propuesto se basa en el uso de las tarjetas de procesamiento gráfico, GPU. OpenCL, lenguaje empleado para la programación en arquitecturas híbridas, permite aprovechar las arquitecturas de hardware disponibles, con lo que se logra disminuir el tiempo de ejecución de la implementación realizada. La razón principal por lo cual es posible mejorar este tiempo se debe a la cantidad de procesos paralelos que se pueden lanzar en hilos de procesamientos independientes. Para el logro de los resultados descritos se integran conocimientos del campo de la Minería de datos y la Computación Paralela y Distribuida. Como parte de esta investigación, se realizó una implementación del algoritmo utilizando las bibliotecas de OpenCL, para disminuir su tiempo de ejecución. La implementación logra disminuir en un 82% la implementación secuencial. Esto significa que el algoritmo paralelo se ejecuta 5,5 veces más rápido que su correspondiente implementación secuencial.
APA, Harvard, Vancouver, ISO, and other styles
39

Botello Peñaloza, Héctor Alberto, and Aura Cecilia Pedraza Avella. "Determinantes de la adopción de TIC en países en vía de desarrollo: el caso de las empresas industriales ecuatorianas." Academia y Virtualidad 8, no. 2 (December 1, 2015): 48. http://dx.doi.org/10.18359/ravi.1422.

Full text
Abstract:
<p>Este trabajo investiga los determinantes de la adopción de las tecnologías de la información y de la comunicación (TIC) en el sector industrial del Ecuador con base en datos de 14,324 empresas dentro del censo industrial de 2010. Con este fin, se utiliza un modelo Probit que estima la probabilidad de la implementación de TIC en función de una serie de características propias de las firmas. En general, la adopción de TIC en las empresas industriales en Ecuador es significativamente baja. Sólo 11% poseen una conexión a internet, 13% cuentan con correo electrónico y apenas un 3% con página web. Los volúmenes de ventas junto con el tamaño de la firma son los factores que más influyen en la difusión de estos componentes dentro de las empresas. Le siguen el grado de formalidad de la empresa, la localización de la firma en grandes ciudades y la pertenencia a sectores que elaboren bienes de capital. </p>
APA, Harvard, Vancouver, ISO, and other styles
40

De León Pérez, D., and E. Domínguez. "Determinación de áreas hidroclimáticamente homogéneas. Una propuesta técnica." Ingeniería del agua 25, no. 2 (March 31, 2021): 97. http://dx.doi.org/10.4995/ia.2021.14659.

Full text
Abstract:
<p>Diferentes investigadores en hidroclimatología aplican técnicas basadas en autovectores para comprimir grandes volúmenes de información mientras conservan la estructura invariante de los datos originales. La presente investigación desarrolló una metodología que aplica una de estas técnicas, Análisis de Componentes Principales, a los elementos de variabilidad en series de tiempo hidroclimáticas y luego se identifican grupos o clústers mediante el método “k-means”. El resultado es un mapa regionalizado por variable. Finalmente se hace la intersección de estos mapas y obteniéndose áreas que presentan una estructura hidroclimática homogénea debido que las variables comparten su estructura de varianza. En el caso de estudio se evaluaron 8 variables para Colombia (9268 series de tiempo), obteniendo como resultado 26 regiones hidroclimáticas. Obtener regiones hidroclimáticamente homogéneas brinda la posibilidad de generar, entre otros, proyectos de adaptación al cambio climático de forma localizada con el fin de dar soluciones cuasi particulares que maximicen los resultados.</p><p> </p>
APA, Harvard, Vancouver, ISO, and other styles
41

Palacios, Nitzia Aleine Aguilar, and Cap Francisco Gonzalez. "Estudio de un Sistema Informático que realice Intercambios Electrónicos de Datos para compartir Información controlada entre Entidades del Sector Marítimo Panameño." KnE Engineering 3, no. 1 (February 11, 2018): 438. http://dx.doi.org/10.18502/keg.v3i1.1448.

Full text
Abstract:
Este trabajo de investigación corresponde a un estudio para la propuesta de un sistema informático que realice intercambios electrónicos de datos (EDI) en procesos marítimos, principalmente refiriéndose a importaciones y exportaciones. La forma manual como se desarrollan los procesos en la actualidad genera grandes volúmenes de documentación física, que involucra procedimientos burocráticos, sellos y firmas cuya obtención generan tiempos de espera. Es de gran importancia erradicar la problemática expuesta, considerando que esta situación deja atrás a Panamá, impactando negativamente en sus relaciones comerciales con otros países.Considerando que el tiempo es un factor de relevancia en la productividad del sector, se debería reducir al máximo posible. Razón por la cual se propone la implementación de una plataforma digital capaz de compartir información controlada entre los actores involucrados.La Autoridad Marítima de Panamá (AMP) es la entidad idónea para dirigir mencionado sistema informático, donde los principales actores serían: puertos, navieras, importadores/exportadores, entidades gubernamentales (aduanas, AUPSA, migración, cuarentena, etc.), transportistas terrestres y agentes de carga. Compartir la información de una forma automatizada agilizaría el desarrollo de los procedimientos, garantizando un mejor manejo de la información.Al final del estudio el resultado obtenido es la comprobación de la hipótesis verdadera.Palabras claves: Procesos de import/export, Electronic data interchange (EDI), Ventanilla única, Port community systems, Integridad del sector marítimo.
APA, Harvard, Vancouver, ISO, and other styles
42

Duque-Jaramillo, Juan Camilo, and Eliana María Villa-Enciso. "Big Data: desarrollo, avance y aplicación en las Organizaciones de la era de la Información." Revista CEA 2, no. 4 (July 30, 2016): 27–45. http://dx.doi.org/10.22430/24223182.169.

Full text
Abstract:
Con el avance de la era de la información y el conocimiento, se han diseñado nuevas técnicas que permiten el desarrollo, creación y evolución de estrategias, instrumentos y aplicaciones que facilitan las acciones internas y externas de las organizaciones. El propósito del presente artículo es evidenciar los resultados de una revisión documental de una de estas técnicas: el Big Data. La metodología utilizada consistió en una revisión de la base de datos Scopus, en una ventana de observación de los últimos dos años (2014-2016). Con base en lo encontrado, se discutió sobre la importancia, ventajas y desventajas de esta aplicación. Se evidenció que el uso del Big Data es una técnica importante que contribuye al manejo de grandes volúmenes de información y que es usada en el campo de la gestión tecnológica en las organizaciones; se demostró la existencia de organizaciones que a través de la implementación y uso del Big Data han logrado aumentar su ventaja competitiva con respecto a las demás, ya que les ha permitido reducir costos en operaciones, facilitar procesos, diseñar nuevos modelos de negocio y tomar decisiones organizacionales que se han vuelto más difíciles de tomar, ya que cada día es más grande el volumen de información que se maneja
APA, Harvard, Vancouver, ISO, and other styles
43

Pérez Niño, Álvaro. "Web usage mining para la identificación de patrones de comportamiento de usuarios mediante el uso de herramientas tecnológicas." Vía Innova 1, no. 1 (December 15, 2014): 14. http://dx.doi.org/10.23850/2422068x.363.

Full text
Abstract:
Las herramientas de minería y análisis de datos, toman mayor relevancia cuando se afrontan grandes volúmenes de datos (Smyth, 2000) . En la actualidad los sitios y aplicaciones web ofrecen una gran oportunidad de contacto con los usuarios. Los servidores web registran de manera permanente los datos relacionados con las acciones realizadas por sus usuarios. Teniendo de esta manera registros que incluyen valores relacionados con la navegación de los clientes, tiempos de acceso, fechas, recursos buscados, respuestas del servidor ante las peticiones y orígenes de navegación. Es allí donde debemos aplicar los beneficios de la minería de datos y minería web y buscar el fortalecimiento a sistemas de información que ayuden a fortalecer las decisiones de la alta gerencia en las organizaciones (Y. M. Chae, 2003). El sitio web representa un canal de alto impacto en la medición de niveles de comunicación con la comunidad y en el Plan de Medios de la Organización se constituye como componente clave de la estrategia de difusión y de igual forma, contempla valores que pueden ayudar a comprender indicadores. Se resalta la importancia de los valores éticos y profesionales en el desarrollo del estudio (Drury, 2003). Abordamos el presente estudio procesando los datos almacenados en el log del servidor Web de un Hospital Público de Alta Complejidad del Municipio de Manizales Caldas y mediante el software libre Analog versión 6.0 y la versión de evaluación de Advanced Log Analyzer, visualizaremos información estadística que permitirá a la Institución tomar acciones frente a los patrones y comportamiento de los usuarios que navegan el website; mediante la generación de reglas de decisión y técnicas de agrupamiento.
APA, Harvard, Vancouver, ISO, and other styles
44

Mundo Molina, Martín D., and Polioptro Martínez. "Sistema computarizado para la gestión del agua en sistemas de riego por gravedad en México." Ingeniería del agua 9, no. 2 (June 30, 2002): 171. http://dx.doi.org/10.4995/ia.2002.2614.

Full text
Abstract:
En México los distritos de riego enfrentan diversos problemas, tanto técnicos como de gestión administrativa. En la parte administrativa es preciso automatizar grandes volúmenes de información, de tal manera que ésta sea expedida. En la parte técnica es necesario, entre otros importantes y diversos problemas, mejorar la eficiencia de los distritos, maximizando la producción por unidad de agua utilizada. Una alternativa para apoyarlos en la solución de esta problemática es la incorporación y uso de diversas herramientas tecnológicas, software y hardware, que integradas permitan facilitar la gestión técnica y administrativa de dichos sistemas de riego. Con estos objetivos se creó el SICODE. El SICODE es un sistema de cómputo que integra de manera modular los siguientes programas: base de datos, sistema de información geográfica, simulación de balance de agua en el suelo (pronóstico del riego, apoyado en estaciones meteorológicas automatizadas), simulador biológico y sistema experto. El objetivo de este trabajo es presentar las principales características del SICODE, que actualmente está implementado en el distrito de riego: 010 Culiacán en el estado de Sinaloa, México.
APA, Harvard, Vancouver, ISO, and other styles
45

Silva, Marcio Ponciano da, and Angel Freddy Godoy Viera. "Descoberta de conhecimento com uso de técnicas de mineração de textos aplicadas em documentos textuais da investigação policial brasileira." Investigación Bibliotecológica: archivonomía, bibliotecología e información 35, no. 88 (August 29, 2021): 161. http://dx.doi.org/10.22201/iibi.24488321xe.2021.88.58389.

Full text
Abstract:
El objetivo de este estudio es analizar cómo las técnicas de minería de textos aplicadas a documentos textuales de la investigación policial brasileña pueden promover el descubrimiento de conocimiento. La investigación recopiló documentos de la investigación policial y los sometió al proceso de minería de textos. El estudio utilizó las técnicas de plegado de casos, tokenización, palabras vacías personalizadas, bolsa de palabras y TF-IDF para extraer los resultados en ngramas. Los resultados se presentaron con nubes de palabras. En la investigación, se utilizaron k-medias para agrupar los conjuntos de trigramas, identificando en cada grupo los términos más representativos de los grupos. El uso de técnicas de minería de textos en estos documentos tenía como objetivo extraer conocimientos no triviales. Las técnicas de minería de texto, o descubrimiento de conocimiento en una base de datos textual, tienen el propósito de descubrir patrones inobservables cuando se analizan mediante manipulación humana de grandes volúmenes de documentos. Los resultados encontrados favorecieron el descubrimiento de conocimientos en la identificación de entidades y conexiones, así como categorías temáticas de la investigación.
APA, Harvard, Vancouver, ISO, and other styles
46

Vergara Moncada, Raúl Jesús. "LA TECNOLOG ÍA INFORMÁTICA HERRAMIENTA CONTRA LA EVASIÓN TRIBUTARIA." Quipukamayoc 11, no. 21 (March 16, 2014): 73. http://dx.doi.org/10.15381/quipu.v11i21.5490.

Full text
Abstract:
Actualmente la Superintendencia Nacional de Administración Tributaria en el Perú (SUNAT) ha implementado un conjunto de herramientas informáticas como el DATA WAREHOUSE (Almacén de Datos) que permiten a sus funcionarios controlar a los contribuyentes de manera efectiva comba tiendo el contrabando y la evasión de impuestos. La Base de Datos Nacional (BDN) contiene información interna de los sistemas internos de la SUNAT y cuenta con fuentes externas, tanto del sector público y privado; se utiliza para los métodos de selección inteligente, consultas individuales y herramientas de inteligencia de negocios, lográndose incrementar el nivel de eficiencia de las acciones de fiscalización y de esta manera reducir la evasión tributaria en nuestro país. Ante la necesidad de organizar y analizar cada vez mejor los datos que se generan en los sistemas de la propia SUNAT y los procedentes de otras fuentes, esta institución ha implementado un «Almacén de Datos» (Data Warehouse) que, con el complemento de un conjunto de herramientas innovadoras en el medio, facilitan a sus funcionarios el acceso y el análisis de grandes volúmenes de datos, generando así la información necesaria. Esto permitirá a la SUNAT tomar mejores decisiones e incrementar su eficiencia de manera significativa en tareas tan urgentes como son la ampliación de la base tributaria, el combate contra la evasión y el contrabando; así como la facilitación de las buenas prácticas en el comercio exterior. De esta forma, a la fecha, se cuentan con 93 métodos de selección que obedecen a diversos perfiles de incumplimiento tributario, que comprende tipo y tamaño de contribuyentes, tributos afectos, interés f iscal, además de 863 indicadores de incumplimiento tributario. Este «Almacén de Datos», denominado Base de Datos Nacional (BDN), contiene información que se genera en los sistemas internos de la SUNAT correspondiente a tributos internos y a las aduanas de todo el país; así como aquella que se obtiene no sólo de las declaraciones de los contribuyentes, sino también de entidades externas. De hecho hoy en día las empresas mantienen generalmente dos bases de datos independientes; una que contiene los datos operacionales y otra, a la que con frecuencia se le llama Almacén de Datos (DATA WAREHOUSE), que contiene datos de apoyo para la toma de decisiones.
APA, Harvard, Vancouver, ISO, and other styles
47

Bustamante Riaño, José Jhon Kennedy. "AVANCES DE LA INFORMÁTICA FORENSE EN COLOMBIA EN LOS ÚLTIMOS CUATRO AÑOS." Ingeniería Investigación y Desarrollo 20, no. 1 (August 31, 2021): 69–78. http://dx.doi.org/10.19053/1900771x.v20.n1.2020.13384.

Full text
Abstract:
Este trabajo de investigación expone, inicialmente, cómo con el crecimiento de los avances tecnológicos que surgen a favor de la sociedad para procesar, guardar y asegurar grandes volúmenes de datos informáticos; paralelamente, se convierten en herramientas estratégicas en su contra, ya sea para eliminarlos o alterarlos; de acuerdo con los propósitos inescrupulosos de quienes cometen los delitos informáticos, problemática creciente que vulnera la confidencia e intelecto de la información. En consecuencia, se desarrolla un trabajo cualitativo, en el cual también se reconoce los conocimientos adquiridos en este proceso de investigación frente a las competencias básicas para el dominio de esta temática. Por está razón, el presente estudio revela un panorama general acerca de cómo ha sido la evolución de la informática forense en una pesquisa hecha entre los años 2017 al 2020, especificando algunos fundamentos, procederes y normativas, útiles en el proceso de recuperación de información y recolección de evidencia digital en el momento de un incidente; en este mismo sentido, se exponen cifras acerca de la vulneración que han tenido algunas industrias y, a partir de esto, se evidencia cómo actúan los delincuentes informáticos.
APA, Harvard, Vancouver, ISO, and other styles
48

Guerrero Mateus, Cesar Augusto. "Propuesta de una herramienta de análisis del clima a través de predictivas de datos." GRAINE Boletín de Investigaciones 2, no. 2 (March 15, 2021): 13–20. http://dx.doi.org/10.52408/gbdivol2iss2pp13-20.

Full text
Abstract:
Traer tecnologías a los diferentes ámbitos del ser humano, ha sido una apuesta permanente en el mundo. En el comportamiento climático ha sido preocupación del ser humano de siempre, pero se ha venido dando un desarrollo en este campo desde hacen más o menos unos 200 años. Sin embargo, en nuestro país es una postura lejana y más aún, de bajo uso. En algunos casos porque la medición y precisión de los datos atmosféricos requieren de inversiones importantes y una población de mediciones en estaciones que determinen valores más cercanos a la realidad, así como su periodicidad y precisión en el terreno. Hoy se ha transformado tal perspectiva, se empieza a ver el campo climático como una fuente de desarrollo y crecimiento económico del país. Pero eso se logra, con inversión en tecnologías, sino también en buscar caminos que permitan ver atractivo el campo climático para el crecimiento y desarrollo de las regiones y del país. Por lo anterior, nuestro trabajo busca presentar una propuesta de uso tecnológico de gran desarrollo cual es la inteligencia artificial, basado en las maquinas que auto aprenden (Machine Learning) las cuales analicen grandes volúmenes de información y puedan desarrollar conocimiento en este sector que permita predecir con mayor exactitud el comportamiento climático en Colombia. Con las nuevas tecnologías, maquinas que auto aprenden, minería de datos, bodegas de datos, modelos matemáticos, predictivas, analítica de datos, inteligencia de negocios. Busca esencialmente, acercar el uso de las tecnologías como una herramienta para predecir el comportamiento climático con mucha precisión y poder simular mediante confluencia de diferentes variables y con predicciones y análisis de expertos poder mostrar valores lo más cercanos a una realidad cierta. La apuesta del presente proyecto es lograr que la tecnología tenga un propósito planeado y cierto para ayudar en el estudio del clima desde la academia. Que además el país, tenga unos modelos alternativos a los oficiales para que se pueden usar en el estudio, análisis y trabajo del clima. La herramienta aquí propuesta mezcla el conocimiento tecnológico, el estudio de las variables del clima, la data histórica oficial y la amalgama de estos para producir esta herramienta.
APA, Harvard, Vancouver, ISO, and other styles
49

Mejía, Edwin, and Walter Orozco. "La ingeniería de requisitos una base fundamental para el desarrollo de proyectos de TI en la web." Revista Científica y Tecnológica UPSE 3, no. 1 (December 18, 2015): 71–78. http://dx.doi.org/10.26423/rctu.v3i1.73.

Full text
Abstract:
Los sistemas informáticos basados en la web han ido creciendo a pasos muy grandes. La web a través del tiempo se ha convertido en un lugar para localizar los documentos importantes de las instituciones, así como llevar a grandes volúmenes de información a nivel mercado bancario y educativo de la organización. Los sistemas basados en la web desde su creación envolvió toda esa sistematización para resolver problemas de negocios que tenían, pero sin utilizar ninguna metodologia para la construcción de los mismos. Por lo tanto, este artículo se presenta una breve introducción a las aplicaciones Web, metodologías de construcción de este tipo de aplicaciones, ingeniería de requerimientos en aplicaciones web, las técnicas utilizadas para la recolección de datos y los graves problemas que han pasado varias aplicaciones web, centrándose en la ingeniería de requisitos como el eje primordial en el desarrollo de proyectos de software. Abstract Computer systems based on the web have grown to very large steps. The web over time has become a place to locate important documents of the institutions and lead to large volumes of information and education market banking organization level. The web-based systems since its inception wrapped all this systematization to solve business problems they had, but without using any methodology for building them. Therefore, this article is a brief introduction to the Web applications, methodologies to build such applications, requirements engineering web applications, the techniques used for data collection and the serious problems that have passed several web applications focusing on requirements engineering as the linchpin in the development of software projects.
APA, Harvard, Vancouver, ISO, and other styles
50

Corredor Rivera, Jorge Luis, and Víctor Manuel Peñaranda Vélez. "Identificación de los parámetros del modelo del número de curva y su incertidumbre mensual en la cuenca alta del río Bogotá." Ciencia e Ingeniería Neogranadina 22, no. 1 (June 1, 2012): 75. http://dx.doi.org/10.18359/rcin.250.

Full text
Abstract:
<span>Los estudios hidroclimatológicos implican manejar grandes volúmenes de información que pueden presentar interrupciones en la longitud de sus periodos de registro, datos anómalos, datos inconsistentes o errores en la transcripción de los datos en bases informáticas. Así mismo, la red hidroclimatológica no necesariamente presenta la mejor distribución en una región determinada. Además, existen zonas en donde no hay estaciones que permitan una interpretación local de la variación temporal y espacial de las variables climatológicas. Por lo anterior, es necesario acudir a técnicas de exploración de la información para encontrar las series que representen de la mejor manera, el comportamiento de una variable determinada para su aplicación en los procesos de modelación que sean necesarios. En este documento se presenta el alcance de una investigación en el campo de la modelación hidrológica, cuyo eje es la búsqueda para identificar los parámetros del modelo del número de curva y desarrollar un análisis de incertidumbre bajo el marco metodológico Generalized Likelihood Uncertainty Estimation (Glue), con el propósito final de establecer los niveles de incertidumbre en los protocolos de modelación lluvia-escorrentía mensual sobre sistemas de cuenca con información escasa. Para desarrollar esta investigación, se seleccionó la cuenca alta del río Bogotá como sistema hidrológico de exploración, dado que cuenta con información hidrológica y climatológica suficiente y adecuada para implementar el modelo y el seguimiento de la metodología Glue. Los resultados preliminares mostraron algunas dificultades del modelo para identificar algunos de sus parámetros. Sin embargo, la inclusión de un nuevo término en la base formal del modelo permitió visualizar la posibilidad de describir la </span><span>dinámica de los sistemas de flujo de agua subterránea con la descripción del tipo, uso y cobertura del suelo con base en la selección rigurosa y adecuada del número de curva.</span>
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography