To see the other types of publications on this topic, follow the link: Computación paralela y distribuida.

Journal articles on the topic 'Computación paralela y distribuida'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 16 journal articles for your research on the topic 'Computación paralela y distribuida.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Insua-Suárez, Ernesto, Marlis Fulgueira-Camilo, and Venus Henry-Fuenteseca. "Paralelización del Algoritmo Expectación–Maximización Utilizando OpenCL." Lámpsakos, no. 13 (January 1, 2015): 51. http://dx.doi.org/10.21501/21454086.1361.

Full text
Abstract:
Actualmente, las organizaciones y empresas almacenan grandes volúmenes de datos para lograr sus propósitos. Una de las variantes para obtener información valiosa consiste en el empleo de la Minería de datos. Dentro de esta, existen diferentes tareas, una de ellas es el agrupamiento. En esta tarea los datos se agrupan según sus semejanzas entre si y diferencias con elementos de otros grupos. Dentro de los algoritmos que realizan estos agrupamientos se encuentra Expectación-Maximización, el cual presenta elevados tiempos de ejecución en la medida que aumenta el tamaño de los datos. En el presente artículo se discute acerca de la paralelización del algoritmo, utilizando técnicas de programación paralela. El diseño del algoritmo propuesto se basa en el uso de las tarjetas de procesamiento gráfico, GPU. OpenCL, lenguaje empleado para la programación en arquitecturas híbridas, permite aprovechar las arquitecturas de hardware disponibles, con lo que se logra disminuir el tiempo de ejecución de la implementación realizada. La razón principal por lo cual es posible mejorar este tiempo se debe a la cantidad de procesos paralelos que se pueden lanzar en hilos de procesamientos independientes. Para el logro de los resultados descritos se integran conocimientos del campo de la Minería de datos y la Computación Paralela y Distribuida. Como parte de esta investigación, se realizó una implementación del algoritmo utilizando las bibliotecas de OpenCL, para disminuir su tiempo de ejecución. La implementación logra disminuir en un 82% la implementación secuencial. Esto significa que el algoritmo paralelo se ejecuta 5,5 veces más rápido que su correspondiente implementación secuencial.
APA, Harvard, Vancouver, ISO, and other styles
2

Moreno, Francisco Javier, Nataly Castrillón Charari, and Camilo Taborda Zuluaga. "Procesamiento en paralelo y distribuido en dos SGBDS: un caso de estudio." Revista Tecnura 21, no. 52 (April 1, 2017): 111. http://dx.doi.org/10.14483/10.14483/udistrital.jour.tecnura.2017.2.a09.

Full text
Abstract:
Contexto: Una de las estrategias para la gestión de grandes volúmenes de datos es la computación distribuida y en paralelo. Entre las herramientas que permiten aplicar estas características se encuentran algunos sistemas de gestión de bases de datos (SGBD), como Oracle, SQL Sever y DB2.Método: En este artículo se presenta un caso de estudio donde se evalúa el rendimiento de una consulta SQL en dos de estos SGBD. La evaluación se hace mediante diversas formas de distribución de los datos en una red computadores y con diferentes grados de paralelismo.Resultados: Aunque son necesarias pruebas más exhaustivas y con mayor variedad de consultas, se evidenciaron las diferencias de rendimiento entre los dos SGBD analizados.Conclusiones: Las diferencias en rendimiento de los dos SGBDs analizados muestran que a la hora de evaluar este aspecto, se deben considerar las particularidades de cada SGBD y el grado de paralelismo de las consultas.
APA, Harvard, Vancouver, ISO, and other styles
3

Morgado Valle, Antulio. "Introducción a la computación paralela." Polibits 12 (January 20, 1994): 3–7. http://dx.doi.org/10.17562/pb-12-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hernandez Camacho, Andres Mauricio, Esteban Correa Agudelo, Carlos Diego Ferrin Bolaños, and Juan Diego Gomez Valencia. "Calculo del nivel de conciencia utilizando computación paralela." Scientia et technica 21, no. 2 (July 30, 2016): 156. http://dx.doi.org/10.22517/23447214.10261.

Full text
Abstract:
En patologías neurológicas existe un estado conocido como sindorme de “Locked-in” en el cual el paciente tiene conciencia pero es incapaz de comunicarse con el mundo exterior. Este trabajo en progreso, muestra una aplicación innovadora de computación paralela, para optimizar de la implementación del algoritmo de cálculo de conciencia propuesto por Tononi [2]. Describe el algoritmo del cálculo y propone una metodología innovadora para involucrar computación paralela en su implementación.
APA, Harvard, Vancouver, ISO, and other styles
5

Kryukovsky, Andrey S., Dmitry S. Lukin, and Sergey V. Rogachev. "Software especial para calcular las funciones especiales de catástrofes de olas." Revista de Matemática: Teoría y Aplicaciones 22, no. 1 (January 1, 2015): 21. http://dx.doi.org/10.15517/rmta.v22i1.17513.

Full text
Abstract:
Se considera el método de ecuaciones diferenciales ordinarias ordinarias en el contexto de calcular funciones especiales de catástrofes de olas. Se describen métodos y algoritmos numéricos complementarios. El artículo muestra enfoques para acelerar tales cálculos usando capacidades modernas de sistemas de cálculo. Se consideran métodos para calcular funciones especiales de catástrofes de olas en el marco de computación en paralelo y sistemas distribuidos. El artículo cubre el proceso de desarrollo de software especial para calcular funciones especiales, así como asuntos de portabilidad, extensibilidad e interoperabilidad.
APA, Harvard, Vancouver, ISO, and other styles
6

Alfonso Cantillo, Ofir, and Eduardo Sánchez Ansola. "Computación paralela para la geocodificación de direcciones postales cubanas." Ingeniería Investigación y Tecnología 21, no. 4 (October 1, 2020): 1–12. http://dx.doi.org/10.22201/fi.25940732e.2020.21.4.029.

Full text
Abstract:
Teniendo en cuenta la velocidad y cantidad de datos que se generan en la actualidad, se ha convertido en una necesidad la creación de sistemas capaces de procesarlos en breves periodos de tiempo. La información espacial no queda exenta de esto por lo que la utilización de Sistemas de Información Geográfica se ha convertido en una necesidad. GeoServer es uno de los servidores de mapas que brinda estas funcionalidades mediante servicios. Uno de estos servicios es la geocodificación, que se define como el proceso de convertir una dirección postal en coordenadas geográficas. Una petición de geocodificación puede contener una o varias direcciones, siendo esta última conocida como geocodificación por lotes y puede estar compuesta por una cantidad ilimitada de direcciones. Una de las técnicas que se utiliza para aumentar la capacidad de procesamiento de los sistemas geocodificadores es la computación paralela, que utiliza múltiples elementos de procesamiento para resolver determinado problema. El objetivo del presente trabajo consiste en la disminución de los tiempos de respuesta de los algoritmos de geocodificación de direcciones por lotes. Para lograr dicho objetivo, se desarrollaron varias versiones para la geocodificación haciendo uso de la computación paralela. Cada una de estas versiones fue incluida en el servidor de mapas GeoServer como un servicio web y fueron evaluadas, mediante la utilización de pruebas estadísticas, con el fin de obtener cuál de todas las versiones ofrece menor tiempo de procesamiento. Tanto para el desarrollo de las variantes como para su validación, se tuvieron en cuenta direcciones postales del territorio nacional cubano, pues es el alcance pretendido con este trabajo. A partir de la evaluación realizada se puede afirmar que la versión del algoritmo desarrollada de forma independiente de la base de datos de referencia es en la que mejores tiempos se ofrecen las respuestas.
APA, Harvard, Vancouver, ISO, and other styles
7

BUSTOS CABALLERO, ALEJANDRO, HIGINIO RUBIO ALONSO, EDUARDO CORRAL ABAD, and JUAN CARLOS GARCIA PRADA. "SOLUCIÓN DE UN SISTEMA MECÁNICO FERROVIARIO USANDO COMPUTACIÓN PARALELA." DYNA NEW TECHNOLOGIES 4, no. 1 (2017): [18 p.]. http://dx.doi.org/10.6036/nt8288.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Casacuberta, David, and Anna Estany. "La cognición distribuida en el pensamiento de Ronald Giere." ArtefaCToS. Revista de estudios sobre la ciencia y la tecnología 10, no. 1 (April 23, 2021): 11–19. http://dx.doi.org/10.14201/art20211011119.

Full text
Abstract:
Ronald N. Giere fue uno de los más importantes impulsores del enfoque cognitivo de la filosofía de la ciencia a partir de su obra Explaining Science: A Cognitive Approach (1988), en el marco del programa naturalizador en filosofía. Para Giere adquiere especial relevancia la idea de cognición distribuida del antropólogo cognitivo Edwin Hutchins en Cognition in the Wild (1995). El objetivo de esta aproximación al pensamiento de Giere es abordar algunas de las ideas que están en el trasfondo de las publicaciones cuyo núcleo es la cognición distribuida, como es el caso de cultura epistémica, cognición y mente, agencia, la relación entre lo cognitivo y lo social y computación.
APA, Harvard, Vancouver, ISO, and other styles
9

Blanco, Erwin, Fabiola Sáez-Delgado, and Lorena Blanco. "Simulación de la proteína SPIKE COVID19 en laboratorios de informática educativa." CienciAmérica 9, no. 2 (July 24, 2020): 369. http://dx.doi.org/10.33210/ca.v9i2.326.

Full text
Abstract:
INTRODUCCIÓN: Las proteínas son una de las moléculas orgánicas que cumplen funciones vitales en la mantención de la vida y reproducción celular, su fabricación es un proceso complejo gobernado por una secuencia de plegamientos aún desconocida. En el contexto del Covid19, la iniciativa Folding@home llevó a cabo un proyecto de computación distribuida que permite la simulación del proceso de plegamiento de la proteína Spike del Covid19, cuya función es acoplarse al receptor ACE2 de las células animales y así penetrar a la célula y utilizar su maquinaria para reproducirse. OBJETIVO: Probar que el tiempo computacional ocioso disponible en los laboratorios de informática educacionales, puede ser usado para la simulación del plegamiento de proteínas. MÉTODO: Esta fue una investigación descriptiva donde se instaló un software cliente en computadores de gama baja que continuamente enviaron unidades de trabajo de plegamiento proteico a un servidor central. RESULTADOS: Tras 90 días de trabajo, un clúster de 27 PCs finalizaron 1993 unidades de trabajo de simulación de la proteína Spike. DISCUSIÓN Y CONCLUSIONES: A pesar de que el piloteo fue un éxito, se advierte que el software cliente debe ser optimizado para sacar el máximo de provecho a los diferentes procesadores y sistemas operativos con los cuales es compatible el software de computación distribuida proveído por Folding@home.
APA, Harvard, Vancouver, ISO, and other styles
10

Urrea Cardozo, Alba Eugenia, and Rafael Gómez. "Un modelo de memorial virtual compartida distribuida para Mapaná." INGENIERÍA Y COMPETITIVIDAD 7, no. 1 (June 7, 2011): 33–43. http://dx.doi.org/10.25100/iyc.v7i1.2524.

Full text
Abstract:
Este artículo describe el diseño e implementación de un modelo de memoria virtual compartida distribuida para Mapaná. Mapaná es una plataforma de máquina virtual paralela que se ejecuta en computadores homogéneos conectados en red. El modelo provee la creación de un espacio de direcciones lógico, único para cada máquina virtual; así, los procesos que pertenecen a una determinada máquina virtual tienen el mismo espacio y pueden compartirlo, a pesar de estar en máquinas físicas diferentes. Se tiene un proceso origen, o raíz, que, al ser replicado en otros nodos de la red, da lugar a los procesos homólogos o parientes con idénticos espacios de direcciones. El modelo se implementó en Linux, para lo cual se modificó el sistema de memoria virtual, extendiéndolo para incluir el concepto de páginas remotas y la administración de las mismas. Se describe la interacción entre módulos y programas de usuario implementados para llevar a cabo la replicación de un proceso y la ocurrencia de un fallo de página remoto.
APA, Harvard, Vancouver, ISO, and other styles
11

Vázquez-Moctezuma, Salvador E. "Tecnologías de almacenamiento de información en el ambiente digital." e-Ciencias de la Información 5, no. 2 (June 30, 2015): 1. http://dx.doi.org/10.15517/eci.v5i2.19762.

Full text
Abstract:
<p>Las bibliotecas han funcionado por mucho tiempo como depósitos de información, a la cual facilitan el acceso recogiéndola y preservándola. Actualmente el entorno ha cambiado y las bibliotecas se enfrentan al reto de contener un creciente volumen de información digital, de ahí que son necesarias las tecnologías de información masiva. Este trabajo tiene como propósito revisar los métodos de sistemas de almacenamiento de datos masivos, por lo cual se describen y analizan cuatro tipos de tecnologías de almacenamiento en datos: DAS, NAS, SAN y almacenamiento en nube; para ello se utilizó el método documental. Se encontró escasa literatura sobre los sistemas de almacenamiento digital vistos desde la perspectiva de las ciencias de la información, razón por la cual se retoman publicaciones del área de ciencias de la computación e ingeniería en sistemas para comprender el tópico. Se concluye que el almacenamiento de los datos en la era digital se lleva a cabo de forma concentrada y distribuida.</p>
APA, Harvard, Vancouver, ISO, and other styles
12

BUSTOS CABALLERO, ALEJANDRO, HIGINIO RUBIO ALONSO, EDUARDO CORRAL ABAD, and JUAN CARLOS GARCIA PRADA. "APLICACIÓN DE LA COMPUTACIÓN PARALELA CON UNIDAD PROCESADORA DE GRAFICOS PARA EL ANÁLISIS DE UN SISTEMA MECÁNICO FERROVIARIO." DYNA INGENIERIA E INDUSTRIA 92, no. 1 (2017): 608–9. http://dx.doi.org/10.6036/8471.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Arcila Calderón, Carlos, Félix Ortega Mohedano, Mateo Álvarez, and Miguel Vicente Mariño. "Distributed Supervised Sentiment Analysis of Tweets: Integrating Machine Learning and Streaming Analytics for Big Data Challenges in Communication and Audience Research." Empiria. Revista de metodología de ciencias sociales, no. 42 (January 15, 2019): 113. http://dx.doi.org/10.5944/empiria.42.2019.23254.

Full text
Abstract:
The large-scale analysis of tweets in real-time using supervised sentiment analysis depicts a unique opportunity for communication and audience research. Bringing together machine learning and streaming analytics approaches in a distributed environment might help scholars to obtain valuable data from Twitter in order to immediately classify messages depending on the context with no restrictions of time or storage, empowering cross-sectional, longitudinal and experimental designs with new inputs. Even when communication and audience researchers begin to use computational methods, most of them remain unfamiliar with distributed technologies to face big data challenges. This paper describes the implementation of parallelized machine learning methods in Apache Spark to predict sentiments in real-time tweets and explains how this process can be scaled up using academic or commercial distributed computing when personal computers do not support computations and storage. We discuss the limitation of these methods and their implications in communication, audience and media studies.El análisis a gran escala de tweets en tiempo real utilizando el análisis de sentimiento supervisado representa una oportunidad única para la investigación de comunicación y audiencias. El poner juntos los enfoques de aprendizaje automático y de analítica en tiempo real en un entorno distribuido puede ayudar a los investigadores a obtener datos valiosos de Twitter con el fin de clasificar de forma inmediata mensajes en función de su contexto, sin restricciones de tiempo o almacenamiento, mejorando los diseños transversales, longitudinales y experimentales con nuevas fuentes de datos. A pesar de que los investigadores de comunicación y audiencias ya han comenzado a utilizar los métodos computacionales en sus rutinas, la mayoría desconocen el uso de las tecnologías de computo distribuido para afrontar retos de dimensión big data. Este artículo describe la implementación de métodos de aprendizaje automático paralelizados en Apache Spark para predecir sentimientos de tweets en tiempo real y explica cómo este proceso puede ser escalado usando computación distribuida tanto comercial como académica, cuando los ordenadores personales son insuficientes para almacenar y analizar los datos. Se discuten las limitaciones de estos métodos y sus implicaciones en los estudios de medios, comunicación y audiencias.
APA, Harvard, Vancouver, ISO, and other styles
14

Méndez Garabetti, Miguel, Germán Bianchini, Verónica Gil Costa, and Paola Caymes Scutari. "Método de Reducción de Incertidumbre Basado en Algoritmos Evolutivos y Paralelismo Orientado a la Predicción y Prevención de Desastres Naturales." AJEA, no. 5 (October 5, 2020). http://dx.doi.org/10.33414/ajea.5.749.2020.

Full text
Abstract:
La falta de precisión en los parámetros de entrada en cualquier modelo científico suele ser habitual debido a la imposibilidad de cuantificar todos los factores que afectan al modelo en tiempo real. Esto puede producir consecuencias dramáticas en la salida del mismo si se trata de un sistema crítico, tal como lo es en el caso particular de la predicción de fenómenos naturales. No obstante, también deben sumarse las limitaciones impuestas por los propios modelos, las restricciones que agregan las soluciones numéricas y las provenientes de las propias implementaciones y versiones informáticas. Por tal motivo, esta investigación se ha centrado enel desarrollo de métodos informáticos que se enfoquen en el tratamiento de la incertidumbre de dichos valores de entrada para lograr así una predicción lo más confiable posible por parte del modelo. En base a esto, se han desarrollado dos métodos de reducción de incertidumbre que han sido validados en la predicción del comportamiento de incendios forestales. Dichos métodos utilizan como componentes: Análisis Estadístico, Algoritmos Evolutivos Paralelos, Computación de Alto Desempeño e Información Satelital. El análisis estadístico ofrece la posibilidad de estudiar tendencias en el comportamiento del sistema bajo diversas condiciones, los algoritmos evolutivos paralelos permiten orientar la búsqueda brindando una predicción más precisa, la computación paralela/distribuida brinda infraestructura necesaria para poder llevar a cabo el procesamiento en cantidad de tiempo razonable y la información satelital permite aplicar estos métodos situaciones de emergencia real. Cada uno de estos componentes son indispensables para lograr valores aceptables tanto en términos de calidad de predicción como términos de tiempo de respuesta de los métodos propuestos.
APA, Harvard, Vancouver, ISO, and other styles
15

Ortega Melo, J. A., and R. Villafuerte. "Sintonizacion de una ley de control difuso proporcional retardado para estabilizar una clase de sistemas no lineales." PÄDI Boletín Científico de Ciencias Básicas e Ingenierías del ICBI 1, no. 2 (January 5, 2014). http://dx.doi.org/10.29057/icbi.v1i2.509.

Full text
Abstract:
En la presente memoria se propone un m´etodo para sintonizar una ley de control difusa proporcional retardada (PR) para estabilizar una clase de sistemas no lineales. La estabilidad del sistema no lineal se garantiza mediante la σ−estabilidad de su modelo difusos del tipo Takagi-Sugeno (T-S) en lazo cerrado con una ley de control difusa PR. La sintonizaci´on de la ley de control difusa PR se realiza en el marco frecuencial empleando el m´etodo Dparticiones. Sin perdida de generalidad, los resultados te´oricos obtenidos son ilustrados en un sistema carro-p´endulo. El desempe˜no del control propuesto aqu´ı es comparado con una cl´asica compensaci´on paralela distribuida.
APA, Harvard, Vancouver, ISO, and other styles
16

Vargas, Vanessa, Pablo Ramos, Jean-François Méhaut, and Raoul Velazco. "Swifi fault injector for heterogeneous many-core processors." revistapuce, April 21, 2018. http://dx.doi.org/10.26807/revpuce.v0i106.145.

Full text
Abstract:
Este trabajo presenta un enfoque de inyección de fallas para evaluar el impacto de soft errors en aplicaciones que se ejecutan en un procesador heterogé- neo de muchos núcleos. Esta evaluación es significativa para caracterizar el comportamiento de la aplicación implementada en dispositivos avanzados en términos de confiabilidad. El enfoque se basa en los principios de un modelo mono-procesador de inyección de fallas llamado Code Emulating Upset (CEU), el mismo que ha demostrado ser muy eficiente para predecir la tasa de soft errors. Los principios CEU fueron adaptados a un procesador heterogéneo de muchos núcleos a pesar de la complejidad de su arquitectura, relacionada principalmente con la gestión de memoria y comunicación entre núcleos. El dispositivo de prueba seleccionado es el procesador de múltiples núcleos KALRAY MPPA256 fabricado en tecnología CMOS de 28nm y que posee una arquitectura tipo cluster. Teniendo en cuenta la variedad de configuraciones de sistema que se pueden implementar en un procesador de muchos núcleos, el presente trabajo propone tres escenarios diferentes para ilustrar el uso del enfoque. En el primero, una versión paralela de una aplicación de tipo memory-bound se implementa en un modelo bare-board y se configura en modo de multiprocesamiento asimétrico. El segundo evalúa una versión distribuida de una aplicación de tipo memory-bound que se ejecuta en un modelo POSIX. El último evalúa una aplicación distribuida de tipo CPU-bound que se ejecuta en un modelo POSIX. Los resultados del primer escenario se han utilizado para predecir la tasa de soft errors de una aplicación bare-board y se han comparado con experimentos de radiación realizados en un trabajo previo, mostrando una buena concordancia entre ambas técnicas. Este hecho ha motivado la extensión del enfoque hacia modelos de programación más útiles como POSIX. El trabajo actual utiliza los resultados ya presentados en trabajos anteriores por los autores con el fin de compararlos con los nuevos resultados y así proporcionar mayores conclusiones del enfoque propuesto.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography