Academic literature on the topic 'Computación paralela y distribuida'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Computación paralela y distribuida.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Computación paralela y distribuida"

1

Insua-Suárez, Ernesto, Marlis Fulgueira-Camilo, and Venus Henry-Fuenteseca. "Paralelización del Algoritmo Expectación–Maximización Utilizando OpenCL." Lámpsakos, no. 13 (January 1, 2015): 51. http://dx.doi.org/10.21501/21454086.1361.

Full text
Abstract:
Actualmente, las organizaciones y empresas almacenan grandes volúmenes de datos para lograr sus propósitos. Una de las variantes para obtener información valiosa consiste en el empleo de la Minería de datos. Dentro de esta, existen diferentes tareas, una de ellas es el agrupamiento. En esta tarea los datos se agrupan según sus semejanzas entre si y diferencias con elementos de otros grupos. Dentro de los algoritmos que realizan estos agrupamientos se encuentra Expectación-Maximización, el cual presenta elevados tiempos de ejecución en la medida que aumenta el tamaño de los datos. En el presente artículo se discute acerca de la paralelización del algoritmo, utilizando técnicas de programación paralela. El diseño del algoritmo propuesto se basa en el uso de las tarjetas de procesamiento gráfico, GPU. OpenCL, lenguaje empleado para la programación en arquitecturas híbridas, permite aprovechar las arquitecturas de hardware disponibles, con lo que se logra disminuir el tiempo de ejecución de la implementación realizada. La razón principal por lo cual es posible mejorar este tiempo se debe a la cantidad de procesos paralelos que se pueden lanzar en hilos de procesamientos independientes. Para el logro de los resultados descritos se integran conocimientos del campo de la Minería de datos y la Computación Paralela y Distribuida. Como parte de esta investigación, se realizó una implementación del algoritmo utilizando las bibliotecas de OpenCL, para disminuir su tiempo de ejecución. La implementación logra disminuir en un 82% la implementación secuencial. Esto significa que el algoritmo paralelo se ejecuta 5,5 veces más rápido que su correspondiente implementación secuencial.
APA, Harvard, Vancouver, ISO, and other styles
2

Moreno, Francisco Javier, Nataly Castrillón Charari, and Camilo Taborda Zuluaga. "Procesamiento en paralelo y distribuido en dos SGBDS: un caso de estudio." Revista Tecnura 21, no. 52 (April 1, 2017): 111. http://dx.doi.org/10.14483/10.14483/udistrital.jour.tecnura.2017.2.a09.

Full text
Abstract:
Contexto: Una de las estrategias para la gestión de grandes volúmenes de datos es la computación distribuida y en paralelo. Entre las herramientas que permiten aplicar estas características se encuentran algunos sistemas de gestión de bases de datos (SGBD), como Oracle, SQL Sever y DB2.Método: En este artículo se presenta un caso de estudio donde se evalúa el rendimiento de una consulta SQL en dos de estos SGBD. La evaluación se hace mediante diversas formas de distribución de los datos en una red computadores y con diferentes grados de paralelismo.Resultados: Aunque son necesarias pruebas más exhaustivas y con mayor variedad de consultas, se evidenciaron las diferencias de rendimiento entre los dos SGBD analizados.Conclusiones: Las diferencias en rendimiento de los dos SGBDs analizados muestran que a la hora de evaluar este aspecto, se deben considerar las particularidades de cada SGBD y el grado de paralelismo de las consultas.
APA, Harvard, Vancouver, ISO, and other styles
3

Morgado Valle, Antulio. "Introducción a la computación paralela." Polibits 12 (January 20, 1994): 3–7. http://dx.doi.org/10.17562/pb-12-1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Hernandez Camacho, Andres Mauricio, Esteban Correa Agudelo, Carlos Diego Ferrin Bolaños, and Juan Diego Gomez Valencia. "Calculo del nivel de conciencia utilizando computación paralela." Scientia et technica 21, no. 2 (July 30, 2016): 156. http://dx.doi.org/10.22517/23447214.10261.

Full text
Abstract:
En patologías neurológicas existe un estado conocido como sindorme de “Locked-in” en el cual el paciente tiene conciencia pero es incapaz de comunicarse con el mundo exterior. Este trabajo en progreso, muestra una aplicación innovadora de computación paralela, para optimizar de la implementación del algoritmo de cálculo de conciencia propuesto por Tononi [2]. Describe el algoritmo del cálculo y propone una metodología innovadora para involucrar computación paralela en su implementación.
APA, Harvard, Vancouver, ISO, and other styles
5

Kryukovsky, Andrey S., Dmitry S. Lukin, and Sergey V. Rogachev. "Software especial para calcular las funciones especiales de catástrofes de olas." Revista de Matemática: Teoría y Aplicaciones 22, no. 1 (January 1, 2015): 21. http://dx.doi.org/10.15517/rmta.v22i1.17513.

Full text
Abstract:
Se considera el método de ecuaciones diferenciales ordinarias ordinarias en el contexto de calcular funciones especiales de catástrofes de olas. Se describen métodos y algoritmos numéricos complementarios. El artículo muestra enfoques para acelerar tales cálculos usando capacidades modernas de sistemas de cálculo. Se consideran métodos para calcular funciones especiales de catástrofes de olas en el marco de computación en paralelo y sistemas distribuidos. El artículo cubre el proceso de desarrollo de software especial para calcular funciones especiales, así como asuntos de portabilidad, extensibilidad e interoperabilidad.
APA, Harvard, Vancouver, ISO, and other styles
6

Alfonso Cantillo, Ofir, and Eduardo Sánchez Ansola. "Computación paralela para la geocodificación de direcciones postales cubanas." Ingeniería Investigación y Tecnología 21, no. 4 (October 1, 2020): 1–12. http://dx.doi.org/10.22201/fi.25940732e.2020.21.4.029.

Full text
Abstract:
Teniendo en cuenta la velocidad y cantidad de datos que se generan en la actualidad, se ha convertido en una necesidad la creación de sistemas capaces de procesarlos en breves periodos de tiempo. La información espacial no queda exenta de esto por lo que la utilización de Sistemas de Información Geográfica se ha convertido en una necesidad. GeoServer es uno de los servidores de mapas que brinda estas funcionalidades mediante servicios. Uno de estos servicios es la geocodificación, que se define como el proceso de convertir una dirección postal en coordenadas geográficas. Una petición de geocodificación puede contener una o varias direcciones, siendo esta última conocida como geocodificación por lotes y puede estar compuesta por una cantidad ilimitada de direcciones. Una de las técnicas que se utiliza para aumentar la capacidad de procesamiento de los sistemas geocodificadores es la computación paralela, que utiliza múltiples elementos de procesamiento para resolver determinado problema. El objetivo del presente trabajo consiste en la disminución de los tiempos de respuesta de los algoritmos de geocodificación de direcciones por lotes. Para lograr dicho objetivo, se desarrollaron varias versiones para la geocodificación haciendo uso de la computación paralela. Cada una de estas versiones fue incluida en el servidor de mapas GeoServer como un servicio web y fueron evaluadas, mediante la utilización de pruebas estadísticas, con el fin de obtener cuál de todas las versiones ofrece menor tiempo de procesamiento. Tanto para el desarrollo de las variantes como para su validación, se tuvieron en cuenta direcciones postales del territorio nacional cubano, pues es el alcance pretendido con este trabajo. A partir de la evaluación realizada se puede afirmar que la versión del algoritmo desarrollada de forma independiente de la base de datos de referencia es en la que mejores tiempos se ofrecen las respuestas.
APA, Harvard, Vancouver, ISO, and other styles
7

BUSTOS CABALLERO, ALEJANDRO, HIGINIO RUBIO ALONSO, EDUARDO CORRAL ABAD, and JUAN CARLOS GARCIA PRADA. "SOLUCIÓN DE UN SISTEMA MECÁNICO FERROVIARIO USANDO COMPUTACIÓN PARALELA." DYNA NEW TECHNOLOGIES 4, no. 1 (2017): [18 p.]. http://dx.doi.org/10.6036/nt8288.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Casacuberta, David, and Anna Estany. "La cognición distribuida en el pensamiento de Ronald Giere." ArtefaCToS. Revista de estudios sobre la ciencia y la tecnología 10, no. 1 (April 23, 2021): 11–19. http://dx.doi.org/10.14201/art20211011119.

Full text
Abstract:
Ronald N. Giere fue uno de los más importantes impulsores del enfoque cognitivo de la filosofía de la ciencia a partir de su obra Explaining Science: A Cognitive Approach (1988), en el marco del programa naturalizador en filosofía. Para Giere adquiere especial relevancia la idea de cognición distribuida del antropólogo cognitivo Edwin Hutchins en Cognition in the Wild (1995). El objetivo de esta aproximación al pensamiento de Giere es abordar algunas de las ideas que están en el trasfondo de las publicaciones cuyo núcleo es la cognición distribuida, como es el caso de cultura epistémica, cognición y mente, agencia, la relación entre lo cognitivo y lo social y computación.
APA, Harvard, Vancouver, ISO, and other styles
9

Blanco, Erwin, Fabiola Sáez-Delgado, and Lorena Blanco. "Simulación de la proteína SPIKE COVID19 en laboratorios de informática educativa." CienciAmérica 9, no. 2 (July 24, 2020): 369. http://dx.doi.org/10.33210/ca.v9i2.326.

Full text
Abstract:
INTRODUCCIÓN: Las proteínas son una de las moléculas orgánicas que cumplen funciones vitales en la mantención de la vida y reproducción celular, su fabricación es un proceso complejo gobernado por una secuencia de plegamientos aún desconocida. En el contexto del Covid19, la iniciativa Folding@home llevó a cabo un proyecto de computación distribuida que permite la simulación del proceso de plegamiento de la proteína Spike del Covid19, cuya función es acoplarse al receptor ACE2 de las células animales y así penetrar a la célula y utilizar su maquinaria para reproducirse. OBJETIVO: Probar que el tiempo computacional ocioso disponible en los laboratorios de informática educacionales, puede ser usado para la simulación del plegamiento de proteínas. MÉTODO: Esta fue una investigación descriptiva donde se instaló un software cliente en computadores de gama baja que continuamente enviaron unidades de trabajo de plegamiento proteico a un servidor central. RESULTADOS: Tras 90 días de trabajo, un clúster de 27 PCs finalizaron 1993 unidades de trabajo de simulación de la proteína Spike. DISCUSIÓN Y CONCLUSIONES: A pesar de que el piloteo fue un éxito, se advierte que el software cliente debe ser optimizado para sacar el máximo de provecho a los diferentes procesadores y sistemas operativos con los cuales es compatible el software de computación distribuida proveído por Folding@home.
APA, Harvard, Vancouver, ISO, and other styles
10

Urrea Cardozo, Alba Eugenia, and Rafael Gómez. "Un modelo de memorial virtual compartida distribuida para Mapaná." INGENIERÍA Y COMPETITIVIDAD 7, no. 1 (June 7, 2011): 33–43. http://dx.doi.org/10.25100/iyc.v7i1.2524.

Full text
Abstract:
Este artículo describe el diseño e implementación de un modelo de memoria virtual compartida distribuida para Mapaná. Mapaná es una plataforma de máquina virtual paralela que se ejecuta en computadores homogéneos conectados en red. El modelo provee la creación de un espacio de direcciones lógico, único para cada máquina virtual; así, los procesos que pertenecen a una determinada máquina virtual tienen el mismo espacio y pueden compartirlo, a pesar de estar en máquinas físicas diferentes. Se tiene un proceso origen, o raíz, que, al ser replicado en otros nodos de la red, da lugar a los procesos homólogos o parientes con idénticos espacios de direcciones. El modelo se implementó en Linux, para lo cual se modificó el sistema de memoria virtual, extendiéndolo para incluir el concepto de páginas remotas y la administración de las mismas. Se describe la interacción entre módulos y programas de usuario implementados para llevar a cabo la replicación de un proceso y la ocurrencia de un fallo de página remoto.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Computación paralela y distribuida"

1

Acevedo, Martínez Liesner. "Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7107.

Full text
Abstract:
Esta tesis tiene el objetivo de estudiar aplicaciones de la transformada wavelet discreta (DWT) al álgebra lineal numérica. Se hace un estudio de las distintas variantes de paralelización de la DWT y se propone una nueva variante paralela, en memoria distribuida, con distribuciones de datos orientadas a bloques de matrices, como la 2DBC de ScaLAPACK. La idea es que la DWT en muchos casos es una operación intermedia y debe ajustarse a las distribuciones de datos que se estén usando. Se define y demuestra una forma de calcular exactamente la cantidad de elementos que debe comunicar cada procesador para que se puedan calcular de forma independiente todo los coeficientes wavelet en una cantidad de niveles determinada. Finalmente se propone una variante específica, más eficiente, para el cálculo de la DWT-2D cuando se aplica como paso previo a la resolución de un sistema de ecuaciones distribuido 2DBC, considerando una permutación de las filas y columnas del sistema que minimiza las comunicaciones. Otro de los aportes de esta tesis es el de considerar como un caso típico, el cálculo de la DWT-2D no estándar en matrices dispersas, proponemos algoritmos para realizar esta operación sin necesidad de construir explícitamente la matriz wavelet. Además tenemos en cuenta el fenómeno de rellenado (fill-in) que ocurre al aplicar la DWT a una matriz dispersa. Para ello exploramos con los métodos de reordenamiento clásicos de grado mínimo y de reducción a banda. De forma adicional sugerimos como pueden influir esos reordenamientos a la convergencia de los métodos multimalla ya que ocurre una redistribución de la norma de la matriz hacia los niveles inferiores de la representación multi-escala, lo que garantizaría una mejor compresión. El campo de aplicación de la transformada wavelet que se propone es la resolución de grandes sistemas de ecuaciones lineales.
Acevedo Martínez, L. (2009). Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7107
Palancia
APA, Harvard, Vancouver, ISO, and other styles
2

Trujillo, Rasúa Rafael Arturo. "Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7108.

Full text
Abstract:
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output). Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización. Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton.
Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108
Palancia
APA, Harvard, Vancouver, ISO, and other styles
3

Blanco, de Frutos Héctor. "Clusterización de aplicaciones paralelas para su planificación en entornos de cómputo multi-cluster." Doctoral thesis, Universitat de Lleida, 2012. http://hdl.handle.net/10803/104488.

Full text
Abstract:
Un Multi-Cluster és un entorn de còmput distribuït en el que els diferents elements de còmput, agrupats en clústers, estàn repartits en diferents departaments d’una mateixa institució. La tasca de planificar aplicacions paral•leles a un Multi-Cluster és complexa, amb nombroses línies d’investigació obertes a l’actualitat. En primer lloc, la quantitat de recursos que han de ser gestionats pot ser elevada, amés que aquests poden ser heterogenis. En segon lloc, els diferents clústers estan connectats mitjançant un enllaç de xarxa, i si les aplicacions paral•leles no són assignades adequadament, el seu rendiment es degradarà si aquests enllaços es saturen. A la literatura, les estratègies més comuns avaluen les aplicacions de forma aïllada, sense tenir en compte els requisits de la resta d’aplicacions presents a la cua d’espera del sistema. Alguns estudis han conclòs que avaluar grups d’aplicacions permet prendre decisions de planificació que poden millorar el rendiment del conjunt d’aplicacions, i millorar la utilització dels recursos.Al present treball de tesi s’aborda el problema de la planificació on-line de múltiples aplicacions paral•leles a entorns Multi-Cluster heterogenis i amb co-assignació. Es proposen noves tècniques que tracten tant l’agrupació de les aplicacions com la seva assignació, considerant les característiques dels recursos del sistema, així com els requisits del grup d’aplicacions en quant al còmput i la comunicació. S’avaluen la complexitat i el rendiment de les tècniques proposades, comparant-les amb altres tècniques utilitzades a la literatura, usant traces d’entorns reals. Amés s’estudia la seva aplicabilitat a entorns reals i es presenten possibles línies de treball futur a considerar.
Un Multi-Cluster es un entorno de cómputo distribuido en el que los diferentes elementos de cómputo, agrupados en clusters, están repartidos en diferentes departamentos de una misma institución. La tarea de planificar aplicaciones paralelas en un Multi-Cluster es compleja, con numerosas líneas de investigación abiertas en la actualidad. En primer lugar, la cantidad de recursos que han de ser gestionados puede ser elevada, y además estos pueden ser heterogéneos. En segundo lugar, los diferentes clusters están conectados mediante un enlace de red, y si las aplicaciones paralelas no son asignadas adecuadamente, su rendimiento se degradará si estos enlaces se saturan. En la literatura, las estrategias más comunes evalúan las aplicaciones de forma aislada, sin tener en cuenta los requisitos de las otras aplicaciones presentes en la cola de espera del sistema. Algunos estudios han concluido que evaluar grupos de aplicaciones permite tomar decisiones de planificación que pueden mejorar el rendimiento del conjunto de aplicaciones, y mejorar la utilización de los recursos. En el presente trabajo de tesis se aborda el problema de la planificación on-line de múltiples aplicaciones paralelas en entornos Multi-Cluster heterogéneos y con co-asignación. Se proponen nuevas técnicas que tratan tanto la agrupación de las aplicaciones como su asignación, considerando las características de los recursos del sistema, así como los requisitos del grupo de aplicaciones en cuanto al cómputo y la comunicación. Se evalúan la complejidad y el rendimiento de las técnicas propuestas, comparándolas con otras técnicas utilizadas en la literatura, usando trazas de entornos reales. Se estudia además su aplicabilidad en entornos reales y se presentan posibles líneas de trabajo futuro a considerar.
A Multi-Cluster is a distributed computing environment in which the different computing elements, grouped in clusters, are spread across different departments of a same institution. The scheduling of parallel applications on a Multi-Cluster is complex. In first place, the amount of resources to be managed can be high, and also, those resource can be heterogeneous. Secondly, the different clusters are connected through a network link. If the parallel applications are not allocated correctly, its performance will be degraded if those links become saturated. On the literature, the most common strategies evaluate the applications in an isolated way, without taking into account the requirements of the other applications present on the system’s waiting queue. Some studies have concluded that to evaluate groups of applications allows taking scheduling decissions that could improve the performance of the set of applications, and to improve resource usage. On the present thesis work, the problem of on-line scheduling of multile parallel applications on heterogeneous Multi-Cluster environments with co-allocation, is addressed. New strategies are proposed which treat both application grouping and its allocation, as well as the set of applications processing and communication requierements. The complexity and the performance of the proposed strategies are evaluated, comparing them with other strategies from the literature, using real environment races. Furthermore, its applicability on real envionments is studied, and also possible future work to consider is presented.
APA, Harvard, Vancouver, ISO, and other styles
4

Tomás, Domínguez Andrés. "Implementación paralela de métodos de Krylov con reinicio para problemas de valores propios y singulares." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/5082.

Full text
Abstract:
Esta tesis aborda la paralelización de los métodos de Krylov con reinicio para problemas de valores propios y valores singulares (SVD). Estos métodos son de naturaleza iterativa y resultan adecuados para encontrar unos pocos valores propios o singulares de problemas dispersos. El procedimiento de ortogonalización suele ser la parte más costosa de este tipo de métodos, por lo que ha recibido especial atención en esta tesis, proponiendo y validando nuevos algoritmos para mejorar sus prestaciones paralelas. La implementación se ha realizado en el marco de la librería SLEPc, que proporciona una interfaz orientada a objetos para la resolución iterativa de problemas de valores propios o singulares. SLEPc está basada en la librería PETSc, que dispone de implementaciones paralelas de métodos iterativos para la resolución de sistemas lineales, precondicionadores, matrices dispersas y vectores. Ambas librerías están optimizadas para su ejecución en máquinas paralelas de memoria distribuida y con problemas dispersos de gran dimensión. Esta implementación incorpora los métodos para valores propios de Arnoldi con reinicio explícito, de Lanczos (incluyendo variantes semiortogonales) con reinicio explícito, y versiones de Krylov-Schur (equivalente al reinicio implícito) para problemas no Hermitianos y Hermitianos (Lanczos con reinicio grueso). Estos métodos comparten una interfaz común, permitiendo su comparación de forma sencilla, característica que no está disponible en otras implementaciones. Las mismas técnicas utilizadas para problemas de valores propios se han adaptado a los métodos de Golub-Kahan-Lanczos con reinicio explícito y grueso para problemas de valores singulares, de los que no existe ninguna otra implementación paralela con paso de mensajes. Cada uno de los métodos se ha validado mediante una batería de pruebas con matrices procedentes de aplicaciones reales. Las prestaciones paralelas se han medido en máquinas tipo cluster, comprobando una buena escalabilidad inc
Tomás Domínguez, A. (2009). Implementación paralela de métodos de Krylov con reinicio para problemas de valores propios y singulares [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/5082
Palancia
APA, Harvard, Vancouver, ISO, and other styles
5

Palanca, Cámara Javier. "Computación distribuida basada en objetivos." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/17702.

Full text
Abstract:
Para los sistemas de computaci�on actuales, la habilidad de utilizar din�amicamente los recursos que se alojan en la red se ha convertido en un factor clave de �exito. Conforme la red sigue creciendo se hace cada vez m�as dif�ÿcil encontrar soluciones a los problemas que los usuarios plantean al sistema computacional. Los usuarios saben habitualmente qu�e quieren hacer, pero no c�omo hacerlo. Si el usuario conoce el objetivo que desea alcanzar es m�as sencillo ayudarle mediante el uso de una aproximaci�on diferente. Nuestra propuesta se orienta en incrementar los niveles de abstracci�on proporcionados por el sistema operativo y sus servicios. Esto nos permitir�a ofrecer una capa de ejecuci�on del sistema operativo perfectamente integrada en la red y con mecanismos de seguridad y fiabilidad que no pueden estar disponibles en niveles m�as bajos de abstracci�on de los sistemas operativos actuales. Esta evoluci�on comienza por cambiar el paradigma utilizado en el dise �no del SO. Cambiar las abstracciones que el SO utiliza est�a �ÿntimamente relacionado con el paradigma utilizado, y al cambiar este paradigma necesitamos proponer un nuevo m�odulo de ejecuci�on para el SO que soporte dicho paradigma. Este m�odulo de ejecuci�on es presentado tambi�en en este trabajo. Para solventar estos problemas presentamos un nuevo paradigma de Computaci�on Distribuida basada en Objetivos. Para implementar el paradigma se ha dise �nado una arquitectura de sistema operativo orientado a objetivos. En este SO el usuario expresa sus objetivos y el SO se encarga de ayudar al usuario a alcanzar sus objetivos por medio de una aproximaci�on orientada a servicios. Adem�as se presenta un simulador que da soporte a este paradigma, siguiendo los requisitos planteados en este trabajo. Algunos de estos requisitos son par�ametros que comprenden c�omo definirlas propiedades de un objetivo o los que definen la bondad de un plan que cumple dichos objetivos. Algunos de los par�ametros que est�an implicado
Palanca Cámara, J. (2012). Computación distribuida basada en objetivos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17702
Palancia
APA, Harvard, Vancouver, ISO, and other styles
6

Kim, Joon Young. "Computación Paralela en Unidades de Procesamiento Gráfico (GPU)." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104712.

Full text
Abstract:
El objetivo de esta memoria es el estudio y desarrollo de aplicaciones de computación general en tarjetas gráficas. Los avances tecnológicos han permitido que hardware especializado para la visualización de imágenes sea lo suficientemente poderoso como para implementar en sus procesadores programas que son habitualmente asociados a las CPU. Esta memoria explora y evalúa el uso de estos recursos para aplicaciones numéricas y de generación de mallas. Para este objetivo se ha desarrollado una aplicación que simula la dinámica de fluidos y se exploró la posibilidad de aplicar algoritmos de refinado de mallas. Este tipo de algoritmos son intensivos en cómputo, ya que necesitan solucionar ecuaciones diferenciales usando métodos numéricos. Aplicando los conceptos que se requieren para programar este tipo de algoritmos a una GPU se busca optimizar su rendimiento y lograr una funcionalidad completa. A través de la memoria se explican los conceptos matemáticos detrás de la mecánica de fluidos, y se describe la forma en la que se pueden descomponer para su posterior implementación en un procesador gráfico, que es altamente paralelo, y tiene diferencias sustanciales con la arquitectura de un procesador general. No se pudo aplicar un algoritmo en la GPU de refinamiento de mallas debido a limitantes físicas de su arquitectura, pero el estudio es útil para futuras investigaciones. En conclusión, el programa creado muestra que es posible la adaptación de tales algoritmos, en hardware que a pesar de no estar diseñado para ellos entrega los mismos resultados que si fuesen programados de forma habitual. Esto además libera recursos que pueden ser utilizados para otros fines, o el uso de ambos procesadores, el CPU y la GPU, para la creación de programas que se ejecuten de forma más rápida y eficiente debido a la mayor cantidad de recursos disponibles
APA, Harvard, Vancouver, ISO, and other styles
7

Zorrilla, Pantaleón Marta Elena. "Procesamiento paralelo y distribuido aplicado al almacenamiento y recuperación de información documental." Doctoral thesis, Universidad de Cantabria, 2001. http://hdl.handle.net/10803/10697.

Full text
Abstract:
Para la consecución del objetivo propuesto, se ha trabajado con redes neuronales con función de base radial, perceptrones multicapa y con métodos constructivos como Cascade Correlation. Los resultados obtenidos con estas arquitecturas no han sido positivos, pues, o bien fracasaban en el ajuste, o bien, la memoria requerida era muy superior a su alternativa con Índices Inversos.Por este motivo, se ha propuesto una nueva arquitectura, la de red Hiperbandas, cuyas características más relevantes se pueden resumir en que se trata de una red que se construye ex profeso para clasificar un conjunto de datos de entrada sin interacción del usuario, con error cero y adecuada para situaciones donde los patrones de entrada se agrupan formando clases que pueden estar solapadas. Para verificar las prestaciones de esta nueva arquitectura, se han realizado comparaciones con el sistema usual basado en la técnica de Índices Inversos implementado mediante un B-Tree simple. Para llevar a cabo este análisis, se han examinado los parámetros que se utilizan generalmente para evaluar el rendimiento de un DRS, estos son: el tiempo de indexación, el espacio de almacenamiento requerido, la eficiencia de búsqueda y la efectividad de la consulta.
APA, Harvard, Vancouver, ISO, and other styles
8

Castellà, Martínez Damià. "Computación distribuida en entornos peer-to-peer con calidad de servicio." Doctoral thesis, Universitat de Lleida, 2011. http://hdl.handle.net/10803/51011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Costa, Filho José Tarcisio. "Proposta para computação assíncrona paralela e distribuida de estruturas especiais de jogos dinâmicos." [s.n.], 1992. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260379.

Full text
Abstract:
Orientador : Celso Pascoli Bottura
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica
Made available in DSpace on 2018-08-17T06:32:39Z (GMT). No. of bitstreams: 1 CostaFilho_JoseTarcisio_D.pdf: 11412677 bytes, checksum: cbe4c9ca6c7a461ef41e5bff9934bfbd (MD5) Previous issue date: 1992
Resumo: Sistemas reais de grande porte constituídos de subsistemas interconectados fisicamente e distribuídos espacialmente, frequentemente envolvem a descentralização do con trole entre vários agentes de decisão com objetivos diferentes e comumente conflitantes. Quando mais de um agente de decisão, AD, está envolvido, as teorias de jogos dinâmicos e de sistemas hierárquicos devem ser consideradas. Neste sentido, o jogo dinâmico, visto como uma tarefa organizacional, pode ser mapeado sobre um rede de computadores onde cada agente de decisão é associado a um computador. Para a computação paralela e distribui da de jogos dinâmicos esta tese trata de alguns aspectos importantes. Primeiramente, a proposta de um jogo distribuído assíncrono onde a distribuição dos agentes de decisão sobre a rede de computadores permite o acoplamento algoritmo/ hal'dware. Para isto, o conceito de jogo de Stackelberg é estendido para incluir jogos multiníveis onde os agentes são divididos em dois grupos: um grupo de agentes líderes (múltiplos coordenadores) e um grupo de agentes seguidores (controladores locais), e cada AD pode ou não estar cooperando dentro de seu grupo. Neste sentido, propusemos uma metodologia de otimização distribui da heterárquica que envolve esquemas de decomposições espacial e temporal com distribuiçâo da coordenaçâo, baseada em estratégias em malha aberta de Stackelberg, de Nash, de Pareto e de Equipe. Em segundo lugar, propomos formas de implementaçâo dos algoritmos de decisâo propostos sobre arquiteturas de computação paralela, vetorial e distribuida, com os objetivos de melhorar o desempenho computacional e de obter decisões on-line através da exploração dos graus de paralelismo e de vetorização nos algoritmos para a obtençâo de decisões individuais e da computação distribuida do sistema de múltiplos agentes. Em terceiro lugar, desenvolvemos uma ferramenta de software de suporte para múltiplas decisões distribui das sobre uma rede de estações de trabalho UNIX
Abstract: Reallarge scale systems consisting of physically interconnected subsystems dis ributed in space, frequently involve a decentralization of control among several decision makers with different and usually conflicting als hen more than one decision maker, D M, is involved, dynamic games theory and hierarchical approaches ould be consid ered. ln this sense, the dynamic game viewed as an organizational task can be mapped onto a computeI' network where each local decision is associated to a computeI'. For the parallel and distributed computation of dynamic games. this thesis studies some important aspects. Firstly, the proposal of an ynchronous distributed game where the distribuition of the decision makers over the computeI' network allows the matching algorithm/hardware. For doing this, the Stackelberg concept is idened to include multilevel games where the D.M sare assumed to be divided into t o groups: a group of leaders (multiple coordinators) and a group of followers (local controlers), and every DM may or may not be cooperating within his own group. ln this sense e propose an heterarchical distributed optimization methodology that inyolves temporal and spatial decomposition schemes with coordination distribution based on open-Ioop Stackelberg, Nash, Pareto and Team strategies. Secondly, we propose implementation forms for the proposed de cision algorithms on the parallel, vectorial and distributed computeI' architectures, with the objectives of computational rformance imprO ement and of on-line decision making through the algorithms parallelism and vectorizati_n degrees exploration for the individual decisions achievement and through the decision makers distributed computation. Thirdly, a distributed multidecision making suport soft are over a workstation network was developed
Doutorado
Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
10

Rebonatto, Marcelo Trindade. "Simulação paralela de eventos discretos com uso de memória compartilhada distribuída." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2000. http://hdl.handle.net/10183/2151.

Full text
Abstract:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Computación paralela y distribuida"

1

Piccoli, María Fabiana. Computación de alto desempeño en GPU. Editorial de la Universidad Nacional de La Plata (EDULP), 2011. http://dx.doi.org/10.35537/10915/18404.

Full text
Abstract:
Este libro es el resultado del trabajo de investigación sobre las características de la GPU y su adopción como arquitectura masivamente paralela para aplicaciones de propósito general. Su propósito es transformarse en una herramienta útil para guiar los primeros pasos de aquellos que se inician en la computación de alto desempeños en GPU. Pretende resumir el estado del arte considerando la bibliografía propuesta. El objetivo no es solamente describir la arquitectura many-core de la GPU y la herramienta de programación CUDA, sino también conducir al lector hacia el desarrollo de programas con buen desempeño. El libro se estructura de la siguiente manera: Capítulo 1: se detallan los conceptos básicos y generales de la computación de alto rendimiento, presentes en el resto del texto. Capítulo 2: describe las características de la arquitectura de la GPU y su evolución histórica. En ambos casos realizando una comparación con la CPU. Finalmente detalla la evolución de la GPU como co-procesador para el desarrollo de aplicaciones de propósito general. Capítulo 3: este capítulo contiene los lineamientos básicos del modelo de programación asociado a CUDA. CUDA provee una interfaz para la comunicación CPU-GPU y la administración de los threads. También se describe las características del modelo de ejecución SIMT asociado. Capítulo 4: analiza las propiedades generales y básicas de la jerarquía de memoria de la GPU, describiendo las propiedades de cada una, la forma de uso y sus ventajas y desventajas. Capítulo 5: comprende un análisis de los diferentes aspectos a tener en cuenta para resolver aplicaciones con buena performance. La programación de GPU con CUDA no es una mera transcripción de un código secuencial a un código paralelo, es necesario tener en cuenta diferentes aspectos para usar de manera eficiente la arquitectura y llevar a cabo una buena programación. Finalmente se incluyen tres apéndices. En el primero se describen los calificadores, tipos y funciones básicos de CUDA, el segundo detalla algunas herramientas simples de la biblioteca cutil.h para el control de la programación en CUDA. El último apéndice describe las capacidades de cómputo de CUDA para las distintas GPU existentes, listando los modelos reales que las poseen.
APA, Harvard, Vancouver, ISO, and other styles
2

De Giusti, Laura Cristina. Mapping sobre arquitecturas heterogéneas. Editorial de la Universidad Nacional de La Plata (EDULP), 2011. http://dx.doi.org/10.35537/10915/18372.

Full text
Abstract:
Entre todas las ideas esparcidas por la Ciencia de la Computación en los últimos años, pocas han transformado el área de manera tan profunda como la computación paralela. Virtualmente todos los aspectos se vieron afectados, y se generó un gran número de conceptos nuevos. Desde la Arquitectura de Computadoras hasta los Sistemas Operativos, desde los Lenguajes de Programación y Compiladores hasta Bases de Datos e Inteligencia Artificial, y desde la Computación numérica hasta las Combinatorias, cada rama sufrió un renacimiento.
APA, Harvard, Vancouver, ISO, and other styles
3

Bazán, Patricia, ed. Aplicaciones, servicios y procesos distribuidos. Editorial de la Universidad Nacional de La Plata (EDULP), 2017. http://dx.doi.org/10.35537/10915/62354.

Full text
Abstract:
En los orígenes de la ciencia de la computación todo el énfasis estuvo puesto en desarrollar sistemas que automatizaran tareas que se hacían manualmente. Este era suficiente desafío. En la actualidad, se han automatizado muchas tareas y el gran desafío es cómo mejorar la capacidad de los sistemas para alcanzar nuevos requerimientos: agregar nuevas interfaces, combinar múltiples fuentes de datos en una sola, interactuar con dispositivos móviles y reemplazar viejas aplicaciones con nuevas. En este sentido, el desarrollo de software se ha evolucionado hacia modelos distribuidos donde los componentes cooperan y colaboran para lograr el objetivo y ocultar la distribución al usuario. Sin lugar a dudas, la vertiginosa evolución de la tecnología Web y el uso de Internet como mecanismo de comunicación, ha impactado fuertemente en los paradigmas de desarrollo de software. Pero ésta no es la única causa de la evolución de la construcción de aplicaciones con una perspectiva modular, desacoplada y que facilite los nuevos requerimientos que se mencionan más arriba. Este libro tiene por objetivo desarrollar todos los conceptos que deben aprenderse e incorporarse para concebir software distribuido y se encuentra orientado a alumnos avanzados de carreras de informática que cuenten con conocimientos de redes, sistemas operativos, técnicas de ingeniería de software y algunas nociones de programación distribuida y concurrente.
APA, Harvard, Vancouver, ISO, and other styles
4

López, Javier. Optimización multi-objetivo. Editorial de la Universidad Nacional de La Plata (EDULP), 2015. http://dx.doi.org/10.35537/10915/45214.

Full text
Abstract:
Cuando hablamos de optimización en el ámbito de las ciencias de la computación hacemos referencia al mismo concepto coloquial asociado a esa palabra, la concreción de un objetivo utilizando la menor cantidad de recursos disponibles, o en una visión similar, la obtención del mejor objetivo posible utilizando todos los recursos con lo que se cuenta. Los métodos para encontrar la mejor solución (óptima) varían de acuerdo a la complejidad del problema enfrentado. Para problemas triviales, el cerebro humano posee la capacidad de resolverlos (encontrar la mejor solución) directamente, pero a medida que aumenta la complejidad del problema, se hace necesario contar con herramientas adicionales. En esta dirección, existe una amplia variedad de técnicas para resolver problemas complejos. Dentro de estas técnicas, podemos mencionar las técnicas exactas. Este tipo de algoritmos son capaces de encontrar las soluciones óptimas a un problema dado en una cantidad finita de tiempo. Como contrapartida, requiere que el problema a resolver cumpla con condiciones bastante restrictivas. Existen además un conjunto muy amplio de técnica aproximadas, conocidas como metaheurísticas. Estas técnicas se caracterizan por integrar de diversas maneras procedimientos de mejora local y estrategias de alto nivel para crear un proceso capaz de escapar de óptimos locales y realizar una búsqueda robusta en el espacio de búsqueda del problema. En su evolución, estos métodos han incorporado diferentes estrategias para evitar la convergencia a óptimos locales, especialmente en espacios de búsqueda complejos. Este tipo de procedimientos tienen como principal característica que son aplicables a cualquier tipo de problemas, sin requerir ninguna condición particular a cumplir por los mismos. Estas técnicas no garantizan en ningún caso la obtención de los valores óptimos de los problemas en cuestión, pero se ha demostrado que son capaces de alcanzar muy buenos valores de soluciones en períodos de tiempo cortos. Además, es posible aplicarlas a problemas de diferentes tipos sin mayores modificaciones, mostrando su robustez y su amplio espectro de uso. La mayoría de estas técnicas están inspiradas en procesos biológicos y/o físicos, y tratan de simular el comportamiento propio de estos procesos que favorecen la búsqueda y detección de soluciones mejores en forma iterativa. La más difundida de estas técnicas son los algoritmos genéticos, basados en el mecanismo de evolución natural de las especies. Existen diferentes tipos de problemas, y multitud de taxonomías para clasificar los mismos. En el alcance de este trabajo nos interesa diferenciar los problemas en cuanto a la cantidad de objetivos a optimizar. Con esta consideración en mente, surge una primera clasificación evidente, los problemas mono-objetivo, donde existe solo una función objetivo a optimizar, y los problemas multi-objetivo donde existe más de una función objetivo. En el presente trabajo se estudia la utilización de metaheurísticas evolutivas para la resolución de problemas complejos, con uno y con más de un objetivo. Se efectúa un análisis del estado de situación en la materia, y se proponen nuevas variantes de algoritmos existentes, validando que las mismas mejoran resultados reportados en la literatura. En una primera instancia, se propone una mejora a la versión canónica y mono-objetivo del algoritmo PSO, luego de un estudio detallado del patrón de movimientos de las partículas en el espacio de soluciones. Estas mejoras se proponen en las versiones de PSO para espacios continuos y para espacios binarios. Asimismo, se analiza la implementación de una versión paralela de esta técnica evolutiva. Como segunda contribución, se plantea una nueva versión de un algoritmo PSO multiobjetivo (MOPSO Multi Objective Particle Swarm Optimization) incorporando la posibilidad de variar dinámicamente el tamaño de la población, lo que constituye una contribución innovadora en problemas con mas de una función objetivo. Por último, se utilizan las técnicas representativas del estado del arte en optimización multi-objetivo aplicando estos métodos a la problemática de una empresa de emergencias médicas y atención de consultas domiciliarias. Se logró poner en marcha un proceso de asignación de móviles a prestaciones médicas basado en metaheurísticas, logrando optimizar el proceso de asignación de móviles médicos a prestaciones médicas en la principal compañía de esta industria a nivel nacional.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Computación paralela y distribuida"

1

Yandar-Lobon, Mario A., and Esteban Puerto Lara. "Vigilancia y seguridad con procesamiento de imágenes." In Industria 4.0: Desde la perspectiva organizacional, 65–84. Fondo Editorial Universitario Servando Garcés de la Universidad Politécnica Territorial de Falcón Alonso Gamero / Alianza de Investigadores Internacionales S.A.S., 2020. http://dx.doi.org/10.47212/industria4.0-5.

Full text
Abstract:
Los conceptos de vigilancia y seguridad se han dado por sentado en las sociedades urbanas colombianas. La vigilancia, desde la perspectiva de la observación implica el conocer lo que pasa, mientras que la seguridad se asocia al cuidado de personas y bienes. Desde el punto de vista del sector en Colombia, ciertamente ha habido un auge creciente, no solo en la demanda de los servicios, sino de tecnología asociada, como cámaras de vigilancia de manera individual y en circuitos cerrados (CCTV), sistemas de alarmas, autenticación biométrica para control de acceso, entre otros. La industria 4.0 supone un impacto relevante en diversos aspectos de una vigilancia y seguridad, principalmente porque el sector demanda servicios 7x24 con altos niveles de confiabilidad, teniendo hoy por hoy la tendencia a automatizar cada vez más sus operaciones. En la actualidad, este sector registra mucha más información de la que es procesada y retroalimentada eficazmente para la toma de decisiones. El presente análisis tiene como objetivo principal el estudio de la incorporación de técnicas de reconocimiento de imágenes y procesamiento de video en tiempo real para aplicaciones relacionadas con la seguridad perimetral en diferentes lugares que presenten diferentes tipos de actividades. Estas técnicas involucran visión artificial por medio de redes neuronales convolucionales utilizando sistemas de computación paralela que permiten procesar cantidades significativas de imágenes con resultados precisos y en tiempo real que benefician la toma de decisiones en el momento de afrontar un problema de seguridad. Utilizando las técnicas mencionadas se evaluaron videos en algunos sitios públicos y mediante la detección de personas se obtuvieron ciertos parámetros como el flujo de personas. Finalmente, este tipo de parámetros pueden ser utilizados para evaluar la toma de decisiones brindando un apoyo a las empresas de vigilancia en zonas de se presentan altas concurrencias de personas y que pueden tener como consecuencia algunos incidentes de inseguridad.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Computación paralela y distribuida"

1

Huaynacho Peñaloza, Yoni, and Abel Huaynacho Peñaloza. "Aplicación de un Clúster de Máquinas Físicas y Virtuales para la reducción de tiempo de Segmentación en la Clasificación de Imágenes Satelitales utilizando Computación Paralela y Redes Neuronales." In The 16th LACCEI International Multi-Conference for Engineering, Education, and Technology: “Innovation in Education and Inclusion”. Latin American and Caribbean Consortium of Engineering Institutions, 2018. http://dx.doi.org/10.18687/laccei2018.1.1.514.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography