To see the other types of publications on this topic, follow the link: Computación paralela y distribuida.

Dissertations / Theses on the topic 'Computación paralela y distribuida'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 43 dissertations / theses for your research on the topic 'Computación paralela y distribuida.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Acevedo, Martínez Liesner. "Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7107.

Full text
Abstract:
Esta tesis tiene el objetivo de estudiar aplicaciones de la transformada wavelet discreta (DWT) al álgebra lineal numérica. Se hace un estudio de las distintas variantes de paralelización de la DWT y se propone una nueva variante paralela, en memoria distribuida, con distribuciones de datos orientadas a bloques de matrices, como la 2DBC de ScaLAPACK. La idea es que la DWT en muchos casos es una operación intermedia y debe ajustarse a las distribuciones de datos que se estén usando. Se define y demuestra una forma de calcular exactamente la cantidad de elementos que debe comunicar cada procesador para que se puedan calcular de forma independiente todo los coeficientes wavelet en una cantidad de niveles determinada. Finalmente se propone una variante específica, más eficiente, para el cálculo de la DWT-2D cuando se aplica como paso previo a la resolución de un sistema de ecuaciones distribuido 2DBC, considerando una permutación de las filas y columnas del sistema que minimiza las comunicaciones. Otro de los aportes de esta tesis es el de considerar como un caso típico, el cálculo de la DWT-2D no estándar en matrices dispersas, proponemos algoritmos para realizar esta operación sin necesidad de construir explícitamente la matriz wavelet. Además tenemos en cuenta el fenómeno de rellenado (fill-in) que ocurre al aplicar la DWT a una matriz dispersa. Para ello exploramos con los métodos de reordenamiento clásicos de grado mínimo y de reducción a banda. De forma adicional sugerimos como pueden influir esos reordenamientos a la convergencia de los métodos multimalla ya que ocurre una redistribución de la norma de la matriz hacia los niveles inferiores de la representación multi-escala, lo que garantizaría una mejor compresión. El campo de aplicación de la transformada wavelet que se propone es la resolución de grandes sistemas de ecuaciones lineales.
Acevedo Martínez, L. (2009). Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7107
Palancia
APA, Harvard, Vancouver, ISO, and other styles
2

Trujillo, Rasúa Rafael Arturo. "Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7108.

Full text
Abstract:
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output). Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización. Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton.
Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108
Palancia
APA, Harvard, Vancouver, ISO, and other styles
3

Blanco, de Frutos Héctor. "Clusterización de aplicaciones paralelas para su planificación en entornos de cómputo multi-cluster." Doctoral thesis, Universitat de Lleida, 2012. http://hdl.handle.net/10803/104488.

Full text
Abstract:
Un Multi-Cluster és un entorn de còmput distribuït en el que els diferents elements de còmput, agrupats en clústers, estàn repartits en diferents departaments d’una mateixa institució. La tasca de planificar aplicacions paral•leles a un Multi-Cluster és complexa, amb nombroses línies d’investigació obertes a l’actualitat. En primer lloc, la quantitat de recursos que han de ser gestionats pot ser elevada, amés que aquests poden ser heterogenis. En segon lloc, els diferents clústers estan connectats mitjançant un enllaç de xarxa, i si les aplicacions paral•leles no són assignades adequadament, el seu rendiment es degradarà si aquests enllaços es saturen. A la literatura, les estratègies més comuns avaluen les aplicacions de forma aïllada, sense tenir en compte els requisits de la resta d’aplicacions presents a la cua d’espera del sistema. Alguns estudis han conclòs que avaluar grups d’aplicacions permet prendre decisions de planificació que poden millorar el rendiment del conjunt d’aplicacions, i millorar la utilització dels recursos.Al present treball de tesi s’aborda el problema de la planificació on-line de múltiples aplicacions paral•leles a entorns Multi-Cluster heterogenis i amb co-assignació. Es proposen noves tècniques que tracten tant l’agrupació de les aplicacions com la seva assignació, considerant les característiques dels recursos del sistema, així com els requisits del grup d’aplicacions en quant al còmput i la comunicació. S’avaluen la complexitat i el rendiment de les tècniques proposades, comparant-les amb altres tècniques utilitzades a la literatura, usant traces d’entorns reals. Amés s’estudia la seva aplicabilitat a entorns reals i es presenten possibles línies de treball futur a considerar.
Un Multi-Cluster es un entorno de cómputo distribuido en el que los diferentes elementos de cómputo, agrupados en clusters, están repartidos en diferentes departamentos de una misma institución. La tarea de planificar aplicaciones paralelas en un Multi-Cluster es compleja, con numerosas líneas de investigación abiertas en la actualidad. En primer lugar, la cantidad de recursos que han de ser gestionados puede ser elevada, y además estos pueden ser heterogéneos. En segundo lugar, los diferentes clusters están conectados mediante un enlace de red, y si las aplicaciones paralelas no son asignadas adecuadamente, su rendimiento se degradará si estos enlaces se saturan. En la literatura, las estrategias más comunes evalúan las aplicaciones de forma aislada, sin tener en cuenta los requisitos de las otras aplicaciones presentes en la cola de espera del sistema. Algunos estudios han concluido que evaluar grupos de aplicaciones permite tomar decisiones de planificación que pueden mejorar el rendimiento del conjunto de aplicaciones, y mejorar la utilización de los recursos. En el presente trabajo de tesis se aborda el problema de la planificación on-line de múltiples aplicaciones paralelas en entornos Multi-Cluster heterogéneos y con co-asignación. Se proponen nuevas técnicas que tratan tanto la agrupación de las aplicaciones como su asignación, considerando las características de los recursos del sistema, así como los requisitos del grupo de aplicaciones en cuanto al cómputo y la comunicación. Se evalúan la complejidad y el rendimiento de las técnicas propuestas, comparándolas con otras técnicas utilizadas en la literatura, usando trazas de entornos reales. Se estudia además su aplicabilidad en entornos reales y se presentan posibles líneas de trabajo futuro a considerar.
A Multi-Cluster is a distributed computing environment in which the different computing elements, grouped in clusters, are spread across different departments of a same institution. The scheduling of parallel applications on a Multi-Cluster is complex. In first place, the amount of resources to be managed can be high, and also, those resource can be heterogeneous. Secondly, the different clusters are connected through a network link. If the parallel applications are not allocated correctly, its performance will be degraded if those links become saturated. On the literature, the most common strategies evaluate the applications in an isolated way, without taking into account the requirements of the other applications present on the system’s waiting queue. Some studies have concluded that to evaluate groups of applications allows taking scheduling decissions that could improve the performance of the set of applications, and to improve resource usage. On the present thesis work, the problem of on-line scheduling of multile parallel applications on heterogeneous Multi-Cluster environments with co-allocation, is addressed. New strategies are proposed which treat both application grouping and its allocation, as well as the set of applications processing and communication requierements. The complexity and the performance of the proposed strategies are evaluated, comparing them with other strategies from the literature, using real environment races. Furthermore, its applicability on real envionments is studied, and also possible future work to consider is presented.
APA, Harvard, Vancouver, ISO, and other styles
4

Tomás, Domínguez Andrés. "Implementación paralela de métodos de Krylov con reinicio para problemas de valores propios y singulares." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/5082.

Full text
Abstract:
Esta tesis aborda la paralelización de los métodos de Krylov con reinicio para problemas de valores propios y valores singulares (SVD). Estos métodos son de naturaleza iterativa y resultan adecuados para encontrar unos pocos valores propios o singulares de problemas dispersos. El procedimiento de ortogonalización suele ser la parte más costosa de este tipo de métodos, por lo que ha recibido especial atención en esta tesis, proponiendo y validando nuevos algoritmos para mejorar sus prestaciones paralelas. La implementación se ha realizado en el marco de la librería SLEPc, que proporciona una interfaz orientada a objetos para la resolución iterativa de problemas de valores propios o singulares. SLEPc está basada en la librería PETSc, que dispone de implementaciones paralelas de métodos iterativos para la resolución de sistemas lineales, precondicionadores, matrices dispersas y vectores. Ambas librerías están optimizadas para su ejecución en máquinas paralelas de memoria distribuida y con problemas dispersos de gran dimensión. Esta implementación incorpora los métodos para valores propios de Arnoldi con reinicio explícito, de Lanczos (incluyendo variantes semiortogonales) con reinicio explícito, y versiones de Krylov-Schur (equivalente al reinicio implícito) para problemas no Hermitianos y Hermitianos (Lanczos con reinicio grueso). Estos métodos comparten una interfaz común, permitiendo su comparación de forma sencilla, característica que no está disponible en otras implementaciones. Las mismas técnicas utilizadas para problemas de valores propios se han adaptado a los métodos de Golub-Kahan-Lanczos con reinicio explícito y grueso para problemas de valores singulares, de los que no existe ninguna otra implementación paralela con paso de mensajes. Cada uno de los métodos se ha validado mediante una batería de pruebas con matrices procedentes de aplicaciones reales. Las prestaciones paralelas se han medido en máquinas tipo cluster, comprobando una buena escalabilidad inc
Tomás Domínguez, A. (2009). Implementación paralela de métodos de Krylov con reinicio para problemas de valores propios y singulares [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/5082
Palancia
APA, Harvard, Vancouver, ISO, and other styles
5

Palanca, Cámara Javier. "Computación distribuida basada en objetivos." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/17702.

Full text
Abstract:
Para los sistemas de computaci�on actuales, la habilidad de utilizar din�amicamente los recursos que se alojan en la red se ha convertido en un factor clave de �exito. Conforme la red sigue creciendo se hace cada vez m�as dif�ÿcil encontrar soluciones a los problemas que los usuarios plantean al sistema computacional. Los usuarios saben habitualmente qu�e quieren hacer, pero no c�omo hacerlo. Si el usuario conoce el objetivo que desea alcanzar es m�as sencillo ayudarle mediante el uso de una aproximaci�on diferente. Nuestra propuesta se orienta en incrementar los niveles de abstracci�on proporcionados por el sistema operativo y sus servicios. Esto nos permitir�a ofrecer una capa de ejecuci�on del sistema operativo perfectamente integrada en la red y con mecanismos de seguridad y fiabilidad que no pueden estar disponibles en niveles m�as bajos de abstracci�on de los sistemas operativos actuales. Esta evoluci�on comienza por cambiar el paradigma utilizado en el dise �no del SO. Cambiar las abstracciones que el SO utiliza est�a �ÿntimamente relacionado con el paradigma utilizado, y al cambiar este paradigma necesitamos proponer un nuevo m�odulo de ejecuci�on para el SO que soporte dicho paradigma. Este m�odulo de ejecuci�on es presentado tambi�en en este trabajo. Para solventar estos problemas presentamos un nuevo paradigma de Computaci�on Distribuida basada en Objetivos. Para implementar el paradigma se ha dise �nado una arquitectura de sistema operativo orientado a objetivos. En este SO el usuario expresa sus objetivos y el SO se encarga de ayudar al usuario a alcanzar sus objetivos por medio de una aproximaci�on orientada a servicios. Adem�as se presenta un simulador que da soporte a este paradigma, siguiendo los requisitos planteados en este trabajo. Algunos de estos requisitos son par�ametros que comprenden c�omo definirlas propiedades de un objetivo o los que definen la bondad de un plan que cumple dichos objetivos. Algunos de los par�ametros que est�an implicado
Palanca Cámara, J. (2012). Computación distribuida basada en objetivos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17702
Palancia
APA, Harvard, Vancouver, ISO, and other styles
6

Kim, Joon Young. "Computación Paralela en Unidades de Procesamiento Gráfico (GPU)." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104712.

Full text
Abstract:
El objetivo de esta memoria es el estudio y desarrollo de aplicaciones de computación general en tarjetas gráficas. Los avances tecnológicos han permitido que hardware especializado para la visualización de imágenes sea lo suficientemente poderoso como para implementar en sus procesadores programas que son habitualmente asociados a las CPU. Esta memoria explora y evalúa el uso de estos recursos para aplicaciones numéricas y de generación de mallas. Para este objetivo se ha desarrollado una aplicación que simula la dinámica de fluidos y se exploró la posibilidad de aplicar algoritmos de refinado de mallas. Este tipo de algoritmos son intensivos en cómputo, ya que necesitan solucionar ecuaciones diferenciales usando métodos numéricos. Aplicando los conceptos que se requieren para programar este tipo de algoritmos a una GPU se busca optimizar su rendimiento y lograr una funcionalidad completa. A través de la memoria se explican los conceptos matemáticos detrás de la mecánica de fluidos, y se describe la forma en la que se pueden descomponer para su posterior implementación en un procesador gráfico, que es altamente paralelo, y tiene diferencias sustanciales con la arquitectura de un procesador general. No se pudo aplicar un algoritmo en la GPU de refinamiento de mallas debido a limitantes físicas de su arquitectura, pero el estudio es útil para futuras investigaciones. En conclusión, el programa creado muestra que es posible la adaptación de tales algoritmos, en hardware que a pesar de no estar diseñado para ellos entrega los mismos resultados que si fuesen programados de forma habitual. Esto además libera recursos que pueden ser utilizados para otros fines, o el uso de ambos procesadores, el CPU y la GPU, para la creación de programas que se ejecuten de forma más rápida y eficiente debido a la mayor cantidad de recursos disponibles
APA, Harvard, Vancouver, ISO, and other styles
7

Zorrilla, Pantaleón Marta Elena. "Procesamiento paralelo y distribuido aplicado al almacenamiento y recuperación de información documental." Doctoral thesis, Universidad de Cantabria, 2001. http://hdl.handle.net/10803/10697.

Full text
Abstract:
Para la consecución del objetivo propuesto, se ha trabajado con redes neuronales con función de base radial, perceptrones multicapa y con métodos constructivos como Cascade Correlation. Los resultados obtenidos con estas arquitecturas no han sido positivos, pues, o bien fracasaban en el ajuste, o bien, la memoria requerida era muy superior a su alternativa con Índices Inversos.Por este motivo, se ha propuesto una nueva arquitectura, la de red Hiperbandas, cuyas características más relevantes se pueden resumir en que se trata de una red que se construye ex profeso para clasificar un conjunto de datos de entrada sin interacción del usuario, con error cero y adecuada para situaciones donde los patrones de entrada se agrupan formando clases que pueden estar solapadas. Para verificar las prestaciones de esta nueva arquitectura, se han realizado comparaciones con el sistema usual basado en la técnica de Índices Inversos implementado mediante un B-Tree simple. Para llevar a cabo este análisis, se han examinado los parámetros que se utilizan generalmente para evaluar el rendimiento de un DRS, estos son: el tiempo de indexación, el espacio de almacenamiento requerido, la eficiencia de búsqueda y la efectividad de la consulta.
APA, Harvard, Vancouver, ISO, and other styles
8

Castellà, Martínez Damià. "Computación distribuida en entornos peer-to-peer con calidad de servicio." Doctoral thesis, Universitat de Lleida, 2011. http://hdl.handle.net/10803/51011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Costa, Filho José Tarcisio. "Proposta para computação assíncrona paralela e distribuida de estruturas especiais de jogos dinâmicos." [s.n.], 1992. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260379.

Full text
Abstract:
Orientador : Celso Pascoli Bottura
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica
Made available in DSpace on 2018-08-17T06:32:39Z (GMT). No. of bitstreams: 1 CostaFilho_JoseTarcisio_D.pdf: 11412677 bytes, checksum: cbe4c9ca6c7a461ef41e5bff9934bfbd (MD5) Previous issue date: 1992
Resumo: Sistemas reais de grande porte constituídos de subsistemas interconectados fisicamente e distribuídos espacialmente, frequentemente envolvem a descentralização do con trole entre vários agentes de decisão com objetivos diferentes e comumente conflitantes. Quando mais de um agente de decisão, AD, está envolvido, as teorias de jogos dinâmicos e de sistemas hierárquicos devem ser consideradas. Neste sentido, o jogo dinâmico, visto como uma tarefa organizacional, pode ser mapeado sobre um rede de computadores onde cada agente de decisão é associado a um computador. Para a computação paralela e distribui da de jogos dinâmicos esta tese trata de alguns aspectos importantes. Primeiramente, a proposta de um jogo distribuído assíncrono onde a distribuição dos agentes de decisão sobre a rede de computadores permite o acoplamento algoritmo/ hal'dware. Para isto, o conceito de jogo de Stackelberg é estendido para incluir jogos multiníveis onde os agentes são divididos em dois grupos: um grupo de agentes líderes (múltiplos coordenadores) e um grupo de agentes seguidores (controladores locais), e cada AD pode ou não estar cooperando dentro de seu grupo. Neste sentido, propusemos uma metodologia de otimização distribui da heterárquica que envolve esquemas de decomposições espacial e temporal com distribuiçâo da coordenaçâo, baseada em estratégias em malha aberta de Stackelberg, de Nash, de Pareto e de Equipe. Em segundo lugar, propomos formas de implementaçâo dos algoritmos de decisâo propostos sobre arquiteturas de computação paralela, vetorial e distribuida, com os objetivos de melhorar o desempenho computacional e de obter decisões on-line através da exploração dos graus de paralelismo e de vetorização nos algoritmos para a obtençâo de decisões individuais e da computação distribuida do sistema de múltiplos agentes. Em terceiro lugar, desenvolvemos uma ferramenta de software de suporte para múltiplas decisões distribui das sobre uma rede de estações de trabalho UNIX
Abstract: Reallarge scale systems consisting of physically interconnected subsystems dis ributed in space, frequently involve a decentralization of control among several decision makers with different and usually conflicting als hen more than one decision maker, D M, is involved, dynamic games theory and hierarchical approaches ould be consid ered. ln this sense, the dynamic game viewed as an organizational task can be mapped onto a computeI' network where each local decision is associated to a computeI'. For the parallel and distributed computation of dynamic games. this thesis studies some important aspects. Firstly, the proposal of an ynchronous distributed game where the distribuition of the decision makers over the computeI' network allows the matching algorithm/hardware. For doing this, the Stackelberg concept is idened to include multilevel games where the D.M sare assumed to be divided into t o groups: a group of leaders (multiple coordinators) and a group of followers (local controlers), and every DM may or may not be cooperating within his own group. ln this sense e propose an heterarchical distributed optimization methodology that inyolves temporal and spatial decomposition schemes with coordination distribution based on open-Ioop Stackelberg, Nash, Pareto and Team strategies. Secondly, we propose implementation forms for the proposed de cision algorithms on the parallel, vectorial and distributed computeI' architectures, with the objectives of computational rformance imprO ement and of on-line decision making through the algorithms parallelism and vectorizati_n degrees exploration for the individual decisions achievement and through the decision makers distributed computation. Thirdly, a distributed multidecision making suport soft are over a workstation network was developed
Doutorado
Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
10

Rebonatto, Marcelo Trindade. "Simulação paralela de eventos discretos com uso de memória compartilhada distribuída." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2000. http://hdl.handle.net/10183/2151.

Full text
Abstract:
A simulação paralela de eventos é uma área da computação que congrega grande volume de pesquisas, pela importância em facilitar o estudo de novas soluções nas mais diferentes áreas da ciência e tecnologia, sem a necessidade da construção de onerosos protótipos. Diversos protocolos de simulação paralela podem ser encontrados, divididos em dois grandes grupos de acordo com o algoritmo empregado para a execução em ordem dos eventos: os conservadores e os otimistas; contudo, ambos os grupos utilizam trocas de mensagens para a sincronização e comunicação. Neste trabalho, foi desenvolvido um novo protocolo de simulação paralela, fazendo uso de memória compartilhada, o qual foi implementado e testado sobre um ambiente de estações de trabalho, realizando, assim, simulação paralela com uso de memória compartilhada distribuída. O protocolo foi desenvolvido tendo como base de funcionamento os protocolos conservadores; utilizou diversas características dos mesmos, mas introduziu várias mudanças em seu funcionamento. Sua execução assemelha-se às dos protocolos de execução síncrona, utilizando conceitos como o lookahead e janelas de tempo para execução de eventos. A principal mudança que o novo protocolo sofreu foi proporcionada pelo acesso remoto à memória de um LP por outro, produzindo diversas outras nas funções relativas à sincronização dos processos, como o avanço local da simulação e o agendamento de novos eventos oriundos de outro LP. Um ganho adicional obtido foi a fácil resolução do deadlock, um dos grandes problemas dos protocolos conservadores de simulação paralela. A construção de uma interface de comunicação eficiente com uso de memória compartilhada é o principal enfoque do protocolo, sendo, ao final da execução de uma simulação, disponibilizado o tempo de simulação e o tempo de processamento ocioso (quantia utilizada em comunicação e sincronização). Além de uma implementação facilitada, propiciada pelo uso de memória compartilhada ao invés de trocas de mensagens, o protocolo oferece a possibilidade de melhor ocupar o tempo ocioso dos processadores, originado por esperas cada vez que um LP chega a uma barreira de sincronização. Em nenhum momento as modificações efetuadas infringiram o princípio operacional dos protocolos conservadores, que é não possibilitar a ocorrência de erros de causalidade local. O novo protocolo de simulação foi implementado e testado sobre um ambiente multicomputador de memória distribuída, e seus resultados foram comparados com dois outros simuladores, os quais adotaram as mesmas estratégias, com idênticas ferramentas e testados em um mesmo ambiente de execução. Um simulador implementado não utilizou paralelismo, tendo seus resultados sido utilizados como base para medir o speedup e a eficiência do novo protocolo. O outro simulador implementado utilizou um protocolo conservador tradicional, descrito na literatura, realizando as funções de comunicação e sincronização através de trocas de mensagens; serviu para uma comparação direta do desempenho do novo protocolo proposto, cujos resultados foram comparados e analisados.
APA, Harvard, Vancouver, ISO, and other styles
11

Peredo, Andrade Oscar Francisco. "Implementación de un Método de Programación Semidefinida Usando Computación Paralela." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103643.

Full text
Abstract:
En el presente trabajo se estudió y rediseñó una implementación existente del algoritmo Filter-SDP, el cual resuelve problemas de programación semidefinida no lineal de la forma: donde f : Rn → R, h : Rn → Rp y G : Rn → Sm son funciones de clase C2 y Sm denota el espacio lineal de las matrices simétricas de m×m dotado del producto interno A·B = . El algoritmo resuelve en cada iteración una aproximación local representada por un problema de programación semidefinida lineal, y adicionalmente se utiliza un esquema de penalización multi-objetivo, en el cual se minimiza la función objetivo y una función de mérito utilizando un filtro. Se estudió la introducción de cálculo paralelo en partes específicas del algoritmo, con el objetivo de disminuir el tiempo de ejecución. Se reimplementó el algoritmo utilizando el lenguaje C y la librería de cálculo paralelo MPI. Esa nueva implementación se comparó con un desarrollo ya existente, realizado sobre la plataforma MATLAB, y se midió su speedup en los problemas más pesados de una batería de tests escogida. Como apoyo al desarrollo del algoritmo, se diseñaron nuevas fases de restauración sobre la plataforma MATLAB, con el objetivo de mejorar la calidad de las soluciones obtenidas. Se diseñaron 4 nuevos métodos para la fase de restauración del algoritmo, cuyas principales áreas de influencia son la restauración inexacta, el diseño de controladores retroalimentados de salida estática y el posicionamiento de polos. Dentro de los resultados obtenidos, se logró visualizar las ventajas de la nueva implementación con respecto al desarrollo ya existente, así como demostrar el beneficio que se obtiene en el speedup para problemas pesados. También se realizó una comparación entre los métodos diseñados para la fase de restauración, con la cual se llegó a conclusiones que pueden abrir nuevas áreas de investigación y trabajo a futuro. Finalmente, se aprendió a utilizar una herramienta de álgebra lineal que funciona sobre ambientes de cálculo paralelo, ScaLAPACK, y se perfeccionó el proceso de desarrollo de software que ya se tenía sobre este tipo de plataformas.
APA, Harvard, Vancouver, ISO, and other styles
12

Oporto, Segura Leonardo David. "Una Plataforma Tecnológica de Apoyo a la Educación Distribuida en Ciencias de la Computación." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/102325.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Barreto, Gilmar 1958. "Modelagem computacional distribuida e paralela de sistemas e de series temporais multivariaveis no espaço de estado." [s.n.], 2002. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261255.

Full text
Abstract:
Orientador : Celso Pascoli Bottura
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-01T16:06:11Z (GMT). No. of bitstreams: 1 Barreto_Gilmar_D.pdf: 3708607 bytes, checksum: 3b4291314b6c8041286e4a776d5c99f6 (MD5) Previous issue date: 2002
Resumo: Este estudo primeiramente investiga fundamentos teóricos para análise, desenvolvimento e implementação de algoritmos para modelagem de dados de sistemas dinâmicos e de séries temporais multivariáveis no espaço de estado, através de métodos de subespaço. Tem como segundo objetivo o desenvolvimento e implementação de algoritmos para modelagem computacional distribuída e paralela destes tipos de dados multivariados. A modelagem computacional de dados no espaço de estado é apresentada, comentada e avaliada sobre "benchmarks ". Desta forma esperamos viabilizar uma metodologia original e eficiente que contribuirá de forma direta para a modelagem de sistemas multivariáveis e de formas direta e ou indireta para o controle de sistemas multivariáveis.
Abstract: This study investigates firstly theoretical foundations in analysis, development and implementation of algorithms for state space modelling of time series and dynamic systems data. The second objective is the development and implementation of parallel and distributed computational modelling algorithms for such types of multivariate data. State space computational data modelling is presented, commented upon and evaluated against benchmarks. This procedure leads to the expectation of assured feasibility of an original and efficient methodology that will contribute in a direct way to multivariable systems modelling and, both in direct and indirect ways, to the control of multivariable systems.
Doutorado
APA, Harvard, Vancouver, ISO, and other styles
14

Jiménez, González Daniel. "ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS." Doctoral thesis, Universitat Politècnica de València, 2011. http://hdl.handle.net/10251/11234.

Full text
Abstract:
La información es útil si cuando se necesita está disponible y se puede hacer uso de ella. La disponibilidad suele darse fácilmente cuando la información está bien estructurada y ordenada, y además, no es muy extensa. Pero esta situación no es la más común, cada vez se tiende más a que la cantidad de información ofrecida crezca de forma desmesurada, que esté desestructurada y que no presente un orden claro. La estructuración u ordenación manual es inviable debido a las dimensiones de la información a manejar. Por todo ello se hace clara la utilidad, e incluso la necesidad, de buenos sistemas de recuperación de información (SRI). Además, otra característica también importante es que la información tiende a presentarse de forma natural de manera distribuida, lo cual implica la necesidad de SRI que puedan trabajar en entornos distribuidos y con técnicas de paralelización. Esta tesis aborda todos estos aspectos desarrollando y mejorando métodos que permitan obtener SRI con mejores prestaciones, tanto en calidad de recuperación como en eficiencia computacional, los cuales además permiten trabajar desde el enfoque de sistemas ya distribuidos. El principal objetivo de los SRI será proporcionar documentos relevantes y omitir los considerados irrelevantes respecto a una consulta dada. Algunos de los problemas más destacables de los SRI son: la polisemia y la sinonimia; las palabras relacionadas (palabras que juntas tienen un signi cado y separadas otro); la enormidad de la información a manejar; la heterogeneidad de los documentos; etc. De todos ellos esta tesis se centra en la polisemia y la sinonimia, las palabras relacionadas (indirectamente mediante la lematización semántica) y en la enormidad de la información a manejar. El desarrollo de un SRI comprende básicamente cuatro fases distintas: el preprocesamiento, la modelización, la evaluación y la utilización. El preprocesamiento que conlleva las acciones necesarias para transformar los documentos de la colección en una estructura de datos con la información relevante de los documentos ha sido una parte importante del estudio de esta tesis. En esta fase nos hemos centrado en la reducción de los datos y estructuras a manejar, maximizando la información contenida. La modelización, ha sido la fase más analizada y trabajada en esta tesis, es la que se encarga de defi nir la estructura y comportamiento del SRI.
Jiménez González, D. (2011). ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11234
Palancia
APA, Harvard, Vancouver, ISO, and other styles
15

Claver, Iborra José Manuel. "Algoritmos paralelos y distribuidos para resolver ecuaciones matriciales de Lyapunov en problemas de reducción de modelos." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4721.

Full text
Abstract:
La reducción de modelos para problemas de control de gran tamaño es actualmente uno de los temas fundamentales en teoría de sistemas y control. Entre diversas técnicas existentes, los métodos de truncamiento de estados son los que permiten una mayor precisión en la representación del sistema reducido. Muchos de estos métodos necesitan resolver una o más ecuaciones de Lyapunov (habitualmente acopladas), requiriéndose en ocasiones el factor de Cholesky de su solución. En esta tesis se pesentan algoritmos secuenciales por bloques y paralelos para la resolución de estas ecuaciones. Se han diseñado algoritomos de grano fino, medio y combinado, basados en el método de Hammarling, para multiprocesadores en memoria compartida. También se han desarrollado algoritmos paralelos para multicomputadores que utilizan paso de mensajes, adaptando y desarrollando los algoritmos frente de nda y cíclicos utilizados en la resolución de sistemas triangulares lineales, además se presentan nuevos algoritmos, basados en el método de la función signo matricial, para la resolución completa de las ecuaciones de Lyapunov para tiempo continuo acopladas en el caso estándar y generalizado, calculando tanto la solución explícita como el factor de Cholesky, Todos los algoritmos han sido implementados en diversos computadores paralelos y se han evaluado los resultados.
Claver Iborra, JM. (1998). Algoritmos paralelos y distribuidos para resolver ecuaciones matriciales de Lyapunov en problemas de reducción de modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4721
Palancia
APA, Harvard, Vancouver, ISO, and other styles
16

Lizama, Orellana Antonio Andrés. "El problema de la conexidad en el modelo computacional number-in-hand." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/115396.

Full text
Abstract:
Ingeniero Civil Matemático
La presente memoria se enmarca en el contexto de la computación distribuida. Esta es un área de las ciencias de la computación relativamente reciente, que surge ante la necesidad de un nuevo paradigma de computación, capaz de trabajar con cantidades masivas de datos, como son, por ejemplo, las redes sociales. En particular, se estudia la complejidad del problema CONEXIDAD de un grafo $G=(V,E)$ en el modelo computacional number-in-hand. Este problema consiste en decidir si un grafo $G$ es o no conexo. Por otro lado, a grandes rasgos, la complejidad que se considera aquí mide el largo de los mensajes (en bits) que los nodos deben comunicar para decidir CONEXIDAD. En primer lugar, se demuestra que la complejidad, en el caso en que el grafo $G$ es arbitrario, es al menos $f(n)$, donde $f(n) = \log n - (\log \log n +1+ \log n /n)$. Sin embargo, esta fórmula no aporta información alguna cuando el grafo $G$ posee $n<27$ nodos, pues $f(n) \leq 1$ para tales valores. Es decir, indica que la cantidad de bits que se tienen que comunicar es al menos $\leq 1$, lo que es evidente. Por esta razón, se profundiza el estudio analizando grafos pequeños, y se demuestra que 1 bit no es suficiente para decidir el problema en tal caso. Por otro lado, la cota expuesta se obtiene a partir de una reducción que construye un grafo de grado no acotado. Por lo tanto, $f(n)$ puede ser poco ajustada para la familia de grafos de grado acotado. Así pues, se complementa el trabajo restringiéndose a esta clase de grafos, con el fin de saber si en tal caso existe una mejor cota para la complejidad de CONEXIDAD en el modelo number-in-hand. Usando técnicas de complejidad comunicacional se encuentra una cota inferior de $\Omega(\log n)$. Más aún, se demuestra que esta cota es ajustada para esta clase de grafos.
APA, Harvard, Vancouver, ISO, and other styles
17

Ozimica, Gacitúa Nicolás Eugenio. "Cálculo de las Trayectorias de Partículas en la Atmósfera Mediante Cálculos Paralelizados Haciendo Uso Intensivo de GPU." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103833.

Full text
Abstract:
El cálculo de la trayectoria de partículas en la atmósfera es una actividad abordada desde hace mucho tiempo, tomando en cuenta un enfoque clásico del uso de los computadores, en el cual se utilizan sus recursos como Procesador Central (CPU) y Memoria RAM. Este enfoque, que ha servido para alcanzar los logros actuales, con predicciones bastante acertadas, aún adolece de problemas claves y en cierta medida irresolubles, que se ven acentuados cuando los procesos se hacen más complejos, ya sea incorporando muchas partículas, o tomando en cuenta modelos de desplazamiento más realistas. El presente trabajo aborda un enfoque totalmente nuevo, el cual hace uso de una componente física de los computadores llamada “Tarjeta Gráfica”, la cual cuenta con su propia unidad de procesamiento gráfico llamada GPU por sus siglas en inglés. Esta componente, gracias a su gran cantidad de núcleos, ofrece la posibilidad de realizar paralelamente entre sí todos, o una parte de los cálculos que le son asignados, de una manera mucho más potente que lo conseguido en la actualidad al hacer uso solamente de CPU. Este problema es abordado mediante la implementación de un programa en dos versiones: una para funcionar exclusivamente en CPU y la otra para hacer uso de GPU en los cálculos. De esta manera se puede contar con un método directo para comparar el desempeño de estos dos enfoques, contrastarlos entre sí, y deducir los casos en que uno supera al otro. El principal insumo en la comparación de estos cálculos es la información del pronóstico del viento. El programa fue aplicado a una situación real: la erupción del Volcán Chaitén, para un día cuyos datos se poseían de antemano. Los resultados obtenidos fueron graficados y comparados con una imagen satelital correspondiente al mismo día simulado, siendo posible comprobar la alta similitud entre ellas. El tiempo de cálculo empleado por la versión que funciona en GPU supera en algunos casos en más de doscientas veces lo que tarda su contraparte CPU, sin afectar en gran medida la exactitud de los cálculos. Esto permite comprobar efectivamente que las GPU superan ampliamente el desempeño de las CPU, cuando el problema abordado es altamente paralelizable. Este es un tema que no está en absoluto cerrado, por cuanto son muchos los caminos donde seguir explorando las ventajas y desventajas del uso de GPU para estos cálculos. Por ejemplo se puede ver cómo funcionan las GPU incorporando procesos físicos más complejos para el cálculo de los desplazamientos de las partículas, o se puede considerar algunas propiedades físicas de estas partículas, como lo es la masa por ejemplo.
APA, Harvard, Vancouver, ISO, and other styles
18

De, Giusti Laura Cristina. "Mapping sobre arquitecturas heterógenas." Editorial de la Universidad Nacional de La Plata (EDULP), 2011. http://hdl.handle.net/10915/18372.

Full text
Abstract:
Entre todas las ideas esparcidas por la Ciencia de la Computación en los últimos años, pocas han transformado el área de manera tan profunda como la computación paralela. Virtualmente todos los aspectos se vieron afectados, y se generó un gran número de conceptos nuevos. Desde la Arquitectura de Computadoras hasta los Sistemas Operativos, desde los Lenguajes de Programación y Compiladores hasta Bases de Datos e Inteligencia Artificial, y desde la Computación numérica hasta las Combinatorias, cada rama sufrió un renacimiento.
Tesis doctoral de la Facultad de Informática (UNLP). Grado alcanzado: Doctor en Ciencias Informáticas. Director de tesis: Guillermo Simari; co-director de tesis: Emilio Luque y Marcelo Naiouf.
APA, Harvard, Vancouver, ISO, and other styles
19

DO, CARMO BORATTO MURILO. "Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/48529.

Full text
Abstract:
El presente trabajo se inscribe en el campo de la computación paralela y, más en concreto, en el desarrollo y utilización de modelos computacionales en arquitecturas paralelas heterogéneas para la resolución de problemas aplicados. En la tesis abordamos una serie de problemas que están relacionados con la aplicación de la tecnología en el ámbito de las explotaciones agrícolas y comprenden: la representación del relieve, el manejo de información climática como la temperatura, y la gestión de recursos hídricos. El estudio y la solución a estos problemas en el área en la que se han estudiado tienen un amplio impacto económico y medioambiental. Los problemas basan su formulación en un modelo matemático cuya solución es costosa desde el punto de vista computacional, siendo incluso a veces inviable. La tesis consiste en implementar algoritmos paralelos rápidos y eficientes que resuelven el problema matemático asociado a estos problemas en nodos multicore y multi-GPU. También se estudia, propone y aplican técnicas que permiten a las rutinas diseñadas adaptarse automáticamente a las características del sistema paralelo donde van a ser instaladas y ejecutadas con el objeto de obtener la versión más cercana posible a la óptima a un bajo coste. El objetivo es proporcionar un software a los usuarios que sea portable, pero a la vez, capaz de ejecutarse eficientemente en la ordenador donde se esté trabajando, independientemente de las características de la arquitectura y de los conocimientos que el usuario pueda tener sobre dicha arquitectura.
Do Carmo Boratto, M. (2015). Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48529
TESIS
APA, Harvard, Vancouver, ISO, and other styles
20

Lérida, Monsó Josep Lluís. "Meta-Planificador Predictivo para Entornos Multicluster no Dedicados." Doctoral thesis, Universitat Autònoma de Barcelona, 2009. http://hdl.handle.net/10803/5775.

Full text
Abstract:
A principios de los años 90 muchas de las características y capacidades proporcionadas únicamente por sofisticados y costosos Supercomputadores se lograron alcanzar mediante el uso adecuado de conjuntos de ordenadores de sobremesa agrupados en sistemas denominados Cluster.
En la actualidad, el continuo aumento de las capacidades de cómputo y la disminución del coste de adquisición de los ordenadores de sobremesa ha provocado un uso extendido de los Clusters en centros de investigación, instituciones, organizaciones, etc. No obstante, el crecimiento constante de los requerimientos de las aplicaciones científicas hace necesaria la búsqueda de sistemas aún más potentes y/o con mayor número de recursos.
En la última década, la posibilidad de unir los recursos (Clusters) de una misma organización para obtener mayor capacidad de cómputo ha despertado un gran interés. Esto ha propiciado la aparición de nuevos sistemas Multicluster que incorporan sofisticadas técnicas de planificación de trabajos y gestión de recursos orientadas a aprovechar al máximo los recursos de cómputo distribuidos en varios Clusters.
Aunque el bajo coste de los recursos de cómputo facilita el crecimiento del número de clusters y recursos por Cluster, este crecimiento tiene sus limites. En primer lugar debemos considerar los problemas de espacio que no siempre son fáciles de conseguir y en segundo lugar el elevado coste del consumo energético producido por las unidades de cómputo y por los sistema de refrigeración que se necesitan para mantener a una temperatura adecuada estos sistemas.
Bajo este panorama, un modo de proporcionar mayor número de recursos sin aumentar los costes es incorporar al Multicluster recursos de cómputo ociosos de los usuarios de una organización para la ejecución de aplicaciones paralelas, como por ejemplo los ordenadores del laboratorio de una universidad.
La tarea de meta-planificación en un entorno Multicluster es un tarea compleja y una línea de trabajo en pleno auge en la actualidad. En primer lugar, la cantidad de recursos que se deben gestionar es muy grande y los recursos pueden ser heterogéneos. En segundo lugar, deseamos considerar la planificación en un sistema no dedicado donde los recursos se comparten con otros usuarios, aumentando la dificultad de la meta-planificación. El objetivo de la meta-planificación en el presente trabajo es obtener el máximo rendimiento de las aplicaciones paralelas sin perjudicar al usuario local.
En el presente trabajo proponemos nuevas técnicas de estimación del tiempo de turnaround de las aplicaciones paralelas. Estas estimaciones son utilizadas por el sistema de meta-planificación para seleccionar el Cluster más adecuado para su ejecución. Estas técnicas consideran la heterogeneidad y la ocupación de los recursos tanto de cómputo como de comunicación.
Los entornos Multicluster presentan una división natural del conjunto de recursos en distintos Clusters. Con el fin de aprovechar los recursos libres de distintos Cluters proponemos una técnica de asignación de recursos entre Clusters basada en un modelo de programación entera binaria (Mixed Integer Programming). El modelo realiza la asignación de una aplicación paralela a recursos de distintos Clusters con dos objetivos fundamentales, la obtención del mejor rendimiento de la aplicación paralela y la no saturación de los canales de comunicación.
Finalmente, proponemos una nueva estrategia de meta-planificación que establece cuando utilizar la asignación predictiva de Clusters y cuando aplicar la compartición de recursos entre distintos Clusters. Esta nueva estrategia permite la obtención de un mayor rendimiento de las aplicaciones paralelas y un mayor aprovechamiento de los recursos Multicluster.
In the early'90s many of the features and capabilities provided solely by sophisticated and expensive supercomputers are able to achieve through the use of commodity computers grouped into systems called Clusters.
At present, the continuing increase in computing capabilities and the reduced cost of commodity computers has provoked widespread use of Clusters in research centers, universities and organizations. However, the steady growth of the scientific applications requirements makes necessary the use of more powerful systems with greater resources.
In the last decade, the possibility to obtain more computing capacities combining resources (clusters) of the same organization has generated a great interest. This has given rise to new systems, called Multicluster, which incorporate sophisticated scheduling and resource management techniques, in order to maximize the distributed resource utilization.
Although the low cost of computing resources facilitates the growth of the number of clusters and its resources, this growth is not sustainable. First, we must consider the space problems that are not always easily available and secondly the high cost of the consumed energy by computational units and cooling systems needed to maintain such systems in an appropriate temperature.
A sustainable way of providing more resources without increasing costs, is to incorporate the idle computing resources of an organization for the execution of parallel applications, as for example the workstations in the laboratory of a university, the Clusters of different departments, etc.
The meta-scheduling task in non-dedicated Multicluster environments is an ongoing area of research. The large amount of resources, their heterogeneity and the sharing of resources between different users, greatly increases the complexity of the meta-scheduling task. The aim of the meta-scheduling in the present work is to maximize the performance of parallel applications without damaging the local user.
In this paper we propose new prediction techniques to estimate the turnaround time of parallel applications. These estimates are used by the meta-scheduling system to select the most appropriate cluster for execution. The proposed prediction techniques consider the heterogeneity and the availability of both computing and communication resources.
Resources in Multicluster environments are naturally partitioned in different Clusters. In order to exploit the free resources of different Clusters, we propose a new technique for allocating resources between Clusters based on a mixed-Integer programming model. The main aim of the proposed model is to obtain the best performance of the parallel applications with no saturation of the communications links.
Finally, we propose a new meta-scheduling strategy that uses prediction techniques to select the most appropriate cluster and decides when resources must be shared between clusters.
APA, Harvard, Vancouver, ISO, and other styles
21

Campos, González María Carmen. "Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/86134.

Full text
Abstract:
The polynomial eigenvalue problem appears in many areas of scientific and technical computing. It can be seen as a generalization of the linear eigenvalue problem in which the equation P(lambda)x = 0, that defines the problem, involves a polynomial P(lambda), of degree d, in the parameter lambda (the eigenvalue), and d+1 matrix coefficients. In its turn, the polynomial eigenvalue problem is a particular case of the nonlinear eigenvalue problem, T(lambda)x = 0, in which T is a nonlinear matrix function. These problems appear in diverse areas of application such as acoustics, fluid mechanics, structure analysis, or photonics. This thesis focuses on the study of methods for the numerical resolution of the polynomial eigenvalue problem, as well as the adaptation of such methods to the most general nonlinear case. Mainly, we consider methods of projection, that are appropriate for the case of sparse matrices of large dimension, where only a small percentage of eigevalues and eigenvectors are required. The algorithms are studied from the point of view of high-performance computing, considering issues like (computational and memory) efficiency and parallel computation. SLEPc, Scalable Library for Eigenvalue Problem Computations, is a software library for the parallel solution of large-scale eigenvalue problems. It is of general purpose and can be used for standard and generalized problems, both symmetric and nonsymmetric, with real or complex arithmetic. As a result of this thesis, we have developed several solvers for polynomial an nonlinear eigenproblems, which have included in the last versions of this software. On one hand, we consider methods based on the linearization of the polynomial problem, that solves an equivalent linear eigenproblem of dimension several times the initial size. Among them, the TOAR method stands out, that repre- sents the search subspace basis in an efficient way in terms of memory, and is appropriate to handle the increase of dimension of the linear problem. The thesis also proposes specific variants for the particular case of symmetric matrices. In all these methods we consider several aspects to provide the implementations with robustness and flexibility, such as spectral transformations, scaling, and techniques of extraction. In addition to the methods of linearization, we propose methods of Newton type, such as the method of Jacobi-Davidson with deflation and the method of Newton for invariant pairs. Due to its characteristics, the latter is not usually employed as a proper method, but as a technique for refinement of the solutions obtained with another method. The previous methods can also be applied to the resolution of the nonlinear problem, using techniques like polynomial or rational interpolation, being necessary in some cases to adapt the algorithms. This thesis covers also these cases. For all the considered algorithms we have made parallel implementations in SLEPc, and have studied its numerical behaviour and its parallel performance in problems coming from real applications.
El problema polinómico de valores propios aparece en muchas áreas de la computación científica y técnica. Puede verse como una generalización del problema lineal de valores propios en el que la ecuación P(lambda)x=0, que define el problema, involucra un polinomio P(lambda), de grado d, en el parámetro lambda del autovalor, y d+1 coeficientes matriciales. A su vez, el problema polinómico de valores propios es un caso particular del problema no lineal de valores propios, T(lambda)x=0, en el que T es una función matricial no lineal. Estos problemas aparecen en diversas áreas de aplicación como acústica, mecánica de fluidos, análisis de estructuras, o fotónica. Esta tesis se centra en el estudio de métodos para la resolución numérica del problema polinómico de valores propios, así como la adaptación de dichos métodos al caso más general no lineal. Principalmente, se consideran métodos de proyección, que son apropiados para el caso de matrices dispersas de gran dimensión cuando se requiere solo un pequeño porcentaje de los valores y vectores propios. Los algoritmos se estudian desde el punto de vista de la computación de altas prestaciones, teniendo en consideración aspectos como la eficiencia (computacional y de memoria) y la computación paralela. SLEPc, Scalable Library for Eigenvalue Problem Computations, es una biblioteca software para la resolución de problemas de valores propios de gran dimensión en paralelo. Es de propósito general y puede usarse para problemas estándares y generalizados, simétricos y no simétricos, con aritmética real o compleja. Como fruto de esta tesis, se han desarrollado diversos solvers para problemas polinómicos y no lineales, los cuales se han incluido en las últimas versiones de este software. Por un lado, se abordan métodos basados en la linealización del problema polinómico, que resuelven un problema lineal equivalente de dimensión varias veces la del inicial. Entre ellos se destaca el método TOAR, que representa la base del subespacio de búsqueda de una forma eficiente en términos de memoria, y es adecuado para manejar el aumento de dimensión del problema lineal. La tesis también propone variantes específicas para el caso particular de matrices simétricas. En todos estos métodos se consideran diversos aspectos para dotar a las implementaciones de robustez y flexibilidad, tales como transformaciones espectrales, escalado, y técnicas de extracción. Además de los métodos de linealización, se proponen métodos de tipo Newton, como el método de Jacobi-Davidson con deflación y el método de Newton para pares invariantes. Por sus características, este último no suele utilizarse como un método en sí mismo sino como técnica de refinamiento de las soluciones obtenidas con otro método. Los métodos anteriores pueden aplicarse a la resolución del problema no lineal, utilizando técnicas como la interpolación polinómica o racional, siendo necesario en algunos casos adaptar los algoritmos. La tesis cubre también estos casos. Para todos los algoritmos considerados se han realizado implementaciones paralelas en SLEPc, y se ha estudiado su comportamiento numérico y sus prestaciones paralelas en problemas procedentes de aplicaciones reales.
El problema polinòmic de valors propis apareix en moltes àrees de la computació científica i tècnica. Pot veure's com una generalització del problema lineal de valors propis en el qual l'equació P(lambda)x=0, que defineix el problema, involucra un polinomi P(lambda), de grau d, en el paràmetre lambda de l'autovalor, i d+1 coeficients matricials. Al seu torn, el problema polinòmic de valors propis és un cas particular del problema no lineal de valors propis, T(lambda)x=0, en el qual T és una funció matricial no lineal. Aquests problemes apareixen en diverses àrees d'aplicació com a acústica, mecànica de fluids, anàlisis d'estructures, o fotònica. Aquesta tesi se centra en l'estudi de mètodes per a la resolució numèrica del problema polinòmic de valors propis, així com l'adaptació d'aquests mètodes al cas més general no lineal. Principalment, es consideren mètodes de projecció, que són apropiats per al cas de matrius disperses de gran dimensió quan es requereix solament un reduït percentatge dels valors i vectors propis. Els algorismes s'estudien des del punt de vista de la computació d'altes prestacions, tenint en consideració aspectes com l'eficiència (computacional i de memòria) i la computació paral·lela. SLEPc, Scalable Library for Eigenvalue Problem Computations, és una biblioteca software per a la resolució de problemes de valors propis de gran dimensió en paral·lel. És de propòsit general i pot usar-se per a problemes estàndards i generalitzats, simètrics i no simètrics, amb aritmètica real o complexa. Com a fruit d'aquesta tesi, s'han desenvolupat diversos solvers per a problemes polinòmics i no lineals, els quals s'han inclòs en les últimes versions d'aquest software. D'una banda, s'aborden mètodes basats en la linealització del problema polinòmic, que resolen un problema lineal equivalent de dimensió diverses vegades la de l'inicial. Entre ells es destaca el mètode TOAR, que representa la base del subespai de cerca d'una forma eficient en termes de memòria, i és adequat per a manejar l'augment de dimensió del problema lineal. La tesi també proposa variants específiques per al cas particular de matrius simètriques. En tots aquests mètodes es consideren diversos aspectes per a dotar a les implementacions de robustesa i flexibilitat, tals com a transformacions espectrals, escalat, i tècniques d'extracció. A més dels mètodes de linealització, es proposen mètodes de tipus Newton, com el mètode de Jacobi-Davidson amb deflació i el mètode de Newton per a parells invariants. Per les seues característiques, aquest últim no sol utilitzar-se com un mètode en si mateix sinó com a tècnica de refinament de les solucions obtingudes amb un altre mètode. Els mètodes anteriors poden aplicar-se a la resolució del problema no lineal, utilitzant tècniques com la interpolació polinòmica o racional, sent necessari en alguns casos adaptar els algorismes. La tesi cobreix també aquests casos. Per a tots els algorismes considerats s'han realitzat implementacions paral·leles en SLEPc, i s'ha estudiat el seu comportament numèric i les seues prestacions paral·leles en problemes procedents d'aplicacions reals.
Campos González, MC. (2017). Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86134
TESIS
APA, Harvard, Vancouver, ISO, and other styles
22

Allende, Prieto Esteban Armando. "Portando AmbientTalk a Dispositivos Móviles Livianos." Tesis, Universidad de Chile, 2010. http://repositorio.uchile.cl/handle/2250/103823.

Full text
Abstract:
El objetivo general del presente trabajo es poder interpretar un subconjunto del lenguaje de programación AmbientTalk en un dispositivo móvil liviano que sea capaz de interactuar con otros programas desarrollados en AmbientTalk alojados en otros dispositivos que no sean necesariamente del mismo tipo de equipo. El dispositivo móvil liviano usado para esta memoria es un Sun SPOT. El intérprete oficial de AmbientTalk está desarrollado para Java ME CDC, mientras que los Sun SPOT poseen como plataforma de desarrollo Java ME CLDC. Una de las diferencias importantes entre ambos es que tanto reflexión como serialización no están presentes en CLDC, mientras que si lo están en CDC. Ambas son características muy usadas y muy imprescindibles para el intérprete oficial, por lo que se hace necesario replantear un nuevo intérprete para los Sun SPOT. Debido a las capacidades de cómputo limitadas de un Sun SPOT, se decidió separar la plataforma en dos aplicaciones que corren en máquinas distintas: un compilador que lea código fuente AmbientTalk y que genere un archivo binario, y un intérprete AmbientTalk que lea ese archivo binario e interprete el programa almacenado en él en un Sun SPOT. A cada una de las aplicaciones se le realizó un diseño de arquitectura lógica, separando los componentes en módulos semi desacoplados. Luego se realizó una validación al intérprete, realizando para tal efecto una aplicación ejemplo de programación distribuida consistente en un sistema controlador de luces remotas. Se realizó esta aplicación tanto para Java ME CLDC, como para AmbientTalk, mostrando que mientras la aplicación en Java ME CLDC es más eficiente, la aplicación en AmbientTalk fue más simple de desarrollar. Finalmente se concluye que esta plataforma es un paso para tener una implementación de AmbientTalk en toda la gama de dispositivos con Java y que AmbientTalk permite disminuir el tiempo de programación para aplicaciones distribuidas en un Sun SPOT.
APA, Harvard, Vancouver, ISO, and other styles
23

Blasco, Valencia Sebastián Ramón. "Estudio de detección y amortización de contención sobre la interfaz de red en sistemas Linux en escenarios de concurrencia sobre máquinas multicore." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/138900.

Full text
Abstract:
Magíster en Ciencias, Mención Computación
Ingeniero Civil en Computación
La proliferación de sistemas con múltiples núcleos de procesamiento ha transformado la aplicación de técnicas de programación paralela en uno de los tópicos más estudiados en los últimos años, ello en pos de mejorar los rendimientos generales de cualquier operación. Una aplicación práctica de dicho enfoque es en el procesamiento de requerimientos DNS, los cuales han evidenciado un gran aumento de la mano del desarrollo de la Internet y la masificación de distintos tipos de dispositivos que demandan conectividad, y que por sus características son un buen candidato a un enfoque de procesamiento paralelo. Sin embargo, distintas investigaciones han revelado que la aplicación de técnicas multithreading per se no son una estrategia que garantice un escalamiento en los resultados. Distintas empresas de carácter global (como Google, Facebook y Toshiba) así como investigaciones locales (de la mano de NIC Chile) han reconocido la existencia de este problema, reiterando responsabilidades a los Internet Sockets provistos por el kernel de Linux, los cuales al ser expuestos a un consumo concurrente degradan su capacidad de consumo de datos y rendimiento general, aún cuando existe poder de cómputo excedente. Así estas empresas y otros trabajos de investigación han planteado varias hipótesis teóricamente razonables para explicar dicho comportamiento pero sin concretar las mismas en términos experimentales que permitan confirmarlas o desmentirlas. La presente investigación plantea un estudio experimental del caso de los Sockets UDP que combina técnicas de profiling y testing de distinto nivel, a fin de verificar las principales sospechas vigentes que den explicación al problema en cuestión, reunidas en 3 líneas de trabajo: Problemas de distribución de carga, degradación del rendimiento por mecanismos de bloqueo y problemas de manejo de caché y defectos de contención de recursos. En la misma línea, se ilustra el impacto de fenómeno de contención de recursos en un escenario concurrente y su repercusión en los canales de comunicación en el procesamiento de datos en arquitecturas modernas multiprocesador como la estudiada. Es fruto de este trabajo un veredicto por cada estudio que concluya explicando las características inherentes a los Internet Sockets que expliquen su mal desempeño, bajo los distintos análisis efectuados. Posteriormente, la investigación se traslada a estudiar la técnica denominada reuseport, un desarrollo de ingenieros de Google que plantea una solución al problema presentado y que promete mitigar el efecto negativo causado por el uso de multithreading en el contexto estudiado. Así también, se repasan aspectos como el rendimiento de este enfoque, y ciertas debilidades del mismo. Finalmente, es producto del presente trabajo el planteamiento e implementación de una solución propia al problema que, inspirado en el diseño de reuseport e implementado como un módulo del kernel, provee un mecanismo de distribución de paquetes que permite optar a mejoras de desempeño en el procesamiento de los mismos usando técnicas de procesamiento paralelo clásicas. Una solución que --en su configuración estándar-- provee un rendimiento competitivo a reuseport, pero que gracias a ser ampliamente configurable permite postular a mejores resultados que reuseport en contextos no uniformes de distribución de paquetes.
APA, Harvard, Vancouver, ISO, and other styles
24

Toscano, Ochoa Carlos 1985. "Principles of distributed biological computation in non-growing cells : A rational architecture for chemical wires." Doctoral thesis, TDX (Tesis Doctorals en Xarxa), 2021. http://hdl.handle.net/10803/671533.

Full text
Abstract:
One of the branches of synthetic biology pursues the creation of a biological computer. Many have successfully implemented simple logic circuits rewiring cellular components. However, these circuits may aggressively compete for energy and resources from the host organism. Distributed computation proposes to split the circuit into smaller pieces and distribute it among several strains sharing information using chemical wires, usually based on quorum sensing systems. Nevertheless, most published research has been focused in the creation of proofs of concept, evading the fundamental question of the design constraints self imposed due to the use of chemical wires. Here we propose a unified and rational wire architecture consisting in three strains: one that emits a communication molecule called biobit, one that degrades and one that senses it. Our model predicts the strain ratio combinations that allow desired behaviours, and shows how a wire is able to work as a timer storing temporal information
Una de las ramas de la biología sintética persigue la creación de un computador biológico. Muchos han implementado con éxito circuitos lógicos simples reconectando componentes celulares. Sin embargo, estos circuitos pueden competir agresivamente por la energía y los recursos del organismo anfitrión. La computación distribuida propone dividir el circuito en partes más pequeñas y distribuirlas entre varias cepas que comparten información utilizando cables químicos, generalmente basados en sistemas de quorum sensing. Sin embargo, la mayoría de las investigaciones publicadas se han centrado en la creación de pruebas de concepto, evitando la cuestión fundamental de las limitaciones de diseño autoimpuestas debido al uso de cables químicos. Aquí proponemos una arquitectura de cables unificada y racional que consta de tres cepas: una que emite una molécula llamada biobit, otra que la degrada y otra que la detecta. Nuestro modelo predice las frecuencias relativas de cepas que permiten los comportamientos deseados y muestra cómo un cable puede funcionar como un temporizador.
APA, Harvard, Vancouver, ISO, and other styles
25

Orbezo, Chuchón Juan Jesús, and Tejeda Víctor Omar Polo. "Solución distribuida orientada a servicios para la transferencia de datos entre agentes del sistema de EPS a través del uso de servicios web." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/13984.

Full text
Abstract:
Pretende dar una solución acorde a los requerimientos exigidos en el sistema de EPS, teniendo como pilares a los servicios web, debido a que brindan a las organizaciones puentes de comunicación entre el software escrito en lenguajes diferentes, desarrollados por diferentes fabricantes e incluso que trabajan sobre diferentes sistemas operativos, asegurando así la interoperabilidad entre aplicaciones heterogéneas.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
26

Avila, Rafael Bohrer. "Um modelo de paralelismo de grao fino para objetos distribuidos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1999. http://hdl.handle.net/10183/25935.

Full text
Abstract:
Esta Dissertação apresenta um modelo de paralelismo de grão fino para utilização em aplicações baseadas em objetos distribuídos. A pesquisa é desenvolvida sobre o modelo de distribuição de objetos da linguagem DPC++, uma extensão de C++ concebida na Universidade Federal do Rio Grande do Sul. A motivação para o desenvolvimento deste modelo é a crescente disponibilidade de arquiteturas multiprocessadas e de tecnologias de comunicação de alto desempenho, o que permite o aproveitamento eficiente de um nível de concorrência de menor granularidade. O objetivo do trabalho é integrar de forma adequada e eficiente a utilização de tal nível de concorrência no modelo original de distribuição de objetos de DPC++, permitindo que as aplicações desenvolvidas com a linguagem possam explorar ao máximo o poder computacional oferecido pelas arquiteturas citadas. Como principais características, o modelo proposto apresenta a capacidade de concorrência entre os métodos de um mesmo objeto distribuído e a introdução de um mecanismo de sincronização baseado na semântica de monitores. Os resultados obtidos com a implementação de uma aplicação de geração de fractais de Mandelbrot demonstram que, em termos de desempenho, o modelo apresentado efetivamente atinge seus objetivos. Além disso, a extinção a sintaxe original de programação de DPC++ revela importante contribuição no sentido de aumentar o poder de expressão da linguagem para o desenvolvimento de aplicações paralelas.
This Thesis presents a fine-grain concurrency model for applications based on distributed objects. The basis for the development of this research is the model of distribution of objects presented by the language DPC++, an extension of C++ conceived at the Federal University of Rio Grande do Sul. The motivation for the development of this model is the growing availability of multiprocessor architectures and high-performance communication technologies, which allows for the efficient use of a finer grain of concurrency. The purpose of this work is to efficiently integrate such level of concurrency into the original model of distribution of objects of DPC++, making it possible for the applications developed with the language to thoroughly explore the computational power offered by the mentioned architectures. As main features the proposed model presents the possibility of concurrency between the methods of a single distributed object and the introduction of a synchronisation mechanism based on the semantics of monitors. The results obtained with the implementation of aMandelbrot fractal generation application showthat, in relation to performance, the presented model effectively reaches its purposes. In addition, the extension to the original programming sintax of DPC++ reveals an important contribution towards a higher expressivity degree in the development of parallel applications.
APA, Harvard, Vancouver, ISO, and other styles
27

Torres, Verdugo Rubén Darío. "Paralelización de algoritmo numérico para resolución de problemas en mecánica de sólidos." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/137992.

Full text
Abstract:
Ingeniero Civil Mecánico
Dentro de los métodos de simulación numérica para resolución de ecuaciones diferenciales parciales (EDP's), los métodos sin malla han sido desarrollados desde hace aproximadamente veinte años. A diferencia del método de elementos finitos, los métodos sin malla no necesitan una malla definida para la construcción de sus funciones de base, las que se crean únicamente por la distribución de los nodos en el dominio. Esta característica hace a este método más atractivo en problemas donde exista distorsión de la malla, sin embargo, requieren un tiempo extra en su cálculo y un esfuerzo mayor en su programación. El presente trabajo tiene por objetivo realizar un algoritmo numérico eficiente mediante programación en paralelo, para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano con funciones de base de máxima entropía. La motivación de este trabajo es suplir uno de los principales defectos de los métodos sin malla, ser computacionalmente costosos. Son abordados los antecedentes del método sin malla, elasticidad lineal y la programación en paralelo. Se utiliza el método sin malla Galerkiano basado en la forma débil, con funciones de base de máxima entropía. Se trabaja con el software computacional MATLAB y la librería Parallel Computing Toolbox en la implementación de la programación en paralelo para tres problemas específicos y se analiza el error numérico, convergencia, tiempo de cómputo, e indicadores de desempeño para la programación en paralelo, como lo son Speedup y Eficiencia paralela. Se obtienen errores numéricos aceptables, entregados por las normas relativas L^2 y H^1, obteniendo convergencia en los tres problemas. Los tiempos de cómputo se reducen al implementar la programación paralela en todos los casos. La convergencia del problema es independiente del número de procesadores utilizados. Se obtienen los mejores resultados de Speedup y Eficiencia paralela para problemas por sobre los 5000 grados de libertad. Se recomienda trabajar problemas por sobre esta cifra en la implementación de la programación en paralelo para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano. Se cumple objetivo principal, logrando realizar algoritmo numérico mediante programación en paralelo, para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano con funciones de base de máxima entropía.
APA, Harvard, Vancouver, ISO, and other styles
28

Sampé, Domenech Josep. "Enhancing the Programmability of Cloud Object Storage." Doctoral thesis, Universitat Rovira i Virgili, 2018. http://hdl.handle.net/10803/665607.

Full text
Abstract:
En un món que depèn cada vegada més de la tecnologia, les dades digitals es generen a una escala sense precedents. Això fa que empreses que requereixen d'un gran espai d'emmagatzematge, com Netflix o Dropbox, utilitzin solucions d'emmagatzematge al núvol. Mes concretament, l'emmagatzematge d'objectes, donada la seva simplicitat, escalabilitat i alta disponibilitat. No obstant això, aquests magatzems s'enfronten a tres desafiaments principals: 1) Gestió flexible de càrregues de treball de múltiples usuaris. Normalment, els magatzems d'objectes són sistemes multi-usuari, la qual cosa significa que tots ells comparteixen els mateixos recursos, el que podria ocasionar problemes d'interferència. A més, és complex administrar polítiques d'emmagatzematge heterogènies a gran escala en ells. 2) Autogestió de dades. Els magatzems d'objectes no ofereixen molta flexibilitat pel que fa a l'autogestió de dades per part dels usuaris. Típicament, són sistemes rígids, la qual cosa impedeix gestionar els requisits específics dels objectes. 3) Còmput elàstic prop de les dades. Situar els càlculs prop de les dades pot ser útil per reduir la transferència de dades. Però, el desafiament aquí és com aconseguir la seva elasticitat sense provocar contenció de recursos i interferències en la capa d'emmagatzematge. En aquesta tesi presentem tres contribucions innovadores que resolen aquests desafiaments. En primer lloc, presentem la primera arquitectura d'emmagatzematge definida per programari (SDS) per a magatzems d'objectes que separa les capes de control i de dades. Això permet gestionar les càrregues de treball de múltiples usuaris d'una manera flexible i dinàmica. En segon lloc, hem dissenyat una nova abstracció de polítiques anomenada "microcontrolador" que transforma els objectes comuns en objectes intel·ligents, permetent als usuaris programar el seu comportament. Finalment, presentem la primera plataforma informàtica "serverless" guiada per dades i elàstica, que mitiga els problemes de col·locar el càlcul prop de les dades.
En un mundo que depende cada vez más de la tecnología, los datos digitales se generan a una escala sin precedentes. Esto hace que empresas que requieren de un gran espacio de almacenamiento, como Netflix o Dropbox, usen soluciones de almacenamiento en la nube. Mas concretamente, el almacenamiento de objectos, dada su escalabilidad y alta disponibilidad. Sin embargo, estos almacenes se enfrentan a tres desafíos principales: 1) Gestión flexible de cargas de trabajo de múltiples usuarios. Normalmente, los almacenes de objetos son sistemas multi-usuario, lo que significa que todos ellos comparten los mismos recursos, lo que podría ocasionar problemas de interferencia. Además, es complejo administrar políticas de almacenamiento heterogéneas a gran escala en ellos. 2) Autogestión de datos. Los almacenes de objetos no ofrecen mucha flexibilidad con respecto a la autogestión de datos por parte de los usuarios. Típicamente, son sistemas rígidos, lo que impide gestionar los requisitos específicos de los objetos. 3) Cómputo elástico cerca de los datos. Situar los cálculos cerca de los datos puede ser útil para reducir la transferencia de datos. Pero, el desafío aquí es cómo lograr su elasticidad sin provocar contención de recursos e interferencias en la capa de almacenamiento. En esta tesis presentamos tres contribuciones que resuelven estos desafíos. En primer lugar, presentamos la primera arquitectura de almacenamiento definida por software (SDS) para almacenes de objetos que separa las capas de control y de datos. Esto permite gestionar las cargas de trabajo de múltiples usuarios de una manera flexible y dinámica. En segundo lugar, hemos diseñado una nueva abstracción de políticas llamada "microcontrolador" que transforma los objetos comunes en objetos inteligentes, permitiendo a los usuarios programar su comportamiento. Finalmente, presentamos la primera plataforma informática "serverless" guiada por datos y elástica, que mitiga los problemas de colocar el cálculo cerca de los datos.
In a world that is increasingly dependent on technology, digital data is generated in an unprecedented way. This makes companies that require large storage space, such as Netflix or Dropbox, use cloud object storage solutions. This is mainly thanks to their built-in characteristics, such as simplicity, scalability and high-availability. However, cloud object stores face three main challenges: 1) Flexible management of multi-tenant workloads. Commonly, cloud object stores are multi-tenant systems, meaning that all tenants share the same system resources, which could lead to interference problems. Furthermore, it is now complex to manage heterogeneous storage policies in a massive scale. 2) Data self-management. Cloud object stores themselves do not offer much flexibility regarding data self-management by tenants. Typically, they are rigid, which prevent tenants to handle the specific requirements of their objects. 3) Elastic computation close to the data. Placing computations close to the data can be useful to reduce data transfers. But, the challenge here is how to achieve elasticity in those computations without provoking resource contention and interferences in the storage layer. In this thesis, we present three novel research contributions that solve the aforementioned challenges. Firstly, we introduce the first Software-defined Storage (SDS) architecture for cloud object stores that separates the control plane from the data plane, allowing to manage multi-tenant workloads in a flexible and dynamic way. For example, by applying different service levels of bandwidth to different tenants. Secondly, we designed a novel policy abstraction called microcontroller that transforms common objects into smart objects, enabling tenants to programmatically manage their behavior. For example, a content-level access control microcontroller attached to an specific object to filter its content depending on who is accessing it. Finally, we present the first elastic data-driven serverless computing platform that mitigates the resource contention problem of placing computation close to the data.
APA, Harvard, Vancouver, ISO, and other styles
29

Pabón, Sánchez Gustavo Adolfo. "Self-optimizing skeleton execution using events." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/135169.

Full text
Abstract:
Magíster en Ciencias, Mención Computación
Esta tesis propone una forma novedosa para introducir características autonómicas de auto-configuración y auto-optimización a Patrones de Paralelismo (o Algorithmic Skeletons en inglés) usando técnicas de la Programación Dirigida por Eventos (o EDP por sus siglas en inglés). Gracias al uso de la programación dirigida por eventos, la solución propuesta en esta tesis presenta las siguientes contribuciones a las soluciones actuales: - No está relacionada a una arquitectura de aplicaciones en particular, por ejemplo la arquitectura de componentes. De esta forma, presenta una solución con un mayor alcance y es independiente de la arquitectura usada para la implementación de los patrones de paralelismo. - Provee un mayor nivel de adaptabilidad por permitir la introducción de cambios estructurales en tiempo de ejecución. A diferencia de otras soluciones que solo permiten la introducción de este tipo de cambios durante la compilación. - Los estimados de trabajo futuro pueden ser calculados en tiempo de ejecución y no hay dependencia a estimados pre-calculados en ejecuciones anteriores. Las características autonómicas presentadas en esta tesis se enfocan principalmente en garantizar un tiempo de ejecución a un patron de paralelismo por medio de la optimización de la cantidad de hilos de ejecución usados. Las calidades de servicio (QoS por sus siglas en inglés) usadas para este fin son: (1) tiempo de ejecución percibido por el usuario y (2) nivel de paralelismo. Otras contribuciones de esta tesis son: - Diseño e implementación de una novedosa solución a la separación de asuntos en los patrones de paralelismo usando técnicas de la programación dirigida por eventos. Esta solución novedosa permite la introducción de asuntos no-funcionales a los patrones de paralelismo sin disminuir sus abstracciones de alto nivel. - Evaluación de diferentes estrategias de estimación de trabajo futuro con el fin de realizar recomendaciones relacionadas a responder a la pregunta ¿Qué estrategia produce mejores estimados bajo qué circunstancias?
APA, Harvard, Vancouver, ISO, and other styles
30

Enfedaque, Montes Pablo. "GPU Architectures for Wavelet-based Image Coding Acceleration." Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/405310.

Full text
Abstract:
Els sistemes de codificació d'imatges moderns utilitzen tècniques amb alts requirements de comput per tal d'aconseguir comprimir imatges de manera eficient. Les aplicacions que fan us d'aquests codecs sovint tenen necesitats de processament en temps real. És habitual en aquests escenaris fer ús de hardware especialitzat com, per exemple, Field-Programmable Gate Arrays (FPGAs) o Applications-Specific Integrated Circuits (ASICs). No obstant, les GPUs, amb la seva arquitectura altament paral·lela orientada a rendiment, representen una alternativa atractiva en comparació al hardware especialitzat. Aquestes són reprogramables, energèticament eficients, es poden trobar a la majoria de sistemes i, sobretot, ofereixen un rendiment computacional molt competitiu. Els sistemes de codificació d'imatges basats en wavelets són aquells que utilitzen algun tipus de transformada wavelet abans de l'etapa de codificació de les dades. JPEG2000 és el sistema de codificació d'imatges basats en wavelet més representatiu. Diversos projectes d'investigació han intentat desenvolupar implementacions en GPU de JPEG2000, amb l'objectiu d'accelerar el sistema de codificació. Encara que algunes etapes del sistema són adequades per a la computació en GPUs, l'etapa de codificació de dades no exposa suficient paral·lelisme de granuralitat fina. A més, aquesta és l'etapa que requereix més recursos de comput (suposa un 75% del temps d'execució total) i representa, per tant, el coll d'ampolla del sistema. La investigació presentada en aquesta tesi es centra en la computació utilitzant GPUs de les etapes més rellevants dels sistemes de codificació d'imatges basats en wavelet: la transformada wavelet i l'etapa de codificació de dades. Aquesta tesi presenta tres contribucions principals: La primera, és una implementació de la Transformada Discreta Wavelet accelerada utilitzant GPUs. La implementació proposada aconsegueix una acceleració de 4x, respecte les solucions prèvies a l'estat de l'art; la segona, és l'anàlisi i reformulació de l’etapa de codificació de dades de JPEG2000. Es proposa un nou motor de compressió d'alt rendiment potencialment paral·lel: Bitplane Image Coding with Parallel Coefficient Processing (BPC-PaCo). BPC-PaCo reformula els mecanismes de codificació de dades, sense renunciar a cap funcionalitat dels sistemes de codificació tradicionals; l'última contribució d'aquesta tesis, presenta una implementació optimitzada per a GPU de BPC-PaCo. Es compara el seu rendiment amb les implementacions més competitives de JPEG2000, tant en CPU com en GPU, i es mostra com BPC-PaCo aconsegueix una millora en el temps d'execució de fins a 30x respecte les implementacions més rapides fins al moment.
Los sistemas de codificación de imágenes modernos utilizan técnicas con altos requisitos de cómputo para lograr comprimir imágenes de manera eficiente. Los codecs de imágenes son a menudo utilizados en aplicaciones que requieren procesamiento en tiempo real, en cuyos casos es común utilizar hardware especializado como, por ejemplo, Field-Programmable Gate Arrays (FGPAs) o Application-Specific Integrated Circuits (ASICs). No obstante, las GPUs tienen una arquitectura altamente paralela orientada a rendimiento que representa una alternativa atractiva en comparación con el hardware dedicado. Son reprogramables, energéticamente eficientes, se pueden encontrar en la mayoría de sistemas y, por encima de todo, ofrecen un rendimiento computacional muy competitivo. Los sistemas de codificación de imágenes basados en wavelet son aquellos que utilizan algún tipo de transformada wavelet antes de la etapa de codificación de datos. JPEG2000 es el sistema de codificación de imágenes basados en wavelet más representativo. Muchos proyectos de investigación han intentado desarrollar implementaciones en GPU de JPEG2000, con el objetivo de acelerar el sistema de codificación. Aunque algunas etapas del sistema son adecuadas para la computación en GPUs, la etapa de codificación de datos no expone suficiente paralelismo de granularidad fina. La codificación de datos es, además, la etapa que requiere más recursos de cómputo (supone un 75% del tiempo total de ejecución) y representa, por lo tanto, el cuello de botella del sistema. La investigación presentada en esta tesis se centra en la computación en GPU de las etapas más críticas de los sistemas de codificación de imágenes basados en wavelet: la transformada wavelet y la etapa de codificación de datos. Ésta tesis presenta tres contribuciones principales: la primera es una implementación de la Transformada Discreta Wavelet acelerada utilizando GPUs. La implementación propuesta ofrece un rendimiento computacional hasta 4 veces mayor, con respecto a las anteriores soluciones en el estado del arte; la segunda, es el análisis y reformulación de la etapa de codificación de datos de JPEG2000. Se propone un nuevo motor de codificación de alto rendimiento compatible con sistemas de cómputo paralelo: Bitplane Image Coding with Parallel Coefficient Processing (BPC-PaCo). BPC-PaCo reformula los mecanismos de la codificación de datos sin renunciar a ninguna de las funcionalidades avanzadas de los sistemas de codificación tradicionales; la última contribución de esta tesis presenta una implementación optimizada en GPU de BPC-PaCo. Se compara su rendimiento con las implementaciones de JPEG2000 más competitivas, tanto en CPU como en GPU, y se demuestra como BPC-PaCo consigue mejoras en tiempos de ejecución de hasta 30x respecto las implementaciones más rápidas.
Modern image coding systems employ computationally demanding techniques to achieve image compression. Image codecs are often used in applications that require real-time processing, so it is common in those scenarios to employ specialized hardware, such as Field-Programmable Gate Arrays (FPGAs) or Application-Specific Integrated Circuits (ASICs). GPUs are throughput-oriented, highly parallel architectures that represent an interesting alternative to dedicated hardware. They are software re-programmable, widely available, energy efficient, and they offer very competitive peak computational performance. Wavelet-based image coding systems are those that employ some kind of wavelet transformation before the data coding stage. Arguably, JPEG2000 is the most representative of those systems. Many research projects have tried to develop GPU implementations of JPEG2000 to speed up the coding pipeline. Although some stages of the pipeline are very suitable for GPU computing, the data coding stage does not expose enough fine-grained parallelism. Data coding is the most computationally demanding stage (75% of the total execution time) and represents the bottleneck of the pipeline. The research presented in this thesis focuses on the GPU computing of the most critical stages of wavelet-based image coding systems: the wavelet transform and the data coding stage. This thesis proposes three main contributions. The first is a GPU-accelerated implementation of the Discrete Wavelet Transform. The proposed implementation achieves speedups up to 4x with respect to the previous state-of-the-art GPU solutions. The second contribution is the analysis and reformulation of the data coding stage of JPEG2000. We propose a new parallel-friendly high performance coding engine: Bitplane Image Coding with Parallel Coefficient Processing (BPC-PaCo). BPC-PaCo reformulates the mechanisms of data coding, without renouncing to any of the advanced features of traditional data coding. The last contribution of this thesis presents an optimized GPU implementation of BPC-PaCo. It compares its performance with the most competitive JPEG2000 implementations in both CPU and GPU, revealing speedups up to 30x with respect to the fastest implementation.
APA, Harvard, Vancouver, ISO, and other styles
31

Alonso, Ábalos José Miguel. "Computación Avanzada en Problemas Estáticos y Dinámicos de Gran Dimensión: Aplicación al Cálculo de Estructuras." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/61974.

Full text
Abstract:
[EN] The work implemented in this thesis is concerned with the application of High Performance Computing, Grid technologies and Cloud Technologies to the static and dynamic linear analysis of building and civil engineering structures by means of the finite element method. Thanks to the efficiency of the current numerical methods, embedded in many public domain numerical libraries, and to the availability of communication and synchronization libraries among the processing elements, either by message passing or by shared memory, the application of High Performance Computing to the structural computation has allowed us to carry out a rigorous and realistic analysis of large dimension and complexity structures, with reasonably reduced response times. Besides using state-of-the-art parallel numerical libraries (devoted to the solution of systems of linear equations by means of direct methods with MUMPS, PaStiX and PARDISO or iterative methods with PETSc and hypre or the resolution of the generalized eigenvalue problem with SLEPc), the multilevel parallel programming paradigm has been employed, which combines the development of algorithms using MPI and OpenMP in order to ensure the portability and to obtain the best performance in different operating systems, such as Linux and Windows, on different parallel computational platforms. The linear static calculation has been carried out through of the Stiffness Method where all its different stages have been parallelised. In case of structural dynamics, the second order dynamic equation has been solved by means of the parallelization of several direct time integration methods, as well as through parallel modal analysis techniques, modal superposition time history and response spectrum analysis. In the case of the latter analysis, numerous modal combination methods have been parallelized, accompanied by different directional combination techniques and distinct alternatives that try to provide us with sign of the results. With the aim that the above mentioned HPC-based application could be at the disposal of a wide community of architects and structural engineers, Grid and Cloud services have been implemented and deployed. They offer a secure, reliable and high throughput structural analysis under a service oriented architecture model. On the one hand, the Grid service integrates components, such as GMarte, for the task metascheduling, the results retrieval and the failure tolerance on Grid platforms. On the other hand, the Cloud service incorporates the developments of the European VENUS-C project for its deployment on Microsoft Azure infrastructure or on-premise Cloud platform managed by COMPSs. The competitiveness demonstrated by the structural simulator in its response times, even when launched in a sequential approach, with regard to other well-known software packages, has given place to its incorporation in different software applications. From a research point of view, it is part of a structural optimization system in collaboration with the Continuous Medium Mechanics and Theory of Structures Department (DMMCTE) of the UPV. In a professional environment, the simulator has been incorporated into two commercial applications. First of all, it is one of the three components of Architrave, a software system for the the static and dynamic structural design and analysis, developed by the UPV and with more than 3550 users, equipped with an attractive graphical user interface that is distributed by the Preference company. Professionally, Architrave has been downloaded from 22 countries. Academically, it is being used by students and teachers belonging to 54 universities from 8 different countries. Additionally, the Preference company has incorporated the structural simulator static version to its PrefSuite product, a worldwide commercialized software package in the field of metallic carpentry and 3D structural analysis of curtain walls.
[ES] El trabajo realizado en esta tesis doctoral ha consistido en la aplicación de la Computación de Altas Prestaciones, las Tecnologías Grid y las Tecnologías Cloud al cálculo estático y dinámico lineal de estructuras de edificación e ingeniería civil mediante el método de los elementos finitos. Gracias a la eficiencia de los métodos numéricos actuales, plasmados en librerías numéricas de dominio público, y a la disponibilidad de librerías de comunicación y sincronización entre los elementos de proceso, bien sea mediante paso de mensajes o por memoria compartida, la aplicación de la Computación de Altas Prestaciones al cálculo estructural ha permitido llevar a cabo un análisis riguroso y realista de estructuras de gran dimensión y complejidad, con unos tiempos de respuesta razonablemente reducidos. Además de utilizar librerías numéricas paralelas de dominio público (dedicadas a la resolución de sistemas de ecuaciones lineales mediante métodos directos con MUMPS, PaStiX y PARDISO o métodos iterativos con PETSc y hypre o la resolución del problema de valores propios generalizado con SLEPc) se ha empleado el paradigma de programación paralela multinivel, el cual combina el desarrollo de algoritmos mediante MPI y OpenMP, a fin de garantizar la portabilidad y obtener las mejores prestaciones en distintos sistemas operativos, como Linux y Windows, sobre diferentes plataformas computacionales paralelas. El cálculo estático se ha llevado a cabo mediante el Método de la Rigidez, donde se han paralelizado las diferentes etapas que lo componen. En el caso del análisis dinámico, la ecuación dinámica de segundo orden se ha resuelto mediante la paralelización de numerosos métodos de integración directa, así como mediante técnicas de análisis modal, superposición modal y análisis modal espectral. En el caso concreto del análisis modal espectral, se han paralelizado un amplio número de métodos de combinación modal de los resultados, acompañados de distintas técnicas de combinación direccional y diferentes alternativas que intentan proporcionar el signo de los resultados. Con el objetivo de que dicha aplicación paralela desarrollada pueda estar a disposición de una amplia comunidad de arquitectos e ingenieros estructurales, se han implementado y desplegado sendos servicios Grid y Cloud que ofrecen un análisis estructural por internet seguro, fiable y de alta productividad bajo una arquitectura orientada a servicio. Dichos servicios integran componentes, como GMarte, para la planificación de tareas, la recogida de resultados y la tolerancia a fallos en plataformas Grid o incorporan los desarrollos del proyecto europeo VENUS-C, para el despliegue del servicio sobre Microsoft Azure o sobre una infraestructura Cloud ''on-premise'' gestionada por COMPSs. La competitividad demostrada por el simulador estructural en sus tiempos de respuesta, inclusive a nivel secuencial, con respecto a otros paquetes software disponibles y ampliamente utilizados, ha dado lugar a su incorporación en diferentes aplicaciones. Bajo un entorno de carácter investigador, forma parte de un sistema de optimización estructural, en colaboración con el departamento de Mecánica de los Medios Continuos y Teoría de Estructuras (DMMCTE) de la UPV. En un ámbito profesional, el simulador se ha incorporado en dos aplicaciones comerciales. Por un lado en Architrave, una aplicación de cálculo estático y dinámico estructural, desarrollada por la UPV y con más de 3550 usuarios, dotada de un atractivo interfaz gráfico que se distribuye por parte de la empresa Preference. A nivel profesional, Architrave se ha descargado en 22 países y cuenta, a nivel académico, con alumnos y profesores de 54 universidades de 8 países diferentes. Adicionalmente, la empresa Preference ha incorporado la versión estática del simulador a su producto PrefSuite, un paquete software comercializado a nivel mundial en el ámbito de la carpint
[CAT] El treball realitzat en aquesta tesi doctoral ha consistit en l'aplicació de la Computació d'Altes Prestacions, les Tecnologies Grid i les Tecnologies Cloud al càlcul estàtic i dinàmic lineal d'estructures d'edificació i enginyeria civil mitjançant el mètode dels elements finits. Gràcies a l'eficiència dels mètodes numèrics actuals, plasmats en llibreries numèriques de domini públic, i a la disponibilitat de llibreries de comunicació i sincronització entre els elements de procés, bé siga mitjançant pas de missatges o per memòria compartida, l'aplicació de la Computació d'Altes Prestacions al càlcul estructural ha permès dur a terme una anàlisi rigorosa i realista d'estructures de gran dimensió i complexitat, amb uns temps de resposta raonablement reduïts. A més d'utilitzar llibreries numèriques paral·leles de domini públic (dedicades a la resolució de sistemes d'equacions lineals mitjançant mètodes directes amb MUMPS, PaStiX i PARDISO o mètodes iteratius amb PETSc i hypre o la resolució del problema de valors propis generalitzat amb SLEPc) s'ha emprat el paradigma de programació paral·lela multinivell, el qual combina el desenvolupament d'algorismes mitjançant MPI i OpenMP, a fi de garantir la portabilitat i obtenir les millors prestacions en diferents sistemes operatius, com Linux i Windows, sobre diferents plataformes computacionals paral·leles. El càlcul estàtic s'ha dut a terme mitjançant el Mètode de la Rigidesa, on s'han paral·lelitzat les diferents etapes que ho componen. En el cas de l'anàlisi dinàmica, l'equació dinàmica de segon ordre s'ha resolt mitjançant la paral·lelització de nombrosos mètodes d'integració directa, així com mitjançant tècniques d'anàlisi modal, superposició modal i anàlisi modal espectral. En el cas concret de l'anàlisi modal espectral, s'ha paral·lelitzat un ampli nombre de mètodes de combinació modal dels resultats, junt amb de diferents tècniques de combinació direccional i diferents alternatives que intenten proporcionar el signe dels resultats. Amb l'objectiu que aquesta aplicació paral·lela desenvolupada puga estar a la disposició d'una àmplia comunitat d'arquitectes i enginyers estructurals, s'han implementat i desplegat sengles serveis Grid i Cloud que ofereixen una anàlisi estructural per internet segur, fiable i d'alta productivitat sota una arquitectura orientada a servei. Aquests serveis integren components, com GMarte, per a la planificació de tasques, la recollida de resultats i la tolerància a fallades en plataformes Grid o incorporen els desenvolupaments del projecte europeu VENUS-C, per al desplegament del servei sobre Microsoft Azure o sobre una infraestructura Cloud 'on-premise'' gestionada per COMPSs. La competitivitat demostrada pel simulador estructural en els seus temps de resposta, inclòs a nivell seqüencial, pel que fa a altres paquets de programari disponibles i àmpliament utilitzats, ha donat lloc a la seua incorporació en diferents aplicacions. Sota un entorn de caràcter investigador, forma part d'un sistema d'optimització estructural, en col·laboració amb el departament de Mecànica dels Mitjans Continus i Teoria d'Estructures (DMMCTE) de la UPV. En un àmbit professional, el simulador s'ha incorporat en dues aplicacions comercials. D'una banda en Architrave, una aplicació de càlcul estàtic i dinàmic estructural, desenvolupada per la UPV i amb més de 3550 usuaris, dotada d'una atractiva interfície gràfica que es distribueix per part de l'empresa Preference. A nivell professional, Architrave s'ha descarregat en 22 països i compta, a nivell acadèmic, amb alumnes i professors de 54 universitats de 8 països diferents. Addicionalment, l'empresa Preference ha incorporat la versió estàtica del simulador al seu producte PrefSuite, un paquet software comercialitzat a nivell mundial en l'àmbit de la fusteria metàl·lica i el càlcul estructural en 3D de murs cortina.
Alonso Ábalos, JM. (2016). Computación Avanzada en Problemas Estáticos y Dinámicos de Gran Dimensión: Aplicación al Cálculo de Estructuras [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61974
TESIS
Premiado
APA, Harvard, Vancouver, ISO, and other styles
32

Alvarruiz, Bermejo Fernando. "Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas Prestaciones." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/61764.

Full text
Abstract:
[EN] Computer simulation of water distribution networks by means of mathematical models is nowadays an indispensable tool for the design and exploitation of those networks. Simulation is used not only for the design of new supply systems, or modifications and extensions of existing systems, but also for the normal operation tasks carried out in any network. Two main types of simulation can be differentiated: hydraulic simulation, by means of which the pressures and flows registered in the network are computed, and water quality simulation, the objective of which is to obtain information about chemical substance concentrations. The need for simulation comes often in the context of a wider problem of optimization or reliability analysis, which requires performing a large number of simulations, thus resulting in a process with considerable computational complexity. This fact, added to the growing size and level of detail of network models, as a consequence of the automatic incorporation of data coming from Geographical Information Systems, means that the performance of the simulation solver has a great impact in the overall computing time. In this context, this thesis considers and explores different strategies to improve the performance of water distribution network simulation. The first strategy consists of making some contributions to the hydraulic simulation method known as Looped Newton-Raphson (or more simply the loop method), which is based on the consideration of flow corrections associated to a set of independent loops within the network. Even though the method known as Global Gradient Algorithm (GGA) is more widely used and accepted, the loop method has the potential to be faster, owing to the smaller size of the underlying linear systems. In this thesis some contributions are presented to improve the performance of the loop method for hydraulic simulation. Firstly, efficient algorithms are developed for the selection of a suitable set of independent loops, leading to a highly sparse linear system. Secondly, methods are developed for efficient modeling of hydraulic valves, and especially pressure reducing/sustaining valves. The second strategy explored is the introduction of high performance computing in the hydraulic simulation using distributed memory platforms. In particular, the code of Epanet, a widely accepted water distribution network simulation software, is taken as the starting point for the introduction of parallel simulation algorithms, using the Message Passing Interface (MPI) tool for inter-process communications. As a result of this work, firstly a parallel algorithm is presented for the simulation of flows and pressures by means of the GGA method, making use of multifrontal algorithms for the parallel solution of the underlying linear systems. Secondly, a parallel algorithm for water quality simulation by means of the Discrete Volume Element Method (DVEM) is described, based on partitioning the network by means of multilevel recursive bisection algorithms. Thirdly, a parallel method is presented for leakage minimization by finding the optimal pressure settings for a set of pressure-reducing valves. In distributed memory platforms the overhead due to communication and synchronization can be excessively high, counterbalancing the gain derived from the division of the computation among the processors. This effect is less pronounced in shared memory platforms such as multicore systems, which have gained popularity over the last years. This fact motivates the third strategy explored in this thesis, which is the development of parallel algorithms for simulation of flows and pressures using multicore systems. OpenMP is the tool used for the parallelization, both of the method GGA as implemented in Epanet software and of the loop method with the contributions on it that have been made in the context of this thesis.
[ES] La simulación por computador de las redes de distribución de agua potable, mediante el uso de modelos matemáticos, es hoy en día una herramienta indispensable para el diseño y la explotación de dichas redes. La simulación se utiliza tanto en el diseño de nuevos abastecimientos y en ampliaciones o modificaciones de abastecimientos existentes, como en las tareas de operación normales de cualquier red. Se puede diferenciar entre dos tipos de simulación: la simulación hidráulica, que permite obtener las presiones y caudales que se registran en la red, y la simulación de la calidad del agua, cuyo objetivo es obtener información sobre concentraciones de sustancias químicas. A menudo la necesidad de simulación surge dentro de un problema más amplio de optimización o de análisis de fiabilidad, que requiere llevar a cabo un gran número de simulaciones, con lo que el proceso completo resulta de una complejidad computacional considerable. Esto, añadido al hecho de que el tamaño y nivel de detalle de los modelos de redes crece constantemente, como consecuencia de la incorporación automática de datos contenidos en Sistemas de Información Geográfica, hace que las prestaciones del solver de simulación tengan un gran impacto en el tiempo total de cálculo necesario. En este contexto, esta tesis considera y explora distintas vías para mejorar las prestaciones de la simulación de redes de distribución de agua. La primera de estas vías consiste en realizar algunas aportaciones al método de simulación hidráulica conocido como método de Newton-Raphson de mallas, el cual se basa en la consideración de caudales correctores asociados a un conjunto de mallas independientes definidas sobre la red. Aunque el método conocido como Algoritmo del Gradiente Global (GGA) goza de mayor aceptación, el método de mallas tiene el potencial de ser más rápido, debido al menor tamaño de los sistemas lineales subyacentes. Esta tesis presenta aportaciones para mejorar las prestaciones del método de mallas de simulación hidráulica. En primer lugar, se desarrollan algoritmos eficientes para la selección de un conjunto de mallas adecuado, que conduzca a un sistema altamente disperso. En segundo lugar se desarrollan métodos para la modelización eficiente de válvulas, y especialmente válvulas reductoras/sostenedoras de presión. La segunda vía explorada es la introducción de la computación de altas prestaciones en la simulación hidráulica usando plataformas de memoria distribuida. En particular, se parte del código de Epanet, un software de simulación de redes de amplia aceptación, y se introducen en él algoritmos paralelos de simulación, usando la herramienta Message Passing Interface (MPI) para la comunicación entre procesos. Como resultado de ello, se presenta en primer lugar un algoritmo paralelo para la simulación de caudales y presiones por medio del método GGA, haciendo uso de algoritmos multifrontales para la resolución paralela de los sistemas lineales subyacentes. En segundo lugar, se describe un algoritmo paralelo para la simulación de la calidad del agua mediante el Método de Elementos Discretos de Volumen (DVEM), particionando la red por medio de algoritmos de bisección recursiva multinivel. En tercer lugar, se presenta un método paralelo para la minimización de fugas mediante la determinación de las consignas óptimas de una serie de válvulas reductoras de presión. Finalmente, la tercera vía explorada es el desarrollo de algoritmos paralelos sobre memoria compartida para la simulación de presiones y caudales. Se considera con ello un tipo de plataformas que han ganado popularidad en los últimos años. Se utiliza la herramienta OpenMP para la paralelización, tanto de Epanet y de su implementación del método GGA, como del método de mallas, con las aportaciones al mismo que se han realizado en el contexto de esta tesis.
[CAT] La simulació per computador de les xarxes de distribució d'aigua potable, per mitjà de l'ús de models matemàtics, es hui en dia una ferramenta indispensable per al disseny i l'explotació d'abastiments d'aigua. La simulació s'utilitza tant per al disseny de nous abastiments o ampliacions i modificacions d'abastiments existents, com per a les tasques d'operació normals en qualsevol xarxa. Es pot diferenciar entre dos tipus de simulació: la simulació hidràulica, que permet obtindre les pressions i cabals que es produeixen en la xarxa, i la simulació de la qualitat de l'aigua, l'objectiu de la qual és obtindre informació sobre concentracions de substàncies químiques. Sovint la necessitat de simulació sorgeix dins d'un problema més ampli d'optimització o d'anàlisi de fiabilitat, que requereix dur a terme un gran nombre de simulacions, amb la qual cosa el procés complet resulta d'una complexitat computacional considerable. Això, afegit al fet de que la grandària i nivell de detall del models de xarxes creix constantment, com a conseqüència de la incorporació automàtica de dades contingudes en Sistemes d'Informació Geogràfica, fa que les prestacions del solver de simulació tinguen un gran impacte en el temps total de càlcul necessari. En este context, esta tesi considera i explora diferents vies per a millorar les prestacions de la simulació de xarxes de distribució d'aigua. La primera d'estes vies consisteix en realitzar algunes contribucions al mètode de simulació hidràulica conegut com mètode de Newton-Raphson de malles (o simplement mètode de malles), el qual es basa en la consideració de cabals correctors associats a un conjunt de malles independents definides en la xarxa. Encara que el mètode conegut com Algorisme del Gradient Global (GGA) gaudeix de major acceptació, el mètode de malles té el potencial de ser més ràpid, degut a la menor grandària dels sistemes lineals subjacents. En esta tesi es presenten contribucions per a millorar les prestacions del mètode de malles de simulació hidràulica. En concret, en primer lloc es desenvolupen algorismes eficients per a la selecció d'un conjunt de malles adequat, que conduïsca a un sistema lineal altament dispers. En segon lloc es desenvolupen mètodes per a la modelització eficient de vàlvules, i especialment vàlvules reductores/sostenidores de pressió. La segona via explorada és la introducció de la computació d'altes prestacions en la simulació hidràulica utilitzant plataformes de memòria distribuïda. En concret, es parteix del codi d'Epanet, un programari de simulació de xarxes de distribució d'aigua d'amplia acceptació, i s'hi introdueixen algorismes paral·lels de simulació, utilitzant la ferramenta Message Passing Interface (MPI) per a la comunicació entre processos. Com a resultat d'este treball, es presenta en primer lloc un algorisme paral·lel per a la simulació de cabals i pressions per mitjà del mètode GGA, fent ús d'algorismes multifrontals per a la resolució en paral·lel dels sistemes lineals subjacents. En segon lloc, es descriu un algorisme paral·lel per a la simulació de la qualitat d'aigua amb el Mètode d'Elements Discrets de Volum (DVEM), particionant la xarxa per mitjà d'algoritmes de bisecció recursiva multinivell. En tercer lloc es presenta un mètode paral·lel per a la minimització de fugues mitjançant la determinació de les consignes òptimes d'una sèrie de vàlvules reductores de pressió. Finalment, la tercera via explorada és el desenvolupament d'algorismes paral·lels sobre memòria compartida per a la simulació de pressions i cabals. Es considera amb això un tipus de plataformes que han guanyat popularitat en els últims anys. S'utilitza la ferramenta OpenMP per a la paral·lelització, tant del programari Epanet i de la seua implementació del mètode GGA, com del mètode de malles, amb les contribucions al mateix que s'han realitzat en el context d'esta tesi.
Alvarruiz Bermejo, F. (2016). Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas Prestaciones [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61764
TESIS
APA, Harvard, Vancouver, ISO, and other styles
33

Romero, Gómez Verónica. "Multimodal Interactive Transcription of Handwritten Text Images." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/8541.

Full text
Abstract:
En esta tesis se presenta un nuevo marco interactivo y multimodal para la transcripción de Documentos manuscritos. Esta aproximación, lejos de proporcionar la transcripción completa pretende asistir al experto en la dura tarea de transcribir. Hasta la fecha, los sistemas de reconocimiento de texto manuscrito disponibles no proporcionan transcripciones aceptables por los usuarios y, generalmente, se requiere la intervención del humano para corregir las transcripciones obtenidas. Estos sistemas han demostrado ser realmente útiles en aplicaciones restringidas y con vocabularios limitados (como es el caso del reconocimiento de direcciones postales o de cantidades numéricas en cheques bancarios), consiguiendo en este tipo de tareas resultados aceptables. Sin embargo, cuando se trabaja con documentos manuscritos sin ningún tipo de restricción (como documentos manuscritos antiguos o texto espontáneo), la tecnología actual solo consigue resultados inaceptables. El escenario interactivo estudiado en esta tesis permite una solución más efectiva. En este escenario, el sistema de reconocimiento y el usuario cooperan para generar la transcripción final de la imagen de texto. El sistema utiliza la imagen de texto y una parte de la transcripción previamente validada (prefijo) para proponer una posible continuación. Despues, el usuario encuentra y corrige el siguente error producido por el sistema, generando así un nuevo prefijo mas largo. Este nuevo prefijo, es utilizado por el sistema para sugerir una nueva hipótesis. La tecnología utilizada se basa en modelos ocultos de Markov y n-gramas. Estos modelos son utilizados aquí de la misma manera que en el reconocimiento automático del habla. Algunas modificaciones en la definición convencional de los n-gramas han sido necesarias para tener en cuenta la retroalimentación del usuario en este sistema.
Romero Gómez, V. (2010). Multimodal Interactive Transcription of Handwritten Text Images [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8541
Palancia
APA, Harvard, Vancouver, ISO, and other styles
34

Artés, Vivancos Tomàs. "Multi-core hybrid architectures applied to forest fire spread prediction." Doctoral thesis, Universitat Autònoma de Barcelona, 2015. http://hdl.handle.net/10803/311111.

Full text
Abstract:
Els incendis forestals són un tipus de desastre natural que representa un gran repte per a la societat a causa dels seus elevats costos econòmics i humans. Amb l’objectiu d’evitar els costos derivats d’aquest desastre natural i millorar l’extinció dels mateixos, els simuladors de propagació d’incendis es poden utilitzar per intentar anticipar el comportament de l’incendi i ajudar a aconseguir una extinció de l’incendi més eficient i segura. Quan es propociona una predicció de la propagació d’un incendi forestal existeixen dos elements claus: la precisió i el temps necessari per computar la predicció. Sota el context de la simulació de desastres naturals, és ben conegut que part de l’error de la predicció estàsubjecta a la incertesa en les dades d’entrada utilitzades pel simulador. Per aquesta raó, la comunitat científica ha creat diferents mètodes de calibratge per reduir la incertesa de les dades d’entrada i així millorar l’error de la predicció. En aquest treball s’utilitza una metodologia de predicció basada en dues etapes que ha estat provada en treballs previs amb bons resultats. Aquest mètode de calibratge implica una necessitat considerable de recursos computacionals i eleva el temps de còmput a causa de l’ús d’un Algorisme Genètic com a mètode de cerca de les millors dades d’entrada del simulador. S’ha de tenir en compte les restriccions de temps sota les quals treballa un sistema de predicció d’incendis. Es necessari mantenir un equilibri adequat entre precisió i temps de còmput utilitzat per poder proporcionar una bona predicció a temps. Per poder utilitzar la tècnica de calibratge esmentat, s’ha de solucionar el problema que representa que algunes solucions siguin inviables ja que impliquen temps d’execució molt llargs, fet que pot impedir que es pugui donar resposta a temps en un suposat context operacional. La present Tesi Doctoral utilitza les arquitectures multi-core amb l’objectiu d’accelerar el mètode de predicció basat en dues etapes per poder proporcionar una predicció sota temps de lliurament que es donarien en un context real. Per aquesta raó, es defineix una política d’assignació de nuclis basada en el temps disponible d’execució. Aquesta política d’assignació assignaràun nombre determinat de recursos a una determinada simulació prèviament a ser executada. La política d’assignació es basa en arbres de decisió creats amb els paràmetres de simulació utilitzats. No obstant això, es pro¬posen dos mètodes per a aquells casos on l’Algorisme Genètic tendeix a crear individus el temps d’execució dels quals provoquen que sigui impossible acabar el calibratge a temps: ReTAC i SoftTAC. La proposta ReTAC utilitza la resolució de les simulacions per solucionar el problema. En concret, ReTAC tracta de trobar la mínima reducció de la resolució que permeti que aquelles simulacions que són massa llargues puguin ser executades mantenint la precisió sota control. D’altra banda, SoftTAC utilitza poblacions de grandària dinàmica. Es a dir, els individus no es maten en arribar al límit de temps d’execució assignat a una generació de l’AG, sino que es permet l’execució simultanea d’individus de diferents generacions de l’algorisme genètic. Totes les estratègies de predicció proposades han estat provades amb casos reals obtenint resultats satisfactoris en termes de precisió i de temps de còmput utilitzat.
Los incendios forestales son un tipo de catástrofe natural que representa un gran reto para sociedad debido a sus elevados costes económicos y humanos. Con el objetivo de evitar los costes derivados de dicho desastre natural y mejorar la extinción de éstos, los simuladores de propagación de incendios se pueden utilizar para intentar anticipar el comportamiento del incendio y ayudar a conseguir una extinción del incendio más eficiente y segura. Cuando se propociona una predicción de la propagación de un incendio forestal existen dos elementos clave: la precisión y el tiempo necesario para computar la predicción. Bajo el contexto de la simulación de desastres naturales, es bien conocido que parte del error de la predicción está sujeta a la incertidumbre en los datos de entrada utilizados por el simulador. Por esta razón, la comunidad científica ha creado distintos métodos de calibración para reducir la incertidumbre de los datos de entrada y así mejorar el error de la predicción. En este trabajo se utiliza una metodología de calibración basada en dos etapas que ha sido probada en trabajos previos con buenos resultados. Este método de calibración implica una necesidad considerable de recursos computacionales y eleva el tiempo de cómputo debido al uso de un Algoritmo Genético como método de búsqueda de los mejores datos de entrada del simulador. Se debe tener en cuenta las restricciones de tiempo bajo las que trabaja un sistema de predicción de incendios. Es necesario mantener un equilibrio adecuado entre precisión y tiempo de cómputo utilizado para poder proporcionar una buena predicción a tiempo. Para poder utilizar la técnica de calibración mencionada, se debe solucionar el problema que representa que algunas soluciones sean inviables debido a que implican tiempos de ejecución muy largos, lo que puede impedir que se pueda dar respuesta a su debido tiempo en un supuesto contexto operacional. La presente Tesis Doctoral utiliza las arquitecturas multi-core con el objetivo de acelerar el método de calibración basado en dos etapas y poder proporcionar una predicción bajo tiempos de entrega que se darían en un contexto real. Por esta razón, se define una política de asignación de núcleos basada en el tiempo disponible de ejecución . Esta política de asignación asignará un número determinado de recursos a una determinada simulación previamente a ser ejecutada. La política de asignación se basa en árboles de decisión creados con los parametros de simulación n utilizados. Sin embargo, se proponen dos métodos para aquellos casos donde el algoritmo genético tienda a crear individuos cuyo tiempo de ejecución provocan que sea imposible acabar la calibración a tiempo: Re-TAC y Soft-TAC. La propuesta ReTAC utiliza la resolución de las simulaciones para solucionar el problema. En concreto, Re-TAC trata de encontrar la mínima reducción de la resolución que permita que aquellas simulaciones que son demasiado largas puedan ser ejecutadas manteniendo la precisión bajo control. Por otro lado, Soft-TAC utiliza poblaciones de tama˜no dinámico. Es decir, los individuos no se matan al alcanzar el límite de timepo de ejecución asignado a una generación del Algoritmo Genético, sino que se permite la ejecución simultanea de individuos de distintas generaciones haciendo que el tamaño de la población sea dinámico. Todas la estrategias de predicción propuestas han sido probadas con casos reales obteniendo resultados satisfactorios en términos de precisión y de tiempo de cómputo utilizado.
Large forest fires are a kind of natural hazard that represents a big threat for the society because it implies a significant number of economic and human costs. To avoid major damages and to improve forest fire management, one can use forest fire spread simulators to predict fire behaviour. When providing forest fire predictions, there are two main considerations: accuracy and computation time. In the context of natural hazards simulation, it is well known that part of the final forecast error comes from uncertainty in the input data. For this reason several input data calibration methods have been developed by the scientific community. In this work, we use the Two-Stage calibration methodology, which has been shown to provide good results. This calibration strategy is computationally intensive and timeconsuming because it uses a Genetic Algorithm as an optimization strategy. Taking into account the aspect of urgency in forest fire spread prediction, we need to maintain a balance between accuracy and the time needed to calibrate the input parameters. In order to take advantage of this technique, we must deal with the problem that some of the obtained solutions are impractical, since they involve simulation times that are too long, preventing the prediction system from being deployed at an operational level. This PhD Thesis exploits the benefits of current multi-core architectures with the aim of accelerating the Two-Stage forest fire prediction scheme being able to deliver predictions under strict real time constraints. For that reason, a Time-Aware Core allocation (TAC) policy has been defined to determine in advance the more appropriate number of cores assigned to a given forest fire spread simulation. Each execution configuration is obtained considering the particular values of the input data needed for each simulation by applying a dynamic decision tree. However, in those cases where the optimization process will drive the system to solutions whose simulation time will prevent the system to finish on time, two different enhanced schemes have been defined: Re-TAC and Soft-TAC. Re-TAC approach deals with the resolution of the simulation. In particular, Re-TAC finds the minimum resolution reduction for such long simulations, keeping accuracy loss to a known interval. On the other hand, Soft-TAC considers the GA's population size as dynamic in the sense that none individual will be killed for over passing the internal generations deadline, but it will be keep executing and the population size for the subsequent GA's generation is modified according to that. All proposed prediction strategies have been tested with past real cases obtaining satisfactory results both in terms of prediction accuracy and in the time required to deliver the prediction.
APA, Harvard, Vancouver, ISO, and other styles
35

Montañola, Lacort Alberto. "The pairwise problem with High Performance Computing Systems, contextualized as a key part to solve the Multiple Sequence Alignment problem." Doctoral thesis, Universitat de Lleida, 2016. http://hdl.handle.net/10803/385282.

Full text
Abstract:
L'alineació múltiple de seqüencies (MSA), com a repte dins de la bioinformàtica, es un element clau per entendre el funcionament del genoma. Aquest consisteix en alinear en un temps òptim aquestes seqüencies garantint un nivell de qualitat. Aquest problema esdevé un repte de computació de altes prestacions degut als requeriments de recursos de memòria i còmput. S'han estudiat diferents implementacions, les quals es comparen i es presenten en aquesta investigació. Hem contribuït en la millora dels primers passos del problema MSA de diverses maneres. Amb l'objectiu de reduir el temps de càlcul i l'ús de memòria, adaptem T-Coffee per treballar en paral·lel amb ús de fils lleugers. Seguidament, hem desenvolupat un mètode de alineació de parells paral·lel, amb una assignació eficient de seqüències a nodes. Finalment es presenta un mètode per determinar la quantitat mínima de recursos del sistema, necessaris per resoldre un problema d'una mida determinada, per tal de configurar el sistema per un ús eficient.
El alineamiento múltiple de secuencias (MSA), como reto dentro de la bioinformática, es un elemento clave para entender el funcionamiento del genoma. Este consiste en alinear en un tiempo óptimo esta secuencias garantizando un nivel de calidad. Este problema es un reto de computo de altas prestaciones debido a los altos requerimientos de memoria y computo. Se han estudiado diferentes implementaciones, las cuales se comparan y se presentan en esta investigación. Hemos contribuido en la mejora de los primeros pasos del problema MSA de diversas formas. Con el objetivo de reducir el tiempo de cálculo y el uso de memoria, adaptamos T-Coffee para trabajar en paralelo con el uso de hilos ligeros. Seguidamente, hemos desarrollado un método de alineación de pares en paralelo, con una asignación eficiente de secuencias a nodos. Finalmente se presenta un método para determinar la cantidad mínima de recursos del sistema, necesarios para resolver el problema de un tamaño determinado, para poder configurar el sistema para un uso eficiente.
The multiple sequence alignment (MSA), as a challenge in bioinformatics, becomes a key element for understanding the inner working of the genome. This consists on aligning these sequences in an optimal time, with a good level of quality. This problem is a challenge for the high performance computing, because of the high memory and processing requirements. Different implementations were studied, which are being compared and presented on this thesis. We have contributed in the improvement of the first steps of the MSA problem in different ways. With the goal of reducing the computing time and the memory usage, we adapted T-Coffee for working in parallel with the usage of threads. Furthermore, we have developed a pair-wise sequence alignment method, with an efficient mapping of sequences to nodes. Finally, we are presenting the method for determining the minimal amount of resources, required for solving the problem of a determined size, in order to configure the system for an efficient use.
APA, Harvard, Vancouver, ISO, and other styles
36

Bou, Soler Vicente. "Optimización en tiempo real del modo de operación de un abastecimiento de agua mediante técnicas metaheurísticas. Aplicación a la RED de suministro a Valencia y su área metropolitana." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/62692.

Full text
Abstract:
[EN] Due to the rise of energy prices, the energy cost of pumping represents most of the total operation cost in water distribution systems. In addition, energy price varies according to the tariff structure. For these reasons, optimal real-time control of the pumping stations and the valve operation settings is required in order to minimize energy costs while controlling pressure in the network. To achieve this objective it is necessary to define an optimization model that results in a reliable operation scenario. Moreover, simulation of hydraulic models allows tracking the daily operation schedule of the water supply network. Its integration into a SCADA system is a valuable tool to aid the making of decisions. For this aim, the mathematical model must be calibrated, and regularly updated. Finally, to perform optimal control in real-time, it is necessary to define a demand forecast model to know in advance the state of the network for the following 24 hours. This thesis exposes a methodology for optimal real-time operation of a hydraulic network based on the development of a platform that allows the integration of hydraulic simulation models, forecast models and optimization algorithms in SCADA systems. With the aim of performing the most adjusted model to actual scenarios, a demand forecast model has been developed based on historical patterns obtained from the SCADA system. Finally, an optimization module has been developed to minimize the energy costs of pumping systems, which basically consists of two blocks. In the first block, the goal is to optimize the operating regime of pumps using a linear programming model to minimize the operating costs while maintaining the water levels in tanks within a threshold range. In the second block, once optimal pump operation is set, setting of pressure reducing valves is optimized in order to satisfy the total expected demand within the system's restrictions of maximum and minimum pressure, according to the pump operation. An important contribution of this thesis has been the replacement of the hydraulic model by an equivalent model based on parallelized architecture neural network (ANN), which significantly reduces the computation time, a very important aspect when a system for real-time optimization is implemented. The proposed methodology has been applied to the water supply network of Valencia and its metropolitan area, taking into account current energy tariff structure. Results prove the effectiveness of the proposed model in the search for feasible operation strategies, to be applied to a real distribution system with two water pumping stations, several tanks, and various regulation valves remotely operated. Many of the physical components of the system have been replaced by using ANN architecture, without affecting the pressure constraints at critical points. The achieved energy saving highlights the importance of applying optimization models as a mean of improving system energy efficiency.
[ES] Con el aumento de precios de la energía, el coste de la energía eléctrica utilizada por los sistemas de bombeo representa la mayor parte del coste total de la operación en los sistemas de distribución de agua. Por esta razón, y porque los precios de la energía son variables hora a hora, es necesario un control óptimo en tiempo real del régimen de operación de las estaciones de bombeo y el régimen de regulación de las válvulas, con el fin de minimizar los costes energéticos y al mismo tiempo controlar las presiones en la red. Para alcanzar este objetivo es necesario definir un modelo de optimización que dé como resultado un escenario de operación viable. Por otra parte, los modelos de simulación hidráulica permiten realizar el seguimiento del régimen de operación diaria de una red de abastecimiento de agua, y su integración en un sistema SCADA constituyen una herramienta de valiosa ayuda para la toma de decisiones. Para ello el modelo matemático deberá estar calibrado y permanentemente actualizado. Finalmente para llevar a cabo un control óptimo en tiempo real es necesario definir un modelo de previsión de demanda que permita anticipar el estado de la red para las próximas 24 horas. La presente tesis presenta una metodología de operación óptima en tiempo real de una red hidráulica basada en el desarrollo de una plataforma que permite la integración de modelos de simulación, los modelos de predicción y los algoritmos de optimización con los sistemas SCADA. Con vistas a realizar una optimización en tiempo real lo más ajustada a la realidad se ha adoptado un modelo de previsión de demanda basado en patrones históricos procedentes de los datos de consumos obtenidos a través del propio sistema SCADA. Finalmente se ha desarrollado un módulo de optimización para minimizar los costes energéticos del sistema de bombeo, el cual, consta básicamente de dos bloques. En el primer bloque el objetivo ha sido optimizar el régimen de operación de las bombas mediante un modelo por programación lineal con el objetivo de minimizar los costes de operación manteniendo los niveles en los depósitos dentro del rango prefijado. En el segundo bloque, una vez definido el estado de operación de las bombas, se han optimizado las consignas de las válvulas de regulación, consideradas como válvulas reductoras de presión, con tal de satisfacer la demanda total prevista cumpliendo las restricciones de presión máxima y mínima del sistema, de acuerdo con la operación de las bombas. Como una aportación importante de la tesis, a la hora de realizar las simulaciones hidráulicas de las diferentes soluciones propuestas por el optimizador, se ha sustituido el simulador hidráulico por un modelo equivalente basado en una arquitectura de red neuronal paralelizada (ANN), el cual permite reducir significativamente el tiempo de cálculo, aspecto de gran importancia cuando se trata de implantar un sistema de optimización en tiempo real. La metodología propuesta ha sido aplicada sobre la red a abastecimiento de agua a Valencia y su área metropolitana, considerando los bloques de tarifas eléctricas vigentes para el caso de estudio. La tesis doctoral presenta unos resultados que prueban la efectividad del modelo propuesto en la búsqueda de estrategias de operación viables para ser aplicado sobre un sistema de distribución de agua real compuesta por dos estaciones de bombeo, varios depósitos, y diversas válvulas de regulación motorizadas, en la que se han podido omitir muchos de los componentes físicos del sistema mediante el uso de una arquitectura ANN, pero sin perder de vista los puntos críticos donde se han establecido las restricciones del presión. La reducción del consumo eléctrico alcanzado, pone de manifiesto la importancia del modelo de optimización como instrumento de mejora de la eficiencia energética del sistema.
[CAT] Amb l'augment de preus de l'energia, el cost de l'energia elèctrica utilitzada pels sistemes de bombament representa la major part del cost total de l'operació en els sistemes de distribució d'aigua. Per esta raó, i perquè els preus de l'energia són variables hora a hora, és necessari un control òptim en temps real del règim d'operació de les estacions de bombament i el règim de regulació de les vàlvules, a fi de minimitzar els costos energètics i al mateix temps controlar les pressions en la xarxa. Per a aconseguir este objectiu és necessari definir un model d'optimització que done com resultat un escenari d'operació viable. D'altra banda, els models de simulació hidràulica permeten realitzar el seguiment del règim d'operació diària d'una xarxa d'abastiment d'aigua, i la seua integració en un sistema SCADA contituyen una ferramenta de valuosa ajuda per a la presa de decisions. Per això el model matemàtic haurà d'estar calibrat i permanentment actualitzat. Finalment per a dur a terme un control òptim en temps real és necessari definir un model de previsió de la demanda que permeta anticipar l'estat de la xarxa per a les pròximes 24 hores. La present tesi presenta una metodologia d'operació òptima en temps real d'una xarxa hidràulica basada en el desenrotllament d'una plataforma que permet la integració de models de simulació, els models de predicció i els algoritmes d'optimització amb els sistemes SCADA. Amb vista a realitzar una optimització en temps real el més ajustada a la realitat s'ha adoptat un model de previsió de demanda basat en patrons històrics procedents de les dades de consums obtinguts a través del propi sistema SCADA. Finalment s'ha desenvolupat un mòdul d'optimització per minimitzar els costos energètics del sistema de bombament, el qual, consta bàsicament de dos blocs. En el primer bloc l'objectiu ha estat optimitzar el règim d'operació de les bombes mitjançant un model per programació lineal amb l'objectiu de minimitzar els costos d'operació mantenint els nivells en els dipòsits dins del rang prefixat. En el segon bloc, un cop definit l'estat d'operació de les bombes, s'han optimitzat les consignes de les vàlvules de regulació, considerades com vàlvules reductores de pressió, per tal de satisfer la demanda total prevista complint les restriccions de pressió màxima i mínima del sistema, d'acord amb l'operació de les bombes. Com una aportació important de la tesi, a l'hora de realitzar les simulacions hidràuliques de les diferents solucions proposades per l'optimitzador, s'ha substituït el simulador hidràulic per un model equivalent basat en una arquitectura de xarxa neuronal paralelizada (ANN), el qual permet reduir significativament el temps de càlcul, aspecte de gran importància quan es tracta d'implantar un sistema d'optimització en temps real. La metodologia proposada ha sigut aplicada sobre la xarxa a abastiment d'aigua a València i la seua àrea metropolitana, considerant els blocs de tarifes elèctriques vigents per al cas d'estudi. La tesi doctoral presenta uns resultats que proven l'efectivitat del model proposat en la busca d'estratègies d'operació viables per a ser aplicat sobre un sistema de distribució d'aigua real composta per dos estacions de bombament, uns quants depòsits, i diverses vàlvules de regulació motoritzades, en la que s'han pogut ometre molts dels components físics del sistema per mitjà de l'ús d'una arquitectura ANN, però sense perdre de vista els punts crítics on s'han establit les restriccions del pressió. La reducció del consum elèctric aconseguit, posa de manifest la importància del model d'optimització com a instrument de millora de l'eficiència energètica del sistema.
Bou Soler, V. (2016). Optimización en tiempo real del modo de operación de un abastecimiento de agua mediante técnicas metaheurísticas. Aplicación a la RED de suministro a Valencia y su área metropolitana [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62692
TESIS
APA, Harvard, Vancouver, ISO, and other styles
37

Rodríguez, García Javier. "Metodología para la optimización del beneficio de la respuesta de la demanda en consumidores industriales: caracterización por procesos y aplicación." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/165574.

Full text
Abstract:
[ES] En la actualidad, existe una creciente necesidad de cambiar el modelo energético global basado en combustibles fósiles por un modelo cien por cien renovable, proceso conocido como "transición energética". Sin embargo, la mayoría de los recursos de generación renovables no son gestionables y presentan una fuerte variabilidad en su producción de energía difícilmente predecible, lo que requiere de un sistema eléctrico más flexible para poder operarse de forma segura. Por otro lado, las tecnologías de la información y la comunicación han evolucionado rápidamente como resultado del proceso de digitalización y de los continuos desarrollos en este campo, permitiendo a sectores como el eléctrico evolucionar hacia nuevos modelos más avanzados como las "redes inteligentes". Todo esto hace que la respuesta de la demanda (capacidad de modificar la forma de consumir energía en función de una señal externa) pueda ofrecerse como un recurso valioso a los operadores del sistema eléctrico, permitiendo a los consumidores más activos reducir su coste energético, lo que aumenta su competitividad y ayuda a la transición energética. La presente tesis tiene como objetivo general el desarrollo de una metodología y de las herramientas de apoyo necesarias que permitan fundamentalmente plantear soluciones destinadas a la resolución de las barreras más importantes en relación con la participación de los recursos flexibles en la operación del sistema eléctrico. Asimismo, permiten determinar la estrategia óptima de participación de grandes y medianos consumidores en productos y mercados en los que los recursos flexibles sean económicamente competitivos y técnicamente fiables. Este objetivo se ha abordado mediante el cumplimiento de cuatro objetivos específicos, que se han traducido en la realización de un conjunto de modelos, metodologías y herramientas que dan cumplimiento a cada uno de ellos. En este sentido, la tesis se ha dividido en cuatro desarrollos interrelacionados a partir de sus resultados. En primer lugar, se ha propuesto una novedosa arquitectura conceptual del sistema eléctrico para integrar los futuros mercados de electricidad, destinada a establecer un marco de referencia más adecuado para la explotación de los recursos energéticos distribuidos y de demanda. En segundo lugar, se ha elaborado una metodología para la estandarización y validación de los recursos flexibles que pueden ofrecer los consumidores, y que podría servir como base para la creación de un proceso de certificación de productos de demanda. En tercer lugar, se ha desarrollado una primera herramienta de planificación a medio plazo que, partiendo de la caracterización y evaluación técnico-económica de los recursos flexibles obtenida con la metodología anterior, permite ayudar a los propios consumidores a evaluar la rentabilidad asociada a las diferentes estrategias de participación en un mercado de operación específico utilizando sus procesos de consumo flexibles. Por último, se ha llevado a cabo una segunda herramienta destinada a optimizar la programación de la operación para el día siguiente de los recursos de demanda de un determinado consumidor participando en un mercado previamente seleccionado a partir de los resultados de la herramienta anterior y, por tanto, ofreciéndole en definitiva el apoyo técnico y las herramientas necesarias para maximizar el beneficio asociado a dicha participación. Las metodologías y herramientas desarrolladas han sido validadas mediante su aplicación a un caso de estudio compuesto por tres consumidores industriales pertenecientes a segmentos con una elevada replicabilidad en Europa (industria papelera, industria cárnica y centro logístico de producto refrigerado). Los resultados de la tesis permiten afirmar que se ha dado un paso relevante dentro de la investigación en este campo para ayudar a la implantación de sistemas eléctricos sostenibles mediante una participación
[CA] En l'actualitat, existeix una creixent necessitat de canviar el model energètic global basat en combustibles fòssils per un model cent per cent renovable, procés conegut com a transició energètica. Per a dur-ho a terme, és important tindre en compte que la majoria dels recursos de generació renovables no són gestionables i presenten una forta variabilitat en la seua producció d'energia difícilment predictible, la qual cosa fa necessari que el sistema elèctric haja de ser més flexible per a poder operar-se de manera segura. D'altra banda, les tecnologies de la informació i la comunicació han evolucionat ràpidament a conseqüència del procés de digitalització i dels continus desenvolupaments en aquest camp, la qual cosa ha permés a sectors com l'elèctric evolucionar cap a nous models més avançats com les xarxes intel·ligents. Tots aquests canvis fan que la resposta de la demanda (capacitat de modificar la manera de consumir energia en funció d'un senyal extern) puga oferir-se com un recurs valuós als operadors del sistema elèctric, permetent als consumidors més actius tindre una oportunitat per a reduir el seu cost energètic, podent ser més competitius i ajudar en la transició energètica. La present tesi doctoral té com a objectiu general el desenvolupament d'una metodologia i de les ferramentes de suport necessàries que permet fonamentalment plantejar solucions destinades a la resolució de les barreres més importants en relació amb la participació dels recursos flexibles en l'operació del sistema elèctric. Addicionalment, permeten determinar l'estratègia òptima de participació de grans i mitjans consumidors en productes i mercats en els quals els recursos flexibles siguen econòmicament competitius i tècnicament fiables. Aquest objectiu general s'ha abordat mitjançant el compliment de quatre objectius específics, que s'han traduït en la realització d'un conjunt de models, metodologies i ferramentes que donen compliment a cadascun d'ells. En aquest sentit, la tesi s'ha dividit en quatre desenvolupaments interrelacionats a partir dels seus resultats. En primer lloc, s'ha proposat una nova arquitectura conceptual del sistema elèctric per a integrar els futurs mercats d'electricitat, destinada a establir un marc de referència més adequat per a l'explotació dels recursos energètics distribuïts i de demanda. En segon lloc, s'ha elaborat una metodologia per a l'estandardització i validació dels recursos flexibles que poden oferir els consumidors, i que podria servir com a base per a la creació d'un procés de certificació de productes de demanda. En tercer lloc, s'ha desenvolupat una primera ferramenta de planificació a mitjà termini que, partint de la caracterització i avaluació tecnicoeconòmica dels recursos flexibles obtinguda amb la metodologia anterior, permet ajudar als mateixos consumidors a avaluar la rendibilitat associada a les diferents estratègies de participació en un mercat d'operació específic utilitzant els seus processos de consum flexibles. Finalment, s'ha dut a terme una segona ferramenta destinada a optimitzar la programació de l'operació per a l'endemà dels recursos de demanda d'un determinat consumidor participant en un mercat prèviament seleccionat a partir dels resultats de la ferramenta anterior i, per tant, oferint-li en definitiva el suport tècnic i les ferramentes necessàries per a maximitzar el benefici associat a aquesta participació. Les metodologies i ferramentes desenvolupades han sigut validades mitjançant la seua aplicació a un cas d'estudi compost per tres consumidors industrials que pertanyen a segments amb una elevada replicabilitat a Europa (indústria paperera, indústria del sector carni i centre logístic de producte refrigerat). Els resultats de la tesi permeten afirmar que s'ha realitzat un pas rellevant dins de la investigació en aquest camp per tal d'ajudar a la implantació de sistemes d'energia elèctrica sosteni
[EN] The ever-increasing need for electricity in our global and advanced society, along with the requirements to preserve the environment, have forced a fast growth of the use of primary renewable sources to produce it. The process of replacing the current fossil primary sources with renewable ones to produce electricity is known as the "Energy Transition". This transition is conditioned for the highly volatile, intermittent, and unpredictable nature of renewable energy sources. In this sense, two options exist to ensure the security of supply in power systems with a high share of renewable generation: either very robust, redundant, and expensive electricity systems with overcapacity or an electricity system with new and enhanced flexibility resources. Fortunately, relevant and advanced parallel developments in the technology, mainly in the control, information and communication fields have allowed the digitalization of the electricity supply systems towards the "smart grid" paradigm. One of the pillars of smart grids is the opportunity that arises for energy consumers to reduce the cost of their energy bill by modifying the electricity consumption. According to external inputs (e.g. prices), consumers can provide to energy markets and system operators competitive "Demand Response Resources" (DRR) that will significantly enhance the required system flexibility to facilitate the transition to a decarbonized system. The thesis's main objective is to develop a new methodology as well as the necessary associated models and tools to overrun the main barriers that prevent the participation of large and medium electricity consumers in the electricity supply activities. Additionally, these tools allow determining the optimal strategy for the participation of large and medium electricity consumers in products and markets where flexible resources can be economically competitive and technically reliable. Four complimentary and correlated sub-objectives have been fulfilled to address the main objective. First, the thesis proposes an original conceptual architecture for future Smart-Markets in order to establish a more suitable framework for DRR trading and implementation. Second, the research aims to solve the need to have "firm" DRR in the way that DRR can be considered reliable resources. This has been dealt with in the second sub-objective where a new methodology to standardize and validate the DRR offered by the customers has been developed and justified. This methodology can be used to regulate a "certification" process for DRR. The two final sub-objectives are related to provide the customer with valuable knowledge and tools to make feasible the DRR offers generation in the long and short term. The third sub-objective is related to the need for the DRR provider to plan in the medium term (a few years ahead) the strategy for the demand participation and assess the necessary investments. A planning tool has been developed to meet that objective. Finally, the last sub-objective deals with the need of the customer to program the operation of their demand resources in the short term (one day ahead at most) by optimizing all the available resources and prices. Consequently, complementary to medium-term planning tool, a day-ahead optimization tool has been created for that purpose. All methodologies and tools researched in this Ph.D. have been validated through its application to three different industrial environments and customers in sectors with high replicability all over Europe: a paper factory, a meat processing factory, and logistic centres with high freezing and refrigerating needs. The results and justified conclusions allow stating that a relevant step in the research of the implementation of more sustainable energy systems has been produced by enhancing more committed and dynamic participation of the demand side resources.
Rodríguez García, J. (2021). Metodología para la optimización del beneficio de la respuesta de la demanda en consumidores industriales: caracterización por procesos y aplicación [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/165574
TESIS
APA, Harvard, Vancouver, ISO, and other styles
38

García, Fernández Ismael. "Parallel spatial data structures for interactive rendering." Doctoral thesis, Universitat de Girona, 2012. http://hdl.handle.net/10803/107998.

Full text
Abstract:
The main question explored in this thesis is how to define novel parallel random-access data structures for surface and image spatial data with efficient construction, storage, and query memory access patterns. Our main contribution is a set of parallel-efficient methods to evaluate irregular, sparse or even implicit geometries and textures in different applications: a method to decouple shape and shading details from high-resolution meshes, mapping them interactively onto lower resolution simpler domains; an editable framework to map highresolution meshes to simpler cube-based domains, generating a parallel-friendly quad-based representation; a new parallel hashing scheme compacting spatial data with high load factors, which has the unique advantage of exploiting spatial coherence in input data and access patterns
La qüestió principal explorada en aquesta tesi doctoral és la forma de definir noves formes d'accés aleatori paral•lel en estructures de dades amb informació de superfícies i d'imatge. La nostra principal aportació és un conjunt de mètodes paral•lels i eficients per avaluar imatges i geometries irregulars, i proposem: un mètode per a separar la forma i els detalls d'aparença visual partint de malles d'alta resolució, mapejant de manera interactiva la informació en dominis més simples de baixa resolució; un marc d'edició geomètrica per convertir malles irregulars de triangles d'alta resolució en representacions més simples basades en un domini de cubs, generant una estructura fàcilment paral•lelitzable basada en primitives quadrangulars; un nou esquema de hashing paral•lel per a la organització i compactació de dades espacials amb un elevat factor de càrrega, explotant la coherència espacial de les dades d'entrada i els seus patrons d'accés a memòria
APA, Harvard, Vancouver, ISO, and other styles
39

"Proposta para computação assincrona paralela e distribuida de estruturas especiais de jogos dinamicos." Tese, Biblioteca Digital da Unicamp, 2021. http://libdigi.unicamp.br/document/?code=vtls000062555.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Rucci, Enzo. "Computación eficiente del alineamiento de secuencias de ADN sobre cluster de multicores." Tesis, 2013. http://hdl.handle.net/10915/27737.

Full text
Abstract:
Una de las áreas de mayor interés y crecimiento en los últimos años dentro del procesamiento paralelo es la del tratamiento de grandes volúmenes de datos, tales como las secuencias de ADN. El tipo de procesamiento extensivo de comparación para analizar patrones genéticos requiere un esfuerzo importante en el desarrollo de algoritmos paralelos eficientes. El alineamiento de secuencias de ADN representa una de las operaciones más importantes dentro de la bioinformática. En 1981, Smith y Waterman desarrollaron un método para el alineamiento local de secuencias. Sin embargo, en la práctica se emplean diversas heurísticas en su lugar, debido a los requerimientos de procesamiento y de memoria del algoritmo Smith-Waterman. Si bien son más rápidas, las heurísticas no garantizan que el alineamiento óptimo sea encontrado. Es por ello que resulta interesante estudiar cómo aplicar la potencia de cómputo de plataformas paralelas actuales de manera de acelerar el proceso de alinear secuencias sin perder precisión en los resultados. Los niveles insostenibles de generación de calor y consumo de energía que se presentan al escalar al máximo la velocidad de los procesadores mononúcleos motivaron el surgimiento de los procesadores de múltiples núcleos (multicore). Un procesador multicore integra dos o más núcleos computacionales dentro de un único chip y, si bien estos son más simples y menos veloces, al combinarlos permiten mejorar el rendimiento global del procesador y al mismo tiempo hacerlo más eficiente energéticamente. Al incorporar este tipo de procesadores a los clusters convencionales, se da origen a una arquitectura conocida como cluster de multicores, que combina memoria compartida y distribuida, y donde la comunicación entre las diferentes unidades de procesamiento resulta ser heterogénea. En este trabajo se presenta un algoritmo paralelo distribuido para el alineamiento de secuencias de ADN basado en el método Smith-Waterman para ser ejecutado sobre las arquitecturas de cluster actuales. Además, se realiza un análisis de rendimiento del mismo. Por último, se presentan las conclusiones y las posibles líneas de trabajo futuro.
APA, Harvard, Vancouver, ISO, and other styles
41

Zamora, Antonio. "Análisis de eficiencia de algoritmos BSP para la resolución de sistemas lineales tridiagonales." Doctoral thesis, 2000. http://hdl.handle.net/10045/10020.

Full text
Abstract:
El libro está estructurado en cinco capítulos; en el capítulo 1 se describen algunos de los modelos de computación paralela que se han propuesto a lo largo de los años, con especial dedicación al modelo BSP. En el capítulo 2 se describe el método de las particiones superpuestas para el que se proponen dos algoritmos BSP y se comparan entre sí. La paralelización de la factorización LDU de matrices tridiagonales fundamenta el algoritmo BSP bidireccional para dos procesadores que se formula en el capítulo 3 en el que, además, se propone un nuevo método bidireccional para un número par de procesadores basado en el método bidireccional para dos procesadores y en el método de las particiones superpuestas; asimismo, se plantean dos algoritmos BSP para el nuevo método y se comparan entre sí. El método de las particiones de Wang es un clásico y rápido método para la resolución de sis-temas tridiagonales que se describe en el capítulo 4; en este capítulo se proponen dos algoritmos BSP para el mismo, uno de los cuales es una modificación de dicho método que supone una mejora cuando el número de procesadores es grande. En la última sección del capítulo se comparan entre sí ambos algoritmos BSP. En el capítulo 5 y último se comparan entre sí todos los algoritmos BSP descritos y analizados en los capítulos anteriores y se obtiene el óptimo para cada una de las situaciones que han sido objeto de estudio. Es de reseñar el buen comportamiento del nuevo método propuesto en el capítulo tercero frente al método de Wang y al método (secuencial) de eliminación de Gauss para sistemas tridiagonales, especialmente en un CRAY T3D y en un CRAY T3E.
APA, Harvard, Vancouver, ISO, and other styles
42

Arnal, Josep. "Algoritmos iterativos paralelos para la resolución de sistemas no lineales." Doctoral thesis, 2000. http://hdl.handle.net/10045/3217.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Tortosa, Leandro. "Algoritmos divide y vencerás para la resolución de sistemas lineales tridiagonales en un computador BSP." Doctoral thesis, 1999. http://hdl.handle.net/10045/10021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography