Dissertations / Theses on the topic 'Computación paralela y distribuida'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 43 dissertations / theses for your research on the topic 'Computación paralela y distribuida.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Acevedo, Martínez Liesner. "Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7107.
Full textAcevedo Martínez, L. (2009). Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7107
Palancia
Trujillo, Rasúa Rafael Arturo. "Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7108.
Full textTrujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108
Palancia
Blanco, de Frutos Héctor. "Clusterización de aplicaciones paralelas para su planificación en entornos de cómputo multi-cluster." Doctoral thesis, Universitat de Lleida, 2012. http://hdl.handle.net/10803/104488.
Full textUn Multi-Cluster es un entorno de cómputo distribuido en el que los diferentes elementos de cómputo, agrupados en clusters, están repartidos en diferentes departamentos de una misma institución. La tarea de planificar aplicaciones paralelas en un Multi-Cluster es compleja, con numerosas líneas de investigación abiertas en la actualidad. En primer lugar, la cantidad de recursos que han de ser gestionados puede ser elevada, y además estos pueden ser heterogéneos. En segundo lugar, los diferentes clusters están conectados mediante un enlace de red, y si las aplicaciones paralelas no son asignadas adecuadamente, su rendimiento se degradará si estos enlaces se saturan. En la literatura, las estrategias más comunes evalúan las aplicaciones de forma aislada, sin tener en cuenta los requisitos de las otras aplicaciones presentes en la cola de espera del sistema. Algunos estudios han concluido que evaluar grupos de aplicaciones permite tomar decisiones de planificación que pueden mejorar el rendimiento del conjunto de aplicaciones, y mejorar la utilización de los recursos. En el presente trabajo de tesis se aborda el problema de la planificación on-line de múltiples aplicaciones paralelas en entornos Multi-Cluster heterogéneos y con co-asignación. Se proponen nuevas técnicas que tratan tanto la agrupación de las aplicaciones como su asignación, considerando las características de los recursos del sistema, así como los requisitos del grupo de aplicaciones en cuanto al cómputo y la comunicación. Se evalúan la complejidad y el rendimiento de las técnicas propuestas, comparándolas con otras técnicas utilizadas en la literatura, usando trazas de entornos reales. Se estudia además su aplicabilidad en entornos reales y se presentan posibles líneas de trabajo futuro a considerar.
A Multi-Cluster is a distributed computing environment in which the different computing elements, grouped in clusters, are spread across different departments of a same institution. The scheduling of parallel applications on a Multi-Cluster is complex. In first place, the amount of resources to be managed can be high, and also, those resource can be heterogeneous. Secondly, the different clusters are connected through a network link. If the parallel applications are not allocated correctly, its performance will be degraded if those links become saturated. On the literature, the most common strategies evaluate the applications in an isolated way, without taking into account the requirements of the other applications present on the system’s waiting queue. Some studies have concluded that to evaluate groups of applications allows taking scheduling decissions that could improve the performance of the set of applications, and to improve resource usage. On the present thesis work, the problem of on-line scheduling of multile parallel applications on heterogeneous Multi-Cluster environments with co-allocation, is addressed. New strategies are proposed which treat both application grouping and its allocation, as well as the set of applications processing and communication requierements. The complexity and the performance of the proposed strategies are evaluated, comparing them with other strategies from the literature, using real environment races. Furthermore, its applicability on real envionments is studied, and also possible future work to consider is presented.
Tomás, Domínguez Andrés. "Implementación paralela de métodos de Krylov con reinicio para problemas de valores propios y singulares." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/5082.
Full textTomás Domínguez, A. (2009). Implementación paralela de métodos de Krylov con reinicio para problemas de valores propios y singulares [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/5082
Palancia
Palanca, Cámara Javier. "Computación distribuida basada en objetivos." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/17702.
Full textPalanca Cámara, J. (2012). Computación distribuida basada en objetivos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17702
Palancia
Kim, Joon Young. "Computación Paralela en Unidades de Procesamiento Gráfico (GPU)." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104712.
Full textZorrilla, Pantaleón Marta Elena. "Procesamiento paralelo y distribuido aplicado al almacenamiento y recuperación de información documental." Doctoral thesis, Universidad de Cantabria, 2001. http://hdl.handle.net/10803/10697.
Full textCastellà, Martínez Damià. "Computación distribuida en entornos peer-to-peer con calidad de servicio." Doctoral thesis, Universitat de Lleida, 2011. http://hdl.handle.net/10803/51011.
Full textCosta, Filho José Tarcisio. "Proposta para computação assíncrona paralela e distribuida de estruturas especiais de jogos dinâmicos." [s.n.], 1992. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260379.
Full textTese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica
Made available in DSpace on 2018-08-17T06:32:39Z (GMT). No. of bitstreams: 1 CostaFilho_JoseTarcisio_D.pdf: 11412677 bytes, checksum: cbe4c9ca6c7a461ef41e5bff9934bfbd (MD5) Previous issue date: 1992
Resumo: Sistemas reais de grande porte constituídos de subsistemas interconectados fisicamente e distribuídos espacialmente, frequentemente envolvem a descentralização do con trole entre vários agentes de decisão com objetivos diferentes e comumente conflitantes. Quando mais de um agente de decisão, AD, está envolvido, as teorias de jogos dinâmicos e de sistemas hierárquicos devem ser consideradas. Neste sentido, o jogo dinâmico, visto como uma tarefa organizacional, pode ser mapeado sobre um rede de computadores onde cada agente de decisão é associado a um computador. Para a computação paralela e distribui da de jogos dinâmicos esta tese trata de alguns aspectos importantes. Primeiramente, a proposta de um jogo distribuído assíncrono onde a distribuição dos agentes de decisão sobre a rede de computadores permite o acoplamento algoritmo/ hal'dware. Para isto, o conceito de jogo de Stackelberg é estendido para incluir jogos multiníveis onde os agentes são divididos em dois grupos: um grupo de agentes líderes (múltiplos coordenadores) e um grupo de agentes seguidores (controladores locais), e cada AD pode ou não estar cooperando dentro de seu grupo. Neste sentido, propusemos uma metodologia de otimização distribui da heterárquica que envolve esquemas de decomposições espacial e temporal com distribuiçâo da coordenaçâo, baseada em estratégias em malha aberta de Stackelberg, de Nash, de Pareto e de Equipe. Em segundo lugar, propomos formas de implementaçâo dos algoritmos de decisâo propostos sobre arquiteturas de computação paralela, vetorial e distribuida, com os objetivos de melhorar o desempenho computacional e de obter decisões on-line através da exploração dos graus de paralelismo e de vetorização nos algoritmos para a obtençâo de decisões individuais e da computação distribuida do sistema de múltiplos agentes. Em terceiro lugar, desenvolvemos uma ferramenta de software de suporte para múltiplas decisões distribui das sobre uma rede de estações de trabalho UNIX
Abstract: Reallarge scale systems consisting of physically interconnected subsystems dis ributed in space, frequently involve a decentralization of control among several decision makers with different and usually conflicting als hen more than one decision maker, D M, is involved, dynamic games theory and hierarchical approaches ould be consid ered. ln this sense, the dynamic game viewed as an organizational task can be mapped onto a computeI' network where each local decision is associated to a computeI'. For the parallel and distributed computation of dynamic games. this thesis studies some important aspects. Firstly, the proposal of an ynchronous distributed game where the distribuition of the decision makers over the computeI' network allows the matching algorithm/hardware. For doing this, the Stackelberg concept is idened to include multilevel games where the D.M sare assumed to be divided into t o groups: a group of leaders (multiple coordinators) and a group of followers (local controlers), and every DM may or may not be cooperating within his own group. ln this sense e propose an heterarchical distributed optimization methodology that inyolves temporal and spatial decomposition schemes with coordination distribution based on open-Ioop Stackelberg, Nash, Pareto and Team strategies. Secondly, we propose implementation forms for the proposed de cision algorithms on the parallel, vectorial and distributed computeI' architectures, with the objectives of computational rformance imprO ement and of on-line decision making through the algorithms parallelism and vectorizati_n degrees exploration for the individual decisions achievement and through the decision makers distributed computation. Thirdly, a distributed multidecision making suport soft are over a workstation network was developed
Doutorado
Doutor em Engenharia Elétrica
Rebonatto, Marcelo Trindade. "Simulação paralela de eventos discretos com uso de memória compartilhada distribuída." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2000. http://hdl.handle.net/10183/2151.
Full textPeredo, Andrade Oscar Francisco. "Implementación de un Método de Programación Semidefinida Usando Computación Paralela." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103643.
Full textOporto, Segura Leonardo David. "Una Plataforma Tecnológica de Apoyo a la Educación Distribuida en Ciencias de la Computación." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/102325.
Full textBarreto, Gilmar 1958. "Modelagem computacional distribuida e paralela de sistemas e de series temporais multivariaveis no espaço de estado." [s.n.], 2002. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261255.
Full textTese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-01T16:06:11Z (GMT). No. of bitstreams: 1 Barreto_Gilmar_D.pdf: 3708607 bytes, checksum: 3b4291314b6c8041286e4a776d5c99f6 (MD5) Previous issue date: 2002
Resumo: Este estudo primeiramente investiga fundamentos teóricos para análise, desenvolvimento e implementação de algoritmos para modelagem de dados de sistemas dinâmicos e de séries temporais multivariáveis no espaço de estado, através de métodos de subespaço. Tem como segundo objetivo o desenvolvimento e implementação de algoritmos para modelagem computacional distribuída e paralela destes tipos de dados multivariados. A modelagem computacional de dados no espaço de estado é apresentada, comentada e avaliada sobre "benchmarks ". Desta forma esperamos viabilizar uma metodologia original e eficiente que contribuirá de forma direta para a modelagem de sistemas multivariáveis e de formas direta e ou indireta para o controle de sistemas multivariáveis.
Abstract: This study investigates firstly theoretical foundations in analysis, development and implementation of algorithms for state space modelling of time series and dynamic systems data. The second objective is the development and implementation of parallel and distributed computational modelling algorithms for such types of multivariate data. State space computational data modelling is presented, commented upon and evaluated against benchmarks. This procedure leads to the expectation of assured feasibility of an original and efficient methodology that will contribute in a direct way to multivariable systems modelling and, both in direct and indirect ways, to the control of multivariable systems.
Doutorado
Jiménez, González Daniel. "ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS." Doctoral thesis, Universitat Politècnica de València, 2011. http://hdl.handle.net/10251/11234.
Full textJiménez González, D. (2011). ALGORITMOS DE CLUSTERING PARALELOS EN SISTEMAS DE RECUPERACIÓN DE INFORMACIÓN DISTRIBUIDOS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11234
Palancia
Claver, Iborra José Manuel. "Algoritmos paralelos y distribuidos para resolver ecuaciones matriciales de Lyapunov en problemas de reducción de modelos." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4721.
Full textClaver Iborra, JM. (1998). Algoritmos paralelos y distribuidos para resolver ecuaciones matriciales de Lyapunov en problemas de reducción de modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4721
Palancia
Lizama, Orellana Antonio Andrés. "El problema de la conexidad en el modelo computacional number-in-hand." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/115396.
Full textLa presente memoria se enmarca en el contexto de la computación distribuida. Esta es un área de las ciencias de la computación relativamente reciente, que surge ante la necesidad de un nuevo paradigma de computación, capaz de trabajar con cantidades masivas de datos, como son, por ejemplo, las redes sociales. En particular, se estudia la complejidad del problema CONEXIDAD de un grafo $G=(V,E)$ en el modelo computacional number-in-hand. Este problema consiste en decidir si un grafo $G$ es o no conexo. Por otro lado, a grandes rasgos, la complejidad que se considera aquí mide el largo de los mensajes (en bits) que los nodos deben comunicar para decidir CONEXIDAD. En primer lugar, se demuestra que la complejidad, en el caso en que el grafo $G$ es arbitrario, es al menos $f(n)$, donde $f(n) = \log n - (\log \log n +1+ \log n /n)$. Sin embargo, esta fórmula no aporta información alguna cuando el grafo $G$ posee $n<27$ nodos, pues $f(n) \leq 1$ para tales valores. Es decir, indica que la cantidad de bits que se tienen que comunicar es al menos $\leq 1$, lo que es evidente. Por esta razón, se profundiza el estudio analizando grafos pequeños, y se demuestra que 1 bit no es suficiente para decidir el problema en tal caso. Por otro lado, la cota expuesta se obtiene a partir de una reducción que construye un grafo de grado no acotado. Por lo tanto, $f(n)$ puede ser poco ajustada para la familia de grafos de grado acotado. Así pues, se complementa el trabajo restringiéndose a esta clase de grafos, con el fin de saber si en tal caso existe una mejor cota para la complejidad de CONEXIDAD en el modelo number-in-hand. Usando técnicas de complejidad comunicacional se encuentra una cota inferior de $\Omega(\log n)$. Más aún, se demuestra que esta cota es ajustada para esta clase de grafos.
Ozimica, Gacitúa Nicolás Eugenio. "Cálculo de las Trayectorias de Partículas en la Atmósfera Mediante Cálculos Paralelizados Haciendo Uso Intensivo de GPU." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103833.
Full textDe, Giusti Laura Cristina. "Mapping sobre arquitecturas heterógenas." Editorial de la Universidad Nacional de La Plata (EDULP), 2011. http://hdl.handle.net/10915/18372.
Full textTesis doctoral de la Facultad de Informática (UNLP). Grado alcanzado: Doctor en Ciencias Informáticas. Director de tesis: Guillermo Simari; co-director de tesis: Emilio Luque y Marcelo Naiouf.
DO, CARMO BORATTO MURILO. "Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/48529.
Full textDo Carmo Boratto, M. (2015). Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48529
TESIS
Lérida, Monsó Josep Lluís. "Meta-Planificador Predictivo para Entornos Multicluster no Dedicados." Doctoral thesis, Universitat Autònoma de Barcelona, 2009. http://hdl.handle.net/10803/5775.
Full textEn la actualidad, el continuo aumento de las capacidades de cómputo y la disminución del coste de adquisición de los ordenadores de sobremesa ha provocado un uso extendido de los Clusters en centros de investigación, instituciones, organizaciones, etc. No obstante, el crecimiento constante de los requerimientos de las aplicaciones científicas hace necesaria la búsqueda de sistemas aún más potentes y/o con mayor número de recursos.
En la última década, la posibilidad de unir los recursos (Clusters) de una misma organización para obtener mayor capacidad de cómputo ha despertado un gran interés. Esto ha propiciado la aparición de nuevos sistemas Multicluster que incorporan sofisticadas técnicas de planificación de trabajos y gestión de recursos orientadas a aprovechar al máximo los recursos de cómputo distribuidos en varios Clusters.
Aunque el bajo coste de los recursos de cómputo facilita el crecimiento del número de clusters y recursos por Cluster, este crecimiento tiene sus limites. En primer lugar debemos considerar los problemas de espacio que no siempre son fáciles de conseguir y en segundo lugar el elevado coste del consumo energético producido por las unidades de cómputo y por los sistema de refrigeración que se necesitan para mantener a una temperatura adecuada estos sistemas.
Bajo este panorama, un modo de proporcionar mayor número de recursos sin aumentar los costes es incorporar al Multicluster recursos de cómputo ociosos de los usuarios de una organización para la ejecución de aplicaciones paralelas, como por ejemplo los ordenadores del laboratorio de una universidad.
La tarea de meta-planificación en un entorno Multicluster es un tarea compleja y una línea de trabajo en pleno auge en la actualidad. En primer lugar, la cantidad de recursos que se deben gestionar es muy grande y los recursos pueden ser heterogéneos. En segundo lugar, deseamos considerar la planificación en un sistema no dedicado donde los recursos se comparten con otros usuarios, aumentando la dificultad de la meta-planificación. El objetivo de la meta-planificación en el presente trabajo es obtener el máximo rendimiento de las aplicaciones paralelas sin perjudicar al usuario local.
En el presente trabajo proponemos nuevas técnicas de estimación del tiempo de turnaround de las aplicaciones paralelas. Estas estimaciones son utilizadas por el sistema de meta-planificación para seleccionar el Cluster más adecuado para su ejecución. Estas técnicas consideran la heterogeneidad y la ocupación de los recursos tanto de cómputo como de comunicación.
Los entornos Multicluster presentan una división natural del conjunto de recursos en distintos Clusters. Con el fin de aprovechar los recursos libres de distintos Cluters proponemos una técnica de asignación de recursos entre Clusters basada en un modelo de programación entera binaria (Mixed Integer Programming). El modelo realiza la asignación de una aplicación paralela a recursos de distintos Clusters con dos objetivos fundamentales, la obtención del mejor rendimiento de la aplicación paralela y la no saturación de los canales de comunicación.
Finalmente, proponemos una nueva estrategia de meta-planificación que establece cuando utilizar la asignación predictiva de Clusters y cuando aplicar la compartición de recursos entre distintos Clusters. Esta nueva estrategia permite la obtención de un mayor rendimiento de las aplicaciones paralelas y un mayor aprovechamiento de los recursos Multicluster.
In the early'90s many of the features and capabilities provided solely by sophisticated and expensive supercomputers are able to achieve through the use of commodity computers grouped into systems called Clusters.
At present, the continuing increase in computing capabilities and the reduced cost of commodity computers has provoked widespread use of Clusters in research centers, universities and organizations. However, the steady growth of the scientific applications requirements makes necessary the use of more powerful systems with greater resources.
In the last decade, the possibility to obtain more computing capacities combining resources (clusters) of the same organization has generated a great interest. This has given rise to new systems, called Multicluster, which incorporate sophisticated scheduling and resource management techniques, in order to maximize the distributed resource utilization.
Although the low cost of computing resources facilitates the growth of the number of clusters and its resources, this growth is not sustainable. First, we must consider the space problems that are not always easily available and secondly the high cost of the consumed energy by computational units and cooling systems needed to maintain such systems in an appropriate temperature.
A sustainable way of providing more resources without increasing costs, is to incorporate the idle computing resources of an organization for the execution of parallel applications, as for example the workstations in the laboratory of a university, the Clusters of different departments, etc.
The meta-scheduling task in non-dedicated Multicluster environments is an ongoing area of research. The large amount of resources, their heterogeneity and the sharing of resources between different users, greatly increases the complexity of the meta-scheduling task. The aim of the meta-scheduling in the present work is to maximize the performance of parallel applications without damaging the local user.
In this paper we propose new prediction techniques to estimate the turnaround time of parallel applications. These estimates are used by the meta-scheduling system to select the most appropriate cluster for execution. The proposed prediction techniques consider the heterogeneity and the availability of both computing and communication resources.
Resources in Multicluster environments are naturally partitioned in different Clusters. In order to exploit the free resources of different Clusters, we propose a new technique for allocating resources between Clusters based on a mixed-Integer programming model. The main aim of the proposed model is to obtain the best performance of the parallel applications with no saturation of the communications links.
Finally, we propose a new meta-scheduling strategy that uses prediction techniques to select the most appropriate cluster and decides when resources must be shared between clusters.
Campos, González María Carmen. "Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/86134.
Full textEl problema polinómico de valores propios aparece en muchas áreas de la computación científica y técnica. Puede verse como una generalización del problema lineal de valores propios en el que la ecuación P(lambda)x=0, que define el problema, involucra un polinomio P(lambda), de grado d, en el parámetro lambda del autovalor, y d+1 coeficientes matriciales. A su vez, el problema polinómico de valores propios es un caso particular del problema no lineal de valores propios, T(lambda)x=0, en el que T es una función matricial no lineal. Estos problemas aparecen en diversas áreas de aplicación como acústica, mecánica de fluidos, análisis de estructuras, o fotónica. Esta tesis se centra en el estudio de métodos para la resolución numérica del problema polinómico de valores propios, así como la adaptación de dichos métodos al caso más general no lineal. Principalmente, se consideran métodos de proyección, que son apropiados para el caso de matrices dispersas de gran dimensión cuando se requiere solo un pequeño porcentaje de los valores y vectores propios. Los algoritmos se estudian desde el punto de vista de la computación de altas prestaciones, teniendo en consideración aspectos como la eficiencia (computacional y de memoria) y la computación paralela. SLEPc, Scalable Library for Eigenvalue Problem Computations, es una biblioteca software para la resolución de problemas de valores propios de gran dimensión en paralelo. Es de propósito general y puede usarse para problemas estándares y generalizados, simétricos y no simétricos, con aritmética real o compleja. Como fruto de esta tesis, se han desarrollado diversos solvers para problemas polinómicos y no lineales, los cuales se han incluido en las últimas versiones de este software. Por un lado, se abordan métodos basados en la linealización del problema polinómico, que resuelven un problema lineal equivalente de dimensión varias veces la del inicial. Entre ellos se destaca el método TOAR, que representa la base del subespacio de búsqueda de una forma eficiente en términos de memoria, y es adecuado para manejar el aumento de dimensión del problema lineal. La tesis también propone variantes específicas para el caso particular de matrices simétricas. En todos estos métodos se consideran diversos aspectos para dotar a las implementaciones de robustez y flexibilidad, tales como transformaciones espectrales, escalado, y técnicas de extracción. Además de los métodos de linealización, se proponen métodos de tipo Newton, como el método de Jacobi-Davidson con deflación y el método de Newton para pares invariantes. Por sus características, este último no suele utilizarse como un método en sí mismo sino como técnica de refinamiento de las soluciones obtenidas con otro método. Los métodos anteriores pueden aplicarse a la resolución del problema no lineal, utilizando técnicas como la interpolación polinómica o racional, siendo necesario en algunos casos adaptar los algoritmos. La tesis cubre también estos casos. Para todos los algoritmos considerados se han realizado implementaciones paralelas en SLEPc, y se ha estudiado su comportamiento numérico y sus prestaciones paralelas en problemas procedentes de aplicaciones reales.
El problema polinòmic de valors propis apareix en moltes àrees de la computació científica i tècnica. Pot veure's com una generalització del problema lineal de valors propis en el qual l'equació P(lambda)x=0, que defineix el problema, involucra un polinomi P(lambda), de grau d, en el paràmetre lambda de l'autovalor, i d+1 coeficients matricials. Al seu torn, el problema polinòmic de valors propis és un cas particular del problema no lineal de valors propis, T(lambda)x=0, en el qual T és una funció matricial no lineal. Aquests problemes apareixen en diverses àrees d'aplicació com a acústica, mecànica de fluids, anàlisis d'estructures, o fotònica. Aquesta tesi se centra en l'estudi de mètodes per a la resolució numèrica del problema polinòmic de valors propis, així com l'adaptació d'aquests mètodes al cas més general no lineal. Principalment, es consideren mètodes de projecció, que són apropiats per al cas de matrius disperses de gran dimensió quan es requereix solament un reduït percentatge dels valors i vectors propis. Els algorismes s'estudien des del punt de vista de la computació d'altes prestacions, tenint en consideració aspectes com l'eficiència (computacional i de memòria) i la computació paral·lela. SLEPc, Scalable Library for Eigenvalue Problem Computations, és una biblioteca software per a la resolució de problemes de valors propis de gran dimensió en paral·lel. És de propòsit general i pot usar-se per a problemes estàndards i generalitzats, simètrics i no simètrics, amb aritmètica real o complexa. Com a fruit d'aquesta tesi, s'han desenvolupat diversos solvers per a problemes polinòmics i no lineals, els quals s'han inclòs en les últimes versions d'aquest software. D'una banda, s'aborden mètodes basats en la linealització del problema polinòmic, que resolen un problema lineal equivalent de dimensió diverses vegades la de l'inicial. Entre ells es destaca el mètode TOAR, que representa la base del subespai de cerca d'una forma eficient en termes de memòria, i és adequat per a manejar l'augment de dimensió del problema lineal. La tesi també proposa variants específiques per al cas particular de matrius simètriques. En tots aquests mètodes es consideren diversos aspectes per a dotar a les implementacions de robustesa i flexibilitat, tals com a transformacions espectrals, escalat, i tècniques d'extracció. A més dels mètodes de linealització, es proposen mètodes de tipus Newton, com el mètode de Jacobi-Davidson amb deflació i el mètode de Newton per a parells invariants. Per les seues característiques, aquest últim no sol utilitzar-se com un mètode en si mateix sinó com a tècnica de refinament de les solucions obtingudes amb un altre mètode. Els mètodes anteriors poden aplicar-se a la resolució del problema no lineal, utilitzant tècniques com la interpolació polinòmica o racional, sent necessari en alguns casos adaptar els algorismes. La tesi cobreix també aquests casos. Per a tots els algorismes considerats s'han realitzat implementacions paral·leles en SLEPc, i s'ha estudiat el seu comportament numèric i les seues prestacions paral·leles en problemes procedents d'aplicacions reals.
Campos González, MC. (2017). Implementación paralela de métodos iterativos para la resolución de problemas polinómicos de valores propios [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86134
TESIS
Allende, Prieto Esteban Armando. "Portando AmbientTalk a Dispositivos Móviles Livianos." Tesis, Universidad de Chile, 2010. http://repositorio.uchile.cl/handle/2250/103823.
Full textBlasco, Valencia Sebastián Ramón. "Estudio de detección y amortización de contención sobre la interfaz de red en sistemas Linux en escenarios de concurrencia sobre máquinas multicore." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/138900.
Full textIngeniero Civil en Computación
La proliferación de sistemas con múltiples núcleos de procesamiento ha transformado la aplicación de técnicas de programación paralela en uno de los tópicos más estudiados en los últimos años, ello en pos de mejorar los rendimientos generales de cualquier operación. Una aplicación práctica de dicho enfoque es en el procesamiento de requerimientos DNS, los cuales han evidenciado un gran aumento de la mano del desarrollo de la Internet y la masificación de distintos tipos de dispositivos que demandan conectividad, y que por sus características son un buen candidato a un enfoque de procesamiento paralelo. Sin embargo, distintas investigaciones han revelado que la aplicación de técnicas multithreading per se no son una estrategia que garantice un escalamiento en los resultados. Distintas empresas de carácter global (como Google, Facebook y Toshiba) así como investigaciones locales (de la mano de NIC Chile) han reconocido la existencia de este problema, reiterando responsabilidades a los Internet Sockets provistos por el kernel de Linux, los cuales al ser expuestos a un consumo concurrente degradan su capacidad de consumo de datos y rendimiento general, aún cuando existe poder de cómputo excedente. Así estas empresas y otros trabajos de investigación han planteado varias hipótesis teóricamente razonables para explicar dicho comportamiento pero sin concretar las mismas en términos experimentales que permitan confirmarlas o desmentirlas. La presente investigación plantea un estudio experimental del caso de los Sockets UDP que combina técnicas de profiling y testing de distinto nivel, a fin de verificar las principales sospechas vigentes que den explicación al problema en cuestión, reunidas en 3 líneas de trabajo: Problemas de distribución de carga, degradación del rendimiento por mecanismos de bloqueo y problemas de manejo de caché y defectos de contención de recursos. En la misma línea, se ilustra el impacto de fenómeno de contención de recursos en un escenario concurrente y su repercusión en los canales de comunicación en el procesamiento de datos en arquitecturas modernas multiprocesador como la estudiada. Es fruto de este trabajo un veredicto por cada estudio que concluya explicando las características inherentes a los Internet Sockets que expliquen su mal desempeño, bajo los distintos análisis efectuados. Posteriormente, la investigación se traslada a estudiar la técnica denominada reuseport, un desarrollo de ingenieros de Google que plantea una solución al problema presentado y que promete mitigar el efecto negativo causado por el uso de multithreading en el contexto estudiado. Así también, se repasan aspectos como el rendimiento de este enfoque, y ciertas debilidades del mismo. Finalmente, es producto del presente trabajo el planteamiento e implementación de una solución propia al problema que, inspirado en el diseño de reuseport e implementado como un módulo del kernel, provee un mecanismo de distribución de paquetes que permite optar a mejoras de desempeño en el procesamiento de los mismos usando técnicas de procesamiento paralelo clásicas. Una solución que --en su configuración estándar-- provee un rendimiento competitivo a reuseport, pero que gracias a ser ampliamente configurable permite postular a mejores resultados que reuseport en contextos no uniformes de distribución de paquetes.
Toscano, Ochoa Carlos 1985. "Principles of distributed biological computation in non-growing cells : A rational architecture for chemical wires." Doctoral thesis, TDX (Tesis Doctorals en Xarxa), 2021. http://hdl.handle.net/10803/671533.
Full textUna de las ramas de la biología sintética persigue la creación de un computador biológico. Muchos han implementado con éxito circuitos lógicos simples reconectando componentes celulares. Sin embargo, estos circuitos pueden competir agresivamente por la energía y los recursos del organismo anfitrión. La computación distribuida propone dividir el circuito en partes más pequeñas y distribuirlas entre varias cepas que comparten información utilizando cables químicos, generalmente basados en sistemas de quorum sensing. Sin embargo, la mayoría de las investigaciones publicadas se han centrado en la creación de pruebas de concepto, evitando la cuestión fundamental de las limitaciones de diseño autoimpuestas debido al uso de cables químicos. Aquí proponemos una arquitectura de cables unificada y racional que consta de tres cepas: una que emite una molécula llamada biobit, otra que la degrada y otra que la detecta. Nuestro modelo predice las frecuencias relativas de cepas que permiten los comportamientos deseados y muestra cómo un cable puede funcionar como un temporizador.
Orbezo, Chuchón Juan Jesús, and Tejeda Víctor Omar Polo. "Solución distribuida orientada a servicios para la transferencia de datos entre agentes del sistema de EPS a través del uso de servicios web." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/13984.
Full textTrabajo de suficiencia profesional
Avila, Rafael Bohrer. "Um modelo de paralelismo de grao fino para objetos distribuidos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1999. http://hdl.handle.net/10183/25935.
Full textThis Thesis presents a fine-grain concurrency model for applications based on distributed objects. The basis for the development of this research is the model of distribution of objects presented by the language DPC++, an extension of C++ conceived at the Federal University of Rio Grande do Sul. The motivation for the development of this model is the growing availability of multiprocessor architectures and high-performance communication technologies, which allows for the efficient use of a finer grain of concurrency. The purpose of this work is to efficiently integrate such level of concurrency into the original model of distribution of objects of DPC++, making it possible for the applications developed with the language to thoroughly explore the computational power offered by the mentioned architectures. As main features the proposed model presents the possibility of concurrency between the methods of a single distributed object and the introduction of a synchronisation mechanism based on the semantics of monitors. The results obtained with the implementation of aMandelbrot fractal generation application showthat, in relation to performance, the presented model effectively reaches its purposes. In addition, the extension to the original programming sintax of DPC++ reveals an important contribution towards a higher expressivity degree in the development of parallel applications.
Torres, Verdugo Rubén Darío. "Paralelización de algoritmo numérico para resolución de problemas en mecánica de sólidos." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/137992.
Full textDentro de los métodos de simulación numérica para resolución de ecuaciones diferenciales parciales (EDP's), los métodos sin malla han sido desarrollados desde hace aproximadamente veinte años. A diferencia del método de elementos finitos, los métodos sin malla no necesitan una malla definida para la construcción de sus funciones de base, las que se crean únicamente por la distribución de los nodos en el dominio. Esta característica hace a este método más atractivo en problemas donde exista distorsión de la malla, sin embargo, requieren un tiempo extra en su cálculo y un esfuerzo mayor en su programación. El presente trabajo tiene por objetivo realizar un algoritmo numérico eficiente mediante programación en paralelo, para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano con funciones de base de máxima entropía. La motivación de este trabajo es suplir uno de los principales defectos de los métodos sin malla, ser computacionalmente costosos. Son abordados los antecedentes del método sin malla, elasticidad lineal y la programación en paralelo. Se utiliza el método sin malla Galerkiano basado en la forma débil, con funciones de base de máxima entropía. Se trabaja con el software computacional MATLAB y la librería Parallel Computing Toolbox en la implementación de la programación en paralelo para tres problemas específicos y se analiza el error numérico, convergencia, tiempo de cómputo, e indicadores de desempeño para la programación en paralelo, como lo son Speedup y Eficiencia paralela. Se obtienen errores numéricos aceptables, entregados por las normas relativas L^2 y H^1, obteniendo convergencia en los tres problemas. Los tiempos de cómputo se reducen al implementar la programación paralela en todos los casos. La convergencia del problema es independiente del número de procesadores utilizados. Se obtienen los mejores resultados de Speedup y Eficiencia paralela para problemas por sobre los 5000 grados de libertad. Se recomienda trabajar problemas por sobre esta cifra en la implementación de la programación en paralelo para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano. Se cumple objetivo principal, logrando realizar algoritmo numérico mediante programación en paralelo, para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano con funciones de base de máxima entropía.
Sampé, Domenech Josep. "Enhancing the Programmability of Cloud Object Storage." Doctoral thesis, Universitat Rovira i Virgili, 2018. http://hdl.handle.net/10803/665607.
Full textEn un mundo que depende cada vez más de la tecnología, los datos digitales se generan a una escala sin precedentes. Esto hace que empresas que requieren de un gran espacio de almacenamiento, como Netflix o Dropbox, usen soluciones de almacenamiento en la nube. Mas concretamente, el almacenamiento de objectos, dada su escalabilidad y alta disponibilidad. Sin embargo, estos almacenes se enfrentan a tres desafíos principales: 1) Gestión flexible de cargas de trabajo de múltiples usuarios. Normalmente, los almacenes de objetos son sistemas multi-usuario, lo que significa que todos ellos comparten los mismos recursos, lo que podría ocasionar problemas de interferencia. Además, es complejo administrar políticas de almacenamiento heterogéneas a gran escala en ellos. 2) Autogestión de datos. Los almacenes de objetos no ofrecen mucha flexibilidad con respecto a la autogestión de datos por parte de los usuarios. Típicamente, son sistemas rígidos, lo que impide gestionar los requisitos específicos de los objetos. 3) Cómputo elástico cerca de los datos. Situar los cálculos cerca de los datos puede ser útil para reducir la transferencia de datos. Pero, el desafío aquí es cómo lograr su elasticidad sin provocar contención de recursos e interferencias en la capa de almacenamiento. En esta tesis presentamos tres contribuciones que resuelven estos desafíos. En primer lugar, presentamos la primera arquitectura de almacenamiento definida por software (SDS) para almacenes de objetos que separa las capas de control y de datos. Esto permite gestionar las cargas de trabajo de múltiples usuarios de una manera flexible y dinámica. En segundo lugar, hemos diseñado una nueva abstracción de políticas llamada "microcontrolador" que transforma los objetos comunes en objetos inteligentes, permitiendo a los usuarios programar su comportamiento. Finalmente, presentamos la primera plataforma informática "serverless" guiada por datos y elástica, que mitiga los problemas de colocar el cálculo cerca de los datos.
In a world that is increasingly dependent on technology, digital data is generated in an unprecedented way. This makes companies that require large storage space, such as Netflix or Dropbox, use cloud object storage solutions. This is mainly thanks to their built-in characteristics, such as simplicity, scalability and high-availability. However, cloud object stores face three main challenges: 1) Flexible management of multi-tenant workloads. Commonly, cloud object stores are multi-tenant systems, meaning that all tenants share the same system resources, which could lead to interference problems. Furthermore, it is now complex to manage heterogeneous storage policies in a massive scale. 2) Data self-management. Cloud object stores themselves do not offer much flexibility regarding data self-management by tenants. Typically, they are rigid, which prevent tenants to handle the specific requirements of their objects. 3) Elastic computation close to the data. Placing computations close to the data can be useful to reduce data transfers. But, the challenge here is how to achieve elasticity in those computations without provoking resource contention and interferences in the storage layer. In this thesis, we present three novel research contributions that solve the aforementioned challenges. Firstly, we introduce the first Software-defined Storage (SDS) architecture for cloud object stores that separates the control plane from the data plane, allowing to manage multi-tenant workloads in a flexible and dynamic way. For example, by applying different service levels of bandwidth to different tenants. Secondly, we designed a novel policy abstraction called microcontroller that transforms common objects into smart objects, enabling tenants to programmatically manage their behavior. For example, a content-level access control microcontroller attached to an specific object to filter its content depending on who is accessing it. Finally, we present the first elastic data-driven serverless computing platform that mitigates the resource contention problem of placing computation close to the data.
Pabón, Sánchez Gustavo Adolfo. "Self-optimizing skeleton execution using events." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/135169.
Full textEsta tesis propone una forma novedosa para introducir características autonómicas de auto-configuración y auto-optimización a Patrones de Paralelismo (o Algorithmic Skeletons en inglés) usando técnicas de la Programación Dirigida por Eventos (o EDP por sus siglas en inglés). Gracias al uso de la programación dirigida por eventos, la solución propuesta en esta tesis presenta las siguientes contribuciones a las soluciones actuales: - No está relacionada a una arquitectura de aplicaciones en particular, por ejemplo la arquitectura de componentes. De esta forma, presenta una solución con un mayor alcance y es independiente de la arquitectura usada para la implementación de los patrones de paralelismo. - Provee un mayor nivel de adaptabilidad por permitir la introducción de cambios estructurales en tiempo de ejecución. A diferencia de otras soluciones que solo permiten la introducción de este tipo de cambios durante la compilación. - Los estimados de trabajo futuro pueden ser calculados en tiempo de ejecución y no hay dependencia a estimados pre-calculados en ejecuciones anteriores. Las características autonómicas presentadas en esta tesis se enfocan principalmente en garantizar un tiempo de ejecución a un patron de paralelismo por medio de la optimización de la cantidad de hilos de ejecución usados. Las calidades de servicio (QoS por sus siglas en inglés) usadas para este fin son: (1) tiempo de ejecución percibido por el usuario y (2) nivel de paralelismo. Otras contribuciones de esta tesis son: - Diseño e implementación de una novedosa solución a la separación de asuntos en los patrones de paralelismo usando técnicas de la programación dirigida por eventos. Esta solución novedosa permite la introducción de asuntos no-funcionales a los patrones de paralelismo sin disminuir sus abstracciones de alto nivel. - Evaluación de diferentes estrategias de estimación de trabajo futuro con el fin de realizar recomendaciones relacionadas a responder a la pregunta ¿Qué estrategia produce mejores estimados bajo qué circunstancias?
Enfedaque, Montes Pablo. "GPU Architectures for Wavelet-based Image Coding Acceleration." Doctoral thesis, Universitat Autònoma de Barcelona, 2017. http://hdl.handle.net/10803/405310.
Full textLos sistemas de codificación de imágenes modernos utilizan técnicas con altos requisitos de cómputo para lograr comprimir imágenes de manera eficiente. Los codecs de imágenes son a menudo utilizados en aplicaciones que requieren procesamiento en tiempo real, en cuyos casos es común utilizar hardware especializado como, por ejemplo, Field-Programmable Gate Arrays (FGPAs) o Application-Specific Integrated Circuits (ASICs). No obstante, las GPUs tienen una arquitectura altamente paralela orientada a rendimiento que representa una alternativa atractiva en comparación con el hardware dedicado. Son reprogramables, energéticamente eficientes, se pueden encontrar en la mayoría de sistemas y, por encima de todo, ofrecen un rendimiento computacional muy competitivo. Los sistemas de codificación de imágenes basados en wavelet son aquellos que utilizan algún tipo de transformada wavelet antes de la etapa de codificación de datos. JPEG2000 es el sistema de codificación de imágenes basados en wavelet más representativo. Muchos proyectos de investigación han intentado desarrollar implementaciones en GPU de JPEG2000, con el objetivo de acelerar el sistema de codificación. Aunque algunas etapas del sistema son adecuadas para la computación en GPUs, la etapa de codificación de datos no expone suficiente paralelismo de granularidad fina. La codificación de datos es, además, la etapa que requiere más recursos de cómputo (supone un 75% del tiempo total de ejecución) y representa, por lo tanto, el cuello de botella del sistema. La investigación presentada en esta tesis se centra en la computación en GPU de las etapas más críticas de los sistemas de codificación de imágenes basados en wavelet: la transformada wavelet y la etapa de codificación de datos. Ésta tesis presenta tres contribuciones principales: la primera es una implementación de la Transformada Discreta Wavelet acelerada utilizando GPUs. La implementación propuesta ofrece un rendimiento computacional hasta 4 veces mayor, con respecto a las anteriores soluciones en el estado del arte; la segunda, es el análisis y reformulación de la etapa de codificación de datos de JPEG2000. Se propone un nuevo motor de codificación de alto rendimiento compatible con sistemas de cómputo paralelo: Bitplane Image Coding with Parallel Coefficient Processing (BPC-PaCo). BPC-PaCo reformula los mecanismos de la codificación de datos sin renunciar a ninguna de las funcionalidades avanzadas de los sistemas de codificación tradicionales; la última contribución de esta tesis presenta una implementación optimizada en GPU de BPC-PaCo. Se compara su rendimiento con las implementaciones de JPEG2000 más competitivas, tanto en CPU como en GPU, y se demuestra como BPC-PaCo consigue mejoras en tiempos de ejecución de hasta 30x respecto las implementaciones más rápidas.
Modern image coding systems employ computationally demanding techniques to achieve image compression. Image codecs are often used in applications that require real-time processing, so it is common in those scenarios to employ specialized hardware, such as Field-Programmable Gate Arrays (FPGAs) or Application-Specific Integrated Circuits (ASICs). GPUs are throughput-oriented, highly parallel architectures that represent an interesting alternative to dedicated hardware. They are software re-programmable, widely available, energy efficient, and they offer very competitive peak computational performance. Wavelet-based image coding systems are those that employ some kind of wavelet transformation before the data coding stage. Arguably, JPEG2000 is the most representative of those systems. Many research projects have tried to develop GPU implementations of JPEG2000 to speed up the coding pipeline. Although some stages of the pipeline are very suitable for GPU computing, the data coding stage does not expose enough fine-grained parallelism. Data coding is the most computationally demanding stage (75% of the total execution time) and represents the bottleneck of the pipeline. The research presented in this thesis focuses on the GPU computing of the most critical stages of wavelet-based image coding systems: the wavelet transform and the data coding stage. This thesis proposes three main contributions. The first is a GPU-accelerated implementation of the Discrete Wavelet Transform. The proposed implementation achieves speedups up to 4x with respect to the previous state-of-the-art GPU solutions. The second contribution is the analysis and reformulation of the data coding stage of JPEG2000. We propose a new parallel-friendly high performance coding engine: Bitplane Image Coding with Parallel Coefficient Processing (BPC-PaCo). BPC-PaCo reformulates the mechanisms of data coding, without renouncing to any of the advanced features of traditional data coding. The last contribution of this thesis presents an optimized GPU implementation of BPC-PaCo. It compares its performance with the most competitive JPEG2000 implementations in both CPU and GPU, revealing speedups up to 30x with respect to the fastest implementation.
Alonso, Ábalos José Miguel. "Computación Avanzada en Problemas Estáticos y Dinámicos de Gran Dimensión: Aplicación al Cálculo de Estructuras." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/61974.
Full text[ES] El trabajo realizado en esta tesis doctoral ha consistido en la aplicación de la Computación de Altas Prestaciones, las Tecnologías Grid y las Tecnologías Cloud al cálculo estático y dinámico lineal de estructuras de edificación e ingeniería civil mediante el método de los elementos finitos. Gracias a la eficiencia de los métodos numéricos actuales, plasmados en librerías numéricas de dominio público, y a la disponibilidad de librerías de comunicación y sincronización entre los elementos de proceso, bien sea mediante paso de mensajes o por memoria compartida, la aplicación de la Computación de Altas Prestaciones al cálculo estructural ha permitido llevar a cabo un análisis riguroso y realista de estructuras de gran dimensión y complejidad, con unos tiempos de respuesta razonablemente reducidos. Además de utilizar librerías numéricas paralelas de dominio público (dedicadas a la resolución de sistemas de ecuaciones lineales mediante métodos directos con MUMPS, PaStiX y PARDISO o métodos iterativos con PETSc y hypre o la resolución del problema de valores propios generalizado con SLEPc) se ha empleado el paradigma de programación paralela multinivel, el cual combina el desarrollo de algoritmos mediante MPI y OpenMP, a fin de garantizar la portabilidad y obtener las mejores prestaciones en distintos sistemas operativos, como Linux y Windows, sobre diferentes plataformas computacionales paralelas. El cálculo estático se ha llevado a cabo mediante el Método de la Rigidez, donde se han paralelizado las diferentes etapas que lo componen. En el caso del análisis dinámico, la ecuación dinámica de segundo orden se ha resuelto mediante la paralelización de numerosos métodos de integración directa, así como mediante técnicas de análisis modal, superposición modal y análisis modal espectral. En el caso concreto del análisis modal espectral, se han paralelizado un amplio número de métodos de combinación modal de los resultados, acompañados de distintas técnicas de combinación direccional y diferentes alternativas que intentan proporcionar el signo de los resultados. Con el objetivo de que dicha aplicación paralela desarrollada pueda estar a disposición de una amplia comunidad de arquitectos e ingenieros estructurales, se han implementado y desplegado sendos servicios Grid y Cloud que ofrecen un análisis estructural por internet seguro, fiable y de alta productividad bajo una arquitectura orientada a servicio. Dichos servicios integran componentes, como GMarte, para la planificación de tareas, la recogida de resultados y la tolerancia a fallos en plataformas Grid o incorporan los desarrollos del proyecto europeo VENUS-C, para el despliegue del servicio sobre Microsoft Azure o sobre una infraestructura Cloud ''on-premise'' gestionada por COMPSs. La competitividad demostrada por el simulador estructural en sus tiempos de respuesta, inclusive a nivel secuencial, con respecto a otros paquetes software disponibles y ampliamente utilizados, ha dado lugar a su incorporación en diferentes aplicaciones. Bajo un entorno de carácter investigador, forma parte de un sistema de optimización estructural, en colaboración con el departamento de Mecánica de los Medios Continuos y Teoría de Estructuras (DMMCTE) de la UPV. En un ámbito profesional, el simulador se ha incorporado en dos aplicaciones comerciales. Por un lado en Architrave, una aplicación de cálculo estático y dinámico estructural, desarrollada por la UPV y con más de 3550 usuarios, dotada de un atractivo interfaz gráfico que se distribuye por parte de la empresa Preference. A nivel profesional, Architrave se ha descargado en 22 países y cuenta, a nivel académico, con alumnos y profesores de 54 universidades de 8 países diferentes. Adicionalmente, la empresa Preference ha incorporado la versión estática del simulador a su producto PrefSuite, un paquete software comercializado a nivel mundial en el ámbito de la carpint
[CAT] El treball realitzat en aquesta tesi doctoral ha consistit en l'aplicació de la Computació d'Altes Prestacions, les Tecnologies Grid i les Tecnologies Cloud al càlcul estàtic i dinàmic lineal d'estructures d'edificació i enginyeria civil mitjançant el mètode dels elements finits. Gràcies a l'eficiència dels mètodes numèrics actuals, plasmats en llibreries numèriques de domini públic, i a la disponibilitat de llibreries de comunicació i sincronització entre els elements de procés, bé siga mitjançant pas de missatges o per memòria compartida, l'aplicació de la Computació d'Altes Prestacions al càlcul estructural ha permès dur a terme una anàlisi rigorosa i realista d'estructures de gran dimensió i complexitat, amb uns temps de resposta raonablement reduïts. A més d'utilitzar llibreries numèriques paral·leles de domini públic (dedicades a la resolució de sistemes d'equacions lineals mitjançant mètodes directes amb MUMPS, PaStiX i PARDISO o mètodes iteratius amb PETSc i hypre o la resolució del problema de valors propis generalitzat amb SLEPc) s'ha emprat el paradigma de programació paral·lela multinivell, el qual combina el desenvolupament d'algorismes mitjançant MPI i OpenMP, a fi de garantir la portabilitat i obtenir les millors prestacions en diferents sistemes operatius, com Linux i Windows, sobre diferents plataformes computacionals paral·leles. El càlcul estàtic s'ha dut a terme mitjançant el Mètode de la Rigidesa, on s'han paral·lelitzat les diferents etapes que ho componen. En el cas de l'anàlisi dinàmica, l'equació dinàmica de segon ordre s'ha resolt mitjançant la paral·lelització de nombrosos mètodes d'integració directa, així com mitjançant tècniques d'anàlisi modal, superposició modal i anàlisi modal espectral. En el cas concret de l'anàlisi modal espectral, s'ha paral·lelitzat un ampli nombre de mètodes de combinació modal dels resultats, junt amb de diferents tècniques de combinació direccional i diferents alternatives que intenten proporcionar el signe dels resultats. Amb l'objectiu que aquesta aplicació paral·lela desenvolupada puga estar a la disposició d'una àmplia comunitat d'arquitectes i enginyers estructurals, s'han implementat i desplegat sengles serveis Grid i Cloud que ofereixen una anàlisi estructural per internet segur, fiable i d'alta productivitat sota una arquitectura orientada a servei. Aquests serveis integren components, com GMarte, per a la planificació de tasques, la recollida de resultats i la tolerància a fallades en plataformes Grid o incorporen els desenvolupaments del projecte europeu VENUS-C, per al desplegament del servei sobre Microsoft Azure o sobre una infraestructura Cloud 'on-premise'' gestionada per COMPSs. La competitivitat demostrada pel simulador estructural en els seus temps de resposta, inclòs a nivell seqüencial, pel que fa a altres paquets de programari disponibles i àmpliament utilitzats, ha donat lloc a la seua incorporació en diferents aplicacions. Sota un entorn de caràcter investigador, forma part d'un sistema d'optimització estructural, en col·laboració amb el departament de Mecànica dels Mitjans Continus i Teoria d'Estructures (DMMCTE) de la UPV. En un àmbit professional, el simulador s'ha incorporat en dues aplicacions comercials. D'una banda en Architrave, una aplicació de càlcul estàtic i dinàmic estructural, desenvolupada per la UPV i amb més de 3550 usuaris, dotada d'una atractiva interfície gràfica que es distribueix per part de l'empresa Preference. A nivell professional, Architrave s'ha descarregat en 22 països i compta, a nivell acadèmic, amb alumnes i professors de 54 universitats de 8 països diferents. Addicionalment, l'empresa Preference ha incorporat la versió estàtica del simulador al seu producte PrefSuite, un paquet software comercialitzat a nivell mundial en l'àmbit de la fusteria metàl·lica i el càlcul estructural en 3D de murs cortina.
Alonso Ábalos, JM. (2016). Computación Avanzada en Problemas Estáticos y Dinámicos de Gran Dimensión: Aplicación al Cálculo de Estructuras [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61974
TESIS
Premiado
Alvarruiz, Bermejo Fernando. "Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas Prestaciones." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/61764.
Full text[ES] La simulación por computador de las redes de distribución de agua potable, mediante el uso de modelos matemáticos, es hoy en día una herramienta indispensable para el diseño y la explotación de dichas redes. La simulación se utiliza tanto en el diseño de nuevos abastecimientos y en ampliaciones o modificaciones de abastecimientos existentes, como en las tareas de operación normales de cualquier red. Se puede diferenciar entre dos tipos de simulación: la simulación hidráulica, que permite obtener las presiones y caudales que se registran en la red, y la simulación de la calidad del agua, cuyo objetivo es obtener información sobre concentraciones de sustancias químicas. A menudo la necesidad de simulación surge dentro de un problema más amplio de optimización o de análisis de fiabilidad, que requiere llevar a cabo un gran número de simulaciones, con lo que el proceso completo resulta de una complejidad computacional considerable. Esto, añadido al hecho de que el tamaño y nivel de detalle de los modelos de redes crece constantemente, como consecuencia de la incorporación automática de datos contenidos en Sistemas de Información Geográfica, hace que las prestaciones del solver de simulación tengan un gran impacto en el tiempo total de cálculo necesario. En este contexto, esta tesis considera y explora distintas vías para mejorar las prestaciones de la simulación de redes de distribución de agua. La primera de estas vías consiste en realizar algunas aportaciones al método de simulación hidráulica conocido como método de Newton-Raphson de mallas, el cual se basa en la consideración de caudales correctores asociados a un conjunto de mallas independientes definidas sobre la red. Aunque el método conocido como Algoritmo del Gradiente Global (GGA) goza de mayor aceptación, el método de mallas tiene el potencial de ser más rápido, debido al menor tamaño de los sistemas lineales subyacentes. Esta tesis presenta aportaciones para mejorar las prestaciones del método de mallas de simulación hidráulica. En primer lugar, se desarrollan algoritmos eficientes para la selección de un conjunto de mallas adecuado, que conduzca a un sistema altamente disperso. En segundo lugar se desarrollan métodos para la modelización eficiente de válvulas, y especialmente válvulas reductoras/sostenedoras de presión. La segunda vía explorada es la introducción de la computación de altas prestaciones en la simulación hidráulica usando plataformas de memoria distribuida. En particular, se parte del código de Epanet, un software de simulación de redes de amplia aceptación, y se introducen en él algoritmos paralelos de simulación, usando la herramienta Message Passing Interface (MPI) para la comunicación entre procesos. Como resultado de ello, se presenta en primer lugar un algoritmo paralelo para la simulación de caudales y presiones por medio del método GGA, haciendo uso de algoritmos multifrontales para la resolución paralela de los sistemas lineales subyacentes. En segundo lugar, se describe un algoritmo paralelo para la simulación de la calidad del agua mediante el Método de Elementos Discretos de Volumen (DVEM), particionando la red por medio de algoritmos de bisección recursiva multinivel. En tercer lugar, se presenta un método paralelo para la minimización de fugas mediante la determinación de las consignas óptimas de una serie de válvulas reductoras de presión. Finalmente, la tercera vía explorada es el desarrollo de algoritmos paralelos sobre memoria compartida para la simulación de presiones y caudales. Se considera con ello un tipo de plataformas que han ganado popularidad en los últimos años. Se utiliza la herramienta OpenMP para la paralelización, tanto de Epanet y de su implementación del método GGA, como del método de mallas, con las aportaciones al mismo que se han realizado en el contexto de esta tesis.
[CAT] La simulació per computador de les xarxes de distribució d'aigua potable, per mitjà de l'ús de models matemàtics, es hui en dia una ferramenta indispensable per al disseny i l'explotació d'abastiments d'aigua. La simulació s'utilitza tant per al disseny de nous abastiments o ampliacions i modificacions d'abastiments existents, com per a les tasques d'operació normals en qualsevol xarxa. Es pot diferenciar entre dos tipus de simulació: la simulació hidràulica, que permet obtindre les pressions i cabals que es produeixen en la xarxa, i la simulació de la qualitat de l'aigua, l'objectiu de la qual és obtindre informació sobre concentracions de substàncies químiques. Sovint la necessitat de simulació sorgeix dins d'un problema més ampli d'optimització o d'anàlisi de fiabilitat, que requereix dur a terme un gran nombre de simulacions, amb la qual cosa el procés complet resulta d'una complexitat computacional considerable. Això, afegit al fet de que la grandària i nivell de detall del models de xarxes creix constantment, com a conseqüència de la incorporació automàtica de dades contingudes en Sistemes d'Informació Geogràfica, fa que les prestacions del solver de simulació tinguen un gran impacte en el temps total de càlcul necessari. En este context, esta tesi considera i explora diferents vies per a millorar les prestacions de la simulació de xarxes de distribució d'aigua. La primera d'estes vies consisteix en realitzar algunes contribucions al mètode de simulació hidràulica conegut com mètode de Newton-Raphson de malles (o simplement mètode de malles), el qual es basa en la consideració de cabals correctors associats a un conjunt de malles independents definides en la xarxa. Encara que el mètode conegut com Algorisme del Gradient Global (GGA) gaudeix de major acceptació, el mètode de malles té el potencial de ser més ràpid, degut a la menor grandària dels sistemes lineals subjacents. En esta tesi es presenten contribucions per a millorar les prestacions del mètode de malles de simulació hidràulica. En concret, en primer lloc es desenvolupen algorismes eficients per a la selecció d'un conjunt de malles adequat, que conduïsca a un sistema lineal altament dispers. En segon lloc es desenvolupen mètodes per a la modelització eficient de vàlvules, i especialment vàlvules reductores/sostenidores de pressió. La segona via explorada és la introducció de la computació d'altes prestacions en la simulació hidràulica utilitzant plataformes de memòria distribuïda. En concret, es parteix del codi d'Epanet, un programari de simulació de xarxes de distribució d'aigua d'amplia acceptació, i s'hi introdueixen algorismes paral·lels de simulació, utilitzant la ferramenta Message Passing Interface (MPI) per a la comunicació entre processos. Com a resultat d'este treball, es presenta en primer lloc un algorisme paral·lel per a la simulació de cabals i pressions per mitjà del mètode GGA, fent ús d'algorismes multifrontals per a la resolució en paral·lel dels sistemes lineals subjacents. En segon lloc, es descriu un algorisme paral·lel per a la simulació de la qualitat d'aigua amb el Mètode d'Elements Discrets de Volum (DVEM), particionant la xarxa per mitjà d'algoritmes de bisecció recursiva multinivell. En tercer lloc es presenta un mètode paral·lel per a la minimització de fugues mitjançant la determinació de les consignes òptimes d'una sèrie de vàlvules reductores de pressió. Finalment, la tercera via explorada és el desenvolupament d'algorismes paral·lels sobre memòria compartida per a la simulació de pressions i cabals. Es considera amb això un tipus de plataformes que han guanyat popularitat en els últims anys. S'utilitza la ferramenta OpenMP per a la paral·lelització, tant del programari Epanet i de la seua implementació del mètode GGA, com del mètode de malles, amb les contribucions al mateix que s'han realitzat en el context d'esta tesi.
Alvarruiz Bermejo, F. (2016). Reducción del Tiempo de Simulación de Redes de Distribución de Agua, mediante el Método de Mallas y la Computación de Altas Prestaciones [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61764
TESIS
Romero, Gómez Verónica. "Multimodal Interactive Transcription of Handwritten Text Images." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/8541.
Full textRomero Gómez, V. (2010). Multimodal Interactive Transcription of Handwritten Text Images [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8541
Palancia
Artés, Vivancos Tomàs. "Multi-core hybrid architectures applied to forest fire spread prediction." Doctoral thesis, Universitat Autònoma de Barcelona, 2015. http://hdl.handle.net/10803/311111.
Full textLos incendios forestales son un tipo de catástrofe natural que representa un gran reto para sociedad debido a sus elevados costes económicos y humanos. Con el objetivo de evitar los costes derivados de dicho desastre natural y mejorar la extinción de éstos, los simuladores de propagación de incendios se pueden utilizar para intentar anticipar el comportamiento del incendio y ayudar a conseguir una extinción del incendio más eficiente y segura. Cuando se propociona una predicción de la propagación de un incendio forestal existen dos elementos clave: la precisión y el tiempo necesario para computar la predicción. Bajo el contexto de la simulación de desastres naturales, es bien conocido que parte del error de la predicción está sujeta a la incertidumbre en los datos de entrada utilizados por el simulador. Por esta razón, la comunidad científica ha creado distintos métodos de calibración para reducir la incertidumbre de los datos de entrada y así mejorar el error de la predicción. En este trabajo se utiliza una metodología de calibración basada en dos etapas que ha sido probada en trabajos previos con buenos resultados. Este método de calibración implica una necesidad considerable de recursos computacionales y eleva el tiempo de cómputo debido al uso de un Algoritmo Genético como método de búsqueda de los mejores datos de entrada del simulador. Se debe tener en cuenta las restricciones de tiempo bajo las que trabaja un sistema de predicción de incendios. Es necesario mantener un equilibrio adecuado entre precisión y tiempo de cómputo utilizado para poder proporcionar una buena predicción a tiempo. Para poder utilizar la técnica de calibración mencionada, se debe solucionar el problema que representa que algunas soluciones sean inviables debido a que implican tiempos de ejecución muy largos, lo que puede impedir que se pueda dar respuesta a su debido tiempo en un supuesto contexto operacional. La presente Tesis Doctoral utiliza las arquitecturas multi-core con el objetivo de acelerar el método de calibración basado en dos etapas y poder proporcionar una predicción bajo tiempos de entrega que se darían en un contexto real. Por esta razón, se define una política de asignación de núcleos basada en el tiempo disponible de ejecución . Esta política de asignación asignará un número determinado de recursos a una determinada simulación previamente a ser ejecutada. La política de asignación se basa en árboles de decisión creados con los parametros de simulación n utilizados. Sin embargo, se proponen dos métodos para aquellos casos donde el algoritmo genético tienda a crear individuos cuyo tiempo de ejecución provocan que sea imposible acabar la calibración a tiempo: Re-TAC y Soft-TAC. La propuesta ReTAC utiliza la resolución de las simulaciones para solucionar el problema. En concreto, Re-TAC trata de encontrar la mínima reducción de la resolución que permita que aquellas simulaciones que son demasiado largas puedan ser ejecutadas manteniendo la precisión bajo control. Por otro lado, Soft-TAC utiliza poblaciones de tama˜no dinámico. Es decir, los individuos no se matan al alcanzar el límite de timepo de ejecución asignado a una generación del Algoritmo Genético, sino que se permite la ejecución simultanea de individuos de distintas generaciones haciendo que el tamaño de la población sea dinámico. Todas la estrategias de predicción propuestas han sido probadas con casos reales obteniendo resultados satisfactorios en términos de precisión y de tiempo de cómputo utilizado.
Large forest fires are a kind of natural hazard that represents a big threat for the society because it implies a significant number of economic and human costs. To avoid major damages and to improve forest fire management, one can use forest fire spread simulators to predict fire behaviour. When providing forest fire predictions, there are two main considerations: accuracy and computation time. In the context of natural hazards simulation, it is well known that part of the final forecast error comes from uncertainty in the input data. For this reason several input data calibration methods have been developed by the scientific community. In this work, we use the Two-Stage calibration methodology, which has been shown to provide good results. This calibration strategy is computationally intensive and timeconsuming because it uses a Genetic Algorithm as an optimization strategy. Taking into account the aspect of urgency in forest fire spread prediction, we need to maintain a balance between accuracy and the time needed to calibrate the input parameters. In order to take advantage of this technique, we must deal with the problem that some of the obtained solutions are impractical, since they involve simulation times that are too long, preventing the prediction system from being deployed at an operational level. This PhD Thesis exploits the benefits of current multi-core architectures with the aim of accelerating the Two-Stage forest fire prediction scheme being able to deliver predictions under strict real time constraints. For that reason, a Time-Aware Core allocation (TAC) policy has been defined to determine in advance the more appropriate number of cores assigned to a given forest fire spread simulation. Each execution configuration is obtained considering the particular values of the input data needed for each simulation by applying a dynamic decision tree. However, in those cases where the optimization process will drive the system to solutions whose simulation time will prevent the system to finish on time, two different enhanced schemes have been defined: Re-TAC and Soft-TAC. Re-TAC approach deals with the resolution of the simulation. In particular, Re-TAC finds the minimum resolution reduction for such long simulations, keeping accuracy loss to a known interval. On the other hand, Soft-TAC considers the GA's population size as dynamic in the sense that none individual will be killed for over passing the internal generations deadline, but it will be keep executing and the population size for the subsequent GA's generation is modified according to that. All proposed prediction strategies have been tested with past real cases obtaining satisfactory results both in terms of prediction accuracy and in the time required to deliver the prediction.
Montañola, Lacort Alberto. "The pairwise problem with High Performance Computing Systems, contextualized as a key part to solve the Multiple Sequence Alignment problem." Doctoral thesis, Universitat de Lleida, 2016. http://hdl.handle.net/10803/385282.
Full textEl alineamiento múltiple de secuencias (MSA), como reto dentro de la bioinformática, es un elemento clave para entender el funcionamiento del genoma. Este consiste en alinear en un tiempo óptimo esta secuencias garantizando un nivel de calidad. Este problema es un reto de computo de altas prestaciones debido a los altos requerimientos de memoria y computo. Se han estudiado diferentes implementaciones, las cuales se comparan y se presentan en esta investigación. Hemos contribuido en la mejora de los primeros pasos del problema MSA de diversas formas. Con el objetivo de reducir el tiempo de cálculo y el uso de memoria, adaptamos T-Coffee para trabajar en paralelo con el uso de hilos ligeros. Seguidamente, hemos desarrollado un método de alineación de pares en paralelo, con una asignación eficiente de secuencias a nodos. Finalmente se presenta un método para determinar la cantidad mínima de recursos del sistema, necesarios para resolver el problema de un tamaño determinado, para poder configurar el sistema para un uso eficiente.
The multiple sequence alignment (MSA), as a challenge in bioinformatics, becomes a key element for understanding the inner working of the genome. This consists on aligning these sequences in an optimal time, with a good level of quality. This problem is a challenge for the high performance computing, because of the high memory and processing requirements. Different implementations were studied, which are being compared and presented on this thesis. We have contributed in the improvement of the first steps of the MSA problem in different ways. With the goal of reducing the computing time and the memory usage, we adapted T-Coffee for working in parallel with the usage of threads. Furthermore, we have developed a pair-wise sequence alignment method, with an efficient mapping of sequences to nodes. Finally, we are presenting the method for determining the minimal amount of resources, required for solving the problem of a determined size, in order to configure the system for an efficient use.
Bou, Soler Vicente. "Optimización en tiempo real del modo de operación de un abastecimiento de agua mediante técnicas metaheurísticas. Aplicación a la RED de suministro a Valencia y su área metropolitana." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/62692.
Full text[ES] Con el aumento de precios de la energía, el coste de la energía eléctrica utilizada por los sistemas de bombeo representa la mayor parte del coste total de la operación en los sistemas de distribución de agua. Por esta razón, y porque los precios de la energía son variables hora a hora, es necesario un control óptimo en tiempo real del régimen de operación de las estaciones de bombeo y el régimen de regulación de las válvulas, con el fin de minimizar los costes energéticos y al mismo tiempo controlar las presiones en la red. Para alcanzar este objetivo es necesario definir un modelo de optimización que dé como resultado un escenario de operación viable. Por otra parte, los modelos de simulación hidráulica permiten realizar el seguimiento del régimen de operación diaria de una red de abastecimiento de agua, y su integración en un sistema SCADA constituyen una herramienta de valiosa ayuda para la toma de decisiones. Para ello el modelo matemático deberá estar calibrado y permanentemente actualizado. Finalmente para llevar a cabo un control óptimo en tiempo real es necesario definir un modelo de previsión de demanda que permita anticipar el estado de la red para las próximas 24 horas. La presente tesis presenta una metodología de operación óptima en tiempo real de una red hidráulica basada en el desarrollo de una plataforma que permite la integración de modelos de simulación, los modelos de predicción y los algoritmos de optimización con los sistemas SCADA. Con vistas a realizar una optimización en tiempo real lo más ajustada a la realidad se ha adoptado un modelo de previsión de demanda basado en patrones históricos procedentes de los datos de consumos obtenidos a través del propio sistema SCADA. Finalmente se ha desarrollado un módulo de optimización para minimizar los costes energéticos del sistema de bombeo, el cual, consta básicamente de dos bloques. En el primer bloque el objetivo ha sido optimizar el régimen de operación de las bombas mediante un modelo por programación lineal con el objetivo de minimizar los costes de operación manteniendo los niveles en los depósitos dentro del rango prefijado. En el segundo bloque, una vez definido el estado de operación de las bombas, se han optimizado las consignas de las válvulas de regulación, consideradas como válvulas reductoras de presión, con tal de satisfacer la demanda total prevista cumpliendo las restricciones de presión máxima y mínima del sistema, de acuerdo con la operación de las bombas. Como una aportación importante de la tesis, a la hora de realizar las simulaciones hidráulicas de las diferentes soluciones propuestas por el optimizador, se ha sustituido el simulador hidráulico por un modelo equivalente basado en una arquitectura de red neuronal paralelizada (ANN), el cual permite reducir significativamente el tiempo de cálculo, aspecto de gran importancia cuando se trata de implantar un sistema de optimización en tiempo real. La metodología propuesta ha sido aplicada sobre la red a abastecimiento de agua a Valencia y su área metropolitana, considerando los bloques de tarifas eléctricas vigentes para el caso de estudio. La tesis doctoral presenta unos resultados que prueban la efectividad del modelo propuesto en la búsqueda de estrategias de operación viables para ser aplicado sobre un sistema de distribución de agua real compuesta por dos estaciones de bombeo, varios depósitos, y diversas válvulas de regulación motorizadas, en la que se han podido omitir muchos de los componentes físicos del sistema mediante el uso de una arquitectura ANN, pero sin perder de vista los puntos críticos donde se han establecido las restricciones del presión. La reducción del consumo eléctrico alcanzado, pone de manifiesto la importancia del modelo de optimización como instrumento de mejora de la eficiencia energética del sistema.
[CAT] Amb l'augment de preus de l'energia, el cost de l'energia elèctrica utilitzada pels sistemes de bombament representa la major part del cost total de l'operació en els sistemes de distribució d'aigua. Per esta raó, i perquè els preus de l'energia són variables hora a hora, és necessari un control òptim en temps real del règim d'operació de les estacions de bombament i el règim de regulació de les vàlvules, a fi de minimitzar els costos energètics i al mateix temps controlar les pressions en la xarxa. Per a aconseguir este objectiu és necessari definir un model d'optimització que done com resultat un escenari d'operació viable. D'altra banda, els models de simulació hidràulica permeten realitzar el seguiment del règim d'operació diària d'una xarxa d'abastiment d'aigua, i la seua integració en un sistema SCADA contituyen una ferramenta de valuosa ajuda per a la presa de decisions. Per això el model matemàtic haurà d'estar calibrat i permanentment actualitzat. Finalment per a dur a terme un control òptim en temps real és necessari definir un model de previsió de la demanda que permeta anticipar l'estat de la xarxa per a les pròximes 24 hores. La present tesi presenta una metodologia d'operació òptima en temps real d'una xarxa hidràulica basada en el desenrotllament d'una plataforma que permet la integració de models de simulació, els models de predicció i els algoritmes d'optimització amb els sistemes SCADA. Amb vista a realitzar una optimització en temps real el més ajustada a la realitat s'ha adoptat un model de previsió de demanda basat en patrons històrics procedents de les dades de consums obtinguts a través del propi sistema SCADA. Finalment s'ha desenvolupat un mòdul d'optimització per minimitzar els costos energètics del sistema de bombament, el qual, consta bàsicament de dos blocs. En el primer bloc l'objectiu ha estat optimitzar el règim d'operació de les bombes mitjançant un model per programació lineal amb l'objectiu de minimitzar els costos d'operació mantenint els nivells en els dipòsits dins del rang prefixat. En el segon bloc, un cop definit l'estat d'operació de les bombes, s'han optimitzat les consignes de les vàlvules de regulació, considerades com vàlvules reductores de pressió, per tal de satisfer la demanda total prevista complint les restriccions de pressió màxima i mínima del sistema, d'acord amb l'operació de les bombes. Com una aportació important de la tesi, a l'hora de realitzar les simulacions hidràuliques de les diferents solucions proposades per l'optimitzador, s'ha substituït el simulador hidràulic per un model equivalent basat en una arquitectura de xarxa neuronal paralelizada (ANN), el qual permet reduir significativament el temps de càlcul, aspecte de gran importància quan es tracta d'implantar un sistema d'optimització en temps real. La metodologia proposada ha sigut aplicada sobre la xarxa a abastiment d'aigua a València i la seua àrea metropolitana, considerant els blocs de tarifes elèctriques vigents per al cas d'estudi. La tesi doctoral presenta uns resultats que proven l'efectivitat del model proposat en la busca d'estratègies d'operació viables per a ser aplicat sobre un sistema de distribució d'aigua real composta per dos estacions de bombament, uns quants depòsits, i diverses vàlvules de regulació motoritzades, en la que s'han pogut ometre molts dels components físics del sistema per mitjà de l'ús d'una arquitectura ANN, però sense perdre de vista els punts crítics on s'han establit les restriccions del pressió. La reducció del consum elèctric aconseguit, posa de manifest la importància del model d'optimització com a instrument de millora de l'eficiència energètica del sistema.
Bou Soler, V. (2016). Optimización en tiempo real del modo de operación de un abastecimiento de agua mediante técnicas metaheurísticas. Aplicación a la RED de suministro a Valencia y su área metropolitana [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62692
TESIS
Rodríguez, García Javier. "Metodología para la optimización del beneficio de la respuesta de la demanda en consumidores industriales: caracterización por procesos y aplicación." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/165574.
Full text[CA] En l'actualitat, existeix una creixent necessitat de canviar el model energètic global basat en combustibles fòssils per un model cent per cent renovable, procés conegut com a transició energètica. Per a dur-ho a terme, és important tindre en compte que la majoria dels recursos de generació renovables no són gestionables i presenten una forta variabilitat en la seua producció d'energia difícilment predictible, la qual cosa fa necessari que el sistema elèctric haja de ser més flexible per a poder operar-se de manera segura. D'altra banda, les tecnologies de la informació i la comunicació han evolucionat ràpidament a conseqüència del procés de digitalització i dels continus desenvolupaments en aquest camp, la qual cosa ha permés a sectors com l'elèctric evolucionar cap a nous models més avançats com les xarxes intel·ligents. Tots aquests canvis fan que la resposta de la demanda (capacitat de modificar la manera de consumir energia en funció d'un senyal extern) puga oferir-se com un recurs valuós als operadors del sistema elèctric, permetent als consumidors més actius tindre una oportunitat per a reduir el seu cost energètic, podent ser més competitius i ajudar en la transició energètica. La present tesi doctoral té com a objectiu general el desenvolupament d'una metodologia i de les ferramentes de suport necessàries que permet fonamentalment plantejar solucions destinades a la resolució de les barreres més importants en relació amb la participació dels recursos flexibles en l'operació del sistema elèctric. Addicionalment, permeten determinar l'estratègia òptima de participació de grans i mitjans consumidors en productes i mercats en els quals els recursos flexibles siguen econòmicament competitius i tècnicament fiables. Aquest objectiu general s'ha abordat mitjançant el compliment de quatre objectius específics, que s'han traduït en la realització d'un conjunt de models, metodologies i ferramentes que donen compliment a cadascun d'ells. En aquest sentit, la tesi s'ha dividit en quatre desenvolupaments interrelacionats a partir dels seus resultats. En primer lloc, s'ha proposat una nova arquitectura conceptual del sistema elèctric per a integrar els futurs mercats d'electricitat, destinada a establir un marc de referència més adequat per a l'explotació dels recursos energètics distribuïts i de demanda. En segon lloc, s'ha elaborat una metodologia per a l'estandardització i validació dels recursos flexibles que poden oferir els consumidors, i que podria servir com a base per a la creació d'un procés de certificació de productes de demanda. En tercer lloc, s'ha desenvolupat una primera ferramenta de planificació a mitjà termini que, partint de la caracterització i avaluació tecnicoeconòmica dels recursos flexibles obtinguda amb la metodologia anterior, permet ajudar als mateixos consumidors a avaluar la rendibilitat associada a les diferents estratègies de participació en un mercat d'operació específic utilitzant els seus processos de consum flexibles. Finalment, s'ha dut a terme una segona ferramenta destinada a optimitzar la programació de l'operació per a l'endemà dels recursos de demanda d'un determinat consumidor participant en un mercat prèviament seleccionat a partir dels resultats de la ferramenta anterior i, per tant, oferint-li en definitiva el suport tècnic i les ferramentes necessàries per a maximitzar el benefici associat a aquesta participació. Les metodologies i ferramentes desenvolupades han sigut validades mitjançant la seua aplicació a un cas d'estudi compost per tres consumidors industrials que pertanyen a segments amb una elevada replicabilitat a Europa (indústria paperera, indústria del sector carni i centre logístic de producte refrigerat). Els resultats de la tesi permeten afirmar que s'ha realitzat un pas rellevant dins de la investigació en aquest camp per tal d'ajudar a la implantació de sistemes d'energia elèctrica sosteni
[EN] The ever-increasing need for electricity in our global and advanced society, along with the requirements to preserve the environment, have forced a fast growth of the use of primary renewable sources to produce it. The process of replacing the current fossil primary sources with renewable ones to produce electricity is known as the "Energy Transition". This transition is conditioned for the highly volatile, intermittent, and unpredictable nature of renewable energy sources. In this sense, two options exist to ensure the security of supply in power systems with a high share of renewable generation: either very robust, redundant, and expensive electricity systems with overcapacity or an electricity system with new and enhanced flexibility resources. Fortunately, relevant and advanced parallel developments in the technology, mainly in the control, information and communication fields have allowed the digitalization of the electricity supply systems towards the "smart grid" paradigm. One of the pillars of smart grids is the opportunity that arises for energy consumers to reduce the cost of their energy bill by modifying the electricity consumption. According to external inputs (e.g. prices), consumers can provide to energy markets and system operators competitive "Demand Response Resources" (DRR) that will significantly enhance the required system flexibility to facilitate the transition to a decarbonized system. The thesis's main objective is to develop a new methodology as well as the necessary associated models and tools to overrun the main barriers that prevent the participation of large and medium electricity consumers in the electricity supply activities. Additionally, these tools allow determining the optimal strategy for the participation of large and medium electricity consumers in products and markets where flexible resources can be economically competitive and technically reliable. Four complimentary and correlated sub-objectives have been fulfilled to address the main objective. First, the thesis proposes an original conceptual architecture for future Smart-Markets in order to establish a more suitable framework for DRR trading and implementation. Second, the research aims to solve the need to have "firm" DRR in the way that DRR can be considered reliable resources. This has been dealt with in the second sub-objective where a new methodology to standardize and validate the DRR offered by the customers has been developed and justified. This methodology can be used to regulate a "certification" process for DRR. The two final sub-objectives are related to provide the customer with valuable knowledge and tools to make feasible the DRR offers generation in the long and short term. The third sub-objective is related to the need for the DRR provider to plan in the medium term (a few years ahead) the strategy for the demand participation and assess the necessary investments. A planning tool has been developed to meet that objective. Finally, the last sub-objective deals with the need of the customer to program the operation of their demand resources in the short term (one day ahead at most) by optimizing all the available resources and prices. Consequently, complementary to medium-term planning tool, a day-ahead optimization tool has been created for that purpose. All methodologies and tools researched in this Ph.D. have been validated through its application to three different industrial environments and customers in sectors with high replicability all over Europe: a paper factory, a meat processing factory, and logistic centres with high freezing and refrigerating needs. The results and justified conclusions allow stating that a relevant step in the research of the implementation of more sustainable energy systems has been produced by enhancing more committed and dynamic participation of the demand side resources.
Rodríguez García, J. (2021). Metodología para la optimización del beneficio de la respuesta de la demanda en consumidores industriales: caracterización por procesos y aplicación [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/165574
TESIS
García, Fernández Ismael. "Parallel spatial data structures for interactive rendering." Doctoral thesis, Universitat de Girona, 2012. http://hdl.handle.net/10803/107998.
Full textLa qüestió principal explorada en aquesta tesi doctoral és la forma de definir noves formes d'accés aleatori paral•lel en estructures de dades amb informació de superfícies i d'imatge. La nostra principal aportació és un conjunt de mètodes paral•lels i eficients per avaluar imatges i geometries irregulars, i proposem: un mètode per a separar la forma i els detalls d'aparença visual partint de malles d'alta resolució, mapejant de manera interactiva la informació en dominis més simples de baixa resolució; un marc d'edició geomètrica per convertir malles irregulars de triangles d'alta resolució en representacions més simples basades en un domini de cubs, generant una estructura fàcilment paral•lelitzable basada en primitives quadrangulars; un nou esquema de hashing paral•lel per a la organització i compactació de dades espacials amb un elevat factor de càrrega, explotant la coherència espacial de les dades d'entrada i els seus patrons d'accés a memòria
"Proposta para computação assincrona paralela e distribuida de estruturas especiais de jogos dinamicos." Tese, Biblioteca Digital da Unicamp, 2021. http://libdigi.unicamp.br/document/?code=vtls000062555.
Full textRucci, Enzo. "Computación eficiente del alineamiento de secuencias de ADN sobre cluster de multicores." Tesis, 2013. http://hdl.handle.net/10915/27737.
Full textZamora, Antonio. "Análisis de eficiencia de algoritmos BSP para la resolución de sistemas lineales tridiagonales." Doctoral thesis, 2000. http://hdl.handle.net/10045/10020.
Full textArnal, Josep. "Algoritmos iterativos paralelos para la resolución de sistemas no lineales." Doctoral thesis, 2000. http://hdl.handle.net/10045/3217.
Full textTortosa, Leandro. "Algoritmos divide y vencerás para la resolución de sistemas lineales tridiagonales en un computador BSP." Doctoral thesis, 1999. http://hdl.handle.net/10045/10021.
Full text