To see the other types of publications on this topic, follow the link: Computación gráfica.

Dissertations / Theses on the topic 'Computación gráfica'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 19 dissertations / theses for your research on the topic 'Computación gráfica.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kim, Joon Young. "Computación Paralela en Unidades de Procesamiento Gráfico (GPU)." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104712.

Full text
Abstract:
El objetivo de esta memoria es el estudio y desarrollo de aplicaciones de computación general en tarjetas gráficas. Los avances tecnológicos han permitido que hardware especializado para la visualización de imágenes sea lo suficientemente poderoso como para implementar en sus procesadores programas que son habitualmente asociados a las CPU. Esta memoria explora y evalúa el uso de estos recursos para aplicaciones numéricas y de generación de mallas. Para este objetivo se ha desarrollado una aplicación que simula la dinámica de fluidos y se exploró la posibilidad de aplicar algoritmos de refinado de mallas. Este tipo de algoritmos son intensivos en cómputo, ya que necesitan solucionar ecuaciones diferenciales usando métodos numéricos. Aplicando los conceptos que se requieren para programar este tipo de algoritmos a una GPU se busca optimizar su rendimiento y lograr una funcionalidad completa. A través de la memoria se explican los conceptos matemáticos detrás de la mecánica de fluidos, y se describe la forma en la que se pueden descomponer para su posterior implementación en un procesador gráfico, que es altamente paralelo, y tiene diferencias sustanciales con la arquitectura de un procesador general. No se pudo aplicar un algoritmo en la GPU de refinamiento de mallas debido a limitantes físicas de su arquitectura, pero el estudio es útil para futuras investigaciones. En conclusión, el programa creado muestra que es posible la adaptación de tales algoritmos, en hardware que a pesar de no estar diseñado para ellos entrega los mismos resultados que si fuesen programados de forma habitual. Esto además libera recursos que pueden ser utilizados para otros fines, o el uso de ambos procesadores, el CPU y la GPU, para la creación de programas que se ejecuten de forma más rápida y eficiente debido a la mayor cantidad de recursos disponibles
APA, Harvard, Vancouver, ISO, and other styles
2

Silva, Herrera Nicolás Javier. "Modelamiento del crecimiento de árboles usando mallas de superficie." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/104572.

Full text
Abstract:
El propósito en esta memoria, es extender este trabajo haciendo un estudio del diseño de la aplicación, para mejorar el diseño y ajustarlo mejor a buenas prácticas de OOP2 . Además, se incluirán mejoras y características que no se concretaron en el desarrollo anterior como: Re namiento y mejoramiento de las mallas: Existen varios criterios de calidad que se pueden agregar a la aplicación, así como también otros algoritmos de re namiento y mejoramiento. También se pueden incluir algoritmos de des-re namiento de las mallas, es decir, remover puntos donde estos se encuentren muy concentrados. Mallas de cuadriláteros: En este momento las operaciones sobre la topología de la malla solo están de nidas para mallas de triángulos. Seria interesante extender las operaciones para que soportaran mallas de cuadriláteros, las cuales se asemejan mejor a la forma natural de las células. Algoritmos de veri cación de consistencia global de la malla: En este momento la veri- cación de consistencia solo se hace de manera local, lo cual puede provocar inconsistencias a nivel global de la malla, entre elementos que no se encuentren en una misma vecindad. Esto se puede llegar a generalizar para unir dos mallas distintas, manejando así la unión de varias mallas a solo una. Algo que se da en forma natural en los vegetales. Algoritmos de veri cación local más e cientes: Se desea desarrollar algoritmos de veri- cación local más e cientes que los actuales, que sean capaces de controlar cada una de las inconsistencias de la malla. Visualización de los cambios o deformaciones de la malla en forma On-line: Incluir la capacidad de mostrar la malla a medida que los cambios van ocurriendo. Esto haría más atractivo el modelamiento ya que actualmente la visualización se muestra paso a paso. Es decir, mostrando un solo estado a la vez. Solucionar problemas de precisión e inexactitud de los cálculos: Estos problemas en la aplicación actual generan esporádicamente malos resultados y caídas de la aplicación. Comunicación directa con software Femlab: Actualmente la aplicación no interactúa en forma directa con Femlab. Solo funciona a través de exportaciones hechas desde Femlab a archivos de texto.
APA, Harvard, Vancouver, ISO, and other styles
3

Graells, Garrido Eduardo Nicolás. "Marco de Trabajo de Rendering no Fotorrealista." Tesis, Universidad de Chile, 2008. http://repositorio.uchile.cl/handle/2250/103211.

Full text
Abstract:
En Computación Gráfica uno de los conceptos más importantes es el \emph{Rendering}, definido como el proceso que a partir de los datos de una escena tridimensional genera una imagen en una ventana de visualización en 2 dimensiones. El rendering siempre se ha enfocado en generar imágenes fotorrealistas, aunque para diversas aplicaciones y escenarios se desea una imagen abstracta y/o estilizada. El proceso que puede generar ese tipo de imágenes es llamado Rendering No Fotorrealista, o NPR por sus siglas en inglés (Non Photorealistic Rendering). El NPR integra conceptos de Computación Gráfica y de Geometría Diferencial, y puede aplicarse en visualización científica e ilustración técnica, con el fin de destacar áreas o contornos de los objetos que son de interés para el observador; en la producción de imágenes que imiten medios tradicionales como la pintura o la acuarela; y en la generación de imágenes que imiten dibujos animados, entre otras áreas. En esta memoria se diseña e implementa un marco de trabajo (framework en inglés) para Computación Gráfica que permite desarrollar técnicas NPR y de rendering tradicional. El diseño del marco de trabajo contempla el estudio de los puntos comunes de diferentes técnicas de NPR y de las áreas asociadas, y, siguiendo el paradigma de la Orientación a Objetos, define distintas componentes internas que pueden ser extendidas para implementar técnicas de NPR y de rendering tradicional. La implementación se realiza en el lenguaje de programación C++ utilizando bibliotecas de código abierto o compatibles con código abierto: se utilizan la biblioteca gráfica OpenGL y el lenguaje Cg para comunicarse con los procesadores de la tarjeta de vídeo (GPU). El marco de trabajo incluye técnicas ya implementadas: para el rendering tradicional se implementaron graficadores de Gouraud y de Phong, mientras que para las técnicas NPR se implementaron graficadores de dibujado animado (Cel-Shading) y de modelos de tonos (Gooch Shading). Se implementaron extractores de líneas de interés (Siluetas y Contornos Sugestivos), así como una clase abstracta que permite definir nuevos tipos de líneas a extraer. La demostración de estas implementaciones se realiza mediante una aplicación de prueba que permite cargar modelos tridimensionales estáticos y animados; los resultados obtenidos se muestran mediante imágenes de los modelos tridimensionales cargados en la aplicación de prueba. Finalmente se realiza una discusión sobre el trabajo futuro, sobre las posibles líneas de investigación a seguir en estudios de post-grado y sobre el uso del marco de trabajo para implementar técnicas de rendering no NPR. Se concluye que el marco de trabajo se puede utilizar para el desarrollo de técnicas NPR y de rendering tradicional, que su desempeño es adecuado para el rendering en tiempo real para escenas tridimensionales de tamaño medio y que puede ser utilizado en aplicaciones reales.
APA, Harvard, Vancouver, ISO, and other styles
4

Apaza, Poma Edwin. "Comparación y evaluación de los algoritmos de mapeado Perfect Mapping y Affine Mapping." Universidad Mayor de San Andrés. Programa Cybertesis BOLIVIA, 2010. http://www.cybertesis.umsa.bo:8080/umsa/2010/apaza_ped/html/index-frames.html.

Full text
Abstract:
La computación grafica ha sido una de las ramas de las ciencias de la computación de mayor impacto social y acercamiento al publico. La graficación esta casi siempre asociada con la interactividad, por lo que actualmente casi todo sistema o programa interactivo tiene una interface grafica. Esto es así no solo en aplicaciones especificas de traficación matemática y estadística, sino también como medio de producir representaciones visuales para otros sistemas informáticos, como ocurre actualmente en los lenguajes de programación visual, y en los sistemas de diseño asistidos. Todos estos sistemas, utilizados para fines tan diversos, tienen un fundamento subyacente que consiste en una serie de técnicas derivadas de la aplicación computacional. Los métodos de mapeo de texturas las cuales son base para añadir realismo a una superficie, están pensados en función de facilitar la tarea de modelado, creación de interfaces, realización de videojuegos. En algunas aplicaciones el modelado, tiene un uso analítico, es decir, a partir de un determinado modelo real se obtiene una superficie grafica con mayor realismo, En los juegos y consolas es mucho más importante la velocidad de representación, para permitir una gran fluidez de juego, más que la precisión en los cálculos. Los sistemas que traducen modelos matemáticos a imágenes visuales requieren de métodos y algoritmos óptimos, es decir se debe tener un criterio a la hora de utilizar un algoritmo de mapeo. Este trabajo de tesis propone realizar el estudio de una de las ramas de representación grafica: el mapeado de texturas sobre superficies graficas. Se presentan las propiedades, particulares y funcionamiento de los algoritmos de mapeo para el mapeado de texturas, y se realiza una rigurosa evaluación y comparación sobre los mismos para que de esta formase halle una propuesta de alternativa valida de solución en el campo de diseño.
APA, Harvard, Vancouver, ISO, and other styles
5

Schkolnik, Müller Demian Aley. "Desarrollo de una herramienta gráfica de exploración de robots con ROS." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137944.

Full text
Abstract:
Ingeniero Civil en Computación
ROS, un middleware para robots, ofrece gran variedad de herramientas para su utilización. Sin embargo, carece de una importante herramienta: Algo que permita visualizar de forma dinámica sus componentes, y poder así entender sistemas complejos de mejor forma. Esta memoria consistió en desarrollar una herramienta, que es capaz de visualizar, mediante un grafo, un sistema completo creado en ROS, pudiendo ver cuáles son sus distintos componentes y cómo interactúan. Además, la herramienta incluye la opción de visualizar tres tipos de mensajes comunes presentes en ROS. El trabajo se realizó en el lenguaje de programación Smalltalk, y usando el ambiente de desarrollo Pharo. Para las visualizaciones se utilizó el motor de visualizaciones Roassal, basado en Pharo. El trabajo se dividió en cuatro grandes etapas. La primera etapa consistió en un trabajo de investigación, haciendo una revisión de las herramienta a usar en el desarrollo, junto a un análisis de los mensajes comunes de ROS y como se representaban. Esto sería usado en la segunda etapa. La segunda etapa consistió en el desarrollo de una API, que permitiera comunicación entre Pharo y ROS. Para ello se hizo uso de las herramientas de consola presentes en ROS. Junto a la API, se desarrollaron una serie de tests, a modo de robustecer la API frente a posibles cambios en ROS. La tercera etapa consistió en la creación del grafo general de ROS. Este grafo nos muestra el sistema completo creado en ROS, indicándonos también de qué forma interactúan los componentes entre ellos. En esta etapa, la comunicación con ROS se hace exclusivamente a través de la API implementada en la segunda etapa. La cuarta y última etapa consistió en la creación de las visualizaciones para tres mensajes comunes de ROS. Estas visualizaciones son dinámicas, es decir, cambian en tiempo real cuando los mensajes cambian. El presente trabajo presenta primero el estudio previo, explicando las herramientas, lenguajes y funcionalidades que se usarán en el desarrollo. Esta sección también incluye información de herramientas similares existentes, y explica las falencias de éstas y la justificación de la creación de una nueva herramienta. La segunda parte de este trabajo contiene el desarrollo de la herramienta, comenzando por la API, para luego seguir con el grafo general y las visualizaciones. A modo de conclusión, la herramienta creada presenta una manera eficaz y usable de explorar robots creados con ROS, y fue creada de manera modular y extensible, generando algunas visualizaciones de ejemplo. Puede servir como base para un trabajo futuro, que genere más visualizaciones así como también incluya un sistema de inserción de mensajes.
APA, Harvard, Vancouver, ISO, and other styles
6

Tapia, Rodríguez Natalia Soledad. "Modelamiento computacional y visual de la información del proyecto estatuaria Isla de Pascua." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/115281.

Full text
Abstract:
Ingeniera Civil en Computación
El Centro de Estudios Isla de Pascua y Oceanía, dependiente del Departamento de Antropología en la Facultad de Ciencias Sociales, se dedica a realizar proyectos relacionados con el patrimonio arqueológico de la Isla de Pascua. Uno de estos proyectos corresponde al proyecto Estatuaria de la Isla de Pascua, el cual, ha recopilado información significativa referente a los Moai y los atributos de estos tales como largo total, largo cabeza, material y localización. De acuerdo a la información recolectada, se ha determinado que existe una tipología de la estatuaria de la Isla de Pascua definida a partir de un conjunto de atributos. Debido a la enorme cantidad de información que existe actualmente y a que los investigadores responsables del proyecto no cuentan con herramientas apropiadas ni poseen la especialización necesaria, no ha habido un avance significativo en un análisis estilístico más detallado de los Moai, de los patrones recurrentes de diseño, proporciones, medidas, ni se ha abordado a la fecha la visualización y/o modelamiento de la data recopilada con respecto a estos. El objetivo de la memoria es desarrollar una herramienta que permita un análisis más riguroso de la información disponible por medio de la visualización científica de datos, la computación gráfica y de algoritmos apropiados para extraer información valiosa. Para cumplir el objetivo de la memoria, primero se realizó una toma de requerimientos y se describieron los casos de uso del sistema. Luego se desarrollaron prototipos basados en los casos de uso lo que involucró la investigación de variadas tecnologías. Posteriormente se creó una base de datos que contiene datos ficticios y una base de datos que contiene un subconjunto de Moai. Finalmente, se diseñó la arquitectura del sistema basándose en los prototipos creados, se implementó la administración de las bases de datos, la búsqueda entre intervalos de atributos, la búsqueda basada en la relación de dos atributos, la clasificación de Moai según su tipo, mapas interactivos con distintos modos de visualización y el modelamiento en 3D de un Moai. La validación de la herramienta se realizó evaluando su funcionalidad sobre los datos ficticios y para ver si efectivamente la herramienta visualizaba de forma correcta la información del catastro. El resultado final es una herramienta de escritorio gráfica e interactiva que permite difundir y analizar el registro arqueológico que se tiene hasta ahora de los Moai ya sea para fines educativos o de investigación.
APA, Harvard, Vancouver, ISO, and other styles
7

Castillo, Navarrete Ernesto Jorge. "Implementación de una Aplicación Gráfica para el Procesamiento y Visualización de Datos Geofísicos de Potencial." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103829.

Full text
Abstract:
El presente trabajo tenía como objetivo el desarrollo de una aplicación gráfica que sirviera de base para implementar las principales funcionalidades de procesamiento y visualización de datos geofísicos de potencial. Su realización se justificaba ya que si bien existen programas relacionados, no todos poseen las funcionalidades requeridas, y por otra parte se deseaba tener un mejor control sobre una aplicación base a partir de la cúal desarrollar y adecuar funciones específicas ad-hoc. Con el fin de familiarizarse con las funcionalidades a implementar se estudiaron los conceptos relacionados principalmente con los métodos de exploración geofísicos en cuestión, tomando en consideración los sistemas de coordenadas empleados, el formato de los archivos de datos, los métodos de grillado, las proyecciones existentes, los métodos de visualización,etc. Se revisaron tambíen las funcionalidades provistas por los programas relacionados. Para llevar a cabo el desarrollo de la aplicación se escogió el paradigma ágil, a partir del cual se realiza un trabajo incremental e iterativo, con testeo e integración continua. Para facilitar el proceso se emplearon herramientas que sirvieron de apoyo en cuanto al tracking, el control de versiones, el testeo, el debugging y la documentación. Si bien el desarrollo fue incremental, puede entenderse a través de las etapas tradicionales de : análisis, diseño e implementación. En el caso del análisis este se llevó a cabo principalmente a través de los principales casos de uso. En cuanto el diseño se consideró el paradigma de Programación Orientado a Objetos (POO), además de la arquitectura Modelo-Vista-Controlador (MVC). Con relación a la implementación se optó por llevar a cabo la aplicación en C++ bajo el sistema operativo GNU/Linux, con la modalidad de código abierto. Durante el desarrollo se logró apreciar la ventaja de utilizar el paradigma OOP, así como también el MVC, ya que esto permitió poseer un programa modular. Por otra parte el empleo de código abierto facilitó la utilización de varias de las funcionalidades que ya se encontraban implementadas,con bastante soporte y ayuda. Como resultado se obtuvo un programa que cumple con las funcionalidades básicas estipuladas en un principio y que serviría de punto de partida para mejorar las ya existentes y agregar otras nuevas.
APA, Harvard, Vancouver, ISO, and other styles
8

Luengo, González Francisco Alberto. "Nuevas técnicas para la animación del comportamiento de agentes virtuales autónomos." Doctoral thesis, Universidad de Cantabria, 2005. http://hdl.handle.net/10803/10695.

Full text
Abstract:
En el ámbito de la Vida Artificial, el termino de agentes virtuales autónomos (AVA) es utilizado para definir personajes que habitan en un mundo virtual 3D, y cuya apariencia y comportamiento intentan imitar las de seres vivientes reales, con la intención de crear la ilusión de que ellos también lo son. Pero para que un personaje virtual resulte convincente, no solo debe parecer real, sino también comportarse de manera real. El presente trabajo hace un aporte al desarrollo de sistemas de animación del comportamiento para AVAs, enfocándose principalmente en la animación de humanos virtuales autónomos; presentando un marco general de simulacion para la incorporacion de tecnicas computacionales que faliciten el desarrollo de simulaciones de actores virtuales, a la vez que introduce un nuevo esquema de animacion del comportamiento, el cual incorpora diferentes modulos que intentan emular el proceso cognitivo que genera la toma de desiciones. La integracion de los elentos graficos y el sistema de control de comportamiento desarrollado dan origen a la generacion de simulaciones donde humanos virtuales exhiben comportamientos realistas, basados en objetivos, y motivados por parametros emocionales, estados internos, y conocimiento sobre el entorno y sobre si mismos.
One of the most exciting topics in Computer Graphics is the realistic animation of the behavior of virtual agents. In this field (also known as Artificial Life), the challenge is to create a behavioral system for the virtual agents so that they behave as realistic as possible. To this aim, a number of different techniques have been applied during the last few years. Among them, the most powerful and appealing ones seem to be those based on Artifcial Intelligence (AI) techniques. After all, most of the AI techniques (such as neural networks or expert systems) are based on the idea of reproducing the structure and behavior of the human brain. Consequently, they are optimal candidates to be applied to this goal. This work is focused on describing a general framework for simulating the behavior of virtual actors evolving within a virtual 3D world, and achive realistically to simulate the mental processes of those virtual agents and the application of some well-known AI techniques to this purpose. In particular, we explore some of these techniques and discuss how can they be successfully applied to tackle this issue. For each technique, a discussion about how can it be applied to perform specific tasks is given. We also describe how can some mental processes such as memory, reasonning, recognition, perception and others be realistically simulated by using a carefully chosen combination of these techniques.
APA, Harvard, Vancouver, ISO, and other styles
9

Naranjo, Delgado Diana María. "Serverless Computing Strategies on Cloud Platforms." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/160916.

Full text
Abstract:
[ES] Con el desarrollo de la Computación en la Nube, la entrega de recursos virtualizados a través de Internet ha crecido enormemente en los últimos años. Las Funciones como servicio (FaaS), uno de los modelos de servicio más nuevos dentro de la Computación en la Nube, permite el desarrollo e implementación de aplicaciones basadas en eventos que cubren servicios administrados en Nubes públicas y locales. Los proveedores públicos de Computación en la Nube adoptan el modelo FaaS dentro de su catálogo para proporcionar computación basada en eventos altamente escalable para las aplicaciones. Por un lado, los desarrolladores especializados en esta tecnología se centran en crear marcos de código abierto serverless para evitar el bloqueo con los proveedores de la Nube pública. A pesar del desarrollo logrado por la informática serverless, actualmente hay campos relacionados con el procesamiento de datos y la optimización del rendimiento en la ejecución en los que no se ha explorado todo el potencial. En esta tesis doctoral se definen tres estrategias de computación serverless que permiten evidenciar los beneficios de esta tecnología para el procesamiento de datos. Las estrategias implementadas permiten el análisis de datos con la integración de dispositivos de aceleración para la ejecución eficiente de aplicaciones científicas en plataformas cloud públicas y locales. En primer lugar, se desarrolló la plataforma CloudTrail-Tracker. CloudTrail-Tracker es una plataforma serverless de código abierto basada en eventos para el procesamiento de datos que puede escalar automáticamente hacia arriba y hacia abajo, con la capacidad de escalar a cero para minimizar los costos operativos. Seguidamente, se plantea la integración de GPUs en una plataforma serverless local impulsada por eventos para el procesamiento de datos escalables. La plataforma admite la ejecución de aplicaciones como funciones severless en respuesta a la carga de un archivo en un sistema de almacenamiento de ficheros, lo que permite la ejecución en paralelo de las aplicaciones según los recursos disponibles. Este procesamiento es administrado por un cluster Kubernetes elástico que crece y decrece automáticamente según las necesidades de procesamiento. Ciertos enfoques basados en tecnologías de virtualización de GPU como rCUDA y NVIDIA-Docker se evalúan para acelerar el tiempo de ejecución de las funciones. Finalmente, se implementa otra solución basada en el modelo serverless para ejecutar la fase de inferencia de modelos de aprendizaje automático previamente entrenados, en la plataforma de Amazon Web Services y en una plataforma privada con el framework OSCAR. El sistema crece elásticamente de acuerdo con la demanda y presenta una escalado a cero para minimizar los costes. Por otra parte, el front-end proporciona al usuario una experiencia simplificada en la obtención de la predicción de modelos de aprendizaje automático. Para demostrar las funcionalidades y ventajas de las soluciones propuestas durante esta tesis se recogen varios casos de estudio que abarcan diferentes campos del conocimiento como la analítica de aprendizaje y la Inteligencia Artificial. Esto demuestra que la gama de aplicaciones donde la computación serverless puede aportar grandes beneficios es muy amplia. Los resultados obtenidos avalan el uso del modelo serverless en la simplificación del diseño de arquitecturas para el uso intensivo de datos en aplicaciones complejas.
[CA] Amb el desenvolupament de la Computació en el Núvol, el lliurament de recursos virtualitzats a través d'Internet ha crescut granment en els últims anys. Les Funcions com a Servei (FaaS), un dels models de servei més nous dins de la Computació en el Núvol, permet el desenvolupament i implementació d'aplicacions basades en esdeveniments que cobreixen serveis administrats en Núvols públics i locals. Els proveïdors de computació en el Núvol públic adopten el model FaaS dins del seu catàleg per a proporcionar a les aplicacions computació altament escalable basada en esdeveniments. D'una banda, els desenvolupadors especialitzats en aquesta tecnologia se centren en crear marcs de codi obert serverless per a evitar el bloqueig amb els proveïdors del Núvol públic. Malgrat el desenvolupament alcançat per la informàtica serverless, actualment hi ha camps relacionats amb el processament de dades i l'optimització del rendiment d'execució en els quals no s'ha explorat tot el potencial. En aquesta tesi doctoral es defineixen tres estratègies informàtiques serverless que permeten demostrar els beneficis d'aquesta tecnologia per al processament de dades. Les estratègies implementades permeten l'anàlisi de dades amb a integració de dispositius accelerats per a l'execució eficient d'aplicacion scientífiques en plataformes de Núvol públiques i locals. En primer lloc, es va desenvolupar la plataforma CloudTrail-Tracker. CloudTrail-Tracker és una plataforma de codi obert basada en esdeveniments per al processament de dades serverless que pot escalar automáticament cap amunt i cap avall, amb la capacitat d'escalar a zero per a minimitzar els costos operatius. A continuació es planteja la integració de GPUs en una plataforma serverless local impulsada per esdeveniments per al processament de dades escalables. La plataforma admet l'execució d'aplicacions com funcions severless en resposta a la càrrega d'un arxiu en un sistema d'emmagatzemaments de fitxers, la qual cosa permet l'execució en paral·lel de les aplicacions segon sels recursos disponibles. Este processament és administrat per un cluster Kubernetes elàstic que creix i decreix automàticament segons les necessitats de processament. Certs enfocaments basats en tecnologies de virtualització de GPU com rCUDA i NVIDIA-Docker s'avaluen per a accelerar el temps d'execució de les funcions. Finalment s'implementa una altra solució basada en el model serverless per a executar la fase d'inferència de models d'aprenentatge automàtic prèviament entrenats en la plataforma de Amazon Web Services i en una plataforma privada amb el framework OSCAR. El sistema creix elàsticament d'acord amb la demanda i presenta una escalada a zero per a minimitzar els costos. D'altra banda el front-end proporciona a l'usuari una experiència simplificada en l'obtenció de la predicció de models d'aprenentatge automàtic. Per a demostrar les funcionalitats i avantatges de les solucions proposades durant esta tesi s'arrepleguen diversos casos d'estudi que comprenen diferents camps del coneixement com l'analítica d'aprenentatge i la Intel·ligència Artificial. Això demostra que la gamma d'aplicacions on la computació serverless pot aportar grans beneficis és molt àmplia. Els resultats obtinguts avalen l'ús del model serverless en la simplificació del disseny d'arquitectures per a l'ús intensiu de dades en aplicacions complexes.
[EN] With the development of Cloud Computing, the delivery of virtualized resources over the Internet has greatly grown in recent years. Functions as a Service (FaaS), one of the newest service models within Cloud Computing, allows the development and implementation of event-based applications that cover managed services in public and on-premises Clouds. Public Cloud Computing providers adopt the FaaS model within their catalog to provide event-driven highly-scalable computing for applications. On the one hand, developers specialized in this technology focus on creating open-source serverless frameworks to avoid the lock-in with public Cloud providers. Despite the development achieved by serverless computing, there are currently fields related to data processing and execution performance optimization where the full potential has not been explored. In this doctoral thesis three serverless computing strategies are defined that allow to demonstrate the benefits of this technology for data processing. The implemented strategies allow the analysis of data with the integration of accelerated devices for the efficient execution of scientific applications on public and on-premises Cloud platforms. Firstly, the CloudTrail-Tracker platform was developed to extract and process learning analytics in the Cloud. CloudTrail-Tracker is an event-driven open-source platform for serverless data processing that can automatically scale up and down, featuring the ability to scale to zero for minimizing the operational costs. Next, the integration of GPUs in an event-driven on-premises serverless platform for scalable data processing is discussed. The platform supports the execution of applications as serverless functions in response to the loading of a file in a file storage system, which allows the parallel execution of applications according to available resources. This processing is managed by an elastic Kubernetes cluster that automatically grows and shrinks according to the processing needs. Certain approaches based on GPU virtualization technologies such as rCUDA and NVIDIA-Docker are evaluated to speed up the execution time of the functions. Finally, another solution based on the serverless model is implemented to run the inference phase of previously trained machine learning models on theAmazon Web Services platform and in a private platform with the OSCAR framework. The system grows elastically according to demand and is scaled to zero to minimize costs. On the other hand, the front-end provides the user with a simplified experience in obtaining the prediction of machine learning models. To demonstrate the functionalities and advantages of the solutions proposed during this thesis, several case studies are collected covering different fields of knowledge such as learning analytics and Artificial Intelligence. This shows the wide range of applications where serverless computing can bring great benefits. The results obtained endorse the use of the serverless model in simplifying the design of architectures for the intensive data processing in complex applications.
Naranjo Delgado, DM. (2021). Serverless Computing Strategies on Cloud Platforms [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160916
TESIS
APA, Harvard, Vancouver, ISO, and other styles
10

Chinchón, Morillo Paul Peter. "Proyecto de apertura y funcionamiento del Centro de Educación Ocupacional de Gestión no Estatal Poussin, diseño y computación." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2003. https://hdl.handle.net/20.500.12672/1645.

Full text
Abstract:
Busca formular un proyecto de servicio educativo para adolescentes y adultos desempleados o subempleados vinculados en las diversas ramas de la actividad productiva. El proyecto educativo denominado Centro de Educación Ocupacional de Gestión Poussin busca la implementación de cursos modulares para la democratización de la educación.
Tesis
APA, Harvard, Vancouver, ISO, and other styles
11

Ozimica, Gacitúa Nicolás Eugenio. "Cálculo de las Trayectorias de Partículas en la Atmósfera Mediante Cálculos Paralelizados Haciendo Uso Intensivo de GPU." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103833.

Full text
Abstract:
El cálculo de la trayectoria de partículas en la atmósfera es una actividad abordada desde hace mucho tiempo, tomando en cuenta un enfoque clásico del uso de los computadores, en el cual se utilizan sus recursos como Procesador Central (CPU) y Memoria RAM. Este enfoque, que ha servido para alcanzar los logros actuales, con predicciones bastante acertadas, aún adolece de problemas claves y en cierta medida irresolubles, que se ven acentuados cuando los procesos se hacen más complejos, ya sea incorporando muchas partículas, o tomando en cuenta modelos de desplazamiento más realistas. El presente trabajo aborda un enfoque totalmente nuevo, el cual hace uso de una componente física de los computadores llamada “Tarjeta Gráfica”, la cual cuenta con su propia unidad de procesamiento gráfico llamada GPU por sus siglas en inglés. Esta componente, gracias a su gran cantidad de núcleos, ofrece la posibilidad de realizar paralelamente entre sí todos, o una parte de los cálculos que le son asignados, de una manera mucho más potente que lo conseguido en la actualidad al hacer uso solamente de CPU. Este problema es abordado mediante la implementación de un programa en dos versiones: una para funcionar exclusivamente en CPU y la otra para hacer uso de GPU en los cálculos. De esta manera se puede contar con un método directo para comparar el desempeño de estos dos enfoques, contrastarlos entre sí, y deducir los casos en que uno supera al otro. El principal insumo en la comparación de estos cálculos es la información del pronóstico del viento. El programa fue aplicado a una situación real: la erupción del Volcán Chaitén, para un día cuyos datos se poseían de antemano. Los resultados obtenidos fueron graficados y comparados con una imagen satelital correspondiente al mismo día simulado, siendo posible comprobar la alta similitud entre ellas. El tiempo de cálculo empleado por la versión que funciona en GPU supera en algunos casos en más de doscientas veces lo que tarda su contraparte CPU, sin afectar en gran medida la exactitud de los cálculos. Esto permite comprobar efectivamente que las GPU superan ampliamente el desempeño de las CPU, cuando el problema abordado es altamente paralelizable. Este es un tema que no está en absoluto cerrado, por cuanto son muchos los caminos donde seguir explorando las ventajas y desventajas del uso de GPU para estos cálculos. Por ejemplo se puede ver cómo funcionan las GPU incorporando procesos físicos más complejos para el cálculo de los desplazamientos de las partículas, o se puede considerar algunas propiedades físicas de estas partículas, como lo es la masa por ejemplo.
APA, Harvard, Vancouver, ISO, and other styles
12

Allende, Prieto Esteban Armando. "Portando AmbientTalk a Dispositivos Móviles Livianos." Tesis, Universidad de Chile, 2010. http://repositorio.uchile.cl/handle/2250/103823.

Full text
Abstract:
El objetivo general del presente trabajo es poder interpretar un subconjunto del lenguaje de programación AmbientTalk en un dispositivo móvil liviano que sea capaz de interactuar con otros programas desarrollados en AmbientTalk alojados en otros dispositivos que no sean necesariamente del mismo tipo de equipo. El dispositivo móvil liviano usado para esta memoria es un Sun SPOT. El intérprete oficial de AmbientTalk está desarrollado para Java ME CDC, mientras que los Sun SPOT poseen como plataforma de desarrollo Java ME CLDC. Una de las diferencias importantes entre ambos es que tanto reflexión como serialización no están presentes en CLDC, mientras que si lo están en CDC. Ambas son características muy usadas y muy imprescindibles para el intérprete oficial, por lo que se hace necesario replantear un nuevo intérprete para los Sun SPOT. Debido a las capacidades de cómputo limitadas de un Sun SPOT, se decidió separar la plataforma en dos aplicaciones que corren en máquinas distintas: un compilador que lea código fuente AmbientTalk y que genere un archivo binario, y un intérprete AmbientTalk que lea ese archivo binario e interprete el programa almacenado en él en un Sun SPOT. A cada una de las aplicaciones se le realizó un diseño de arquitectura lógica, separando los componentes en módulos semi desacoplados. Luego se realizó una validación al intérprete, realizando para tal efecto una aplicación ejemplo de programación distribuida consistente en un sistema controlador de luces remotas. Se realizó esta aplicación tanto para Java ME CLDC, como para AmbientTalk, mostrando que mientras la aplicación en Java ME CLDC es más eficiente, la aplicación en AmbientTalk fue más simple de desarrollar. Finalmente se concluye que esta plataforma es un paso para tener una implementación de AmbientTalk en toda la gama de dispositivos con Java y que AmbientTalk permite disminuir el tiempo de programación para aplicaciones distribuidas en un Sun SPOT.
APA, Harvard, Vancouver, ISO, and other styles
13

Montoyo-Bojo, Javier. "Estudio y mejora de métodos de registro 3D: aceleración sobre unidades de procesamiento gráfico y caracterización del espacio de transformaciones iniciales." Doctoral thesis, Universidad de Alicante, 2015. http://hdl.handle.net/10045/53123.

Full text
Abstract:
Durante los últimos años ha sido creciente el uso de las unidades de procesamiento gráfico, más conocidas como GPU (Graphic Processing Unit), en aplicaciones de propósito general, dejando a un lado el objetivo para el que fueron creadas y que no era otro que el renderizado de gráficos por computador. Este crecimiento se debe en parte a la evolución que han experimentado estos dispositivos durante este tiempo y que les ha dotado de gran potencia de cálculo, consiguiendo que su uso se extienda desde ordenadores personales a grandes cluster. Este hecho unido a la proliferación de sensores RGB-D de bajo coste ha hecho que crezca el número de aplicaciones de visión que hacen uso de esta tecnología para la resolución de problemas, así como también para el desarrollo de nuevas aplicaciones. Todas estas mejoras no solamente se han realizado en la parte hardware, es decir en los dispositivos, sino también en la parte software con la aparición de nuevas herramientas de desarrollo que facilitan la programación de estos dispositivos GPU. Este nuevo paradigma se acuñó como Computación de Propósito General sobre Unidades de Proceso Gráfico (General-Purpose computation on Graphics Processing Units, GPGPU). Los dispositivos GPU se clasifican en diferentes familias, en función de las distintas características hardware que poseen. Cada nueva familia que aparece incorpora nuevas mejoras tecnológicas que le permite conseguir mejor rendimiento que las anteriores. No obstante, para sacar un rendimiento óptimo a un dispositivo GPU es necesario configurarlo correctamente antes de usarlo. Esta configuración viene determinada por los valores asignados a una serie de parámetros del dispositivo. Por tanto, muchas de las implementaciones que hoy en día hacen uso de los dispositivos GPU para el registro denso de nubes de puntos 3D, podrían ver mejorado su rendimiento con una configuración óptima de dichos parámetros, en función del dispositivo utilizado. Es por ello que, ante la falta de un estudio detallado del grado de afectación de los parámetros GPU sobre el rendimiento final de una implementación, se consideró muy conveniente la realización de este estudio. Este estudio no sólo se realizó con distintas configuraciones de parámetros GPU, sino también con diferentes arquitecturas de dispositivos GPU. El objetivo de este estudio es proporcionar una herramienta de decisión que ayude a los desarrolladores a la hora implementar aplicaciones para dispositivos GPU. Uno de los campos de investigación en los que más prolifera el uso de estas tecnologías es el campo de la robótica ya que tradicionalmente en robótica, sobre todo en la robótica móvil, se utilizaban combinaciones de sensores de distinta naturaleza con un alto coste económico, como el láser, el sónar o el sensor de contacto, para obtener datos del entorno. Más tarde, estos datos eran utilizados en aplicaciones de visión por computador con un coste computacional muy alto. Todo este coste, tanto el económico de los sensores utilizados como el coste computacional, se ha visto reducido notablemente gracias a estas nuevas tecnologías. Dentro de las aplicaciones de visión por computador más utilizadas está el registro de nubes de puntos. Este proceso es, en general, la transformación de diferentes nubes de puntos a un sistema de coordenadas conocido. Los datos pueden proceder de fotografías, de diferentes sensores, etc. Se utiliza en diferentes campos como son la visión artificial, la imagen médica, el reconocimiento de objetos y el análisis de imágenes y datos de satélites. El registro se utiliza para poder comparar o integrar los datos obtenidos en diferentes mediciones. En este trabajo se realiza un repaso del estado del arte de los métodos de registro 3D. Al mismo tiempo, se presenta un profundo estudio sobre el método de registro 3D más utilizado, Iterative Closest Point (ICP), y una de sus variantes más conocidas, Expectation-Maximization ICP (EMICP). Este estudio contempla tanto su implementación secuencial como su implementación paralela en dispositivos GPU, centrándose en cómo afectan a su rendimiento las distintas configuraciones de parámetros GPU. Como consecuencia de este estudio, también se presenta una propuesta para mejorar el aprovechamiento de la memoria de los dispositivos GPU, permitiendo el trabajo con nubes de puntos más grandes, reduciendo el problema de la limitación de memoria impuesta por el dispositivo. El funcionamiento de los métodos de registro 3D utilizados en este trabajo depende en gran medida de la inicialización del problema. En este caso, esa inicialización del problema consiste en la correcta elección de la matriz de transformación con la que se iniciará el algoritmo. Debido a que este aspecto es muy importante en este tipo de algoritmos, ya que de él depende llegar antes o no a la solución o, incluso, no llegar nunca a la solución, en este trabajo se presenta un estudio sobre el espacio de transformaciones con el objetivo de caracterizarlo y facilitar la elección de la transformación inicial a utilizar en estos algoritmos.
APA, Harvard, Vancouver, ISO, and other styles
14

Pérez, Badenes Joaquín. "Consumo energético de métodos iterativos para sistemas dispersos en procesadores gráficos." Doctoral thesis, Universitat Jaume I, 2016. http://hdl.handle.net/10803/398836.

Full text
Abstract:
La resolución de sistemas de ecuaciones lineales dispersos de gran dimensión es una de las operaciones más comunes en aplicaciones científicas y de ingeniería. El aumento de sus tamaños propicia el desarrollo de técnicas de Green Computing, que permiten diseñar aplicaciones conscientes de la energía, en las que la eficiencia energética es el objetivo prioritario. En este Tesis Doctoral se ha diseñado una metodología basada en “técnicas de fusionado de kernels CUDA” que reduce el número de kernels, y con ello, costes de lanzamiento y transferencias de información. Su uso, junto con la sincronización de las GPUs en modo blocking, permite reducir el consumo energético en sistemas de cómputo heterogéneo, CPU-GPU. Estas técnicas tienen especial interés en GPUs que soporten paralelismo dinámico. La aplicación de esta metodología en la resolución de sistemas de ecuaciones lineales dispersos muestra mejoras destacables en eficiencia energética, obteniendo un compromiso entre rendimiento y consumo energético.
APA, Harvard, Vancouver, ISO, and other styles
15

Cornejo, Castillo Cristobal. "Imagen tridimensional. Diseño de aparato cinético para experimentación sobre la relación imagen-tridimensionalidad en medios interactivos." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/138386.

Full text
Abstract:
Memoria para optar al título de Diseñador Gráfico
Imagen tridimensional, es un proyecto experimental de diseño que busca realizar un estudio sobre el fenómeno de la mediación de la tridimensionalidad mediante la construcción de un aparato que actúe como mediador y objetos que serán presentados en este. En este proceso se busca contribuir a la reflexión sobre las nuevas posibilidades y limitantes técnicas de los medios, el fenómeno de representar objetos volumétricos en imágenes y ampliar la discusión sobre aquellas mediaciones que son consideradas tridimensionales y que como diseñadores nos encontramos a menudo encargados de producir. En una primera etapa de este proyecto se busca estudiar y comprender el fenómeno de la percepción de la tridimensionalidad naturalmente y cuando se encuentra mediada, recopilando conceptos claves y comprendiendo procesos que, en una segunda parte, permitirán definir la forma de construcción de un aparato mediador que incentive al observador en reparar sobre el acto perceptual de comprender un objeto como tridimensional a través de la presentación de imágenes. Para esto, se realiza la construcción de un zoótropo inverso, que interviene en la percepción continua de objetos móviles presentados frente a un observador. Objetos volumétricos y físicos que son el resultado de re-interpretaciones de cuadros pertenecientes al movimiento suprematista de 1915 y que son diseñados para representar la tensión entre una imagen bidimensional y su posible realidad volumétrica desconocida. El proyecto concluye con un prototipo funcional que permite a un observador enfrentarse a una experiencia de mediación interactiva diseñada para advertir aquello que es necesario para mediar tridimensionalidad.
APA, Harvard, Vancouver, ISO, and other styles
16

Bobadilla, Leal Daniel Hernán. "Búsqueda y Visualización del Registro Genealógico del Caballo Chileno." Tesis, Universidad de Chile, 2008. http://repositorio.uchile.cl/handle/2250/103192.

Full text
Abstract:
El problema de visualización de redes y/o grafos es un área muy estudiada en ciencias de la computación y también ha sido objeto de gran atención de investigadores en los últimos años. El presente trabajo está motivado a construir una aplicación que ayude en la visualización de grafos obtenidos de consultas al registro genealógico del Caballo Chileno. En la primera parte de este trabajo se realiza un estudio de algoritmos y técnicas para la visualización de grafos en dos dimensiones, revisando distintos autores y clasificación de éstos debido a su utilización en cierto tipo de grafo y también de restricciones introducidas a la visualización para considerarse válida y admisible. Luego se procede a plantear una solución a los requerimientos del problema: se decribe una arquitectura de la aplicación a construir, decisiones de diseño involucradas debido a restricciones del problema mismo y una descripción de la implementación. Más tarde se revisan los algoritmos construidos para generar consultas y recuperación de información y se detallan los algoritmos elegidos para la visualización de grafos generados de las consultas al registro genealógico equino. El resultado de utilizar las tecnologías propuestas hace que el requerimiento primario de la aplicación se cumpla. No obstante por el diseño de la misma, ésta puede extenderse para nuevas interfaces que se requieran. El desempeño de la aplicación se verificó utilizando pruebas sintéticas que fueron satisfactorias. Debido a la naturaleza de la información genealógica equina y a los tipos de consultas realizadas, éstas no estuvieron exentas del problema que representa la visualización de grandes grafos; problema observado y estudiado. Para lo último se plantearon aproximaciones que pudiesen a agregar valor a la aplicación diseñada para el usuario.
APA, Harvard, Vancouver, ISO, and other styles
17

López, García Gabriel. "MINERVA: Modelo Integral para Entornos de Realidad Virtual y Agentes." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/45807.

Full text
Abstract:
Uno de los problemas más importantes en los sistemas de realidad virtual es la diversidad de los dispositivos visuales y de interacción que existen en la actualidad. Junto a esto, la heterogeneidad de los motores gráficos, los motores físicos y los motores de inteligencia artificial, propicia que no exista un modelo que aúne todos estos aspectos de una forma integral y coherente. Con el objetivo de unificar toda esta diversidad, presentamos un modelo formal que afronta de forma integral el problema de la diversidad en los sistemas de realidad virtual, así como la definición de los módulos principales que los constituyen. El modelo propuesto se basa en la definición de varias gramáticas que integra su actividad, su visualización y su interacción con el usuario. La descripción de un mundo se presenta como una cadena de un lenguaje L(M) que representa una secuencia ordenada de agentes que aceptan eventos y que definen la actividad del sistema. Por otro lado, la visualización del estado actual del sistema se traduce en otra cadena del lenguaje de visualización L(V) y que está compuesta de primitivas y transformaciones. Los conceptos de primitiva y transformación son mucho más amplios de lo que es habitual en estos sistemas. Las primitivas no son simples primitivas de dibujo sino acciones que se deben ejecutar en un determinado sistema de representación que es definida mediante otro lenguaje L(G) y que representa las acciones ordenadas en un determinado dispositivo visual o no. Las transformaciones, por otro lado, modifican las primitivas, dependiendo de su naturaleza. Los agentes desarrollan una o varias actividades en el mundo virtual, se visualizan mediante primitivas y transformaciones, y usan eventos que también se definen en sentido amplio. El modelo presentado tiene como virtud la separación de la actividad del sistema de los dispositivos visuales y de interacción concretos que lo componen. Esto supone varias ventajas: los dispositivos pueden ser sustituidos por otros dispositivos o por simulaciones de estos, los elementos del sistema pueden ser reutilizados, y la representación gráfica puede ser diferente dependiendo del dispositivo visual. En definitiva, se ha pretendido diseñar un sistema integral, adaptativo, reutilizable y genérico. Por último, se presentan varios casos prácticos que permiten concretar cómo se utiliza el modelo propuesto.
APA, Harvard, Vancouver, ISO, and other styles
18

Prades, Gasulla Javier. "Improving Performance and Energy Efficiency of Heterogeneous Systems with rCUDA." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/168081.

Full text
Abstract:
[ES] En la última década la utilización de la GPGPU (General Purpose computing in Graphics Processing Units; Computación de Propósito General en Unidades de Procesamiento Gráfico) se ha vuelto tremendamente popular en los centros de datos de todo el mundo. Las GPUs (Graphics Processing Units; Unidades de Procesamiento Gráfico) se han establecido como elementos aceleradores de cómputo que son usados junto a las CPUs formando sistemas heterogéneos. La naturaleza masivamente paralela de las GPUs, destinadas tradicionalmente al cómputo de gráficos, permite realizar operaciones numéricas con matrices de datos a gran velocidad debido al gran número de núcleos que integran y al gran ancho de banda de acceso a memoria que poseen. En consecuencia, aplicaciones de todo tipo de campos, tales como química, física, ingeniería, inteligencia artificial, ciencia de materiales, etc. que presentan este tipo de patrones de cómputo se ven beneficiadas, reduciendo drásticamente su tiempo de ejecución. En general, el uso de la aceleración del cómputo en GPUs ha significado un paso adelante y una revolución. Sin embargo, no está exento de problemas, tales como problemas de eficiencia energética, baja utilización de las GPUs, altos costes de adquisición y mantenimiento, etc. En esta tesis pretendemos analizar las principales carencias que presentan estos sistemas heterogéneos y proponer soluciones basadas en el uso de la virtualización remota de GPUs. Para ello hemos utilizado la herramienta rCUDA, desarrollada en la Universitat Politècnica de València, ya que multitud de publicaciones la avalan como el framework de virtualización remota de GPUs más avanzado de la actualidad. Los resutados obtenidos en esta tesis muestran que el uso de rCUDA en entornos de Cloud Computing incrementa el grado de libertad del sistema, ya que permite crear instancias virtuales de las GPUs físicas totalmente a medida de las necesidades de cada una de las máquinas virtuales. En entornos HPC (High Performance Computing; Computación de Altas Prestaciones), rCUDA también proporciona un mayor grado de flexibilidad de uso de las GPUs de todo el clúster de cómputo, ya que permite desacoplar totalmente la parte CPU de la parte GPU de las aplicaciones. Además, las GPUs pueden estar en cualquier nodo del clúster, independientemente del nodo en el que se está ejecutando la parte CPU de la aplicación. En general, tanto para Cloud Computing como en el caso de HPC, este mayor grado de flexibilidad se traduce en un aumento hasta 2x de la productividad de todo el sistema al mismo tiempo que se reduce el consumo energético en un 15%. Finalmente, también hemos desarrollado un mecanismo de migración de trabajos de la parte GPU de las aplicaciones que ha sido integrado dentro del framework rCUDA. Este mecanismo de migración ha sido evaluado y los resultados muestran claramente que, a cambio de una pequeña sobrecarga, alrededor de 400 milisegundos, en el tiempo de ejecución de las aplicaciones, es una potente herramienta con la que, de nuevo, aumentar la productividad y reducir el gasto energético del sistema. En resumen, en esta tesis se analizan los principales problemas derivados del uso de las GPUs como aceleradores de cómputo, tanto en entornos HPC como de Cloud Computing, y se demuestra cómo a través del uso del framework rCUDA, estos problemas pueden solucionarse. Además se desarrolla un potente mecanismo de migración de trabajos GPU, que integrado dentro del framework rCUDA, se convierte en una herramienta clave para los futuros planificadores de trabajos en clusters heterogéneos.
[CAT] En l'última dècada la utilització de la GPGPU(General Purpose computing in Graphics Processing Units; Computació de Propòsit General en Unitats de Processament Gràfic) s'ha tornat extremadament popular en els centres de dades de tot el món. Les GPUs (Graphics Processing Units; Unitats de Processament Gràfic) s'han establert com a elements acceleradors de còmput que s'utilitzen al costat de les CPUs formant sistemes heterogenis. La naturalesa massivament paral·lela de les GPUs, destinades tradicionalment al còmput de gràfics, permet realitzar operacions numèriques amb matrius de dades a gran velocitat degut al gran nombre de nuclis que integren i al gran ample de banda d'accés a memòria que posseeixen. En conseqüència, les aplicacions de tot tipus de camps, com ara química, física, enginyeria, intel·ligència artificial, ciència de materials, etc. que presenten aquest tipus de patrons de còmput es veuen beneficiades reduint dràsticament el seu temps d'execució. En general, l'ús de l'acceleració del còmput en GPUs ha significat un pas endavant i una revolució, però no està exempt de problemes, com ara poden ser problemes d'eficiència energètica, baixa utilització de les GPUs, alts costos d'adquisició i manteniment, etc. En aquesta tesi pretenem analitzar les principals mancances que presenten aquests sistemes heterogenis i proposar solucions basades en l'ús de la virtualització remota de GPUs. Per a això hem utilitzat l'eina rCUDA, desenvolupada a la Universitat Politècnica de València, ja que multitud de publicacions l'avalen com el framework de virtualització remota de GPUs més avançat de l'actualitat. Els resultats obtinguts en aquesta tesi mostren que l'ús de rCUDA en entorns de Cloud Computing incrementa el grau de llibertat del sistema, ja que permet crear instàncies virtuals de les GPUs físiques totalment a mida de les necessitats de cadascuna de les màquines virtuals. En entorns HPC (High Performance Computing; Computació d'Altes Prestacions), rCUDA també proporciona un major grau de flexibilitat en l'ús de les GPUs de tot el clúster de còmput, ja que permet desacoblar totalment la part CPU de la part GPU de les aplicacions. A més, les GPUs poden estar en qualsevol node del clúster, sense importar el node en el qual s'està executant la part CPU de l'aplicació. En general, tant per a Cloud Computing com en el cas del HPC, aquest major grau de flexibilitat es tradueix en un augment fins 2x de la productivitat de tot el sistema al mateix temps que es redueix el consum energètic en aproximadament un 15%. Finalment, també hem desenvolupat un mecanisme de migració de treballs de la part GPU de les aplicacions que ha estat integrat dins del framework rCUDA. Aquest mecanisme de migració ha estat avaluat i els resultats mostren clarament que, a canvi d'una petita sobrecàrrega, al voltant de 400 mil·lisegons, en el temps d'execució de les aplicacions, és una potent eina amb la qual, de nou, augmentar la productivitat i reduir la despesa energètica de sistema. En resum, en aquesta tesi s'analitzen els principals problemes derivats de l'ús de les GPUs com acceleradors de còmput, tant en entorns HPC com de Cloud Computing, i es demostra com a través de l'ús del framework rCUDA, aquests problemes poden solucionar-se. A més es desenvolupa un potent mecanisme de migració de treballs GPU, que integrat dins del framework rCUDA, esdevé una eina clau per als futurs planificadors de treballs en clústers heterogenis.
[EN] In the last decade the use of GPGPU (General Purpose computing in Graphics Processing Units) has become extremely popular in data centers around the world. GPUs (Graphics Processing Units) have been established as computational accelerators that are used alongside CPUs to form heterogeneous systems. The massively parallel nature of GPUs, traditionally intended for graphics computing, allows to perform numerical operations with data arrays at high speed. This is achieved thanks to the large number of cores GPUs integrate and the large bandwidth of memory access. Consequently, applications of all kinds of fields, such as chemistry, physics, engineering, artificial intelligence, materials science, and so on, presenting this type of computational patterns are benefited by drastically reducing their execution time. In general, the use of computing acceleration provided by GPUs has meant a step forward and a revolution, but it is not without problems, such as energy efficiency problems, low utilization of GPUs, high acquisition and maintenance costs, etc. In this PhD thesis we aim to analyze the main shortcomings of these heterogeneous systems and propose solutions based on the use of remote GPU virtualization. To that end, we have used the rCUDA middleware, developed at Universitat Politècnica de València. Many publications support rCUDA as the most advanced remote GPU virtualization framework nowadays. The results obtained in this PhD thesis show that the use of rCUDA in Cloud Computing environments increases the degree of freedom of the system, as it allows to create virtual instances of the physical GPUs fully tailored to the needs of each of the virtual machines. In HPC (High Performance Computing) environments, rCUDA also provides a greater degree of flexibility in the use of GPUs throughout the computing cluster, as it allows the CPU part to be completely decoupled from the GPU part of the applications. In addition, GPUs can be on any node in the cluster, regardless of the node on which the CPU part of the application is running. In general, both for Cloud Computing and in the case of HPC, this greater degree of flexibility translates into an up to 2x increase in system-wide throughput while reducing energy consumption by approximately 15%. Finally, we have also developed a job migration mechanism for the GPU part of applications that has been integrated within the rCUDA middleware. This migration mechanism has been evaluated and the results clearly show that, in exchange for a small overhead of about 400 milliseconds in the execution time of the applications, it is a powerful tool with which, again, we can increase productivity and reduce energy foot print of the computing system. In summary, this PhD thesis analyzes the main problems arising from the use of GPUs as computing accelerators, both in HPC and Cloud Computing environments, and demonstrates how thanks to the use of the rCUDA middleware these problems can be addressed. In addition, a powerful GPU job migration mechanism is being developed, which, integrated within the rCUDA framework, becomes a key tool for future job schedulers in heterogeneous clusters.
This work jointly supported by the Fundación Séneca (Agencia Regional de Ciencia y Tecnología, Región de Murcia) under grants (20524/PDC/18, 20813/PI/18 and 20988/PI/18) and by the Spanish MEC and European Commission FEDER under grants TIN2015-66972-C5-3-R, TIN2016-78799-P and CTQ2017-87974-R (AEI/FEDER, UE). We also thank NVIDIA for hardware donation under GPU Educational Center 2014-2016 and Research Center 2015-2016. The authors thankfully acknowledge the computer resources at CTE-POWER and the technical support provided by Barcelona Supercomputing Center - Centro Nacional de Supercomputación (RES-BCV-2018-3-0008). Furthermore, researchers from Universitat Politècnica de València are supported by the Generalitat Valenciana under Grant PROMETEO/2017/077. Authors are also grateful for the generous support provided by Mellanox Technologies Inc. Prof. Pradipta Purkayastha, from Department of Chemical Sciences, Indian Institute of Science Education and Research (IISER) Kolkata, is acknowledged for kindly providing the initial ligand and DNA structures.
Prades Gasulla, J. (2021). Improving Performance and Energy Efficiency of Heterogeneous Systems with rCUDA [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168081
TESIS
APA, Harvard, Vancouver, ISO, and other styles
19

Gos, María Alejandra. "MVC desde Smalltalk a la web: análisis de la arquitectura que produjo un cambio en el diseño de aplicaciones." Tesis, 2004. http://hdl.handle.net/10915/3908.

Full text
Abstract:
Esta tesis presenta un estudio elaborado de la arquitectura de software Model-View-Controller que hoy en día es, la más utilizada en el diseño de aplicaciones que requieren interacción con usuarios. El análisis se apoya sobre un conjunto definido de características deseables en una aplicación de software construida con dicha arquitectura. Estas propiedades son luego proyectadas uniformemente sobre distintos frameworks de última generación que implementan Model-View-Controller. Al mismo tiempo, la tesis contiene un estudio de la evolución de MVC, de sus componentes y conceptos, para lo cual ha sido necesario exponer y explicar los obstáculos y problemas que surgieron con la llegada de aplicaciones interactivas de mayor complejidad. En particular el trabajo se aboca al uso de MVC en la Web. Por último, el análisis intenta transmitir la importancia que esta herramienta a cobrado desde sus comienzos hasta la actualidad, por qué su utilización es ventajosa pero no siempre sencilla, y que MVC trae consigo un conjunto de conceptos y prácticas que impactan considerablemente sobre el diseño de una aplicación, sobre su grado de reusabilidad y flexibilidad posteriores y sobre las partes que la componen.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography