To see the other types of publications on this topic, follow the link: Arquitectura de hardware gráfico.

Dissertations / Theses on the topic 'Arquitectura de hardware gráfico'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 47 dissertations / theses for your research on the topic 'Arquitectura de hardware gráfico.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Balciunas, Daniel Alberto. "Traçado de raios interativo assistido pela unidade de processamento gráfico." Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/3/3142/tde-03072007-182637/.

Full text
Abstract:
Conhecido pelo seu alto custo computacional e grande qualidade das imagens sintetizadas, o traçado de raios vem sendo mais recentemente explorado pela comunidade científica em pesquisas por uma taxa de quadro interativa e constante. Almejando um novo modo de aceleração do traçado de raios, uma nova abordagem denominada traçado de raios assistido pela unidade de processamento gráfico é apresentada neste trabalho. Seu objetivo é dar base à formulação de algoritmos que façam um uso melhor dos recursos disponíveis nas placas de vídeo frequentemente encontradas nos computadores convencionais atuais. Com base nesta abordagem, várias contribuições são propostas nesta dissertação. Além de apresentar conceitos básicos de traçado de raios e uma revisão literária de seus tópicos mais importantes, este trabalho também explica e exemplifica alguns algoritmos clássicos de traçado de raios que serão utilizados como base para outros algoritmos aqui apresentados. Como principal contribuição é proposto e implementado um algoritmo, que calcula os pontos iniciais de varredura de subdivisões espaciais do traçado de raios primários de mapas de alturas a partir de um distance-buffer (mapa de distâncias) sintetizado pela unidade de processamento gráfico da placa de vídeo. Um segundo algoritmo é também proposto, onde um object-buffer (mapa de objetos) é sintetizado pela placa de vídeo para acelerar a varredura de estruturas de subdivisão espacial em cenas com primitivas genéricas do traçado de raios. Contribuições pontuais são realizadas neste trabalho no campo de síntese de mapas de alturas pela definição dos seguintes algoritmos: o algoritmo de reconstrução bilinear analítica, o algoritmo de interpolação biquadrátrica dupla, o algoritmo de predição por planos de altura inclinados e o algoritmo de mapeamento de nível de detalhe de reconstrução da superfície para o modelo de voxels. Uma breve discussão a respeito do futuro de algoritmos de traçado de raios assistido pela unidade de processamento gráfico e de sua implementação em aglomerados gráficos é apresentada no final deste trabalho, explorando novas possibilidades para a sua continuidade, desencadeando novas linhas de pesquisa correlacionadas.<br>Known by its high computational cost and by the high quality rendered imagens, ray tracing has been most recently explored by the scientific community in researches for interactive and constant frame rate. Aiming for a new way for optimizing ray tracing, a new approach called GPU-assisted ray tracing is defined in this work. Its objective is to be a first step in the formulation of ray tracing algorithms that take better advantage of graphics processing units commonly found in personal computers nowadays. Based on this approach, several contributions are proposed in this work. Besides presenting the basic concepts for ray tracing and a literature review of the most relevant topics, this work also explains and exemplifies some classical algorithms that are used as a base for the new algorithms here presented. As main contribution, we propose and implement an algorithm that calculates the initial points for traversing spatial subdivision structures, for tracing primary rays in height maps from a distance-buffer rendered by the video card. A second algorithm is proposed as well, where an object-buffer is rendered by the video card to accelerate the traversal of rays in spatial subdivision structures for scenes with generic primitives. Individual contributions are made, in this work, in rendering height maps by defining the following algorithms: the analytic bilinear reconstruction algorithm, the double bi-quadratic interpolation algorithm, the prediction by inclined height planes algorithm and the level of detail mapping for surface reconstruction in voxel-based models algorithm. A brief discussion about the future of GPU-assisted ray tracing algorithms and its implementation in graphical clusters is presented at the end of this work, exploiting new possibilities for its continuation and for related research topics.
APA, Harvard, Vancouver, ISO, and other styles
2

Crespo, Cabillo Isabel. "Control gráfico de formas y superficies de transición." Doctoral thesis, Universitat Politècnica de Catalunya, 2005. http://hdl.handle.net/10803/6559.

Full text
Abstract:
El treball parteix de la idea que l'arquitectura és essencialment geomètrica i vol demostrar que el coneixement de la geometria és imprescindible per a arribar a fer una obra d'arquitectura.<br/>S'estudien uns 30 exemples que tenen algun cas de forma de transició. És a dir elements la forma dels quals és la conseqüència de construir una figura que es transforma des d'un extrem a l'altre canviant el seu perfil de manera continua. Com per exemple pilars que tenen una base diferent del seu capitell, o voladius que varien la seva secció. Com a conseqüència d'això apareixen superfícies amb unes característiques geomètriques peculiars, que poden ajudar a l'objectiu de l'obra o poden entorpir la seva construcció. El coneixement en profunditat d'aquestes superfícies és imprescindible per que l'obra es pugui construir de manera raonable.<br/>Els exemples han estat estudiats des de tots els punts de vista que s'ha cregut interessant per a comprendre el perquè de la seva forma. Després s'ha estudiat en detall, fins a l'últim aspecte geomètric i constructiu, com es volia la seva forma, com s'ha comprès i com s'ha acabat construint.<br/>El focus d'atenció ha estat deliberadament centrat en l'arquitectura de les formes corbes i on més exemples de transició he trobat ha estat en l'arquitectura de formigó dels anys 1950', una arquitectura de formes toves amb una estreta i poc evident relació amb la construcció de vaixells.<br/>La connexió entre la forma pensada i la forma construïda es dona en el dibuix per que es regeix per les mateixes lleis que la construcció. <br/>Les formes corbes obliguen a un coneixement elevat de geometria que posa en condicions de treballar còmodament amb elements tridimensionals i per això cal no apartar aquesta docència dels plans d'estudis de les escoles d'arquitectura (sempre que es pretengui que sigui l'arquitecte qui controli la construcció d'edificis que confien en la forma la seva capacitat expressiva).
APA, Harvard, Vancouver, ISO, and other styles
3

Binotto, Alécio Pedro Delazari. "Visualização em tempo real de dados volumétricos dinâmicos usando hardware gráfico." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2003. http://hdl.handle.net/10183/5587.

Full text
Abstract:
Dados volumétricos temporais são usados na representação de fenômenos físicos em várias aplicações de visualização científica, pois tais fenômenos são complexos, alteram-se com o tempo e não possuem uma forma de representação definida. Uma solução é usar amostragens sobre um espaço de forma geométrica simples que contém o fenômeno (um cubo, por exemplo), discretizado ao longo de uma grade em células de mesmo formato e usualmente chamado de volume de amostragem. Este volume de amostragem representa um instante da representação do fenômeno e, para representar dados temporais, simplesmente enumera-se tantos volumes quanto forem as diferentes instâncias de tempo. Esta abordagem faz com que a representação seja extremamente custosa, necessitando de técnicas de representação de dados para comprimir e descomprimir os mesmos. Este trabalho apresenta uma nova abordagem para compressão de volumes de dados temporais que permite a visualização em tempo real destes dados usando hardware gráfico. O método de compressão usa uma representação hierárquica dos vários volumes de dados dentro da memória do hardware gráfico, referenciados pelo hardware como texturas 3D. O método de compressão tem melhor desempenho para dados volumétricos esparsos e com alto grau de coerência (espacial e temporal). A descompressão destes dados é feita por programas especiais que são executados no próprio hardware gráfico. Um estudo de caso usando o método de compressão/descompressão proposto é apresentado com dados provenientes do Projeto MAPEM (Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima). O objetivo do projeto é propor uma metodologia para o monitoramento dos efeitos das descargas de materiais no ecossistema marinho durante a perfuração de um poço de petróleo. Para estimar certos descarregamentos de fluidos, o projeto usa um simulador CFD que permite mostrar tais descarregamentos, gerando grades planares e uniformes 2D ou 3D em qualquer instante de tempo durante a simulação.
APA, Harvard, Vancouver, ISO, and other styles
4

Paiva, Maria Stela Veludo de. "Projeto de uma arquitetura de hardware para visualização de imagens digitais." Universidade de São Paulo, 1990. http://www.teses.usp.br/teses/disponiveis/54/54132/tde-19082014-105911/.

Full text
Abstract:
Neste trabalho são apresentadas a implementação e avaliação da aplicação do processador gráfico TMS34010. O objetivo foi o desenvolvimento de um sistema para visualização de imagens com este processador, a ser integrado ao Tomógrafo por Ressonância Magnética, do Departamento de Física e Ciência dos Materiais. A fim de avaliar tanto os aspectos do \"hardware\" quanto às capacidades do processador, foram desenvolvidos dois sistemas: um com 16 cores, e outro com 256 níveis de cinza, ambos contendo uma interface serial para interligação de um \"mouse\" convencional para microcomputadores do tipo PC-AT. Através destes sistemas foram avaliados recursos tais como \"pan\" horizontal e vertical, divisão da tela ao meio, vídeo no modo entrelaçado, transparência, operações lógicas, e instruções de transferência de blocos de \"pixels\"<br>This work describes the implementation and evaluation of a TMS34010 graphics processor based system. The system was developed to be used for the visualization of Magnetic Resonance Images in the MR tomography system under development in our Department. To evaluate the design and the performance of the processor, two systems were developed: one capable to show pictures with 16 simultaneous colors, and a second one able to display pictures with a gray scale of 256 levels. Both systems are equipped with a serial interface supporting a conventional mouse as used for PC compatibles. The hardware developed was used to evaluate implementations of resources such as horizontal and vertical PAN, screen division, interlaced video, transparency, logic operations and pixels block transfer routines
APA, Harvard, Vancouver, ISO, and other styles
5

Vasconcelos, Atila Bohlke. "Modelo de performance para código com desvios de execução em hardware gráfico." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2006. http://hdl.handle.net/10183/11262.

Full text
Abstract:
O advento das unidades de processamento gráfico (GPUs) programáveis forneceram um novo modelo computacional que pode ser utilizado em diversas aplicações. Baseadas em arquitetura de fluxo paralelo, a atual geração de GPUs oferece processadores de vértices e de fragmentos programáveis que podem aumentar drasticamente a performance comparada com soluções implementadas exclusivamente em CPUs. Entretanto obter performance ótima no modelo computacional da GPU, que é complexo e altamente paralelo, com ferramentas de depuração limitadas é uma tarefa difícil e importante. Neste trabalho nós descrevemos uma abordagem simples para avaliar diversas soluções baseadas em GPU para uma dada solução. Ela consiste de um modelo de estimativa de performance que procura reproduzir, dentro de faixas toleráveis de erro, a medida de performance para a unidade de processamento de fragmentos. Nós avaliamos a nossa proposta utilizando as últimas gerações de placas gráficas da NVidia e da ATI usando um conjunto de medidas sintéticas bem como um estudo de caso de uma aplicação em tempo-real.<br>The advent of Graphics Processing Units (GPUs) with programmable shaders brought a new computational model that can be used in several applications. Based on a parallel streaming architecture, current GPU generations offer a vertex and fragment shader that can drastically improve performance if compared to CPU-only solutions. However, obtaining optimal performance in the highly parallel and complex GPU model with limited debugging tools is a challenging and important task. In this work we describe a simple approach to evaluate several GPU alternatives to a given solution. It consists of a performance estimation model that aims to reproduce within acceptable errors the measured performance of the fragment shader. We evaluate our proposal using last generation cards from NVIDIA and ATI using synthetic benchmarks as well as a real-time graphics application case-study.
APA, Harvard, Vancouver, ISO, and other styles
6

Martínez, Moya Joaquín Ángel. "La arquitectura del expoliado Palacio Condal de Oliva a través del legado gráfico." Doctoral thesis, Universitat Jaume I, 2017. http://hdl.handle.net/10803/404100.

Full text
Abstract:
El Palacio Condal de Oliva, Monumento Nacional desde 1920, hoy casi desaparecido, fue un referente de la arquitectura tardogótica valenciana. El objetivo principal del presente trabajo consiste en profundizar en su conocimiento y fomentar su difusión. Se ha realizado una búsqueda de fuentes documentales para contextualizar el edificio, así como a sus promotores y posibles creadores desde un punto de vista histórico, social y estilístico. Partiendo de la documentación gráfica levantada por los arquitectos daneses Fischer y Lauritzem (1917-1920) se han analizado los elementos arquitectónicos que lo componían, estudiando su trazado, métrica y composición. Se han restituido algunos de sus elementos más singulares siguiendo una rigurosa metodología gráfica, con la finalidad de poder visualizar este espacio arquitectónico y poder profundizar en el análisis y comprensión del conjunto arquitectónico, para posteriores estudios, así como la difusión de este monumento.<br>The Earls' Palace in Oliva, National Monument since 1920, but today almost disappeared, was a point of reference of the Valencian late-Gothic architecture. The aim of this work is to deepen its knowledge and promote its dissemination. A search has been made to find documentary sources to contextualize the building, as well as its promoters and possible creators from a historical, social and stylistic point of view. Starting with the graphic information collected by the Danish architects Fischer and Lauritzen (1917-1920), architectural elements that composed it have been analyzed, studying its layout, metrics and composition. Some of its most unique elements have been graphically restored following a rigorous graphic methodology, in order to be able to visualize this architectural space, allowing a deeper analysis and understanding of the architectural complex, for use in further studies. It also helps to the diffusion of this monument to a wider public.
APA, Harvard, Vancouver, ISO, and other styles
7

Eastes, Arredondo Alessandra. "Complejo de estudio y desarrollo de diseño gráfico digital." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2013. http://hdl.handle.net/10757/273341.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Sintas, Martinez Antonio Manuel. "El trazado de los teatros romanos de Hispania: Análisis gráfico." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/60154.

Full text
Abstract:
[EN] Throughout last decades the knowledge of Roman theatres has got a great advance in all aspects of their architecture. Those that were built in Hispania, though with some delay with regard to their related ones in the rest of the western provinces of the Empire, have participated in this notable increase of knowledge, that has tempt to raise the interest of experts, as well as the rest of citizens, specially in those places where remains of one of these buildings have been discovered. Issues of survey of new cases and the revision under updated points of view of another previously known, invite us to investigate on one of the most controversial aspects of ancient architecture, that of its layout. By other side, improvements of current graphical tools provide us more precision in technical representation of architecture and facilities to manage graphic information, so that nowadays they allow us to approach this question with added guarantees of successful. In our study we investigate Roman theatres in Hispania from the point of view of the layout, making use of the advances that have experienced both the knowledge of this type of buildings and resources that are needed for its analysis. For this proposal we have took into account the contributions of authors that have preceded us in this task, conscious that our investigation will constitute only one step more in the long process that will lead us to know better the object of study. The certainties about graphical procedures that were applied in the Antiquity to plan and to construct the buildings are scanty, but we have in this case Vitruvio's exceptional testimony, which includes a geometric procedure for the layout of theatres. Nevertheless, still being a direct source of enormous importance, the Vitruvian proposal has constituted more a trouble than a help for investigation of layout in this type of buildings, determining eventually in excess the surveys and causing a certain delay for obtain results that could clarify how was the process followed to design and implant them. We are aware of the difficulties that a study about layout in Architecture puts up with, which is increased in this case by the fact that Roman theatres typology presents heterogeneous features in multiple aspects, among them that of the layout. But the delay that the analysis of Hispanic theatres from this point of view accumulates today and the possibility of look at this question with a more sensible attitude, allow us to augur the procurement of positive results that contribute to a right knowledge about the way Roman architects proceeded for planning and building them.<br>[ES] El conocimiento de la arquitectura teatral romana de época imperial ha experimentado a lo largo de las últimas décadas un gran avance en todos sus aspectos. Los teatros hispanos, si bien con algo de retraso con respecto a sus afines del resto de las provincias occidentales del Imperio, no han sido ajenos a este notable aumento del saber, que ha despertado el interés de los estudiosos, así como del conjunto de la sociedad, especialmente en aquellos lugares donde han sido descubiertos los restos de uno de estos edificios. La investigación de nuevos casos y el estudio bajo puntos de vista actualizados de otros ya conocidos, nos invitan a indagar sobre uno de los aspectos más controvertidos de la arquitectura antigua, el de su trazado. Las mejoras técnicas de las herramientas gráficas actuales con respecto a las de antaño, que proporcionan mayor precisión en los levantamientos y agilizan enormemente el manejo de la información, nos permiten abordar hoy en día esta cuestión con más garantías que hace sólo unos años. En el presente trabajo investigamos los teatros romanos de Hispania desde el punto de vista de su trazado, valiéndonos de los avances que han experimentado tanto el conocimiento de este tipo de edificios como los medios que se precisan para su análisis. Para ello hemos tenido en cuenta las aportaciones realizadas por quienes nos han precedido en esta tarea, conscientes de que nuestra investigación constituirá sólo un paso más de un largo proceso que nos ha de llevar a conocer mejor el objeto de estudio. Son escasas las certezas que tenemos sobre los procedimientos gráficos que se aplicaron en la Antigüedad para proyectar y construir los edificios, pero contamos en este caso con el testimonio excepcional de Vitruvio, cuyo tratado incluye una propuesta de carácter geométrico para el trazado de los teatros. Sin embargo, aún siendo una fuente directa de enorme importancia, la normativa vitruviana ha constituido más un lastre que una ayuda para la investigación de los trazados en este tipo de edificios, condicionando en exceso los planteamientos de estudio y provocando a la larga una cierta demora en la obtención de resultados que pudieran arrojar luz sobre el proceso seguido para su diseño e implantación. Sabedores de la dificultad que entraña el estudio de los trazados en la Arquitectura, que se suma en este caso a la heterogeneidad que la tipología teatral romana presenta en múltiples aspectos, entre ellos el de su trazado, el retraso que acumula el análisis de los teatros hispanos desde este punto de vista y la posibilidad de dar un enfoque más atinado a esta cuestión, nos permiten augurar la obtención de resultados positivos que contribuyan al mejor conocimiento del modo de proceder de los arquitectos romanos a la hora de proyectar y construir los edificios teatrales.<br>[CAT] El coneixement de l'arquitectura teatral romana d'època imperial ha experimentat al llarg de les últimes dècades un gran avanç en tots els seus aspectes. Els teatres hispans, si bé amb quelcom de retard respecte als seus afins de la resta de les províncies occidentals de l'imperi, no han sigut aliens a aquest notable augment del saber, que ha despertat l'interés dels estudiosos, així com del conjunt de la societat, especialment en aquells llocs on han sigut descoberts les restes d'un d'estos edificis. La investigació de nous casos i l'estudi baix punts de vista actualitzats d'altres ja coneguts, ens inviten a indagar sobre un dels aspectes més controvertits de l'arquitectura antiga, el del seu traçat. Les millores tècniques de les ferramentes gràfiques actuals respecte a les d'antany, que proporcionen més precisió en els alçaments i agilitzen enormement el maneig de la informació, ens permeten en la actualitat abordar esta qüestió amb més garanties que fa només uns anys. En el present treball investiguem els teatres romans d'Hispània des del punt de vista del seu traçat, valent-nos dels avanços que han experimentat tant el coneixement d'aquest tipus d'edificis com els mitjans per a la seua anàlisi. Hem tingut en compte, per altra banda, les aportacions realitzades pels que ens han precedit en esta tasca, conscients que la nostra investigació constituirà només un pas més d'un llarg procés que ens ha de portar a conèixer millor l'objecte d'estudi. Són escasses les certeses que tenim sobre els procediments gràfics que es van aplicar en l'Antiguitat per a projectar i construir els edificis, però comptem en aquest cas amb el testimoni excepcional de Vitruvi, el tractat del qual inclou una proposta de caràcter geomètric per al traçat dels teatres. No obstant això, la normativa vitruviana, encara sent una font directa d'enorme importància, ha constituït més un llast que una ajuda per a la investigació dels traçats en aquest tipus d'edificis, condicionant en excés els plantejaments d'estudi i provocant a la llarga una certa demora en l'obtenció de resultats que pogueren fer llum sobre el procés seguit per al seu disseny i implantació. Sabedors de la dificultat que entranya l'estudi dels traçats en l'Arquitectura, que se suma en aquest cas a l'heterogeneïtat que la tipologia teatral romana presenta en múltiples aspectes, entre ells el del seu traçat, el retard que acumula l'anàlisi des d'aquest punt de vista dels teatres hispans i la possibilitat de donar un enfocament més encertat a esta qüestió, ens permeten augurar l'obtenció de resultats positius que contribuïsquen al millor coneixement del mode de procedir dels arquitectes romans a l'hora de projectar i construir els edificis teatrals.<br>Sintas Martinez, AM. (2016). El trazado de los teatros romanos de Hispania: Análisis gráfico [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/60154<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
9

Meza, Gormaz Stephanie. "Kimün. Crea construye y descubre patrimonio." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/141138.

Full text
Abstract:
Memoria para optar al título de Diseñador Gráfico<br>El presente proyecto hace una puesta en valor y resignificación del sistema constructivo utilizado en la arquitectura chilota, rescatando sus mecanismos de ensambles y empalmes, proponiendo un nuevo contexto de uso a través del juego, instancia en que se vincula a los niños y niñas al patrimonio cultural mediante una experiencia significativa.
APA, Harvard, Vancouver, ISO, and other styles
10

Herrero, Abellanas Enric. "Adaptive memory hierarchies for next generation tiled microarchitectures." Doctoral thesis, Universitat Politècnica de Catalunya, 2011. http://hdl.handle.net/10803/80539.

Full text
Abstract:
Les últimes dècades el rendiment dels processadors i de les memòries ha millorat a diferent ritme, limitant el rendiment dels processadors i creant el conegut memory gap. Sol·lucionar aquesta diferència de rendiment és un camp d'investigació d'actualitat i que requereix de noves sol·lucions. Una sol·lució a aquest problema són les memòries “cache”, que permeten reduïr l'impacte d'unes latències de memòria creixents i que conformen la jerarquia de memòria. La majoria de d'organitzacions de les “caches” estan dissenyades per a uniprocessadors o multiprcessadors tradicionals. Avui en dia, però, el creixent nombre de transistors disponible per xip ha permès l'aparició de xips multiprocessador (CMPs). Aquests xips tenen diferents propietats i limitacions i per tant requereixen de jerarquies de memòria específiques per tal de gestionar eficientment els recursos disponibles. En aquesta tesi ens hem centrat en millorar el rendiment i la eficiència energètica de la jerarquia de memòria per CMPs, des de les “caches” fins als controladors de memòria. A la primera part d'aquesta tesi, s'han estudiat organitzacions tradicionals per les “caches” com les privades o compartides i s'ha pogut constatar que, tot i que funcionen bé per a algunes aplicacions, un sistema que s'ajustés dinàmicament seria més eficient. Tècniques com el Cooperative Caching (CC) combinen els avantatges de les dues tècniques però requereixen un mecanisme centralitzat de coherència que té un consum energètic molt elevat. És per això que en aquesta tesi es proposa el Distributed Cooperative Caching (DCC), un mecanisme que proporciona coherència en CMPs i aplica el concepte del cooperative caching de forma distribuïda. Mitjançant l'ús de directoris distribuïts s'obté una sol·lució més escalable i que, a més, disposa d'un mecanisme de marcatge més flexible i eficient energèticament. A la segona part, es demostra que les aplicacions fan diferents usos de la “cache” i que si es realitza una distribució de recursos eficient es poden aprofitar els que estan infrautilitzats. Es proposa l'Elastic Cooperative Caching (ElasticCC), una organització capaç de redistribuïr la memòria “cache” dinàmicament segons els requeriments de cada aplicació. Una de les contribucions més importants d'aquesta tècnica és que la reconfiguració es decideix completament a través del maquinari i que tots els mecanismes utilitzats es basen en estructures distribuïdes, permetent una millor escalabilitat. ElasticCC no només és capaç de reparticionar les “caches” segons els requeriments de cada aplicació, sinó que, a més a més, és capaç d'adaptar-se a les diferents fases d'execució de cada una d'elles. La nostra avaluació també demostra que la reconfiguració dinàmica de l'ElasticCC és tant eficient que gairebé proporciona la mateixa taxa de fallades que una configuració amb el doble de memòria.Finalment, la tesi es centra en l'estudi del comportament de les memòries DRAM i els seus controladors en els CMPs. Es demostra que, tot i que els controladors tradicionals funcionen eficientment per uniprocessadors, en CMPs els diferents patrons d'accés obliguen a repensar com estan dissenyats aquests sistemes. S'han presentat múltiples sol·lucions per CMPs però totes elles es veuen limitades per un compromís entre el rendiment global i l'equitat en l'assignació de recursos. En aquesta tesi es proposen els Thread Row Buffers (TRBs), una zona d'emmagatenament extra a les memòries DRAM que permetria guardar files de dades específiques per a cada aplicació. Aquest mecanisme permet proporcionar un accés equitatiu a la memòria sense perjudicar el seu rendiment global. En resum, en aquesta tesi es presenten noves organitzacions per la jerarquia de memòria dels CMPs centrades en la escalabilitat i adaptativitat als requeriments de les aplicacions. Els resultats presentats demostren que les tècniques proposades proporcionen un millor rendiment i eficiència energètica que les millors tècniques existents fins a l'actualitat.<br>Processor performance and memory performance have improved at different rates during the last decades, limiting processor performance and creating the well known "memory gap". Solving this performance difference is an important research field and new solutions must be proposed in order to have better processors in the future. Several solutions exist, such as caches, that reduce the impact of longer memory accesses and conform the system memory hierarchy. However, most of the existing memory hierarchy organizations were designed for single processors or traditional multiprocessors. Nowadays, the increasing number of available transistors has allowed the apparition of chip multiprocessors, which have different constraints and require new ad-hoc memory systems able to efficiently manage memory resources. Therefore, in this thesis we have focused on improving the performance and energy efficiency of the memory hierarchy of chip multiprocessors, ranging from caches to DRAM memories. In the first part of this thesis we have studied traditional cache organizations such as shared or private caches and we have seen that they behave well only for some applications and that an adaptive system would be desirable. State-of-the-art techniques such as Cooperative Caching (CC) take advantage of the benefits of both worlds. This technique, however, requires the usage of a centralized coherence structure and has a high energy consumption. Therefore we propose the Distributed Cooperative Caching (DCC), a mechanism to provide coherence to chip multiprocessors and apply the concept of cooperative caching in a distributed way. Through the usage of distributed directories we obtain a more scalable solution and, in addition, has a more flexible and energy-efficient tag allocation method. We also show that applications make different uses of cache and that an efficient allocation can take advantage of unused resources. We propose Elastic Cooperative Caching (ElasticCC), an adaptive cache organization able to redistribute cache resources dynamically depending on application requirements. One of the most important contributions of this technique is that adaptivity is fully managed by hardware and that all repartitioning mechanisms are based on distributed structures, allowing a better scalability. ElasticCC not only is able to repartition cache sizes to application requirements, but also is able to dynamically adapt to the different execution phases of each thread. Our experimental evaluation also has shown that the cache partitioning provided by ElasticCC is efficient and is almost able to match the off-chip miss rate of a configuration that doubles the cache space. Finally, we focus in the behavior of DRAM memories and memory controllers in chip multiprocessors. Although traditional memory schedulers work well for uniprocessors, we show that new access patterns advocate for a redesign of some parts of DRAM memories. Several organizations exist for multiprocessor DRAM schedulers, however, all of them must trade-off between memory throughput and fairness. We propose Thread Row Buffers, an extended storage area in DRAM memories able to store a data row for each thread. This mechanism enables a fair memory access scheduling without hurting memory throughput. Overall, in this thesis we present new organizations for the memory hierarchy of chip multiprocessors which focus on the scalability and of the proposed structures and adaptivity to application behavior. Results show that the presented techniques provide a better performance and energy-efficiency than existing state-of-the-art solutions.
APA, Harvard, Vancouver, ISO, and other styles
11

Ripollés, Mateu Oscar Enrique. "Towards a multiresolution model on GPU." Doctoral thesis, Universitat Jaume I, 2009. http://hdl.handle.net/10803/10486.

Full text
Abstract:
El objetivo principal de esta tesis es presentar un conjunto de técnicas que se han desarrollado para mejorar la visualización en tiempo real de mallas poligonales. Se describen varias soluciones a la gestión del nivel de detalle, haciendo énfasis en la explotación del hardware grafico actual. En consecuencia, las contribuciones optimizan el coste de almacenamiento, reducen el tiempo de extracción y minimizan los datos transferidos a través del BUS. Por último, se presenta una solución que es capaz de gestionar el nivel de detalle completamente en la tarjeta gráfica, reduciendo al máximo el tráfico de datos y ofreciendo tanto resoluciones uniformes como variables. Además, este último método ofrece una fácil implementación en aplicaciones 3D que permiten la aplicación de shaders a mallas poligonales.
APA, Harvard, Vancouver, ISO, and other styles
12

Madern, Leandro Narcís. "Good-visibility computation using graphics hardware." Doctoral thesis, Universitat de Girona, 2010. http://hdl.handle.net/10803/7892.

Full text
Abstract:
Aquesta tesi tracta del disseny, implementació i discussió d'algoritmes per resoldre problemes de visibilitat i bona-visibilitat utilitzant el hardware grà&#64257;c de l'ordinador. Concretament, s'obté una discretització dels mapes de multi-visibilitat i bona-visibilitat a partir d'un conjunt d'objectes de visió i un conjunt d'obstacles. Aquests algoritmes són útils tant per fer càlculs en dues dimensions com en tres dimensions. Fins i tot ens permeten calcular-los sobre terrenys.<br>In this thesis we design, implement and discuss algorithms that run in the graphics hardware for solving visibility and good-visibility problems. In particular, we compute a discretization of the multi-visibility and good-visibility maps from a set of view objects (points or segments) and a set of obstacles. This computation is carried out for two-dimensional and three-dimensional spaces and even over terrains, which in computational geometry are de&#64257;ned as a 2.5D space.
APA, Harvard, Vancouver, ISO, and other styles
13

Molina, Campos Katterine. "Diseño de interfaz táctil/sonora para la visualización de interpretaciones. Experimentación desde el campo de la visualidad sobre la relación entre los sujetos y el software/hardware." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139131.

Full text
Abstract:
Memoria para optar al título de Diseñador Gráfico<br>Diseño de interfaz táctil/sonora para la visualización de interpretaciones; experimentación desde el campo de la visualidad sobre la relación entre los sujetos y el software/hardware es un proyecto de diseño experimental situado en un subsector de la teoría de medios llamado arqueología medial y que se proyecta a los estudios del software que son a su vez un subsector de los estudios mediales, también pertenece a las humanidades digitales y al arte. Busca a través del diseño de una interfaz para la visualización de interpretaciones, representar visualmente un fenómeno que emerge del análisis de nuevas informaciones o no-cosas, un término que Vilém Flusser explora en su libro Filosofía del Diseño (2002) y nuevos seres humanos que se manejan con estas nuevas informaciones, y que son Homo Ludens, además un análisis desde la Arqueología medial con la flauta como un referente teórico que me permitió abstraer la idea de esta como hardware, la notación y partitura musical como software y al intérprete musical como un llamado usuario que pasa a ser un sujeto, también un intérprete, y por otro lado relacionar la interpretación con el jugar de Vilém Flusser. Este fenómeno es el de la relación interpretativa entre los sujetos y el software/hardware. La relación interpretativa refiere a diferentes maneras en que los sujetos interactúan con el software/hardware para crear cosas nuevas. En esta investigación se hace un estudio de referentes que incluye no sólo a la flauta, también a 10 Print (1982), Listening Post (2001), Microsoft Excel (1985), Kinect (2010), Patatap (2014), PolyFauna (2014), Sintetizador ANS (1958), Reactable (2005), Processing (2001), Resonance Experiment (1808 y 2013), entre muchos otros. Desde los cuales surgen diferentes propuestas que concluyen en la construcción de un prototipo que forma parte de una instalación y que materializa todo el estudio y reflexión hecha durante el desarrollo del proyecto. Esta investigación, de tipo experimental, pretende generar reflexiones que sean de ayuda para el diseñador y contribuyan al estudio del software. El trabajo del diseñador es construir imágenes y que con ellas sucedan cosas, para esto usamos tecnologías que nos ayudan a realizarlas y hacerlas circular, por lo tanto es relevante conocerlas, ya que además así podríamos encontrar personalmente la respuesta de por qué lo que hacemos es importante.
APA, Harvard, Vancouver, ISO, and other styles
14

Lizama, Carreño Cristián. "Evocación. Propuesta audiovisual de carácter documental, para la transferencia y resguardo del patrimonio cultural de la Facultad de Arquitectura y Urbanismo de la Universidad de Chile." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/133730.

Full text
Abstract:
Memoria para optar al título de Diseñador Gráfico<br>El presente proyecto "Evocación" propone a través de una experiencia audiovisual autoral de carácter documental registrar fragmentos del imaginario social urbano de la Facultad de Arquitectura y Urbanismo (FAU) de la Universidad de Chile con el fin de comunicar y difundir el patrimonio cultural inmaterial que posee. La investigación, que abarca el periodo 2013-2014, nos invita a un ejercicio de mirada en la cual el autor desea retratar su visión sobre la facultad desde los ojos de un estudiante y habitante del territorio en cuestión, entregando así un cortometraje documental de diez minutos de duración que expone una selección de escenas y experiencias que buscan describir la vida en la facultad. El proceso formal que da carácter a este trabajo de diseño se centra en el estudio de dos fuentes: la observación, en las cuales se identifican costumbres, comportamientos, personajes, espacios e infraestructura; y en el estudio del inconsciente colectivo contenido en la historia y en la apreciación de los ciudadanos por su territorio. Asimismo, este documento describirá los procesos de auto-educación experimentados por el autor, como los conceptos y fundamentos que estuvieron detrás de las decisiones de diseño que dan forma a la pieza audiovisual, producto de su formación como diseñador gráfico en esta institución. De ninguna manera este proyecto busca ser una representación institucional de la facultad, sino más bien una mirada autoral de la ciudadanía en cuestión que ayude a la reflexión de sus habitantes con respecto a sus costumbres y su espacio. Además, se propone abrir esta visión de la escuela a diferentes perspectivas y a su vez crear un registro del estado actual de la facultad que sirva como testimonio y memoria que contribuya al capital inmaterial de la Universidad de Chile y la FAU.
APA, Harvard, Vancouver, ISO, and other styles
15

Chielle, Eduardo. "Selective Software-Implemented Hardware Fault Tolerance Techniques to Detect Soft Errors in Processors with Reduced Overhead." Doctoral thesis, Universidad de Alicante, 2016. http://hdl.handle.net/10045/62467.

Full text
Abstract:
Software-based fault tolerance techniques are a low-cost way to protect processors against soft errors. However, they introduce significant overheads to the execution time and code size, which consequently increases the energy consumption. System operating with time or energy restrictions may not be able to use these techniques. For this reason, this work proposes new software-based fault tolerance techniques with lower overheads and similar fault coverage to state-of-the-art software techniques. Thus, they can meet the system constraints. In addition, the shorter execution time reduces the exposure time to radiation. Consequently, the reliability is higher for the same fault coverage. Techniques can work with error correction or error detection. Once detection is less costly than correction, this work focuses on software-based detection techniques. Firstly, a set of data-flow techniques called VAR is proposed. The techniques are based on general building rules to allow an exhaustive assessment, in terms of reliability and overheads, of different technique variations. The rules define how the technique duplicates the code and insert checkers. Each technique uses a different set of rules. Then, a control-flow technique called SETA (Software-only Error-detection Technique using Assertions) is introduced. Comparing SETA with a state-of-the-art technique, SETA is 11.0% faster and occupies 10.3% fewer memory positions. The most promising data-flow techniques are combined with the control-flow technique in order to protect both dataflow and control-flow of the target application. To go even further with the reduction of the overheads, methods to selective apply the proposed software techniques have been developed. For the data-flow techniques, instead of protecting all registers, only a set of selected registers is protected. The set is selected based on a metric that analyzes the code and rank the registers by their criticality. For the control-flow technique, two approaches are taken: (1) removing checkers from basic blocks: all the basic blocks are protected by SETA, but only selected basic blocks have checkers inserted, and (2) selectively protecting basic blocks: only a set of basic blocks is protected. The techniques and their selective versions are evaluated in terms of execution time, code size, fault coverage, and Mean Work To Failure (MWTF), which is a metric to measure the trade-off between fault coverage and execution time. Results show that was possible to reduce the overheads without affecting the fault coverage, and for a small reduction in the fault coverage it was possible to significantly reduce the overheads. Lastly, since the evaluation of all the possible combinations for selective hardening of every application takes too much time, this work uses a method to extrapolate the results obtained by simulation in order to find the parameters for the selective combination of data and control-flow techniques that are probably the best candidates to improve the trade-off between reliability and overheads.
APA, Harvard, Vancouver, ISO, and other styles
16

Titos, Gil José Rubén. "Hardware Techniques for High-Performance Transactional Memory in Many-Core Chip Multiprocessors." Doctoral thesis, Universidad de Murcia, 2011. http://hdl.handle.net/10803/51473.

Full text
Abstract:
Esta tesis investiga la implementación hardware eficiente de los sistemas de memoria transaccional (HTM) en un chip multiprocesador escalable (CMP), identificando aspectos que limitan el rendimiento y proponiendo técnicas que solventan dichas patologías. Las contribuciones de la tesis son varios diseños HTM complementarios que alcanzan un rendimiento robusto y evitan comportamientos patológicos, mediante la introducción de flexibilidad y adaptabilidad, sin que dichas técnicas apenas supongan un incremento en la complejidad del sistema global. Esta disertación considera tanto sistemas HTM de política ansiosa como aquellos diseñados bajo el enfoque perezoso, y afrontamos las sobrecargas en el rendimiento que son inherentes a cada política. Quizá la contribución más relevante de esta tesis es ZEBRA, un sistema HTM de política híbrida que adapta su comportamiento en función de las características dinámicas de la carga de trabajo.<br>This thesis focuses on the hardware mechanisms that provide optimistic concurrency control with guarantees of atomicity and isolation, with the intent of achieving high-performance across a variety of workloads, at a reasonable cost in terms of design complexity. This thesis identifies key inefficiencies that impact the performance of several hardware implementations of TM, and proposes mechanisms to overcome such limitations. In this dissertation we consider both eager and lazy approaches to HTM system design, and address important sources of overhead that are inherent to each policy. This thesis presents a hybrid-policy, adaptable HTM system that combines the advantages of both eager and lazy approaches in a low complexity design. Furthermore, this thesis investigates the overheads of the simpler, fixed-policy HTM designs that leverage a distributed directory-based coherence protocol to detect data races over a scalable interconnect, and develops solutions that address some performance degrading factors.
APA, Harvard, Vancouver, ISO, and other styles
17

Sáez, Riquelme Beatriz. "Iglesias Salón Valencianas del XVIII. Levantamiento gráfico, análisis geométrico y constructivo, patología común." Doctoral thesis, Universitat Jaume I, 2013. http://hdl.handle.net/10803/298717.

Full text
Abstract:
<p>Este trabajo se enmarca dentro de las investigaciones para la salvaguarda y puesta en valor del patrimonio arquitectónico. Su objetivo es el estudio arquitectónico-constructivo del tipo denominado iglesias salón, columnarias o "hallenkirchen", a través de los casos construidos durante el siglo XVIII en el Reino de Valencia. Se han catalogado diecisiete templos formando un conjunto acotado geográfica y cronológicamente, su mayoría en la provincia de Castellón, y segunda mitad de la citada centuria. Entre estos templos se han se encuentran tanto ermitas, como iglesias parroquiales e incluso una arciprestal. Estas habían sido estudiadas desde la disciplina de la Historia, pero no desde el ámbito arquitectónico, siendo ésta la principal aportación de la investigación, que contempla el levantamiento de planos y su análisis gráfico y metrológico, la descripción y el análisis de su sistema constructivo, así como la evaluación de su patología, analizando de manera conjunta aquella que podría devenir del tipo. De forma paralela se ha establecido la comparación entre la obra ejecutada y los tratados arquitectónicos de mayor influencia en la época, tanto en el campo gráfico como en el constructivo.</p> <p>Aunque en conjunto se trata de un estudio de casos realizado a través de una investigación cualitativa, dada la disparidad de temas tratados ha sido necesaria la aplicación de una metodología específica para cada uno de los apartados desarrollados: de representación y análisis gráfico, de inspección, de análisis constructivo, estructural y patológico de edificios históricos.</p> <p>La tesis se descompone en cuatro grandes bloques: Introducción, Catálogo, Comparación y conclusiones, y Anexos. Del primero es de destacar la definición del tipo a través de los planos originales vinculados con los templos objeto de estudio y sus predecesores dentro de la Comunidad Valenciana. En el segundo se analizan de manera pormenorizada las características constructivas de cada uno de los edificios, descubriendo un interesante repertorio de soluciones constructivas entre las que destacan las bóvedas tabicadas .Se aportan sus planos de planta y secciones realizados con exhaustiva minuciosidad y se analiza su geometría y su distribución además de recopilar sus datos históricos relativos a su cronología, autoría y construcción, debiéndose subrayar la aportación de los datos relacionados con intervenciones relativamente recientes, cuyas autorías permanecían hasta la fecha en el anonimato. En el tercero se establece la relación entre los tres hitos más importantes: el gráfico, el constructivo y el patológico, aportándose de manera puntual, mediante estática gráfica, el análisis estructural de uno de los templos, para concluir con aquellos factores comunes al tipo estudiado y aquellos que puedan ser particulares de cada uno de los casos. Por último se presenta un dossier de terminología específica y unas fichas resumen de cada uno de los templos.</p>
APA, Harvard, Vancouver, ISO, and other styles
18

Brotons, Francisco Javier. "Modelo de Criptoprocesador de Curvas Elípticas en GF(2m) Basado en Hardware Reconfigurable." Doctoral thesis, Universidad de Alicante, 2015. http://hdl.handle.net/10045/54171.

Full text
Abstract:
En la presente tesis se ha llevado a cabo una investigación en el ámbito de la criptografía centrada en los criptosistemas basados en curvas elípticas. En concreto, se ha desarrollado un modelo de criptoprocesador de curvas elípticas en GF(2m) con el objetivo de abordar los requisitos, cada vez más en boga, de utilizar la menor cantidad de recursos posible y a la vez minimizar los tiempos de respuesta obtenidos. De forma más específica, uno de los objetivos se dirige a desarrollar un multiplicador capaz de trabajar de forma eficiente en cualquier campo GF(2m) independientemente de cuál sea el tamaño de palabra seleccionado para operar. Para llevar a cabo este objetivo se ha realizado un análisis de los antecedentes y de los trabajos relacionados con el ámbito de la problemática predefinida. Este análisis nos ha permitido centrar el problema y a partir de éste plantear una solución novedosa con respecto al resto de enfoques existentes en este campo de investigación. Se ha implementado un microprocesador de 8 bits de propósito general en hardware reconfigurable minimizando su repertorio de instrucciones. A partir de él se han obtenido los resultados que nos proporcionan su programación en el lenguaje ensamblador descrito y se propone como propuesta de mejora la inclusión de un elemento multiplicador que disminuya los tiempos de respuesta. Para ello se introducen los multiplicadores existentes en la actualidad; tanto de tipo paralelo como serie. Posteriormente, como propuesta de mejora real, se ha desarrollado un multiplicador hardware específico capaz de trabajar en GF(2m) y con reducción intercalada que puede ser utilizado en cualquier sistema sea cual sea su campo de trabajo e independientemente del tamaño de palabra que utilice. Este multiplicador se ha implementado con diferentes tamaños de palabra y en los campos finitos de característica 2 recomendados por el N.I.S.T. Como paso final para validar este multiplicador se ha implementado varios modelos de un criptoprocesador con un repertorio de instrucciones específico con diferentes tamaños de palabra y en diferentes campos y se han comparado con los existentes para comprobar la eficiencia de la propuesta.
APA, Harvard, Vancouver, ISO, and other styles
19

Díaz, Pando Humberto. "Modelo y estrategias de partición de componentes hardware/software en el co-diseño de sistemas embebidos." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/37655.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Luis, Peña Christian Jair. "Diseño de la arquitectura de un extractor de endmembers de imágenes hiperespectrales sobre un FPGA en tiempo real." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/13046.

Full text
Abstract:
El presente trabajo consiste en el dise˜no hardware de un extractor de endmembers para im´agenes hiperespectrales en tiempo real empleando el algoritmo N-FINDR. Para comprobar la efeciencia de la arquictectura se utiliz´o la imagen hiperespectral Cuprite la cual tiene un tama˜no de 350 350 y fue capturada por el sensor aerotransportado AVIRIS, el cual escanea una columna de 512 p´ıxeles en 8.3ms. Por ende, el procesamiento de la referida imagen se realizar´a en menos de 1.98 segundos para alcanzar el tiempo real. En primer lugar, el algoritmo fue analizado por medio del entorno de programaci´on MATLAB® con el fin de identificar los procesos m´as costosos computacionalmente para optimizarlos. Adem´as, se realiz´o el estudio de una nueva forma de eliminaci´on de pixeles en el an´alisis por medio de un pre-procesamiento con la intenci´on de reducir el tiempo de ejecuci´on del algoritmo. Posteriormente, se analiz´o el proceso m´as costoso computacionalmente y se propuso un dise˜no algor´ıtmico para mejorar la velocidad del proceso. En segundo lugar, se realiz´o la s´ıntesis comportamental de la aplicaci´on software con la finalidad de obtener una arquitectura hardware del sistema. La arquitectura fue descrita utilizando el lenguaje de descripci´on de hardware Verilog. Finalmente, el dise˜no se verific´o y valid´o mediante la herramienta ISim de Xilinx, a trav´es del uso de testbenches, realizando la sintesis de la arquitectura dise˜nada sobre un FPGA Virtex 4 utilizado el software ISE de la empresa Xilinx obteniendo una frecuencia de operaci´on estimada de 69.4Mhz, que representa un 64% de mejora, respecto de la referencia [1], llegando a procesar una imagen hiperespectral en 17.98 segundos. Sin embargo, con esta frecuencia no es posible alcanzar el procesamiento en tiempo real esperado utilizando la familia Virtex 4. La arquitectura dise˜nada, fue optimizada utilizando paralelismo de operaciones, lo cual hace que se incremente el ´area de dise˜no, excediendo el l´ımite de slices disponibles en el modelo Virtex 4 utilizando en la referencia [1], por ello se identific´o mediante las hojas de datos de la familia Virtex que el FPGA m´as id´oneo para soportar la arquitectura dise˜nada es la Virtex 7 modelo XC7VX980T que supera los 71,096 slices que requiere la presente arquitectura, obteniendo una frecuencia de operaci´on de 112.819MHz.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
21

Barreira, Do Nascimento Nerisírley. "LA UTILIZACIÓN ÓPTIMA DEL COLOR PARA UM MEJOR RENDIMIENTO EM EL AMBIENTE HOSPITALAR." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/55763.

Full text
Abstract:
[EN] This work has very human interest. Its aim is to analyze the color within the hospital environment and in order to help the patient, health professional and caregivers of patients during treatment of health. For the architecture however, this study must permeate the physical, physiological and psychological or sensory, since the architecture is developed in the environment or space to be built built, but always work in physical and tangible, always aims to achieve the aspirations the user, including the physiological and psychological. In summary, the color of Architecture never walk free concomitantly with lighting to ensure the comfort of those using the environment, and do not study the psychological reactions of the colors applied in environments. So buca answer: what the basic influence of the colors would be in the user's environment? To be a significant contribution in building hospitals architecture beyond the basic premises of the development of space being built or redesigned _ scale environments through calculations due to the use of space / equipment / furniture, the relationship between flows and flows in the space designed; development and adaptation of urban location and the basic aspirations of the (psychological, biological and mechanical) _ users must also have the characterization of the ideal profile of all people who develop an activity, the democratization of space using access resources basic permanent collection and all data research tool in the post-pass built to be crucial for the welfare of the patient, starting, of course, that the hospital space exists only thanks to him and depending on him. The colors and the light in the hospital environment must be recognized to have a basis of how to use them properly. In order to participate in the ethical process of humanization of the hospital environment.<br>[ES] Este trabajo tiene interés muy humano. Su objetivo es analizar el color dentro del ambiente del hospital y con el fin de ayudar al paciente, profesional de la salud y los cuidadores de los pacientes durante el tratamiento de la salud. Para la arquitectura sin embargo, este estudio debe impregnar la física, fisiológica y psicológica o sensorial, ya que la arquitectura se desarrolla en el entorno o espacio que se construirá construida, aunque siempre trabajar en física y tangible, siempre tiene como objetivo lograr las aspiraciones de la usuario, incluyendo el fisiológico y psicológico. En resumen, el color de Arquitectura nunca liberarse caminar de forma concomitante con iluminación para garantizar la comodidad de los que utilizan el medio ambiente, y no estudian las reacciones psicológicas de los colores aplicados en entornos. Asi buca contestar: ¿cuál sería la influencia básica de los colores en el entorno del usuario? Para ser una contribución relevante en la construcción de hospitales arquitectura más allá de las premisas básicas del desarrollo del espacio que está siendo construido o rediseñado _ ambientes de escala a través de cálculos de espacio debido al uso / equipo / muebles, la relación entre los flujos y los flujos en el espacio diseñado; desarrollo y adaptación de ubicación urbana y las aspiraciones básicas de los usuarios (psicológicos, biológicos y mecánicos) _ debe haber también la caracterización del perfil ideal de todas las personas que desarrollan una actividad, la democratización del espacio con el uso de los recursos de acceso básico y toda la colección permanente de datos por herramienta de investigación en el post-pass construido para ser crucial para el bienestar del paciente, comenzando, por supuesto, que el espacio hospitalario sólo existe gracias a él y dependiendo de él. Los colores y la luz en el medio hospitalario deben ser objeto de reconocimiento para tener una base de cómo usarlos correctamente. A fin de que para participar en el proceso ético de la humanización del entorno hospitalario.<br>Barreira Do Nascimento, N. (2015). LA UTILIZACIÓN ÓPTIMA DEL COLOR PARA UM MEJOR RENDIMIENTO EM EL AMBIENTE HOSPITALAR [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55763<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
22

Villegas, Castillo Ernesto Cristopher. "Diseño de una arquitectura para la interpolación de quarter-pixel para estimación de movimiento según el formato H.264/AVC empleado en el estándar SBTVD de televisión digital terrestre." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2011. http://tesis.pucp.edu.pe/repositorio/handle/123456789/869.

Full text
Abstract:
La reciente adopción del estándar de transmisión Japonés-Brasileño de TV Digital (SBTVDT) por parte del gobierno peruano ha motivado a realizar investigaciones en torno a este estándar por su naturaleza de “estándar abierto” permitiendo cooperar con un aporte significativo para su desarrollo. Uno de los campos más interesantes en torno al SBTVD-T es el formato de compresión de video digital en el cual se basan los codificadores/decodificacores (CODEC’s). Los CODEC’s del estándar SBTVD-T utilizan el formato de compresión H.264/AVC, desarrollado por el Joint Video Team (JVT), el cual posee mayor tasa de compresión en comparación con sus predecesores debido a la alta complejidad computacional que presentan sus algoritmos. El presente trabajo de tesis trata sobre el módulo de Estimación de Movimiento que forma parte del proceso de Inter-Predicción del Codificador H.264/AVC, el cual presenta la mayor complejidad computacional de todos los procesos del Codificador H.264/AVC. Para el presente trabajo se desarrolló este módulo tomando en cuenta una de las principales innovaciones del formato H.264/AVC: el algoritmo de Estimación de Movimiento Fraccional con precisión Quarter-Pixel o 0.25 píxeles. El objetivo del presente trabajo es aplicar este algoritmo para transmisión de video digital en tiempo real considerando que será utilizado para plataformas de dispositivos portátiles cuyas características buscan reducir el consumo de energía y el espacio de hardware. Este algoritmo fue implementado en una aplicación en el entorno de programación MATLAB®, en base a un software de referencia disponible en el portal del grupo que los desarrolló, cuyos resultados se contrastaron con los obtenidos por la simulación de la arquitectura hardware. Posteriormente se diseño la arquitectura en base a artículos revisados para luego plantear modificaciones que mejoren la frecuencia de procesamiento y la optimización de la cantidad de recursos lógicos requeridos. La arquitectura fue descrita en el lenguaje de descripción de hardware VHDL, sintetizada para los dispositivos FPGA de la familia Cyclone II y Stratix II de la compañía Altera® y se realizó la verificación funcional por medio de Testbenchs utilizando la herramienta ModelSim de ALTERA. De los resultados de la síntesis de la arquitectura se obtuvo la frecuencia de operación y por simulación se verificó las cantidades de ciclos de reloj por operación, con lo que se pudo fundamentar que la arquitectura diseñada para ser implementada en un FPGA de la familia Cyclone II de la compañía ALTERA es capaz de procesar secuencias de video HDTV (1920x1080 píxeles) a una tasa de 30 cuadros por segundo, es decir en tiempo real.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
23

Block, Saldaña Henry José. "Diseño de una arquitectura para un sistema neurodifuso ANFIS sobre un FPGA aplicado a la generación de funciones." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2010. http://tesis.pucp.edu.pe/repositorio/handle/123456789/515.

Full text
Abstract:
En la presente tesis, se realizó el diseño de una arquitectura para un sistema neurodifuso ANFIS. Se tomó en consideración un sistema de orden cero de dos entradas y una salida, que cuenta con funciones de pertenencia triangulares en los antecedentes de las reglas difusas. Además, se tuvo en cuenta que el entrenamiento del sistema es realizado fuera de línea (off-line), en MATLAB. La arquitectura diseñada se dividió en cuatro bloques: Fuzzificador, Permutador, Inferencia y Defuzzificador. Cada uno de estos bloques fue tratado como un subsistema y descrito por separado para facilitar su diseño. Posteriormente, se procedió a juntar los cuatro bloques, dando como resultado la arquitectura propuesta para el sistema neurodifuso ANFIS. Esta arquitectura fue descrita de manera modular y genérica mediante el lenguaje de descripción de hardware VHDL y fue implementada en los FPGA Spartan-3 XC3S200 de la empresa Xilinx y Cyclone II EP2C35 de la empresa Altera, utilizando las herramientas que se encuentran dentro de los entornos de desarrollo ISE 11 y Quartus II 9.1, respectivamente. El sistema diseñado fue aplicado a la generación de funciones. Primero, se eligió una función no lineal y se llevó a cabo el entrenamiento del sistema en MATLAB para obtener los parámetros de los antecedentes y consecuentes de las reglas difusas. Después, estos parámetros fueron convertidos a una representación binaria en punto-fijo complemento a dos y almacenados en las memorias ROM del código en VHDL. Finalmente, se realizaron simulaciones sobre los dos FPGA, mencionados anteriormente, para verificar la operación del sistema y poder evaluar su desempeño. Entre los resultados obtenidos, destaca que el tiempo requerido por el sistema para calcular un valor de la función es menor a 10 s (trabajando a una frecuencia de reloj de 50 MHz). Este valor es mucho menor al tiempo requerido por la aplicación en MATLAB, el cual fue de alrededor de 100 ms.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
24

Vila, Neyra Carlos Alcides. "Sistema para la gestión de órdenes de servicio en el área de diseño gráfico de una empresa de impresión." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas - UPC, 2013. http://hdl.handle.net/10757/273696.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Abellán, Miguel José Luis. "Efficient synchronization and communication in many-core chip multiprocessors." Doctoral thesis, Universidad de Murcia, 2012. http://hdl.handle.net/10803/108043.

Full text
Abstract:
En esta tesis hemos identificado tres de los mayores cuellos de botella para el rendimiento y escalabilidad de las arquitecturas many-core CMP de memoria compartida. En particular, los mecanismos de sincronización de barrera y cerrojo cuando presentan alta contención, así como los protocolos hardware de coherencia de caché en el mantenimiento de la coherencia del uso de bloques memoria compartidos en una jerarquía de memoria. Para paliar estas deficiencias y aprovechar más el rendimiento de estas arquitecturas, hemos propuesto tres mecanismos hardware: GBarrier, para un mecanismo de barreras eficiente; GLock, para un manejo justo y eficiente de la contención en el acceso a las secciones críticas protegidas por cerrojos; y ECONO, un protocolo de coherencia muy simple que aporta gran eficiencia a bajo costo. La tesis concluye que nuestras propuestas resuelven de manera eficiente los problemas de rendimiento derivados de implementaciones ineficientes para sincronización y coherencia en arquitecturas many-core CMP.<br>In this thesis we have identified three of the major problems that restrict efficiency and scalability in future shared-memory tiled many-core CMPs. In particular, the synchronization operations of barriers and locks under highly-contended scenarios, and the hardware-based cache coherence protocols when dealing with the maintenance of coherence of all memory blocks across all levels of a memory hierarchy. To alleviate such performance bottlenecks in order to harness the computational power of such systems, we have proposed three hardware-based mechanisms: GBarrier, a very efficient barrier mechanism; GLock, an efficient and fair mechanism to implement highly-contended locks; and ECONO, a simple and efficient hardware coherence protocol. In light of our performance results obtained in this thesis, we can affirm that our proposals represent a step forward towards the resolution of the challenges that many-core CMP architectures will pose to computer architects.
APA, Harvard, Vancouver, ISO, and other styles
26

Martín, Rull Enric X. (Enric Xavier). "Contribució als mètodes d'obtenció i representació de vistes d'objectes reals per aplicacions interactives." Doctoral thesis, Universitat Politècnica de Catalunya, 2006. http://hdl.handle.net/10803/6195.

Full text
Abstract:
En aquesta tesi s'han realitzat una sèrie d'experiments per tal de cercar, identificar, caracteritzar i comparar diversos mètodes d'obtenció de vistes d'objectes reals per aplicacions interactives de realitat augmentada, telepresència o altres que puguin idear-se en el futur. <br/>Durant el desenvolupament dels mètodes trobats, de naturalesa diversa, han sorgit dificultats que han fet aprofundir aquest treball en l'àmbit de la geometria de la síntesi de vistes, la reconstrucció de l'estructura tridimensional dels objectes, l'acceleració de certs algoritmes amb l'ajut del maquinari existent o la portabilitat de les dades a través de la xarxa.<br/>Concretament, s'han identificat tres mètodes que poden satisfer els requeriments plantejats. El primer, accés a vistes d'objectes comprimides en fitxers, es basa en l'organització de les dades presentada, la capacitat de compressió dels algoritmes i el suport del maquinari a la tasca de descompressió. El segon mètode, reconstrucció tridimensional i projecció emprant el coprocessador gràfic, aprofita les altes prestacions d'aquests últims, impulsats per les necessitats del mercat. El tercer, selecció d'un conjunt representatiu de vistes i interpolació entre elles, aprofita les propietats de la rectificació de tres vistes i l'exactitud de la interpolació de vistes si es disposa d'un mapa de disparitat prou dens. Aquesta necessitat ha connectat aquest mètode amb el segon, al que cal el model tridimensional reconstruït, ja que hi ha una equivalència entre les dues expressions de la informació.<br/> Per la comparació dels resultats dels mètodes estudiats, s'han seguit tres criteris: <br/>- El primer, òbviament, el de la qualitat de les vistes obtingudes de l'objecte. Ha calgut identificar les principals fonts d'error en els processos i cercar uns avaluadors d'aquest error. A més d'aquests numèrics se n'han cercat de subjectius ja que el destinatari de les vistes serà un ésser humà. <br/>- El temps d'obtenció d'una vista (important per la interactivitat), projectat a les plataformes tecnològiques existents o previsibles.<br/>- La mida de les dades necessàries per cadascun dels mètodes, que limitarà la portabilitat de la visualització dels objectes.<br/> Durant la realització d'aquesta tesi, s'han realitzat algunes contribucions, la majoria d'elles ja publicades, que es poden resumir en:<br/>- Disseny d'una metodologia per la representació d'objectes a partir de conjunts de vistes i mètodes de síntesi. En aquesta metodologia s'ha presentat un protocol per l'adquisició i ordenació de les dades, idees per la selecció del conjunt mínim de vistes, un criteri per gravar la mínima informació necessària, ajuts a l'obtenció de la informació tridimensional de l'escena necessària, i un algoritme ràpid i general de síntesi de vistes.<br/><br/>- Supressió de les restriccions geomètriques del mètode de síntesi per rectificació de tres vistes, permetent generalitzar la ubicació de la càmera virtual i optimitzar la distància del pla de reprojecció per maximitzar l'àrea de la vista interpolada.<br/>- Especificació de l'algoritme de síntesi de vistes pel mètode de rectificació de tres vistes, de forma que es pugui implementar amb processadors tipus DSP o conjunts d'instruccions específiques dels processadors CISC, per assolir les necessitats de les aplicacions interactives.<br/>- Presentació d'un mètode de refinament de models tridimensionals obtinguts per space carving mitjançant estereovisió. El mètode combina dues tècniques conegudes de visió per ordinador obtenint un millor resultat en la reconstrucció tridimensional.<br/>- Acceleració del mètode de reconstrucció tridimensional per projecció de vòxels amb la utilització de mapes de distància, estructures en arbre i el coprocessador gràfic present en els computadors personals. <br/> Els resultats obtinguts en la tesi s'han adaptat per aplicar-se a un projecte de simulació de situacions de conducció en carreteres amb realitat augmentada, desenvolupat per la UPC i la Universitat de Toronto i un segon de representació remota de vistes d'objectes arqueològics, desenvolupat per la UPC, la UB i un conjunt d'universitats estrangeres.<br>This work shows a set of experiments to identify, characterize and compare several methods for obtaining real object views in interactive applications such as augmented reality, telepresence or other future developments.<br/> While developing those methods, the problems found have induced a deeper study of view synthesis geometry, object three-dimensional structure, hardware process acceleration and data portability through the internet.<br/> Three methods have been found that meet the ends of this work. First, file-stored object-view access rests in data organization, compression- algorithm capabilities and hardware support to decompression. The second method, 3D object reconstruction and graphic coprocessor based projection, takes advantage of market driven GPU evolution. Finally, the representative view-set selection and interpolation method, uses the three-view-rectification properties and the precision of view interpolation when a dense-enough disparity map is available. This last requirement binds the second and third methods in the need of a good 3D object reconstruction, 3D models and disparity maps being two expressions for the same data. <br/> To compare the method results three criteria have been used: <br/>- Object view image quality. It has been necessary to identify the main source of errors on the processes and to find some evaluators for those errors. As the results of the process are images to be shown to humans, with those numerical evaluators a subjective evaluator has been used too. <br/>- Process time, important for the interactivity aim, calculated with current technology but projected to next foreseeable platforms. <br/>- Amount of data that must be recorded in each method, which will be a key point for portability. <br/>While developing this work, some contributions have been achieved and they can be summarized as:<br/>- Design of a methodology to represent any object view from a reduced set of views and synthesis methods. The methodology includes a protocol to acquire and organize data, ideas for a minimum view set selection, a criterion to record the minimum amount of data, improvements in obtaining the three-dimensional structure of the scene and a fast and general synthesis algorithm.<br/>- Suppression of some geometric restrictions in the three-view-rectification method, allowing a more general positioning for the virtual camera and a maximization of the virtual image area through the distance to the reprojection plane.<br/>- A complete specification for the modified three-view rectification and view interpolation method allowing its implementation with DSP or MMX instructions to achieve the requirements of interactive applications. <br/>- Presentation of a method to refine three-dimensional models obtained by space carving through stereovision. This method combines two well-known computer vision techniques to achieve a better result in 3D reconstruction.<br/> - Acceleration of the space carving 3D reconstruction method with the use of an octree voxel organization, projection to special distance maps and taking advantage of the GPU performance to speed-up the projection. <br/> Some of the results of this work will be used in the construction of an augmented reality driving simulator (UPC- University of Toronto) and the implementation of a remote viewer of archaeological objects (UPC - UB - other universities).
APA, Harvard, Vancouver, ISO, and other styles
27

Hernández, Muñoz Enrique Jesús. "El levantamiento gráfico arquitectónico de precisión. La jamba de la portada de acceso principal a la Lonja de La Seda de Valencia." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/59426.

Full text
Abstract:
[EN] The investigation is important in the development of countries and his societies; the economies are not based only in the accumulation of capital, it's necessary a solid foundation of information, learning and adaptation. The development of the capacity inventiveness, obtained by means of the investment in investigation and development. The cataloging of the architectural heritage involves new challenges of conservation. The problem of the conservation is not new, but in the 20th century there are big advances in the methods of investigation no destructive. The Letter of Athens of 1931 defined the first bases of the conservation of the monuments. Between any of his recommendations stand out one of them that invites to keep the utility of the monuments so that it ensure the continuity of his life, with destinations that respect his historical character and/or artistic as it occurs in "la Lonja de Valencia". The origin of this thesis and his development is oriented in one of the lines of investigation that in the Memory of the IX Congress APEGA proposes in the section of professional Investigations (connections of the drawing with other fields) in his first appendix: GRAPHIC EXPRESSION AND HERITAGE: NEW METHODS OF ARCHITECTURAL LIFTING. This Thesis is centered around the utilize the SCANNER LASER 3D, the ELECTRONIC TOTAL STATION and other traditional methods, as new methods of Graphic Lifting and of precision in the field of the Architecture, to scale real and in the three-dimensional space. Choose the Lonja of Valencia has his sense by his Universal interest, when being the only existent building in Valencia considered Heritage of the Humanity by the UNESCO. Apply it to the Architectural Graphic Expression and Heritage supposes all an effort that has concretize in the following title: "THE ARCHITECTURAL GRAPHIC LIFTING OF PRECISION. THE JAMB OF THE PORTAL OF MAIN ACCESS TO LA LONJA DE LA SEDA DE VALENCIA". Has been vertebrated the present investigation with the following succession of contents: Visit the urban and social surroundings more immediate of the monument from his construction until the actuality, to find out what conditions the city in his social position inside the country. Descend until the building to know the purpose of his construction and analyze the forms of work of his author. Use from the simplest tools like combs archaeologist, until the most modern instruments in instrumental technology and study his evolution to be able to appreciate his working capacity. Analyze the degree of accuracy of the measures that provide us the new instruments used in the architectural graphic lifting: the Scanner Laser 3D and the Total Station, from the most elementary instruments: the metallic metric strip, the foot of king and archaeologist comb millimeters. Compare the geometry obtained with the theorist to study his metric, his composition, his symmetry, his proportion and his section original. Compare the results and the protocol of the lifting made, with others of international importance. The lifting proposed in this thesis pretends to reflect the morphology of the group and the one of his parts. We have evaded the defects of some pieces opting for regularization of the elements that take part in the monument. The measurements have been made using the metric system decimal, the millimeter like generic unit of work and precision. It has had present his relation with the metric system valid in Valencia as we will see and will justify in the subject of the metric used.<br>[ES] El conocimiento juega un papel cada vez más importante en el desarrollo de los países y sus sociedades; las economías no están basadas únicamente en la acumulación de capital, hace falta un sólido cimiento de información, aprendizaje y adaptación. Por medio del conocimiento se logra el desarrollo de la capacidad inventiva, obtenida mediante la inversión en investigación y desarrollo. La catalogación del patrimonio arquitectónico implica nuevos retos de conservación. El problema de la conservación no es nuevo, pero en el siglo XX se producen grandes avances en los métodos de investigación no destructivos. La Carta de Atenas de 1931 definió las primeras bases de la conservación de los monumentos. Entre alguna de sus recomendaciones, destaca una que invita a mantener la utilidad de los monumentos para que se asegure la continuidad de su vida, con destinos que respeten su carácter histórico y/o artístico como ocurre en la Lonja de Valencia. El origen de esta tesis y su desarrollo está orientado en una de las líneas de investigación propuesto en la Memoria del IX Congreso APEGA, en el apartado de Investigaciones profesionales (conexiones del dibujo con otros campos) en su primer apéndice: EXPRESIÓN GRÁFICA Y PATRIMONIO: NUEVOS MÉTODOS DE LEVANTAMIENTO ARQUITECTÓNICO. Esta Tesis se centra en torno a la utilización del ESCÁNER LÁSER 3D, la ESTACIÓN TOTAL ELECTRÓNICA y otros métodos tradicionales, como nuevos métodos de Levantamiento Gráfico y de precisión en el ámbito de la Arquitectura, a escala real y en el espacio tridimensional. Elegir la Lonja de Valencia tiene su sentido por su interés Universal, al ser el único edificio existente en Valencia considerado Patrimonio de la Humanidad por la UNESCO. Aplicarlo a la Expresión Gráfica Arquitectónica y Patrimonio supone todo un esfuerzo que se ha concretado en el siguiente título: EL LEVANTAMIENTO GRÁFICO ARQUITECTÓNICO DE PRECISIÓN. LA JAMBA DE LA PORTADA DE ACCESO PRINCIPAL A LA LONJA DE LA SEDA DE VALENCIA. Se ha vertebrado la presente investigación con la siguiente sucesión de contenidos: Recorrer el entorno urbano y social más inmediato del monumento, desde su construcción hasta la actualidad, para conocer las condiciones se encontraba la ciudad en su posición social dentro del País. Descender hasta el edificio para conocer la finalidad de su construcción y para analizar las formas de trabajo de su autor. Utilizar desde las herramientas más simples como los peines de arqueólogo, hasta los instrumentos más modernos en tecnología instrumental y estudiar su evolución para poder apreciar su capacidad de trabajo. Analizar el grado de exactitud de las medidas que nos proporcionan los nuevos instrumentos utilizados en el levantamiento gráfico arquitectónico: el Escáner Láser 3D y la Estación Total, a partir de los instrumentos más elementales: la cinta métrica metálica, el pie de rey y el milimétrico peine de arqueólogo. Comparar la geometría obtenida con la teórica para estudiar su métrica, su composición, su simetría, su proporción y su envolvente original. Comparar los resultados y el protocolo del levantamiento realizado, con otros de relevancia internacional. El levantamiento propuesto en esta tesis pretende reflejar la morfología del conjunto y la de sus partes. Se han eludido los defectos de algunas piezas optando por la regularización de los elementos que intervienen en el monumento. Las mediciones han sido realizadas utilizando el sistema métrico decimal con el milímetro como unidad genérica de trabajo y precisión, si bien se ha tenido presente su relación con el sistema métrico de la época vigente en Valencia, como veremos y justificaremos en el tema de la métrica utilizada.<br>[CAT] El coneixement té un rol cada vegada més important en el desenvolupament dels països i les seues societats; les economies no estan basades únicament en l'acumulació de capital, fa falta un sòlid fonament d'informació, aprenentatge i adaptació. Per mitjà del coneixement s'aconsegueix el desenvolupament de la capacitat inventiva, obtinguda mitjançant la inversió en investigació i desenvolupament. La catalogació del patrimoni arquitectònic implica nous reptes de conservació. El problema de la conservació no és nou, però al segle XX es produeixen grans avanços en els mètodes d'investigació no destructius. La Carta d'Atenes de 1931 va definir les primeres bases de la conservació dels monuments. Entre alguna de les seves recomanacions destacar la que convida a mantindre la utilitat dels monuments perquè s'assegure la continuïtat de la seua vida, amb destinacions que respecten el seu caràcter històric i/o artístic com ocorre en la Llotja de València. L'origen d'aquesta tesi i el seu desenvolupament està orientat en una de les línies d'investigació proposada en la Memòria de l'IX Congrés APEGA, en l'apartat de recerques professionals (connexions del dibuix amb altres camps) en el seu primer apèndix: EXPRESSIÓ GRÀFICA I PATRIMONI: NOUS MÈTODES D'AIXECAMENT ARQUITECTÒNIC. Aquesta Tesi se centra entorn de la utilització de l'ESCÀNER LÀSER 3D, l'ESTACIÓ TOTAL ELECTRÒNICA i altres mètodes tradicionals, com a nous mètodes d'Aixecament Gràfic i de precisió en l'àmbit de l'Arquitectura, a escala real i en l'espai tridimensional. Triar la Llotja de València té el seu sentit pel seu interès Universal, en ser l'únic edifici existent a València considerat Patrimoni de la Humanitat per la UNESCO. Aplicar-ho a l'Expressió Gràfica Arquitectònica i Patrimoni suposa tot un esforç que s'ha concretat en el següent títol: L'AIXECAMENT GRÀFIC ARQUITECTÒNIC DE PRECISIÓ. EL BRANCAL DE LA PORTADA D'ACCÉS PRINCIPAL A LA LLOTJA DE LA SEDA DE VALÈNCIA. S'ha vertebrat la present recerca amb la següent successió de continguts: Recórrer l'entorn urbà i social més immediat del monument, des de la seua construcció fins a l'actualitat, per conèixer en quines condicions es trobava la ciutat en la seua posició social dins del País. Descendir fins a l'edifici per a conèixer la finalitat de la seua construcció i analitzar les formes de treball del seu autor. Utilitzar des de les eines més simples com les pintes d'arqueòleg, fins als instruments més moderns en tecnologia instrumental i estudiar la seua evolució per a poder apreciar la seua capacitat. Analitzar el grau d'exactitud de les mesures que ens proporcionen els nous instruments utilitzats en l'aixecament gràfic arquitectònic: l'Escàner Làser 3D i l'Estació Total, a partir dels instruments més elementals: la cinta mètrica metàl¿lica, el peu de rei i la mil¿limètrica pinta d'arqueòleg. Comparar la geometria obtinguda amb la teòrica per a estudiar la seua mètrica, la seua composició, la seua simetria, la seua proporció i la seua secció original. Comparar els resultats i el protocol de l'aixecament realitzat, amb uns altres de rellevància internacional. L'aixecament proposat en aquesta tesi pretén reflectir la morfologia del conjunt i la de les seues parts. S'han eludit els defectes d'algunes peces optant per la regularització dels elements que intervenen en el monument. Els mesuraments han sigut realitzats utilitzant el sistema mètric decimal,¿amb el milímetre com a unitat genèrica de treball i precisió., si bé s'ha tingut present la seua relació amb el sistema mètric de l'època vigent en València com veurem i justificarem en el tema de la mètrica utilitzada.<br>Hernández Muñoz, EJ. (2015). El levantamiento gráfico arquitectónico de precisión. La jamba de la portada de acceso principal a la Lonja de La Seda de Valencia [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59426<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
28

Puente, Varona Valentín. "Impacto del subsistema de comunicación en el rendimiento de los computadores paralelos: desde el hardware hasta las aplicaciones." Doctoral thesis, Universidad de Cantabria, 2000. http://hdl.handle.net/10803/10635.

Full text
Abstract:
A pesar del explosivo crecimiento de la capacidad computacional de los ordenadores convencionales, alimentada fundamentalmente por la rápida evolución experimentada por los procesadores, existen multitud de problemas de notable importancia que aún no pueden ser abordados de forma satisfactoria. La solución más factible para abordar este tipo de problemas se basa en la utilización de computadores paralelos. Esta tesis se centra en el estudio de la red de interconexión de los computadores paralelos, aportando soluciones eficaces para mejorar su rendimiento. Se proponen mejoras de los elementos críticos de la red: los encaminadores y la propia topología. Las nuevas propuestas derivadas del trabajo son:· Un eficaz mecanismo de encaminamiento con un menor coste. Esta idea fue empleada por IBM en el supercomputador IBM BlueGene/L.· Se ha mejorado la gestión interna de los encaminadores con un coste acotado.· Se presentan arquitecturas de almacenamiento para los encaminadores con una relación coste-rendimiento favorable.· Se propone una nueva disposición de la red de interconexión que permite mejorar sus propiedades topológicas de forma notable frente a las empleadas usualmente.
APA, Harvard, Vancouver, ISO, and other styles
29

Monge, Osorio Manuel Alejandro. "Diseño de una arquitectura para una red neuronal artificial perceptron multicapa sobre una FPGA aplicada al reconocimiento de caracteres / Manuel Alejandro Monge Osorio." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2008. http://tesis.pucp.edu.pe/repositorio/handle/123456789/231.

Full text
Abstract:
El presente trabajo realizó el diseño genérico y modular de una red neuronal artificial perceptron multicapa MLP orientada al reconocimiento de dígitos manuscritos en un FPGA mediante el lenguaje de descripción de hardware VHDL. El entrenamiento de esta red se realizó externo al chip, en software, mediante la herramienta de Redes Neuronales del Matlab 7.1 y utilizando como imágenes de entrenamiento la base de datos modificada del NIST (MNIST database). Con esto, se logra que el FPGA se dedique solamente a la tarea de reconocimiento, mas no al aprendizaje de la red. Si se quisiera que se cumpla con otra aplicación, bastará con su reentrenamiento en software para obtener los parámetros necesarios e introducirlos en su descripción y configuración.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
30

Restrepo, Calle Felipe. "Co-diseño de sistemas hardware/software tolerantes a fallos inducidos por radiación." Doctoral thesis, Universidad de Alicante, 2011. http://hdl.handle.net/10045/23522.

Full text
Abstract:
En la presente tesis se propone una metodología de desarrollo de estrategias híbridas para la mitigación de fallos inducidos por radiación en los sistemas empotrados modernos. La propuesta se basa en los principios del co-diseño de sistemas y consiste en la combinación selectiva, incremental y flexible de enfoques de tolerancia a fallos basados en hardware y software. Es decir, la exploración del espacio de soluciones se fundamenta en una estrategia híbrida de grano fino. El flujo de diseño está guiado por los requisitos de la aplicación. Esta metodología se ha denominado: co-endurecimiento. De esta forma, es posible diseñar sistemas embebidos confiables a bajo coste, donde no sólo se satisfagan los requisitos de confiabilidad y las restricciones de diseño, sino que también se evite el uso excesivo de costosos mecanismos de protección (hardware y software).
APA, Harvard, Vancouver, ISO, and other styles
31

Acosta, Fernández Jennifer. "Manual para estructurar un correcto informe de proyecto de título en diseño: — manual digital en base a Motion Graphics para guiar en expresión escrita y aspectos formales a estudiantes de Diseño de la Facultad de Arquitectura y Urbanismo de la Universidad de Chile." Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/100486.

Full text
Abstract:
Como estudiante, he encontrado a lo largo de mi proceso de educación superiot, lñas dificultades que existen para la mayor parte de los compañeros de carrera en cuanto a la comunicación por escrito se refiere, y en trabajos grupales principalmente en los que es necesario dividir el trabajo y dejarlo en manos de otros integrantes del equipo, es en donde se evidencian los problemas. Al apuntar las faltas de ortografía y corregirlas con quien escribió. El manual digital, constituido de una serie de Motion Graphics, infographics y typographics, está orientado a los diseñadores de la Facultad de Arquitectura y Urbanismo, y tiene como finalidad desarrollar y presentar una herramienta de comunicación visual efectiva y facilitadora del proceso de aprendizaje que es necesario para que un diseñador pueda expresarce adecuadamente por escrito, lo cual se traduciría en un material de apoyo real, pertinente y contingente, coherente a los principios fundamentales del estudiante y profesional egresado de la Universidad de Chile. Este material didáctico contendrá información respecto del informe por escrito que deberán presentar los estudiantes en esta etapa, poniendo especial énfasis en cómo se deben presentar las distintas partes que conforman la estructura del informe, anexando y apoyándose en los errores más comúnmente comentidos, que han sido encontrados en la fase exploratoria de esta investigación.
APA, Harvard, Vancouver, ISO, and other styles
32

Roselló, Moreno Héctor Gustavo. "Procesador segmentado para fines académicos usando HDL." Master's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/8548.

Full text
Abstract:
El documento digital no refiere asesor<br>Publicación a texto completo no autorizada por el autor<br>Desarrolla el diseño de un procesador segmentado con la finalidad de ayudar a los estudiantes en el aprendizaje del desempeño de este tipo de procesadores, principalmente cuando se presentan conflictos con relación a la secuencia de instrucciones utilizadas y sus dependencias. Para ello se utilizan técnicas hardware, tales como el adelantamiento de datos, inserción de burbujas, y anticipación de riesgos. Estos métodos se aplican para la arquitectura MIPS que consta de una segmentación de 5 etapas y cumple con las características de la arquitectura ISA tipo RISC empleada ampliamente en la temática de “Arquitectura de Computadoras”. El método empleado es desarrollar cada vez una nueva versión del procesador adaptado para solucionar el nuevo paradigma mostrando la mejora en su desempeño luego de hacerlo, así tendremos una versión que muestra la solución por riesgos de dependencia de datos. Otra versión del procesador para el caso en que una instrucción dependa del dato de una instrucción de carga, para finalmente realizar una última versión que solucione las dependencias debido a las bifurcaciones, que vienen a ser las más características y que presenta dificultad de asimilar en esta parte de la temática, tanto por la poca afición a la lectura del estudiantado como a la baja comprensión lectora que se tiene. El proceso de ver los eventos y simularlos más que solo verlos estáticamente permitirá una mejor y rápida comprensión de estos fenómenos así como su interacción al modificar los programas y el hardware del procesador respectivo.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
33

Quiróz, Villalobos Lennin Paúl. "Implementación de una interfaz hardwaresoftware y sus módulos de supervisión y análisis de datos para un sistema de pesaje electrónico." Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. http://cybertesis.unmsm.edu.pe/handle/cybertesis/10105.

Full text
Abstract:
Propone proveer a los instrumentos de medición, de capacidad de comunicación inalámbrica, así como implementar los módulos software de captura, análisis, supervisión y visualización de datos desde un computador remoto y una aplicación móvil. Para implementar la solución propuesta, se usó un módulo convertidor Serial-Wifi, para transmitir los datos hacia una PC remota, sockets cliente-servidor en lenguaje Java para el módulo de captura de datos, MongoDB para el módulo de almacenamiento y análisis de datos, LabVIEW para el módulo de supervisión y visualización, finalmente AppInventor para la aplicación móvil para el Sistema Operativo Android. Como resultado del presente proyecto, Miyake SCRL, teniendo la plataforma software como valor agregado, ha mejorado la demanda de sus equipos de medición y ha obtenido una ventaja competitiva al ser reconocida en su rubro como empresa innovadora y generadora de tecnología. Así mismo, las empresas clientes, también se han beneficiado, ya que la solución implementada permite alinear la tecnología con sus objetivos empresariales, disponiendo ahora de información útil y oportuna para sus procesos de control, auditoria y toma de decisiones.<br>Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO, and other styles
34

Serrano-Cases, Alejandro. "Fault tolerance in critical aerospace embedded systems: Multi-threaded mitigation, non-intrusive compiler-guided hardening, and early prediction of proton and neutron induced soft errors." Doctoral thesis, Universidad de Alicante, 2020. http://hdl.handle.net/10045/114836.

Full text
Abstract:
Hoy día, existe una creciente demanda de las capacidades computacionales en sistemas críticos, donde los estados inesperados o inoperantes no son aceptables. Algunos de estos sistemas funcionan en entornos hostiles, sufriendo un comportamiento anómalo (faults), tanto en el software como en el hardware. Con objeto de solucionar esta problemática, se está recurriendo a la utilización de soluciones de computación, que explotan las nuevas características presentes en los microprocesadores de última generación. Entre estas características, destaca un mayor número de núcleos, mejor rendimiento computacional y menor consumo energético. Esta evolución de los microprocesadores es debida, entre otros factores, a la mejora en el proceso de fabricación fotolitográfico, sin embargo, este proceso está reduciendo progresivamente la tolerancia de los nuevos microprocesadores a los fallos inducidos por la radiación, conocidos como Efecto de Evento Único (Single Event Effect - SEE). Destacando, entre las fuentes que generan un comportamiento anómalo, las fuentes naturales de radiación, como los rayos cósmicos, o las fuentes de radiación artificial, como las producidas por máquinas de radio-diagnóstico. En esta tesis, se propone varias estrategias para mejorar la fiabilidad de los sistemas críticos que operan en presencia de radiación ionizante, tanto en el espacio, como a nivel terrestre. En este contexto, la radiación ionizante puede alterar la salida de un sistema digital creando interferencias, fallos y alteraciones permanentes en los circuitos, entre otras muchas incidencias. Como resultado, los sistemas críticos pueden comportarse de manera inesperada, produciendo resultados erróneos o entrando en estados no operativos, que requieran un mecanismo externo para recuperar un funcionamiento correcto (watchdogs, interrupciones temporizadas). En la bibliografía, se encuentra que las técnicas basadas en redundancia, aplicables tanto a hardware como a software, son las soluciones más efectivas para detectar y mitigar este tipo de comportamiento inesperado. Estas técnicas basadas en redundancia, presentan una alta variabilidad, dado que puede aplicarse a estructuras de diferente complejidad. En el caso de redundancia software, se puede utilizar a nivel de instrucciones de ensamblador, accesos de memoria, funciones o métodos, incluso a nivel de procesos o hilos. Es importante destacar que, la variabilidad de las diferentes técnicas de mitigación de fallos, provoca una alta complejidad de la predicción del efecto de estas técnicas en el conjunto del sistema. De manera paradójica, la aplicación de estas técnicas de endurecimiento a algunos elementos de un sistema, en ocasiones, puede dar lugar a un aumento de la susceptibilidad del sistema a fallos inducidos por radiación, por consiguiente, a una reducción significativa de la fiabilidad. Esta paradoja, es debida, al aumento de los sobrecostes en los recursos utilizados, o al incremento computacional de dicha técnica de endurecimiento. De manera general, con objeto de reducir la susceptibilidad a fallos inducidos por la radiación, en diferentes sistemas críticos, en esta tesis, se pretende mejorar la fiabilidad, adaptando o proporcionando nuevas técnicas y herramientas para el endurecimiento software en microprocesadores de última generación. Para ello, se han desarrollo dos técnicas, la primera se centra en la búsqueda automática de soluciones maximizando la fiabilidad; la segunda técnica desarrollada, consiste en un endurecimiento software basado en redundancia, optimizado para obtener un mayor rendimiento computacional. Además, se ha desarrollado un nuevo modelo matemático semi-empírico, para evaluar y predecir los fallos inducidos por radiación. La primera de las técnicas desarrolladas, explora, de manera eficiente, soluciones que maximicen la fiabilidad, buscando optimizaciones y endurecimientos que aumenten el rendimiento del sistema, reduzcan los recursos utilizados y, al mismo tiempo, aumenten la cobertura frente a fallos. Con objeto de optimizar el rendimiento y el uso de recursos de las aplicaciones y circuitos, en esta tesis, se utilizan técnicas de aprendizaje automático y algoritmos de búsqueda meta-heurísticos, inspirados en los sistemas naturales (algoritmos genéticos), optimizados con técnicas de optimización multiobjetivo basadas en el concepto de eficiencia de Pareto. Este algoritmo de búsqueda optimizado, permite mejorar al mismo tiempo el rendimiento del sistema, el uso de los recursos y la cobertura de fallos, ya que es capaz de explorar un espacio de soluciones multidimensional de manera eficiente. La aplicación de este algoritmo, permite alterar la generación de las aplicaciones, por parte del compilador, logrando obtener aplicaciones más fiables de forma no intrusiva, es decir, sin necesidad de modificar el código. La segunda de las técnicas desarrolladas, propone una mejora de las técnicas de endurecimiento clásicas, empleando esquemas paralelos basados en el multiprocesamiento simétrico y asimétrico (SMP y AMP, respectivamente). Con objeto de lograr un incremento en la fiabilidad, se han utilizado sistemas mononúcleo y multinúcleo, a los que se les ha eliminado la necesidad de un sistema operativo, con el fin de reducir los sobrecostes de recursos y aumentar el rendimiento, manteniendo la cobertura frente a fallos. Por último, se ha desarrollado un modelo semi-empírico que permite la evaluación y selección de las configuraciones más fiables. Además, el modelo también permite realizar un endurecimiento selectivo de los recursos críticos, antes de acometer una campaña de radiación acelerada. En el desarrollo del modelo, se emplea tanto datos históricos de campañas de radiación real, como los resultados de las campañas de inyección simulada de las aplicaciones. Así, el modelo es capaz de realizar una predicción temprana de la fiabilidad de las nuevas soluciones, antes de probarlas bajo radiación real en aceleradores de partículas. Para verificar el modelo, se realizaron pruebas de radiación acelerada de varias soluciones, desarrolladas en esta tesis, empleando protones en el Centro Nacional de Aceleradores (CNA) de Sevilla, y empleando neutrones en Los Álamos National Laboratory (LANL - USA).
APA, Harvard, Vancouver, ISO, and other styles
35

Prades, Gasulla Javier. "Improving Performance and Energy Efficiency of Heterogeneous Systems with rCUDA." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/168081.

Full text
Abstract:
[ES] En la última década la utilización de la GPGPU (General Purpose computing in Graphics Processing Units; Computación de Propósito General en Unidades de Procesamiento Gráfico) se ha vuelto tremendamente popular en los centros de datos de todo el mundo. Las GPUs (Graphics Processing Units; Unidades de Procesamiento Gráfico) se han establecido como elementos aceleradores de cómputo que son usados junto a las CPUs formando sistemas heterogéneos. La naturaleza masivamente paralela de las GPUs, destinadas tradicionalmente al cómputo de gráficos, permite realizar operaciones numéricas con matrices de datos a gran velocidad debido al gran número de núcleos que integran y al gran ancho de banda de acceso a memoria que poseen. En consecuencia, aplicaciones de todo tipo de campos, tales como química, física, ingeniería, inteligencia artificial, ciencia de materiales, etc. que presentan este tipo de patrones de cómputo se ven beneficiadas, reduciendo drásticamente su tiempo de ejecución. En general, el uso de la aceleración del cómputo en GPUs ha significado un paso adelante y una revolución. Sin embargo, no está exento de problemas, tales como problemas de eficiencia energética, baja utilización de las GPUs, altos costes de adquisición y mantenimiento, etc. En esta tesis pretendemos analizar las principales carencias que presentan estos sistemas heterogéneos y proponer soluciones basadas en el uso de la virtualización remota de GPUs. Para ello hemos utilizado la herramienta rCUDA, desarrollada en la Universitat Politècnica de València, ya que multitud de publicaciones la avalan como el framework de virtualización remota de GPUs más avanzado de la actualidad. Los resutados obtenidos en esta tesis muestran que el uso de rCUDA en entornos de Cloud Computing incrementa el grado de libertad del sistema, ya que permite crear instancias virtuales de las GPUs físicas totalmente a medida de las necesidades de cada una de las máquinas virtuales. En entornos HPC (High Performance Computing; Computación de Altas Prestaciones), rCUDA también proporciona un mayor grado de flexibilidad de uso de las GPUs de todo el clúster de cómputo, ya que permite desacoplar totalmente la parte CPU de la parte GPU de las aplicaciones. Además, las GPUs pueden estar en cualquier nodo del clúster, independientemente del nodo en el que se está ejecutando la parte CPU de la aplicación. En general, tanto para Cloud Computing como en el caso de HPC, este mayor grado de flexibilidad se traduce en un aumento hasta 2x de la productividad de todo el sistema al mismo tiempo que se reduce el consumo energético en un 15%. Finalmente, también hemos desarrollado un mecanismo de migración de trabajos de la parte GPU de las aplicaciones que ha sido integrado dentro del framework rCUDA. Este mecanismo de migración ha sido evaluado y los resultados muestran claramente que, a cambio de una pequeña sobrecarga, alrededor de 400 milisegundos, en el tiempo de ejecución de las aplicaciones, es una potente herramienta con la que, de nuevo, aumentar la productividad y reducir el gasto energético del sistema. En resumen, en esta tesis se analizan los principales problemas derivados del uso de las GPUs como aceleradores de cómputo, tanto en entornos HPC como de Cloud Computing, y se demuestra cómo a través del uso del framework rCUDA, estos problemas pueden solucionarse. Además se desarrolla un potente mecanismo de migración de trabajos GPU, que integrado dentro del framework rCUDA, se convierte en una herramienta clave para los futuros planificadores de trabajos en clusters heterogéneos.<br>[CAT] En l'última dècada la utilització de la GPGPU(General Purpose computing in Graphics Processing Units; Computació de Propòsit General en Unitats de Processament Gràfic) s'ha tornat extremadament popular en els centres de dades de tot el món. Les GPUs (Graphics Processing Units; Unitats de Processament Gràfic) s'han establert com a elements acceleradors de còmput que s'utilitzen al costat de les CPUs formant sistemes heterogenis. La naturalesa massivament paral·lela de les GPUs, destinades tradicionalment al còmput de gràfics, permet realitzar operacions numèriques amb matrius de dades a gran velocitat degut al gran nombre de nuclis que integren i al gran ample de banda d'accés a memòria que posseeixen. En conseqüència, les aplicacions de tot tipus de camps, com ara química, física, enginyeria, intel·ligència artificial, ciència de materials, etc. que presenten aquest tipus de patrons de còmput es veuen beneficiades reduint dràsticament el seu temps d'execució. En general, l'ús de l'acceleració del còmput en GPUs ha significat un pas endavant i una revolució, però no està exempt de problemes, com ara poden ser problemes d'eficiència energètica, baixa utilització de les GPUs, alts costos d'adquisició i manteniment, etc. En aquesta tesi pretenem analitzar les principals mancances que presenten aquests sistemes heterogenis i proposar solucions basades en l'ús de la virtualització remota de GPUs. Per a això hem utilitzat l'eina rCUDA, desenvolupada a la Universitat Politècnica de València, ja que multitud de publicacions l'avalen com el framework de virtualització remota de GPUs més avançat de l'actualitat. Els resultats obtinguts en aquesta tesi mostren que l'ús de rCUDA en entorns de Cloud Computing incrementa el grau de llibertat del sistema, ja que permet crear instàncies virtuals de les GPUs físiques totalment a mida de les necessitats de cadascuna de les màquines virtuals. En entorns HPC (High Performance Computing; Computació d'Altes Prestacions), rCUDA també proporciona un major grau de flexibilitat en l'ús de les GPUs de tot el clúster de còmput, ja que permet desacoblar totalment la part CPU de la part GPU de les aplicacions. A més, les GPUs poden estar en qualsevol node del clúster, sense importar el node en el qual s'està executant la part CPU de l'aplicació. En general, tant per a Cloud Computing com en el cas del HPC, aquest major grau de flexibilitat es tradueix en un augment fins 2x de la productivitat de tot el sistema al mateix temps que es redueix el consum energètic en aproximadament un 15%. Finalment, també hem desenvolupat un mecanisme de migració de treballs de la part GPU de les aplicacions que ha estat integrat dins del framework rCUDA. Aquest mecanisme de migració ha estat avaluat i els resultats mostren clarament que, a canvi d'una petita sobrecàrrega, al voltant de 400 mil·lisegons, en el temps d'execució de les aplicacions, és una potent eina amb la qual, de nou, augmentar la productivitat i reduir la despesa energètica de sistema. En resum, en aquesta tesi s'analitzen els principals problemes derivats de l'ús de les GPUs com acceleradors de còmput, tant en entorns HPC com de Cloud Computing, i es demostra com a través de l'ús del framework rCUDA, aquests problemes poden solucionar-se. A més es desenvolupa un potent mecanisme de migració de treballs GPU, que integrat dins del framework rCUDA, esdevé una eina clau per als futurs planificadors de treballs en clústers heterogenis.<br>[EN] In the last decade the use of GPGPU (General Purpose computing in Graphics Processing Units) has become extremely popular in data centers around the world. GPUs (Graphics Processing Units) have been established as computational accelerators that are used alongside CPUs to form heterogeneous systems. The massively parallel nature of GPUs, traditionally intended for graphics computing, allows to perform numerical operations with data arrays at high speed. This is achieved thanks to the large number of cores GPUs integrate and the large bandwidth of memory access. Consequently, applications of all kinds of fields, such as chemistry, physics, engineering, artificial intelligence, materials science, and so on, presenting this type of computational patterns are benefited by drastically reducing their execution time. In general, the use of computing acceleration provided by GPUs has meant a step forward and a revolution, but it is not without problems, such as energy efficiency problems, low utilization of GPUs, high acquisition and maintenance costs, etc. In this PhD thesis we aim to analyze the main shortcomings of these heterogeneous systems and propose solutions based on the use of remote GPU virtualization. To that end, we have used the rCUDA middleware, developed at Universitat Politècnica de València. Many publications support rCUDA as the most advanced remote GPU virtualization framework nowadays. The results obtained in this PhD thesis show that the use of rCUDA in Cloud Computing environments increases the degree of freedom of the system, as it allows to create virtual instances of the physical GPUs fully tailored to the needs of each of the virtual machines. In HPC (High Performance Computing) environments, rCUDA also provides a greater degree of flexibility in the use of GPUs throughout the computing cluster, as it allows the CPU part to be completely decoupled from the GPU part of the applications. In addition, GPUs can be on any node in the cluster, regardless of the node on which the CPU part of the application is running. In general, both for Cloud Computing and in the case of HPC, this greater degree of flexibility translates into an up to 2x increase in system-wide throughput while reducing energy consumption by approximately 15%. Finally, we have also developed a job migration mechanism for the GPU part of applications that has been integrated within the rCUDA middleware. This migration mechanism has been evaluated and the results clearly show that, in exchange for a small overhead of about 400 milliseconds in the execution time of the applications, it is a powerful tool with which, again, we can increase productivity and reduce energy foot print of the computing system. In summary, this PhD thesis analyzes the main problems arising from the use of GPUs as computing accelerators, both in HPC and Cloud Computing environments, and demonstrates how thanks to the use of the rCUDA middleware these problems can be addressed. In addition, a powerful GPU job migration mechanism is being developed, which, integrated within the rCUDA framework, becomes a key tool for future job schedulers in heterogeneous clusters.<br>This work jointly supported by the Fundación Séneca (Agencia Regional de Ciencia y Tecnología, Región de Murcia) under grants (20524/PDC/18, 20813/PI/18 and 20988/PI/18) and by the Spanish MEC and European Commission FEDER under grants TIN2015-66972-C5-3-R, TIN2016-78799-P and CTQ2017-87974-R (AEI/FEDER, UE). We also thank NVIDIA for hardware donation under GPU Educational Center 2014-2016 and Research Center 2015-2016. The authors thankfully acknowledge the computer resources at CTE-POWER and the technical support provided by Barcelona Supercomputing Center - Centro Nacional de Supercomputación (RES-BCV-2018-3-0008). Furthermore, researchers from Universitat Politècnica de València are supported by the Generalitat Valenciana under Grant PROMETEO/2017/077. Authors are also grateful for the generous support provided by Mellanox Technologies Inc. Prof. Pradipta Purkayastha, from Department of Chemical Sciences, Indian Institute of Science Education and Research (IISER) Kolkata, is acknowledged for kindly providing the initial ligand and DNA structures.<br>Prades Gasulla, J. (2021). Improving Performance and Energy Efficiency of Heterogeneous Systems with rCUDA [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168081<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
36

Mora, Campos Armando. "Estudio de Arquitecturas VLSI de la etapa de predicción de la compensación de movimiento, para compresión de imágenes y video con Algoritmos full-search. Aplicación al estándar H.264/AVC." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/3446.

Full text
Abstract:
En esta tesis doctoral se presenta el diseño y realización de arquitecturas VLSI de estimación de movimiento, en sus versiones de pixeles enteros y fraccionarios, para la etapa de predicción de la compensación de movimiento del estándar de codificación de video H.264/AVC. Las arquitecturas propuestas son estructuras de procesamiento pipeline-paralelas con alta eficiencia en su data_path y una administración optima de la memoria. Utilizando el algoritmo full-search block matching, los diseños cumplen los requerimientos de tamaño de bloque variable y resolución de ¼ de píxel del estándar con máxima calidad. Los estimadores de movimiento combinan las características de las arquitecturas consideradas en el estado del arte junto con la aplicación de nuevos esquemas y algoritmos hardware, en el proceso de codificación del componente luma de la señal de video. Diseñadas como coprocesadores de aceleración hardware para procesadores de 32 bits, las arquitecturas que se presentan han sido simuladas y sintetizadas para FPGA Virtex-4 de Xilinx, utilizando el lenguaje de descripción de hardware VHDL.<br>Mora Campos, A. (2008). Estudio de Arquitecturas VLSI de la etapa de predicción de la compensación de movimiento, para compresión de imágenes y video con Algoritmos full-search. Aplicación al estándar H.264/AVC [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3446<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
37

Larrondo, Lizarraga Antonio. "Generación y control de formas libres en entornos BIM : modelado paramétrico, modelado algorítmico." Doctoral thesis, Universitat Politècnica de Catalunya, 2017. http://hdl.handle.net/10803/457875.

Full text
Abstract:
The present thesis work intends to explore and research how far these new tools and modeling techniques can reach, regarding the generation and control of free forms (conceptual or mass modeling) in geometries generally complex on BIM environments, including its incorporation to the work flow within the definition process of the architectural project, as well as its integration in the BIM model definition. This allows the holistic visual comprehension of all architectural and building elements of the model, resulting in greater predictability, decrease of uncertainties, and reducing loopholes and information losses. It is also the aim of this study the control of such forms, its analysis, generative study, its geometry and those parameters from which generation and govern will be performed, in short, its optimization based on different criteria and given features, so as to obtain a greater efficiency by reducing costs and negative impacts on the environment. Forms are understood as a result of a complex synthesis and analysis process, and not just as a mere apriorism. Techniques are described to develop this kind of controls, analysis and management for the generating processes, which minimize the uncertainty factors and reduce possible deviations between the projection and its execution in all development phases of the project. Two alternative ways for modeling provided by current modeling software on BIM environments are analyzed: parametric modeling and the more recent algorithmic modeling. The latter needs its own specific VPL visual programming language to be used. Relationships and bidirectional dialogue established between the two is also studied, as well as regarding other software for the exchange of information, such as spreadsheets, data bases and others (structures calculation, installations, energetic audits, etc.), allowing for interoperability, a property benefitted and empowered by BIM work environments. The incorporation of these digital techniques allows not only the exploration of new modeling possibilities and complex forms generation, with the possibility of performing multiple options, simulations, checking, trials and the analysis of alternatives regarding their real behavior, that will help optimal decision making, but the optimization of the design process itself, focusing on traditional methods and projection tempos. This technification process of architecture opens up new ways of exploration and collaboration in forms modeling, also allowing, within VPL visual programming languages, the introduction and incorporation of conventional textual programming code (Design Script, Python, C#, etc.) to be able to create new customized design tools and automate repetitive tasks, with a considerable time saving regarding other types of modeling. Both modeling alternative ways are applied to a practical modeling case involving a very singular building such as Norman Foster's Swiss Re Tower in London, where the different forms of work, tempos, modeling strategies, objectives and dialogue bidirectional relationships and exchange of information between the two can be noticed, as well as the incorporation to the development and project gradual definition work flow.<br>El presente trabajo de tesis pretende explorar e investigar sobre lo que dan de sí estas nuevas herramientas y técnicas instrumentales de modelado, en la generación y el control de las formas libres (modelado conceptual o de masas) de geometrías generalmente complejas sobre entornos BIM, sin olvidar su incorporación al flujo de trabajo dentro del proceso de definición del proyecto arquitectónico y de su integración en la definición del modelo BIM. Lo que permite la comprensión visual holística de todos los elementos constructivos y arquitectónicos del modelo, dando como resultado mayor predictibilidad, disminución de incertidumbres, reduciendo pérdidas y lagunas de información. Es también objeto de estudio de esta tesis el control de dichas formas, su análisis, estudio generativo, su geometría, los parámetros sobre los que se va a generar y gobernar, en definitiva su optimización en base a diferentes criterios y prestaciones establecidos, para tratar de conseguir una mayor eficiencia reduciendo costos e impactos negativos en el medio ambiente. La forma se entiende como resultado de un proceso complejo de análisis y síntesis donde intervienen muchos factores y no como un mero apriorismo. Se describen técnicas para desarrollar este tipo de controles, análisis y gestión en los procesos generativos, que minimizan los factores de incertidumbre y reducen desviaciones posibles entre lo proyectado y lo ejecutado en todas las fases de desarrollo del proyecto. Se analizan dos vías alternativas de modelado que en la actualidad proporcionan los softwares de modelado sobre entornos BIM a saber: el modelado Paramétrico y el modelado Algorítmico de más reciente aparición. Este último necesita de un lenguaje específico propio de programación visual VPL (Visual Programming Language) para su utilización. También se estudian las relaciones y el diálogo bidireccional que puede establecerse entre ambos (software de modelado y software de programación visual) y con otros softwares para el intercambio de información, tales como Hojas de cálculo, Bases de datos y otros (cálculo de estructuras, instalaciones, auditorías energéticas etc.) dando pie a la interoperabilidad propiedad muy favorecida y potenciada por los entornos de trabajo BIM. La incorporación de estas técnicas digitales permite no solo la exploración de nuevas posibilidades de modelado y generación de formas complejas, con posibilidad de realización de una multiplicidad de opciones, simulaciones, comprobaciones, tanteos y análisis de alternativas de su comportamiento real que facilitarán en gran medida la toma de decisiones óptimas, sino la optimización del propio proceso de diseño haciendo cuestión de los métodos tradicionales y tempos de proyectación al uso. Este proceso de tecnificación de la arquitectura abre nuevas vías de exploración y colaboración estrecha en el modelado de formas, permitiendo también dentro de los lenguajes de programación visual VPL, la introducción e incorporación conjunta de código de programación textual convencional (Design Script, Python, C#, etc.) para poder crear nuevas herramientas de diseño personalizadas y automatizar tareas repetitivas, con un considerable ahorro de tiempo respecto de otros tipos de modelado. Se aplican ambas vías alternativas de modelado a un caso práctico de modelado de un edificio muy singular como la Torre Swiss Re de Norman Foster en Londres, donde se ponen de manifiesto las diferentes formas de trabajo, tempos, estrategias de modelado, objetivos perseguidos por cada tipo de modelado y las relaciones bidireccionales de diálogo e intercambio de información que pueden establecerse entre ambos. Así como su incorporación al flujo de trabajo de desarrollo y definición gradual del proyecto.
APA, Harvard, Vancouver, ISO, and other styles
38

Tuzov, Ilya. "Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded Systems." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/159883.

Full text
Abstract:
[ES] La utilización de sistemas empotrados en cada vez más ámbitos de aplicación está llevando a que su diseño deba enfrentarse a mayores requisitos de rendimiento, consumo de energía y área (PPA). Asimismo, su utilización en aplicaciones críticas provoca que deban cumplir con estrictos requisitos de confiabilidad para garantizar su correcto funcionamiento durante períodos prolongados de tiempo. En particular, el uso de dispositivos lógicos programables de tipo FPGA es un gran desafío desde la perspectiva de la confiabilidad, ya que estos dispositivos son muy sensibles a la radiación. Por todo ello, la confiabilidad debe considerarse como uno de los criterios principales para la toma de decisiones a lo largo del todo flujo de diseño, que debe complementarse con diversos procesos que permitan alcanzar estrictos requisitos de confiabilidad. Primero, la evaluación de la robustez del diseño permite identificar sus puntos débiles, guiando así la definición de mecanismos de tolerancia a fallos. Segundo, la eficacia de los mecanismos definidos debe validarse experimentalmente. Tercero, la evaluación comparativa de la confiabilidad permite a los diseñadores seleccionar los componentes prediseñados (IP), las tecnologías de implementación y las herramientas de diseño (EDA) más adecuadas desde la perspectiva de la confiabilidad. Por último, la exploración del espacio de diseño (DSE) permite configurar de manera óptima los componentes y las herramientas seleccionados, mejorando así la confiabilidad y las métricas PPA de la implementación resultante. Todos los procesos anteriormente mencionados se basan en técnicas de inyección de fallos para evaluar la robustez del sistema diseñado. A pesar de que existe una amplia variedad de técnicas de inyección de fallos, varias problemas aún deben abordarse para cubrir las necesidades planteadas en el flujo de diseño. Aquellas soluciones basadas en simulación (SBFI) deben adaptarse a los modelos de nivel de implementación, teniendo en cuenta la arquitectura de los diversos componentes de la tecnología utilizada. Las técnicas de inyección de fallos basadas en FPGAs (FFI) deben abordar problemas relacionados con la granularidad del análisis para poder localizar los puntos débiles del diseño. Otro desafío es la reducción del coste temporal de los experimentos de inyección de fallos. Debido a la alta complejidad de los diseños actuales, el tiempo experimental dedicado a la evaluación de la confiabilidad puede ser excesivo incluso en aquellos escenarios más simples, mientras que puede ser inviable en aquellos procesos relacionados con la evaluación de múltiples configuraciones alternativas del diseño. Por último, estos procesos orientados a la confiabilidad carecen de un soporte instrumental que permita cubrir el flujo de diseño con toda su variedad de lenguajes de descripción de hardware, tecnologías de implementación y herramientas de diseño. Esta tesis aborda los retos anteriormente mencionados con el fin de integrar, de manera eficaz, estos procesos orientados a la confiabilidad en el flujo de diseño. Primeramente, se proponen nuevos métodos de inyección de fallos que permiten una evaluación de la confiabilidad, precisa y detallada, en diferentes niveles del flujo de diseño. Segundo, se definen nuevas técnicas para la aceleración de los experimentos de inyección que mejoran su coste temporal. Tercero, se define dos estrategias DSE que permiten configurar de manera óptima (desde la perspectiva de la confiabilidad) los componentes IP y las herramientas EDA, con un coste experimental mínimo. Cuarto, se propone un kit de herramientas que automatiza e incorpora con eficacia los procesos orientados a la confiabilidad en el flujo de diseño semicustom. Finalmente, se demuestra la utilidad y eficacia de las propuestas mediante un caso de estudio en el que se implementan tres procesadores empotrados en un FPGA de Xilinx serie 7.<br>[CA] La utilització de sistemes encastats en cada vegada més àmbits d'aplicació està portant al fet que el seu disseny haja d'enfrontar-se a majors requisits de rendiment, consum d'energia i àrea (PPA). Així mateix, la seua utilització en aplicacions crítiques provoca que hagen de complir amb estrictes requisits de confiabilitat per a garantir el seu correcte funcionament durant períodes prolongats de temps. En particular, l'ús de dispositius lògics programables de tipus FPGA és un gran desafiament des de la perspectiva de la confiabilitat, ja que aquests dispositius són molt sensibles a la radiació. Per tot això, la confiabilitat ha de considerar-se com un dels criteris principals per a la presa de decisions al llarg del tot flux de disseny, que ha de complementar-se amb diversos processos que permeten aconseguir estrictes requisits de confiabilitat. Primer, l'avaluació de la robustesa del disseny permet identificar els seus punts febles, guiant així la definició de mecanismes de tolerància a fallades. Segon, l'eficàcia dels mecanismes definits ha de validar-se experimentalment. Tercer, l'avaluació comparativa de la confiabilitat permet als dissenyadors seleccionar els components predissenyats (IP), les tecnologies d'implementació i les eines de disseny (EDA) més adequades des de la perspectiva de la confiabilitat. Finalment, l'exploració de l'espai de disseny (DSE) permet configurar de manera òptima els components i les eines seleccionats, millorant així la confiabilitat i les mètriques PPA de la implementació resultant. Tots els processos anteriorment esmentats es basen en tècniques d'injecció de fallades per a poder avaluar la robustesa del sistema dissenyat. A pesar que existeix una àmplia varietat de tècniques d'injecció de fallades, diverses problemes encara han d'abordar-se per a cobrir les necessitats plantejades en el flux de disseny. Aquelles solucions basades en simulació (SBFI) han d'adaptar-se als models de nivell d'implementació, tenint en compte l'arquitectura dels diversos components de la tecnologia utilitzada. Les tècniques d'injecció de fallades basades en FPGAs (FFI) han d'abordar problemes relacionats amb la granularitat de l'anàlisi per a poder localitzar els punts febles del disseny. Un altre desafiament és la reducció del cost temporal dels experiments d'injecció de fallades. A causa de l'alta complexitat dels dissenys actuals, el temps experimental dedicat a l'avaluació de la confiabilitat pot ser excessiu fins i tot en aquells escenaris més simples, mentre que pot ser inviable en aquells processos relacionats amb l'avaluació de múltiples configuracions alternatives del disseny. Finalment, aquests processos orientats a la confiabilitat manquen d'un suport instrumental que permeta cobrir el flux de disseny amb tota la seua varietat de llenguatges de descripció de maquinari, tecnologies d'implementació i eines de disseny. Aquesta tesi aborda els reptes anteriorment esmentats amb la finalitat d'integrar, de manera eficaç, aquests processos orientats a la confiabilitat en el flux de disseny. Primerament, es proposen nous mètodes d'injecció de fallades que permeten una avaluació de la confiabilitat, precisa i detallada, en diferents nivells del flux de disseny. Segon, es defineixen noves tècniques per a l'acceleració dels experiments d'injecció que milloren el seu cost temporal. Tercer, es defineix dues estratègies DSE que permeten configurar de manera òptima (des de la perspectiva de la confiabilitat) els components IP i les eines EDA, amb un cost experimental mínim. Quart, es proposa un kit d'eines (DAVOS) que automatitza i incorpora amb eficàcia els processos orientats a la confiabilitat en el flux de disseny semicustom. Finalment, es demostra la utilitat i eficàcia de les propostes mitjançant un cas d'estudi en el qual s'implementen tres processadors encastats en un FPGA de Xilinx serie 7.<br>[EN] Embedded systems are steadily extending their application areas, dealing with increasing requirements in performance, power consumption, and area (PPA). Whenever embedded systems are used in safety-critical applications, they must also meet rigorous dependability requirements to guarantee their correct operation during an extended period of time. Meeting these requirements is especially challenging for those systems that are based on Field Programmable Gate Arrays (FPGAs), since they are very susceptible to Single Event Upsets. This leads to increased dependability threats, especially in harsh environments. In such a way, dependability should be considered as one of the primary criteria for decision making throughout the whole design flow, which should be complemented by several dependability-driven processes. First, dependability assessment quantifies the robustness of hardware designs against faults and identifies their weak points. Second, dependability-driven verification ensures the correctness and efficiency of fault mitigation mechanisms. Third, dependability benchmarking allows designers to select (from a dependability perspective) the most suitable IP cores, implementation technologies, and electronic design automation (EDA) tools. Finally, dependability-aware design space exploration (DSE) allows to optimally configure the selected IP cores and EDA tools to improve as much as possible the dependability and PPA features of resulting implementations. The aforementioned processes rely on fault injection testing to quantify the robustness of the designed systems. Despite nowadays there exists a wide variety of fault injection solutions, several important problems still should be addressed to better cover the needs of a dependability-driven design flow. In particular, simulation-based fault injection (SBFI) should be adapted to implementation-level HDL models to take into account the architecture of diverse logic primitives, while keeping the injection procedures generic and low-intrusive. Likewise, the granularity of FPGA-based fault injection (FFI) should be refined to the enable accurate identification of weak points in FPGA-based designs. Another important challenge, that dependability-driven processes face in practice, is the reduction of SBFI and FFI experimental effort. The high complexity of modern designs raises the experimental effort beyond the available time budgets, even in simple dependability assessment scenarios, and it becomes prohibitive in presence of alternative design configurations. Finally, dependability-driven processes lack an instrumental support covering the semicustom design flow in all its variety of description languages, implementation technologies, and EDA tools. Existing fault injection tools only partially cover the individual stages of the design flow, being usually specific to a particular design representation level and implementation technology. This work addresses the aforementioned challenges by efficiently integrating dependability-driven processes into the design flow. First, it proposes new SBFI and FFI approaches that enable an accurate and detailed dependability assessment at different levels of the design flow. Second, it improves the performance of dependability-driven processes by defining new techniques for accelerating SBFI and FFI experiments. Third, it defines two DSE strategies that enable the optimal dependability-aware tuning of IP cores and EDA tools, while reducing as much as possible the robustness evaluation effort. Fourth, it proposes a new toolkit (DAVOS) that automates and seamlessly integrates the aforementioned dependability-driven processes into the semicustom design flow. Finally, it illustrates the usefulness and efficiency of these proposals through a case study consisting of three soft-core embedded processors implemented on a Xilinx 7-series SoC FPGA.<br>Tuzov, I. (2020). Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/159883<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
39

Dias, Sérgio Emanuel Duarte. "Geometric representation and detection methods of cavities on protein surfaces." Doctoral thesis, 2015. http://hdl.handle.net/10400.6/3981.

Full text
Abstract:
Most living organisms are made up of cells, while cells are composed by molecules. Molecules play a fundamental role in biochemical processes that sustain life. The functions of a molecule depend not only on its interaction with other molecules, but also on the sites of its surface where such interactions take place. Indeed, these interactions are the driving force of almost all cellular processes. Interactions between molecules occur on specific molecular surface regions, called binding sites. The challenge here is to know the compatible sites of two coupling molecules. The compatibility is only effective if there is physico-chemical compatibility, as well as geometric compatibility in respect to docking of shape between the interacting molecules. Most (but not all) binding sites of a molecule (e.g., protein) correspond to cavities on its surface; conversely, most (but not all) cavities correspond to binding sites. This thesis essentially approaches cavity detection algorithms on protein surfaces. This means that we are primarily interested in geometric methods capable of identifying protein cavities as tentative binding sites for their ligands. Finding protein cavities has been a major challenge in molecular graphics and modeling, computational biology, and computational chemistry. This is so because the shape of a protein usually looks very unpredictable, with many small downs and ups. These small shape features on the surface of a protein are rather illusive because they are too small when compared to cavities as tentative binding sites. This means that the concept of curvature (a local shape descriptor) cannot be used as a tool to detect those cavities. Thus, more enlarged shape descriptors have to be used to succeed in determining such cavities on the surface of proteins. In this line of thought, this thesis explores the application of mathematical theory of scalar fields, including its topology, as the cornerstone for the development of cavity detection algorithms described herein. Furthermore, for the purpose of graphic visualisation, this thesis introduces a GPU-based triangulation algorithm for molecular surfaces.
APA, Harvard, Vancouver, ISO, and other styles
40

Pereira, João Paulo Jorge. "Hardware gráfico de visualização." Master's thesis, 1991. http://hdl.handle.net/10216/11385.

Full text
Abstract:
Dissertação apresentada para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores, na Faculdade de Engenharia da Universidade do Porto, sob a orientação do Prof. Doutor Fernando Nunes Ferreira
APA, Harvard, Vancouver, ISO, and other styles
41

Pereira, João Paulo Jorge. "Hardware gráfico de visualização." Dissertação, 1991. http://hdl.handle.net/10216/11385.

Full text
Abstract:
Dissertação apresentada para obtenção do grau de Mestre em Engenharia Electrotécnica e de Computadores, na Faculdade de Engenharia da Universidade do Porto, sob a orientação do Prof. Doutor Fernando Nunes Ferreira
APA, Harvard, Vancouver, ISO, and other styles
42

"Matemática básica para arquitectura. MTA9. Análisis gráfico de funciones." Universidad Peruana de Ciencias Aplicadas - UPC, 2014. http://hdl.handle.net/10757/336551.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Fernández, Miguel Sánchez. "De la idea al proyecto de arquitectura por medio del croquis." Master's thesis, 2020. http://hdl.handle.net/10400.26/36371.

Full text
Abstract:
RESUMEN El objeto de estudio de esta disertación para el Mestrado Integrado en Arquitectura y Urbanismo es analizar la influencia de la utilización del croquis como herramienta de desarrollo en el proceso de elaboración del proyecto de arquitectura. Dibujo y arquitectura son dos ámbitos que siempre han estado unidos de un modo muy directo, no solo como modo de representar la futura arquitectura, sino también como herramienta que facilita el pensamiento del arquitecto. Por lo que surgen cuestiones sobre ¿ cómo influye la herramienta del croquis en los distintos momentos del pensamiento gráfico ? ¿ cómo se podría agrupar este material gráfico según sus usos, funciones y aportaciones ? Como objetivos propuestos para la investigación, se encuentran la identificación de las formas de registro gráfico del dibujo, en particular del croquis y su relación con la arquitectura de los siglos XX y XXI; así como la definición de la influencia del croquis en el proceso de creación del proyecto de arquitectura. La metodología empleada se divide en dos partes: la primera que constituye la recogida de datos e información relativa a conceptos de relevancia en la investigación, formando un encuadramiento del objeto de estudio de la disertación (PARTE II: Marco Teórico); la segunda, que comprende una evaluación del uso del croquis en el proceso de creación del proyecto de arquitectura. Para responder a los objetivos, en un primer momento se trata la información de un modo reflexivo critico, permitiendo abordar la problemática de carácter abstracto relacionado con el pensamiento en imágenes (PARTE III: Pensamiento Gráfico), la información recopilada permite el análisis completo de croquis por individual, de forma a establecer tres grupos gráficos en relación a los conceptos teóricos, extraídos del abordaje de la problemática abstracta (Parte IV: Formas de Registros Gráficos). La comprensión de los momentos del pensamiento gráfico se vuelve un factor prioritario, determinante en el estudio realizado a lo largo de la disertación, obteniendo datos esenciales para la interpretación de los variados usos que cada arquitecto hace del croquis en el desarrollo del proyecto arquitectónico, resultando en un análisis comparativo y crítico.<br>RESUMO O objeto de estudo para esta dissertação para o Mestrado Integrado em Arquitetura e Urbanismo, é analisar a influência da utilização do croquis como ferramenta de desenvolvimento no processo de elaboração do projeto de arquitetura. Desenho e arquitetura são dois âmbitos que sempre estiveram unidos de um modo muito direto, não só por se usar o desenho como modo de representar a futura arquitetura, senão também porque é a ferramenta que facilita o pensamento do arquiteto. Pelo que surgem questões sobre como a ferramenta do croquis influencia nos diferentes momentos do pensamento gráfico e como se poderia agrupar este material gráfico segundo os seus usos, funções e aportações. Como objetivos propostos para a investigação, encontram-se a identificação das formas de registo gráfico do desenho, em particular o croquis e a sua relação com a arquitetura dos séculos XX e XXI; assim como a definição da influencia do croquis no processo de criação do projeto de arquitetura. A metodologia empregada divide-se em duas partes: a primeira que constitui a recolha de dados e informação relativa a conceitos de relevância para a investigação, formando um enquadramento do objeto de estudo da dissertação (Parte II: Marco Teórico); a segunda, que compreende uma avaliação do uso do croquis no processo de criação do projeto de arquitetura. Para responder aos objetivos, num primeiro momento trata-se a informação de um modo reflexivo crítico, permitindo abordar a problemática de caráter abstrato relacionando com o pensamento em imagens (Parte III: Pensamento Gráfico), a informação recompilada permite a análise completa do croquis de forma individual, estabelecendo três grupos gráficos em relação a conceitos teóricos, extraídos da abordagem da problemática abstrata (Parte V: Formas de Registo Gráfico). A compreensão dos momentos do pensamento gráfico torna-se um fator prioritário, determinante no estudo realizado ao longo da dissertação, obtendo dados essenciais para a interpretação dos variados usos que o arquiteto faz do croquis no desenvolvimento do projeto arquitetónico, resultando numa análise comparativa e crítica. Palavras-chave: arquitetura, croquis, pensamento gráfico, abstração, diálogo, experiência espacial.<br>ABSTRACT The focus of this thesis to obtain the Integrated Master’s Degree in Architecture and Urbanism is to analyze the influence in the use of a sketch as a development tool during the elaboration process of an architectural project. Drawing and architecture are two topics that have been always directly connected, not only for being the way to represent the future architecture, but also for showing the architect’s thoughts. Emerging questions such as how the tool of a sketch influence in di!erent moments of graphic thinking and how this graphic material could be gathered by its uses, functions and contributions. The proposed objetives for the investigation are to identify the forms of graphic design, especially a skecth and their relation with architecture of 20th and 21st century; and also to define the influence of a sketch in the creation process of an architectural project. The methodology used has been divided in two parts: first consists in collecting data and information related to important concepts about the investigation, as a result as a framework of the subjetc of the thesis (PART II: Theoretical Framework); second is an evaluation among the use of a sketch in the creation process in an architectural project. To give answer to the proposed objectives, fisrtly the information is taken as a thoughful and critical approach, trying to deal with the problematic of abstract character related to pictured thinking (PART III: Graphic Thinking), all the information gather together allows to analyze totally the individual sketch, to establihs three graphic groups related with the theoretical concepts, pull out of the aproach among the abstrac matter. (PART IV: Types of Graphic Records.) Moments of graphic thinking comprehesion became a top-priority that is decisive along this thesis to achieve essencial datas for the interpretation of the assorted uses which each architec gives to a skecth in the development of the architectural project, turn out to be in a comparative and critic analysis. Key-words: architecture, sketch, graphic thinking, abstraction, dialogue, spacial experience.
APA, Harvard, Vancouver, ISO, and other styles
44

Graña, Rubén Darío. "Comparación de arquitectura AMD e Intel para ejecución de GADGET." Bachelor's thesis, 2017. http://hdl.handle.net/11086/6587.

Full text
Abstract:
Tesis (Lic. en Ciencias de la Computación)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía, Física y Computación, 2017.<br>Realizo una comparación de la ejecución de código de simulaciones cosmológicas Gadget, el cual evoluciona la materia del universo considerando solo la fuerza de gravedad. Estas ejecuciones se realizaron sobre arquitectura x86_64 de los fabricantes AMD e Intel con diversos compiladores y banderas de compilación, a fin de establecer cual es la más propicia para éste fin. También llevé a cabo las pruebas de desempeño entre los diferentes equipos, se compararon los resultados con los cálculos teóricos para luego comparar los resultados obtenidos de la misma simulación en distintas configuraciones. Se presentan los resultados y las conclusiones obtenidas, mostrando que los compiladores se comportaron de similar manera, no así las arquitecturas.<br>I made a comparison of the cosmological simulations code gadget, which evolves a dark matter universe using only gravity. These executions were made over an x86_64 architecture from AMD and Intel manufacturers using diverse compilers and compiler flags, to establish which one is the best for this task. I also made performance tests between the different computers, I compared the results with the theoretical calculations to compare them later with the ones obtained with the same simulation on different configurations. The obtained results and conclusions are presented, showing that the compilers have similar behavior, but not the architectures.
APA, Harvard, Vancouver, ISO, and other styles
45

Miranda, Leonardo Ezequiel. "Algoritmo de cálculo de cápsulas convexas." Bachelor's thesis, 2015. http://hdl.handle.net/11086/2821.

Full text
Abstract:
El presente trabajo se propone definir algoritmos eficientes implementados sobre placas de video para calcular el conjunto convexo que encierra a un conjunto de puntos dado. Los resultados obtenidos se analizaran mediante su rendimiento con respecto a otros ya existentes.
APA, Harvard, Vancouver, ISO, and other styles
46

Ferreira, Nuno Miguel dos Santos. "Quadricóptero com auto estabilização e controlo remoto." Master's thesis, 2015. http://hdl.handle.net/10400.26/12574.

Full text
Abstract:
O trabalho apresentado nesta Dissertação, descreve o estudo, projeto e implementação de uma aeronave de voo vertical vulgarmente denominada de quadricóptero. Em particular, a dissertação apresenta os aspetos inerentes à sua construção, desde a da plataforma mecânica, transmissão de dados por radiofrequência entre utilizador e plataforma voadora, circuitos de comando propulsor, assim como a sua dinâmica e controlo de voo, fundamentais para obter um voo estável e robusto. Os materiais foram encolhidos criteriosamente de forma a obter um peso final o mais baixo possível e ao mesmo tempo uma elevada resistência a forças mecânicas. Tratando-se de uma aeronave, este é um dos fatores mais relevantes para todo o processo construtivo. Utilizou-se uma estrutura de plástico e fibra de vidro para alojar os seus constituintes, entre eles, motores, placa de controlo, módulo de sensores, bateria, módulo de rádio, variadores de velocidade e cabos elétricos de ligação. O trabalho apresentado descreve as fases de desenvolvimento de projeto, quer ao nível do hardware necessário para interligação e controlo de todos os componentes, assim como o software de gestão e controlo da plataforma e do comando rádio. Estudou-se o comportamento e a dinâmica da aeronave. Os sinais necessários para a sua estabilização foram obtidos através de acelerómetro e giroscópio digital. Para a estabilização de voo aplicaram-se técnicas de controlo digital baseado em controladores PID discretos, usando microcontrolador DSPIC da Microchip. A sintonia dos controladores PID foi feita recorrendo ao método de Ziegler Nichols também conhecido por método da sensibilidade limite. Após a conclusão das várias etapas do projeto, obteve-se uma aeronave com capacidade de voar, bastante estável e de fácil pilotagem, com a possibilidade de ser usada nos diferentes cenários de aplicação para este tipo de veículos.
APA, Harvard, Vancouver, ISO, and other styles
47

Esteves, António. "Uma metodologia de participação para o co-projecto de sistemas digitais embebidos." Doctoral thesis, 2001. http://hdl.handle.net/1822/186.

Full text
Abstract:
Esta tese propõe uma metodologia de partição automática, que é parte integrante duma metodologia mais abrangente orientada para o desenvolvimento de sistemas embebidos predominantemente de fluxo de dados. É formulado o problema de partição, tarefa que depende da arquitectura alvo e que se integra na fase de implementação dos sistemas com múltiplos componentes de hardware e/ou de software. A partir do levantamento sobre os meta-modelos mais utilizados em sistemas embebidos, Justifica-se a selecção de PSM para representação de interface entre a tarefa de partição e a restante metodologia de desenvolvimento. Para representar os sistemas internamente ao processo de partição desenvolveu-se o meta-modelo PSMfg. Apresenta-se a arquitectura alvo actualmente suportada pela metodologia de partição proposta, a qual é composta por uma plataforma EDgAR-2 ligada a um sistema hospedeiro. A organização da metodologia de partição desenvolvida inclui um algoritmo de partição construtivo e a respectiva função de proximidade, um algoritmo de partição iterativo e a correspondente função de custo e os estimadores de métricas, O algoritmo construtivo gera uma solução de partição inicial, que o algoritmo iterativo procura melhorar em sucessivas tentativas. Mostra-se como é que, partindo dum conjunto de algoritmos de partição referenciados na bibliografia, se chegou à selecção do algoritmo construtivo de crescimento de grupos e do algoritmo iterativo de pesquisa tabu. Descreve-se o processo de construção de soluções de partição com o algoritmo construtivo de crescimento de grupos, a função de proximidade por ele utilizada e a estimação das métricas necessárias a esta função. A adaptação do algoritmo de pesquisa tabu ao presente problema de partição é explicada, sendo de destacar a implementação dos tipos de tabu, da lista tabu, do historial de soluções visitadas, da pesquisa na subvizinhança, dos critérios de aspiração e dos mecanismos de convergência para a solução óptima e de fuga a mínimos locais. A função de custo utilizada pelo algoritmo de pesquisa tabu é definida a partir dum conjunto de métricas e dos condicionalismos ou requisitos que lhe estão associados. Para estimar as métricas da função de custo definiram-se modelos de software para o processador, de hardware para as FPGAs e os CPLDs e de comunicação para os recursos de interligação. Para reduzir o tempo de cálculo e manter uma precisão elevada nas estimativas, a estimação é incremental e funciona em dois níveis de abstracção: (i) no nível de abstracção mais elevado, obtêm-se estimativas para o espaço ocupado pelo caminho de dados e pela unidade de controlo das partições de hardware e para o desempenho do sistema e (ii) no nível de abstracção mais baixo, obtêm-se estimativas para métricas relativas aos objectos do modelo do sistema. A validação da metodologia de partição traduziu-se no estudo de dois exemplos: a convolução duma imagem e um algoritmo de criptografia. Os aspectos avaliados foram a qualidade das soluções de partição geradas automaticamente, a precisão e a fidelidade das estimativas, o desempenho da ferramenta desenvolvida e o apoio que presta à implementação das soluções de partição.<br>This thesis presents an automatic partitioning methodology included in a broader methodology oriented to the development of data flow dominated embedded systems. It is described the partitioning problem, which depends on the target architecture and is considered a crucial task to implement a system with software and several hardware components. The thesis starts with a survey of the more relevant meta-models used with embedded systems, to justify the option for PSM Lo describe the systems at the interface between the partitioning task and the remaining development methodology. A new meta-model, PSMfg, was developed as an internal way to describe the systems during the partitioning process. A target architecture is presented, based on two types of reconfigurable devices (FPGAs and CPLDs): the EDgAR-2. The prototype system contains an EDgAR-2 platform connected to a PC host system. EDgAR-2 was built Lo support the proposed partitioning methodology. The developed partitioning methodology includes a constructive partitioning algorithm and its closeness function, an iterative partitioning algorithm and its cost function and the metrics estimators. The constructive partitioning algorithm generates an initial solution that iterative algorithm tries to successively improve. A literature review on partitioning a suggested the adoption of the cluster growth constructive algorithm and the tabu search iterative algorithm, as the base foundation for the proposed methodology. The process of creating partitioning solutions with cluster growth constructive algorithm, the applied closeness function and the estimation of the metrics required by this function are presented. Tailoring the tabu search algorithm to the presented partitioning problem is detailed, with an emphasis on the implementation of the tabus, the tabu list, the visited solutions memory, the partial neighbourhood search, the aspiration criteria and the techniques that reinforce the convergence to the optimum solution and the escape from local minima of the cost function. The cost function applied by the tabu search algorithm depends on a set of metrics and on the constraints or requirements associated with these metrics. To estimate the metrics whose cost function depends on, a software model for the processor, a hardware model for the FPGAS and CPLDs and a communication model for the interconnection resources were defined. To reduce the estimation time while providing a high degree of precision, the estimation process is incremental and it is performed at two abstraction levels: (i) at the higher abstraction level, one estimates the hardware partitions data path and control unit area and the system performance and (ii) at the lower abstraction eve1, one estimates values for the system model objects metrics. The validation of the partitioning methodology was carried out through two examples: the convolution of an image and a cryptography algorithm. The quality of the automatically generated partitioning solutions, the precision and fidelity of the estimations, the performance of the developed tool and its support Lo implement the partitioning solutions were evaluated with promising results.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!