To see the other types of publications on this topic, follow the link: Arquitectura de computadores.

Dissertations / Theses on the topic 'Arquitectura de computadores'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Arquitectura de computadores.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Silva, Bernardo Francisco Peralta Pires da. "Um processador com arquitectura MIPS para ensino." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2048.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
A influência da tecnologia digital é extremamente significativa em campos tão diversos como, por exemplo, o das telecomunicações onde as comunicações digitais adquiriram já uma individualidade própria, ou o do controlo onde os processadores digitais ocupam hoje um lugar indispensável. A rápida evolução sentida na última década nas técnicas digitais, nomeadamente no domínio dos mini e micro-computadores, impõe uma constante reestruturação curricular que permita ir além do âmbito limitado das disciplinas de “Arquitectura de Computadores”, “Sistemas Digitais”, “Computação Reconfigurável” ou “Modelação e Síntese de Computadores”, disciplinas estas leccionadas na Universidade de Aveiro aos cursos de Mestrado Integrado de Engenharia em Computadores e Telemática (MIECT) e Mestrado Integrado em Engenharia de Electrónica e Telecomunicações (MIEET). O conhecimento do funcionamento dos computadores é muito importante para permitir que os estudantes de engenharia compreendam alguns conceitos da área de processamento de informação, a adaptabilidade de diversos algoritmos por simples programação, assim como a modularidade inerente aos sistemas digitais. Nesta dissertação é apresentado um método que irá fazer uso dos conhecimentos adestrados nas disciplinas anteriormente mencionadas, aplicando-os de modo a que a aprendizagem em circuitos digitais, computação reconfigurável e arquitectura de computadores, vá para além do uso de software para simulação de um processador: a implementação real em hardware de um processador de arquitectura MIPS utilizando VHDL. As ferramentas desenvolvidas nesta dissertação possibilitam aos alunos projectar, implementar e executar um processador MIPS Single Cycle de 32 bits na placa DETIUA-S3, que contém como componente central a FPGA Spartan3 XC3S400 da Xilinx. Este documento apresenta as várias etapas da evolução das ferramentas criadas: • A implementação de um processador MIPS Single Cycle utilizando a linguagem de descrição de hardware VHDL; • A evolução de um protocolo de comunicação existente para interacção entre a placa DETIUA-S3 e um computador via USB (Universal Serial Bus), tendo sido efectuadas alterações de modo a que permita o total controlo por software do processador desenvolvido; • Uma aplicação, nomeada de “iCmips 1.0”, que faz uso do protocolo de comunicação implementado possibilitando: o O controlo total do processador MIPS desenvolvido, desde efectuar a execução de ciclos de relógio, reset, leitura e escrita de valores no processador; o Configuração da aplicação mediante a arquitectura do processador implementado, como por exemplo, a dimensão das memórias, número de CPIs (Cycles Per Instruction) necessários, nome, dimensão e número de sinais ligados ao protocolo de comunicação, entre outros; o Configuração do conjunto de instruções MIPS assembly que o processador suporta e um assembler interno capaz de interpretar essas instruções (que não sejam do tipo vírgula flutuante); o Um editor de texto embutido que facilita o carregamento e escrita de programas assembly, sua verificação semântica e sintáctica e conversão em código máquina para posterior envio para as memórias de instruções e/ou dados do rocessador implementado. O principal objectivo desta dissertação é então produzir uma nova ferramenta para ensino que possibilite aos alunos a aprendizagem dos mecanismos envolvidos em computação reconfigurável e arquitectura de computadores de uma forma simples, interactiva e cativante. Os resultados obtidos demonstram a viabilidade e funcionalidade do sistema implementado, mas só com o envolvimento dos alunos na realização de exercícios como o desenvolvimento de alguns dos componentes do processador MIPS Single Cycle de 32 bits, inicialmente ocultados pelo professor, ou mesmo o desenvolvimento completo de novos processadores de arquitectura MIPS fazendo uso das ferramentas criadas para comunicação e depuração, se poderá avaliar as potencialidades e carências do projecto desenvolvido. ABSTRACT: The influence of digital technology is extremely significant in fields as diverse as, for example, the telecommunications where digital communications have already gained own individuality, or the control where the digital processors occupy an indispensable place today. The rapid changes experienced in the last decade in digital techniques, particularly in the field of mini and micro-computers, requires a constant curricula restructuring that allows to go beyond the limited scope of the subjects of "Computer Architecture", "Reconfigurable Digital Systems" or "Processor Synthesis and Modeling", disciplines taught at the University of Aveiro within Computer Engineering curriculum and Electrical Engineering curriculum. The knowledge of computer operations is very important to enable engineering students to understand some concepts of information processing, programming and modularity inherent to digital systems. This dissertation presents a method that will deepen the expertise within the mentioned disciplines, so that the learning goes beyond the use of software for simulation of a processor to the actual implementation in hardware of a MIPS processor architecture using VHDL. The tools developed in this dissertation enable the students to design, implement and execute a MIPS Single Cycle 32-bit processor on the DETIUAS3 board, which contains as a central component the Xilinx Spartan3 XC3S400 FPGA. This document presents the various stages in the development of tools created: • Implementation of MIPS Single Cycle 32-bit processor using VHDL hardware description language; • Evolution of an existing communication protocol for interaction between the DETIUA-S3 board and a host computer via USB (Universal Serial Bus), which suffered modifications to be able to control the developed processor by software; • An application named "iCmips 1.0", which uses the communication protocol and allows the following: o Total control of the developed processor: generation of clock cycles, reset cycles, reading and writing values to the processor; o Configuration of software parameters, such as memory size, number of CPI (cycles per instruction), name, size, and number of signals used in communication protocol, etc., according to the implemented processor architecture; o Configuration of instructions supported by MIPS processor and used by an internal assembler; o A text editor, which facilitates writing assembly language programs, provides for syntactic and semantic code verification, and generates machine code that is further loaded to instruction/data memories of the implemented processor. The main aim of this dissertation is to produce a new tool for education, enabling students to learn the mechanisms involved in “Reconfigurable Digital Systems” and “Computer Architecture” in a simple, interactive and engaging way. The results obtained demonstrate the feasibility and functionality of the implemented system but only with the involvement of students (in conducting exercises such as the development of some components of the MIPS Single Cycle 32-bit processor, initially omitted by the teacher, or even the complete task of developing new MIPS processors architectures using the tools created for communication and debugging), it will be possible to evaluate the strengths and weaknesses of the developed project.
APA, Harvard, Vancouver, ISO, and other styles
2

Roque, Vitor Manuel Gomes. "Arquitecturas distribuídas cliente/servidor : CORBA, DCOM e JavaRMI." Master's thesis, Universidade de Aveiro, 1999. http://hdl.handle.net/10773/13036.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
Na era das comunicações e da multimédia, as Arquitecturas Distribuídas Cliente/Servidor têm vindo a ganhar cada vez mais representatividade no panorama actual do desenvolvimento de aplicações. Verbas avultadas têm sido investidas pelas empresas desenvolventes deste tipo de tecnologia de forma a melhorar o mais possível e no menor espaço de tempo as suas plataformas com o intuito de ganhar a maior representatividade possível na área da computação distribuída. A presente dissertação centra-se precisamente na análise de três das mais importantes arquitecturas distribuídas cliente/servidor disponíveis actualmente no mercado, nomeadamente as arquitecturas CORBA, DCOM e JavaRMI. A escolha destas arquitecturas não foi aleatória e teve como base a sua importância no mercado actual. A primeira - a CORBA - por ser fomentada pelo OMG, organização internacional formada por mais de 800 membros, a segunda - o DCOM - pela importância da empresa que a desenvolve, a Microsoft, devido ao peso desta no mundo da informática e a terceira - a JavaRMI - pela crescente popularidade da linguagem Java. Nesta análise são focados os pontos mais importantes de cada uma das arquitecturas e como é que estes pontos podem ser factores decisivos na escolha das plataformas por parte das organizações. Neste sentido, o segundo capítulo desta dissertação faz uma retrospectiva de tecnologias até se atingir o estado actual, as arquitecturas distribuídas cliente/servidor. Nos terceiro, quarto e quinto capítulos são abordados de forma sucinta as três arquitecturas CORBA, DCOM e JavaRMI respectivamente. No sexto capítulo é apresentada uma comparação das funcionalidades das três arquitecturas no que respeita a: 􀂃 Interoperabilidade. 􀂃 Fiabilidade. 􀂃 Maturidade da Plataforma. Finalmente no sétimo capítulo são apresentadas algumas das conclusões retiradas ao longo desta dissertação.
In the communication and multimedia era, Distributed Client/Server Architectures has come to have more and more representation in the current panorama of application development. Large amounts have been invested by companies that develop this kind of technology in order to improve their platforms as quickly and as much as possible with the objective of gaining as much representation as possible in the area of distributed computation. This dissertation is focussed precisely on the analysis of three of the largest distributed client/server architectures currently available on the market, namely CORBA, DCOM, and JavaRMI. The choice of these architectures was not random but, rather, based on their significance on the current market: the first, CORBA, for being supported by the OMG, an international organization of more than 800 members; the second, DCOM, for the significance of the company that is developing it, Microsoft, due to its weight in the computer world; and the third, JavaRMI, for the increasing popularity of Java language. In this analysis, the most important points of each of the architectures are focussed on, exploring how each of these points can be decisive factors in the choice of platforms on the part of organizations. Accordingly, the second chapter of this dissertation gives a retrospective view of technology up to the current state, distributed client/server architectures. In the third, fourth, and fifth chapters, the three architectures, CORBA, DCOM and JavaRMI, respectively, are dealt with succinctly. In the sixth chapter, a comparison of the functionality of the three architectures is presented with respect to: 􀂃 Interoperability. 􀂃 Reliability. 􀂃 Platform Maturity. Finally, in the seventh chapter, some of the conclusions drawn throughout the dissertation are presented.
APA, Harvard, Vancouver, ISO, and other styles
3

Sanchez-Romero, Jose-Luis. "Arquitectura de procesadores especializados en cálculo geométrico: aplicación a procesos de fabricación." Doctoral thesis, Universidad de Alicante, 2008. http://hdl.handle.net/10045/24824.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ramos, Fernando Manuel. "Proposta de arquitectura e estudo de desempenho de um ISPBX com comutação de pacotes." Doctoral thesis, Universidade de Aveiro, 1991. http://hdl.handle.net/10773/4384.

Full text
Abstract:
Doutoramento em Engenharia Electrónica e Telecomunicações
Esta Tese apresenta uma proposta de um ISPBX em que é utilizada como subsistema de comutação a arquitectura de comutação de pacotes Pseudo-Estrela, e que tem características invulgares no que respeita a modularidade, eficiência e desempenho. A Tese contempla os aspectos fundamentais relacionados com a concepção do sistema proposto, nomeadamente a sua caracterização funcional, a organização dos diferentes componentes, e a descrição pormenorizada do seu funcionamento em ambiente RDIS, no suporte quer a comunicações em modo circuito quer em modo pacote. São ainda sugeridas alterações complementares às descrições publicadas sobre a Pseudo-Estrela necessárias para a sua utilização como subsistema de comutação de um ISPBX, sendo também apresentado um estudo, por simulação, de desempenho, que permite concluir que o sistema tem, nos cenários considerados, um comportamento satisfatório mesmo em situações de carga elevada. Para além dos assuntos já referidos a Tese inclui ainda uma sistematização do problema da comutação integrada de tráfegos síncronos e assíncronos, que contempla a discussão das caraterísticas dos tráfegos de voz e dados, e, ainda, uma revisão de propostas de sistemas e arquitecturas vocacionadas para a integração de serviços. No final da Tese são discutidas as vantagens conceptuais que o sistema proposto apresenta em relação às soluções descritas. A Tese inclui também um capítulo em que são apresentados os conceitos básicos sobre a RDIS, sendo enquadrado o papel dos ISP8Xs no âmbito da RDIS, e indicado o estado actual da normalização nesta área.
APA, Harvard, Vancouver, ISO, and other styles
5

Mestre, Nuno Roberto Pereira. "Comparação do desempenho do FDTD com implementação em CPU e em GPU." Master's thesis, Universidade de Aveiro, 2012. http://hdl.handle.net/10773/10939.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
O Finite-Difference Time-Domain é um método utilizado em electromagnetismo computacional para simular a propagação de ondas electromagnéticas em meios cujas características podem não ser uniformes. É um método com inúmeras aplicações, e como tal é vantajoso que o seu desempenho possa ser aumentado, de preferência recorrendo a sistemas computacionais de baixo custo. O propósito desta dissertação é aproveitar duas tecnologias emergentes e de relativo baixo custo para aumentar o desempenho do FDTD em uma e duas dimensões. Essas tecnologias são sistemas com processadores Multi-Core e placas gráficas que permitem utilizar as suas características de processamento massivamente paralelo para a execução de código de propósito geral. Para explorar as capacidades de um sistema com processador Multi-Core, o algoritmo originalmente sequencial foi alterado de modo a ser executado em múltiplas threads. Por sua vez, para tirar partido da tecnologia CUDA, o algoritmo foi convertido de forma a ser executado num GPU. Os acréscimos de desempenho obtidos indicam que é vantajoso o uso destas tecnologias comparativamente com implementações puramente sequenciais.
The Finite-Difference Time-Domain is a method used in computational electromagnetics to simulate the propagation of electromagnetic waves in fields that might not have uniform characteristics. It is a method with countless applications and so it is advantageous to increase its performance, preferably using low cost computer systems. The purpose of this thesis is to make use of two relatively low-cost emerging technologies to increase the FDTD performance in one and two dimensions. These technologies are Multi-Core systems and graphics cards that allow the use of its massive parallel processing characteristics to run general purpose code. To make use of a Multi-Core system, the original sequential code was changed to be executed by multiple threads. In order to use the CUDA technology, the algorithm was converted so that it could be executed on the GPU. The performance increase shows that the use of these technologies is advantageous in comparison to pure sequential implementations.
APA, Harvard, Vancouver, ISO, and other styles
6

Valente, Frederico Miguel Goulão. "Static analysis on embedded heterogeneous multiprocessor systems." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2180.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Cachim, Luís Miguel Barreto. "Análise de Implementações de Qualidade de Serviço em Redes IP." Master's thesis, Universidade de Aveiro, 2002. http://hdl.handle.net/10773/23116.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
O presente trabalho propõe-se divulgar as mais significativas técnicas de qualidade de serviço utilizadas em redes IP nos dias de hoje, bem como analisar as funcionalidades de alguns produtos da área existentes no mercado. O documento é composto por uma abordagem às principais arquitecturas utilizadas nestes tipo de redes, seguido de uma apresentação de alguns produtos existentes no mercado, uma exposição sobre um trabalho prático realizado com o objectivo de verificar o funcionamento de dispositivos de rede quando funcionam com algumas das tecnologias abordadas neste trabalho e termina com um capítulo de conclusões. No primeiro capítulo fala-se da motivação e objectivos do trabalho, do enquadramento, da metodologia utilizada e da estrutura deste documento. No segundo capítulo faz-se uma abordagem à arquitectura dos serviços integrados e ao RSVP, à arquitectura dos serviços diferenciados, ao MPLS e à norma IEEE802.1p. No terceiro capítulo analisam-se as capacidades de qualidade de serviço em IP do IOS da Cisco Systems, analisa-se o Envio Baseado em Classes da Lucent Technologies, analisam-se produtos dos fabricantes IBM, Fujitsu, Unisphere Networks, Enterasys, Juniper Networks e NEC. Neste capítulo são abordadas as ferramentas de gestão de qualidade de serviço QOS Policy Manager e QOS Device Manager da Cisco Systems. No quarto capítulo é apresentada a descrição de um trabalho prático realizado com IOS para verificação do funcionamento de alguns mecanismos analisados. No quinto capítulo são apresentadas as conclusões deste trabalho. São ainda apresentados três apêndices. O primeiro explica a norma IEEE802.1Q. O segundo são duas tabelas comparativas dos métodos de envio do IOS. O terceiro é um glossário de termos utilizados na arquitectura dos serviços diferenciados.
This work presents the most significant Quality of Service (QoS) technologies used on today´s IP networks and an analysis of technical QoS features of existing products. In this book there is one section dedicated to the main QOS architectures used today in this kind of networks, followed by a presentation of some existing products with QoS capabilities, another section in which it is described the practical work carried on to better understand the presented technologies. It finishes with a section on conclusions. In the first chapter it is exposed the motivation, objectives, how it fits in today’s world, the methodology used and the structure of this work. In the second chapter it is exposed the Integrated Services Architecture and RSVP, the Differentiated Services Architecture, the integration of these two architectures, the MPLS and IEEE 802.1p part of IEEE802.1D standard. In the third chapter several quality of service features of existing products are analysed. These products are the Cisco Systems IOS, Lucent Technologies AccessPoint Class Based Queueing, IBM’s MRS, Nortel switches, Fujitsu routers, Unisphere Networks, Enterasys, Juniper Networks and NEC. Also in this chapter the quality of service management tools Cisco QOS Policy Manager and Cisco QOS Device Manager are introduced. In the fourth chapter it is presented the description of a laboratory session where Cisco Systems IOS was used for the verification of some of the QOS mechanisms presented in the third chapter. In the fifth chapter the conclusions are exposed. Three appendixes are presented. The first explains the IEEE802.1Q standard. The second are two tables for comparing the forwarding mechanisms of IOS. The third is a glossary of differentiated services architecture terms. The book finishes with a references list.
APA, Harvard, Vancouver, ISO, and other styles
8

Corujo, Daniel Nunes. "IEEE 802.21 in heterogeneous handover environments." Master's thesis, Universidade de Aveiro, 2007. http://hdl.handle.net/10773/1913.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
O desenvolvimento das capacidades tecnológicas dos terminais móveis, e das infra-estruturas que os suportam, potenciam novos cenários onde estes dispositivos munidos com interfaces de diferentes tecnologias vagueiam entre diferentes ambientes de conectividade. É assim necessário providenciar meios que facilitem a gestão de mobilidade, permitindo ao terminal ligar-se da melhor forma (i.e., optando pela melhor tecnologia) em qualquer altura. A norma IEEE 802.21 está a ser desenvolvida pelo Institute of Electrical and Electronics Engineers (IEEE) com o intuito de providenciar mecanismos e serviços que facilitem e optimizem handovers de forma independente da tecnologia. A norma 802.21 especifica assim um conjunto de mecanismos que potenciarão cenários como o descrito acima, tendo em conta a motivação e requerimentos apresentados por arquitecturas de redes futuras, como as redes de quarta geração (4G). Esta dissertação apresenta uma análise extensiva da norma IEEE 802.21, introduzindo um conjunto de simulações desenvolvidas para estudar o impacto da utilização de mecanismos 802.21 em handovers controlados por rede, numa rede de acesso mista composta por tecnologias 802.11 e 3G. Os resultados obtidos permitiram verificar a aplicabilidade destes conceitos a ambientes de próxima geração, motivando também uma descrição do desenho de integração de mecanismos 802.21 a arquitecturas de redes de quarta geração. ABSTRACT: The development of the technological capabilities of mobile terminals, and the infra-structures that support them, enable new scenarios where these devices using different technology interfaces roam in different connectivity environments. This creates a need for providing the means that facilitate mobility management, allowing the terminal to connect in the best way possible (i.e., by choosing the best technology) at any time. The IEEE 802.21 standard is being developed by the Institute of Electrical and Electronics Engineers (IEEE) to provide mechanisms and services supporting Media Independent Handovers. The 802.21 standard specifies a set of mechanisms that enable scenarios like the one described above, considering the motivation and requirements presented by future network architectures, such as the ones from fourth generation networks (4G). This thesis presents an extensive analysis of the IEEE 802.21 standard, introducing a set of simulations developed for studying the impact of using 802.21 mechanisms in network controlled handovers, in a mixed access network composed of 802.11 and 3G technologies. The obtained results allow the verification of the applicability of these concepts into next generation environments, also motivating the description of the design for integration of 802.21 mechanisms to fourth generation networks.
APA, Harvard, Vancouver, ISO, and other styles
9

Borja, Luis Felipe. "Arquitectura de visión y aprendizaje para el reconocimiento de actividades de grupos usando descriptores de movimiento." Doctoral thesis, Universidad de Alicante, 2020. http://hdl.handle.net/10045/111289.

Full text
Abstract:
Según los últimos censos, nuestro planeta tiene cerca de 7.000 millones de habitantes principalmente concentrados en zonas urbanas. Consecuencia de esto las multitudes de personas se congregan en estos sitios, complicando la tarea de supervisión y vigilancia para mantener la seguridad pública en calles, plazas, avenidas y demás. Esto motiva el estudio y mejora de métodos de análisis automático del comportamiento humano. A esta área de investigación se le denomina Análisis del Comportamiento Humano, o Reconocimiento de Actividades Humanas. Gran parte de los trabajos dedicados a este problema se basan en técnicas de visión por computador junto con algoritmos de Machine Learning y, más recientemente, en Deep Learning. En este proyecto de tesis, se ha hecho inicialmente una revisión del estado del arte respecto al tema del análisis y reconocimiento de actividades y comportamientos humanos. En este estudio se han analizado los principales trabajos de machine learning tradicional y deep learning para el tema de la tesis, así como los principales datasets. Se ha visto que no existe un estándar o arquitectura que proponga solución genérica. Por otro lado, la mayoría de trabajos se centran en un determinado rango de individuos, habiendo propuestas para personas individuales, para pequeños grupos, grandes grupos o multitudes. Además, no existe un consenso en la nomenclatura respecto a los grados de complejidad, niveles de comportamiento o, como aquí se denomina, nivel de semántica de las acciones que se realizan. Tras este estudio, se ha propuesto una taxonomía bidimensional que permite clasificar las propuestas en el espacio "número de personas/nivel de semántica", siendo más descriptivo respecto al actual estado del arte y permitiendo ver donde se concentran mayormente los trabajos y cuales los retos aun no resueltos. Tras el estudio del estado del arte, en este trabajo se ha propuesto una arquitectura de visión y aprendizaje para reconocer actividades de grupos usando descriptores de movimiento. Se compone de dos bloques principales, el descriptor de movimiento y el clasificador de actividad. Las arquitecturas de red profunda que se estudian actualmente tienen la bondad de, dados unos datos en crudo (imágenes, secuencias, etc.) tratarlos internamente de forma que devuelvan un resultado, sin necesidad de pre-procesarlos primero. Sin embargo, esto los hace dependientes de los datos de entrenamiento y necesitan grandes datasets para que el entrenamiento sea suficiente. El hecho de introducir un descriptor hace que el espacio de búsqueda se reduzca, y por lo tanto se pueda entrenar con menor número de datos, y además, se pueda independizar la escena (número de individuos, localización de la actividad en el espacio, etc.) del comportamiento en sí. Para el descriptor de la arquitectura se propone en esta tesis como una variante del descriptor Activity Descriptor Vector (ADV), que se denomina D-ADV, y que obtiene dos imágenes del movimiento local acumulado, una UDF (de los movimientos arriba, Up, abajo, Down, y Frecuencia) y otra LRF (de los movimientos Left, izquierda, Right, derecha y Frecuencia). Por otro lado, como instancias de la arquitectura haciendo uso del D-ADV, se proponen el D-ADV-MultiClass para clasificación de múltiples clases. Esta propuesta se basa en utilizar los dos streams UDF y LRF, junto con una red profunda y transfer learning, para reconocer la actividad del grupo. Además, se ha propuesto otra instancia, llamada D-ADV-OneClass, que añade a los dos streams anteriores, otro con información de contexto. Esta última instancia da solución a problemas en los que solo se conoce una clase durante el entrenamiento, y por lo tanto se utilizan técnicas de one-class classification. En la experimentación se ha validado la arquitectura con las dos instancias D-ADV-MultiClass y D-ADV-OneClass utilizando los datasets públicos ampliamente conocidos, como son BEHAVE, INRIA y CAVIAR para multi-class, y para one-class los datasets Ped 1, Ped 2 y Avenue. Los resultados experimentales muestran la capacidad de la arquitectura para clasificar las actividades de los grupos presentados en los datasets. Además, se demuestra que la arquitectura es capaz de tener buenos resultados utilizando datasets con poca cantidad de datos. En este caso, no a partir de la imagen sino de la representación del movimiento. Por último se plantean como trabajos futuros experimentar con otros datasets de mayor tamaño o con otro tipo de datos (peleas callejeras y en rings de boxeo para ver como afecta el contexto en estas situaciones). A medio o largo plazo se realizarán mejoras aumentando y comprobando otras instancias de la arquitectura utilizando múltiples streams de entrada que puedan permitir detectar otros comportamientos.
APA, Harvard, Vancouver, ISO, and other styles
10

Fernández, Redondo Mercedes. "Hacia un diseño óptimo de la arquitectura Multilayer Feedforward." Doctoral thesis, Universitat Jaume I, 2001. http://hdl.handle.net/10803/10374.

Full text
Abstract:
El objetivo de esta Tesis Doctoral ha sido básicamente el de realizar un estudio comparativo sobre los diferentes métodos existentes para resolver diversos aspectos referentes al diseño de la arquitectura de red neuronal Multilayer Feedforward, en problemas de clasificación de redes neuronales.
Los aspectos de diseño de la arquitectura de red neuronal estudiados han sido: codificación de entradas desconocidas, selección de la información de entrada a la red, selección del número de unidades ocultas, influencia en la capacidad de generalización del número de capas ocultas e inicialización de pesos de la red.
Para cada uno de los aspectos se ha realizado un estudio comparativo de los diferentes métodos existentes para resolver dicho problema. Como resultado recomendamos finalmente el uso de los mejores métodos a la hora de realizar una aplicación concreta.
The objective of this Doctoral Thesis was to carry a comparative study on several existent methods in order to solve different aspects of the design of Multilayer Feedforward architecture, in neural networks classification problems.
The aspects of design studied were: handling unknown input information, input selection, selection of the number of hidden units, influence in the generalization capability of the number of hidden layers and weight initialization.
For each one of these aspects, we carried out a comparative study of several existent methods in order to solve the problem. We recommend the use of the best methods in order to develop a concrete application.
APA, Harvard, Vancouver, ISO, and other styles
11

Corrente, Gustavo Abdul da Fonseca Ussemane Pires. "Arquitectura de controlo/coordenação de uma equipa de futebol robótico." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2030.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
CAMBADA é a equipa de futebol robótico da Liga de Robôs Médios da Universidade de Aveiro. Esta equipa foi desenvolvida pelo grupo de investigação de Actividade Transversal de Robótica Inteligente (ATRI), pertencente ao Instituto de Electrónica e Investigação da Universidade de Aveiro (IEETA)). Este trabalho pretende especificar e implementar uma arquitectura de controlo e coordenação para os robôs CAMBADA. Esta arquitectura é baseada em comportamentos sendo estes utilizados nos papéis de guarda-redes, de médio e de atacante. Este papéis permitiram um evolução do desempenho da equipa CAMBADA nas competições nacionais e internacionais. Foi desenvolvido ainda um mecanismo de posicionamento estratégico, baseado no Situation Based Strategic Positioning (SBSP) com Dynamic Positioning and Role Exchange (DPRE) da equipa FCPortugal, permitindo maximizar a distribuição dos agente pelo campo. Um treinador, foi implementado com o objectivo de definir as várias posições estratégicas dos agentes CAMBADA. Este trabalho foi implementado e avaliado ao longo de várias competições nacionais (Robótica 2006, Robótica 2007 e Robótica 2008) e internacionais (RoboCup 2006, RoboCup 2007 e RoboCup 2008). Destas participações é de salientar a vitória em dois campeonatos nacionais, o quinto lugar no RoboCup 2007 e a vitória no RoboCup 2008, campeonato do mundo que decorreu em Suzhou, China. ABSTRACT: CAMBADA is a Middle Size League robotic soccer Team from University of Aveiro. This team was developed by ATRI research Group from IEETA. This work pretends to design and implement an architecture of control and coordination for CAMBADA robots. This architecture is based in behaviors, was them used in roles goal-keeper, midfielder and striker. Those roles allowed an evolution in national and international competitions performance. A strategic positioning was developed based on FCPortugal, Situation Based Strategic Positioning (SBSP) with Dynamic Positioning and Role Exchange (DPRE), maximizing the agent distribution in the field. One coach was developed with the objective to define severals strategic positionings of CAMBADA agents. This work was implemented and evaluated along severals national (Robótica 2006, Robótica 2007 and Robótica 2008) and international (RoboCup 2006, RoboCup 2007 and RoboCup 2008) competitions. In those competitions is to acclaim the two victories in national competition, the 5th place in RoboCup 2005 and the victory in the RoboCup 2008, world championship placed in Suzhou, China.
APA, Harvard, Vancouver, ISO, and other styles
12

Domínguez, Montagud Carlos Pascual. "Arquitectura de Agente Emocional para Aplicaciones de Control en Tiempo Real." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/86223.

Full text
Abstract:
Artificial agents are a technology suitable for solving problems. Agents can perform tasks that their users cannot and/or do not want to accomplish. Agents are systems with a significant degree of autonomy. Even being autonomous in their behavior, they assume the users' goals as their own goals, because there is an agreement between the agent and the user. It is a powerful technology, and the research on this field is very active. As agents are complex systems, it is necessary to define development frameworks that facilitate their conception, design and construction. We name these frameworks, artificial agent architectures. Each architecture is characterized by a few key ideas related to the way the agent represents its knowledge about the world, and how it organizes its behavior. We call these key ideas a paradigm. In this work, an artificial agent's architecture is proposed. In this architecture the organization of the behavior is emotionally driven. It is a bio-inspired architecture. The emotion in this case, however, is a very simplified version of the emotional process in the natural emotional agents. Although other agent architectures based on emotions have been proposed, they have been usually focused on the social skills of the agents, normally to interact with people. This situation could have been caused due to the knowledge we had about the importance of the emotion in the social relations between human beings, when people recognize the internal state of the others, or show their own internal states, and the emotional communication influences their behavior. However, the fundamental role of the emotion in a wide range of cognitive processes is being recognized because of the recent research in psychology and neuroscience. Emotions seem to make an essential contribution in processes such as perception, learning, memory, decision-making and problem solving. Deliberative rational thoughts themselves would be directed by emotions. Given this new view about the emotion, in this thesis, we have investigated the role of the emotions in the cognitive processes of an artificial agent, related them to the general decision making problem, not just the social interaction problem. As an example, in the application considered as a case study in this project, the emotional agent controls a mobile robot platform, in which there is not an important behavior layer of social interaction, and the emotional processes primarily motivate behaviors related to problems in a physical environment, with objects, parts, or areas of operation and navigation. In this thesis, we have defined a specification for the proposed emotional agent architecture, and have discussed the implementation aspects of it.
Los agentes artificiales constituyen una tecnología de apoyo para la resolución de problemas. Un agente es un sistema con un grado significativo de autonomía, lo que le permite descargar a su usuario de tareas que éste no puede o no quiere realizar. Aun siendo autónomo en sus comportamientos, el agente asume los objetivos de su usuario como propios, ya que existe un contrato entre el agente y su representado. Se trata de una tecnología potente y que interesa desarrollar, con lo que el área de investigación en agentes está abierta y hay un esfuerzo continuo para construir agentes con cada vez mejores prestaciones. Siendo los agentes sistemas complejos, resulta necesario definir marcos de desarrollo que permitan concebirlos, diseñarlos y construirlos. Conocemos a estos marcos como arquitecturas de agentes artificiales. Cada una de estas arquitecturas se caracteriza por ciertas ideas clave, relacionadas con la forma en que el agente representa su conocimiento y organiza su comportamiento, en lo que se denomina un paradigma. Sin duda, queda mucho recorrido en este campo - ampliando por ejemplo las áreas de aplicación, o permitiendo funcionalidades adicionales, o aumentando la eficiencia de los procesos implicados, tanto en lo relativo al comportamiento del agente cuando éste está en explotación, como durante el propio proceso de construcción y validación del sistema. En este trabajo se propone una arquitectura de agente artificial en el que la organización del comportamiento está dirigida por un proceso emocional. Se trata de una arquitectura bio-inspirada. La emoción en este caso, sin embargo, es una versión muy simplificada del proceso emocional en los agentes emocionales naturales. Aunque se han definido otras arquitecturas de agentes artificiales basadas en emociones, han sido enfocadas, sobre todo, a construir agentes con habilidades sociales; normalmente para interactuar con las personas. Posiblemente esto ha sido debido a que ya hace mucho que se aceptaba la importancia de la emoción en las relaciones sociales entre los seres humanos; cuando éstos interpretan el estado interno de los demás o expresan su propio estado, alterando con ello sus comportamientos. Sin embargo, el papel fundamental de la emoción en un amplio espectro de procesos cognitivos está siendo reconocido a raíz de la investigación en psicología y neurología. Las emociones parecen contribuir de forma esencial en procesos como la percepción, el aprendizaje, la memoria, la toma de decisiones o la resolución de problemas. El propio pensamiento deliberativo racional estaría dirigido por las emociones. Teniendo en cuenta esta nueva visión de las emociones, en este trabajo se ha investigado el rol de la emoción en los procesos cognitivos de un agente artificial relacionados con la toma de decisiones en general, no sólo en lo relativo a los procesos de interrelación social. Así por ejemplo, en la aplicación considerada como caso de estudio de este trabajo, el agente emocional controla una plataforma de robot móvil de servicio, en la que no hay una capa de comportamiento social importante, y donde los procesos emocionales motivan fundamentalmente los comportamientos relacionados con problemas surgidos en un entorno físico, con objetos, piezas, o espacios de operación y navegación. En esta tesis se define una especificación para la arquitectura de agente emocional artificial propuesta y se discute aspectos de implementación de dicha arquitectura.
Els agents artificials constitueixen una tecnologia de suport per a la resolució de problemes. Un agent és un sistema amb un grau significatiu d'autonomia, el que li permet descarregar al seu usuari de tasques que aquest no pot o no vol fer. Fins i tot sent autònom en els seus comportaments, l'agent assumeix els objectius del seu usuari com a propis, ja que hi ha un contracte entre l'agent i el seu representat. Es tracta d'una tecnologia potent i que interessa desenvolupar, de manera que l'àrea de recerca en agents està oberta i hi ha un esforç continu per construir agents amb cada vegada millors prestacions. Sent els agents sistemes complexos, resulta necessari definir marcs de desenvolupament que puguen permetre concebre'ls, dissenyar-los i construir-los. Coneixem a aquests marcs com arquitectures d'agents artificials. Cadascuna d'aquestes arquitectures es caracteritza per certes idees clau, relacionades amb la forma en què l'agent representa el seu coneixement i organitza el seu comportament, en el que s'anomena un paradigma. Sens dubte, queda molt de recorregut en aquest camp - ampliant les àrees d'aplicació, o permetent funcionalitats addicionals, o augmentant l'eficiència dels processos implicats, tant pel que fa al comportament de l'agent quan aquest està en explotació, com durant el mateix procés de construcció i validació del sistema. En aquest treball es proposa una arquitectura d'agent artificial en què l'organització del comportament està dirigida per un procés emocional. Es tracta d'una arquitectura bio-inspirada. L'emoció en aquest cas, però, és una versió molt simplificada del procés emocional en els agents emocionals naturals. Tot i que s'han definit altres arquitectures d'agents artificials basades en emocions, han estat enfocades, sobretot, a construir agents amb habilitats socials; normalment per interactuar amb les persones. Possiblement això ha segut perquè ja fa molt que s'acceptava la importància de l'emoció en les relacions socials entre els éssers humans; quan aquests interpreten l'estat intern dels altres o expressen el seu propi estat, alterant amb això els seus comportaments. No obstant això, el paper fonamental de l'emoció en un ampli espectre de processos cognitius està sent reconegut arran de la investigació en psicologia i neurologia. Les emocions semblen contribuir de forma essencial en processos com la percepció, l'aprenentatge, la memòria, la presa de decisions o la resolució de problemes. El mateix pensament deliberatiu racional estaria dirigit per les emocions. Tenint en compte aquesta nova visió de les emocions, en aquest treball s'ha investigat el paper de l'emoció en els processos cognitius d'un agent artificial relacionats amb la presa de decisions en general, no només pel que fa als processos d'interrelació social. Així per exemple, en l'aplicació considerada com a cas d'estudi d'aquest treball, l'agent emocional controla una plataforma de robot mòbil de servei, en què no hi ha una capa de comportament social important, i on els processos emocionals motiven fonamentalment els comportaments relacionats amb problemes sorgits en un entorn físic, amb objectes, peces, o espais d'operació i navegació. En aquesta tesi es defineix una especificació per a l'arquitectura d'agent emocional artificial proposta i es discuteixen aspectes d'implementació de la arquitectura.
Domínguez Montagud, CP. (2017). Arquitectura de Agente Emocional para Aplicaciones de Control en Tiempo Real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86223
TESIS
APA, Harvard, Vancouver, ISO, and other styles
13

Petit, Martí Salvador Vicente. "Efficient Home-Based protocols for reducing asynchronous communication in shared virtual memory systems." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/2908.

Full text
Abstract:
En la presente tesis se realiza una evaluación exhaustiva de ls Sistemas de Memoria Distribuida conocidos como Sistemas de Memoria Virtual Compartida. Este tipo de sistemas posee características que los hacen especialmente atractivos, como son su relativo bajo costo, alta portabilidad y paradigma de progración de memoria compartida. La evaluación consta de dos partes. En la primera se detallan las bases de diseño y el estado del arte de la investigación sobre este tipo de sistemas. En la segunda, se estudia el comportamiento de un conjunto representativo de cargas paralelas respecto a tres ejes de caracterización estrechamente relacionados con las prestaciones en estos sistemas. Mientras que la primera parte apunta la hipótesis de que la comunicación asíncrona es una de las principales causas de pérdida de prestaciones en los Sistemas de Memoria Virtual Compartida, la segunda no sólo la confirma, sino que ofrece un detallado análisis de las cargas del que se obteiene información sobre la potencial comunicación asíncrona atendiendo a diferentes parámetros del sistema. El resultado de la evaluación se utiliza para proponer dos nuevos protocolos para el funcionamiento de estos sistemas que utiliza un mínimo de recursos de hardware, alcanzando prestaciones similares e incluso superiores en algunos casos a sistemas que utilizan circuitos hardware de propósito específico para reducir la comunicación asíncrona. En particular, uno de los protocolos propuestos es comparado con una reconocida técnica hardware para reducir la comunicación asíncrona, obteniendo resultados satisfactorios y complementarios a la técnica comparada. Todos los modelos y técnicas usados en este trabajo han sido implementados y evalados utilizando un nuevo entorno de simulación desarollado en el contexto de este trabajo.
Petit Martí, SV. (2003). Efficient Home-Based protocols for reducing asynchronous communication in shared virtual memory systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2908
Palancia
APA, Harvard, Vancouver, ISO, and other styles
14

Baraza, Calvo Juan Carlos. "Contribución a la validación de sistemas complejos tolerantes a fallos en la fase de diseño. Nuevos modelos de fallos y técnicas de inyección de fallos." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/2345.

Full text
Abstract:
En el diseño de sistemas informáticos (y en particular, de aquéllos en los que, por las características del servicio que prestan, un mal funcionamiento puede provocar pérdida de vidas humanas, perjuicio económico, suspensión de servicios primordiales, etc.), se establece como prioridad esencial conseguir que funcionen correctamente durante el mayor tiempo posible y con un elevado nivel de eficacia. Los sistemas que regulan servicios críticos disponen de unos mecanismos especiales que les proporcionan una cierta inmunidad a la ocurrencia de averías que puedan causar un cese o deterioro del servicio prestado. Por ello, se les denomina Sistemas Tolerantes a Fallos, o STF. Se define el concepto de Confiabilidad como un conjunto de funciones (o atributos) que permiten cuantificar la calidad del servicio prestado en cuanto a averías producidas, y en consecuencia, el grado de confianza que el usuario puede depositar en el sistema. Al desarrollar cualquier sistema tolerante a fallos es preciso validarlo, o lo que es lo mismo, cuantificar sus parámetros de Confiabilidad. Entre los numerosos métodos y técnicas existentes para validar sistemas tolerantes a fallos, esta tesis se ha centrado en un método de validación experimental: las técnicas de inyección de fallos basadas en la simulación de modelos en VHDL. Las principales ventajas de este conjunto de técnicas son que se pueden aplicar en la fase de diseño del sistema y que permiten acceder a cualquier elemento del modelo del sistema. Por contra, presentan el inconveniente de que, sobre todo en modelos de sistemas complejos, la inyección de los fallos supone un elevado coste temporal. Sin embargo, sus importantes ventajas las hacen lo suficientemente atractivas como para ser utilizadas al menos como técnica complementaria de otras más utilizadas por su bajo coste y sencillez de implementación, como SWIFI (software implemented fault injection). Un aspecto muy importante de las técnicas de inyección de fallos mediante simulaci
Baraza Calvo, JC. (2003). Contribución a la validación de sistemas complejos tolerantes a fallos en la fase de diseño. Nuevos modelos de fallos y técnicas de inyección de fallos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2345
Palancia
APA, Harvard, Vancouver, ISO, and other styles
15

Almeida, Nuno Filipe dos Reis. "Control agent architecture of a simulated humanoid robot." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2181.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

González, Férez María Pilar. "Simulación concurrente y elección dinámica de estrategias para la mejora de la entrada/salida de disco." Doctoral thesis, Universidad de Murcia, 2012. http://hdl.handle.net/10803/86518.

Full text
Abstract:
Principales contribuciones de esta tesis: Un «proyecto de caché de disco mejorada mediante RAM» (REDCAP, RAM Enhanced Disk Cache Project), que añade: una nueva caché de disco en RAM, una técnica de prefetching y un mecanismo para controlar su rendimiento. El tiempo de E/S de lectura se llega a reducir en más de un 80%. Un «simulador de disco dentro del núcleo», que es capaz de simular tanto discos duros como de estado sólido. Esta propuesta nos permite simultáneamente comparar varios mecanismos de E/S y, dinámicamente, activarlos/desactivarlos dependiendo del rendimiento. Ha sido probada satisfactoriamente en REDCAP y en DADS. Un «marco de planificación de disco automático y dinámico» (DADS, Dynamic and Automatic Disk Scheduling framework), que compara dos planificadores de E/S de Linux y selecciona automáticamente el planificador de E/S que proporciona el mayor rendimiento en cada momento. El rendimiento alcanzado está siempre cercano al del mejor planificador.
Main contributions of this thesis: The RAM Enhanced Disk Cache Project, REDCAP, that introduces: a new disk cache in the main memory, a prefetching technique, and a mechanism to control the performance achieved. We have been able to reduce the read I/O time by more than 80% in workloads with spatial locality, without downgrading performance in other. An in--kernel disk simulator that is able to simulate both hard disk and solid state drives. This proposal allows us to compare, simultaneously, the behavior of different I/O system mechanisms, and to dynamically activate/deactivate them, depending on the performance. It has been successfully used in REDCAP and in our third contribution. A Dynamic and Automatic Disk Scheduling framework (DADS), that compares two Linux I/O schedulers and selects the one providing, for the current workload, the highest throughput. Performance achieved is always close to that obtained by the best scheduler.
APA, Harvard, Vancouver, ISO, and other styles
17

Hernández, Orallo Enrique. "Reserva eficiente de recursos en redes para transmisión en tiempo real." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4262.

Full text
Abstract:
La demanda de calidad de servicio (QoS: Quality of Service) y transmisión en tiempo real se ha incrementado debido al desarrollo de nuevas aplicaciones multimedia. Esta transmisión de informática multimedia implica un gran consumo de recursos en las redes de comunicación. Esto es debido fundamentalmente a las características de este tipo de tráfico y a la calidad de servicio requerida por las aplicaciones que lo necesitan. Para la realización de esta transmisión se establece un canal. El establecimiento de este canal implica la reserva de unos recursos de red (normalmente ancho de banda y memoria) que dependen principalmente en las característticas del tráfico y los parámetros de la red. El tráfico multimedia suele tener alta variabilidad en la tasa de transmisión, lo que implica que para garantizar la calidad de servicio se hagan unas reservas elevadas de recursos. Pero debido a la alta variabilidad de este tráfico, en muchos momentos estos recursos no son utilizados. La disminución de la reserva puede implicar un incumplimento de la calidad de servicio especificado. Por lo tanto, un aspecto clave en estas redes es la optimización de la reserva de recursos. Se requieren, por tanto, métodos con los que poder estimar esta reserva a partir de las características del tráfico y la red. Estos métodos tienen que ser eficientes y rápidos para poder ejecutarse on-line. En esta tesis se introducen varios esquemas para el ahorro de recursos en la red. El primero de ellos está basado en condenasar la información de un tráfico VBR en una seria de puntos con lo que se desarrolla un método para obtner la reserva óptima de ancho de banda en los enlaces como de memoria en los nodos. Para ambos casos se utiliza una especificación de tráfico leaky o token bucket que es la más usada. Como punto final se propone un nuevo esquema de activación de canales de reserva con el objetivo de minimizar la reserva conjunta de recursos del canal primario y secundario.
Hernández Orallo, E. (2001). Reserva eficiente de recursos en redes para transmisión en tiempo real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4262
Palancia
APA, Harvard, Vancouver, ISO, and other styles
18

Pinto, Joaquim de Sousa. "Arquitectura para um sistema colaborativo baseado em ferramentas hipermédia." Doctoral thesis, Universidade de Aveiro, 1997. http://hdl.handle.net/10773/4406.

Full text
Abstract:
Doutoramento em Engenharia Electrotécnica
Esta tese reflecte a expenencia acumulada ao longo dos anos no trabalho desenvolvido no Departamento de Electrónica e Telecomunicações da Universidade de Aveiro com a participação em diversos projectos nacionais e europeus nas áreas da hipermédia e do trabalho colaborativo suportado por computador. Descreve o processo de desenho e implementação de um sistema colaborativo baseado em ferramentas replicadas hipermédia. Para suporte da colaboração foi desenvolvido um protocolo de comunicações baseado em ligações multiponto TCP /IP. Uma das características deste sistema reside na equidade entre todas as estações de trabalho, não havendo portanto lugar para um servidor centralizado para o controlo da colaboração. Por cima do protocolo de comunicações para groupware foi desenvolvido um aplicativo encarregue de estabelecer e manter a relação entre um grupo de pessoas a trabalhar em conjunto, o "Gestor de Conferências", tendo como metáfora agregadora a "conferência". Esse aplicativo suporta diversos cenários de conferência, associados com diferentes modos de colaboração. Os cenários de colaboração vão desde a edição colaborativa de documentos hipermédia até à mera interacção social, passando pelos cenários típicos de ensino, como a aula teórica e o estudo em grupo. Para além das sessões de interacção social ou casual pretendeu-se proporcionar aos seus utilizadores facilidades de criação, utilização, alteração e anotação de material hipermédia quer de modo individual quer em grupo. Para o manuseamento e anotação do material hipermédia desenvolveu-se uma ferramenta, denominada "Apresentador colaborativo de documentos hipermédia" que, para além de apresentar o material hipermédia, permite também que as acções executadas por um utilizador numa estação de trabalho sejam reflectidas nas demais que constituem o grupo. Para a edição e alteração do material hipermédia foi desenvolvida uma ferramenta de edição denominada "Compositor colaborativo de documentos hipermédia". Para suporte aos diversos cenários foram ainda desenvolvidas ferramentas complementares, como o "Cochicho" - destinado à troca de mensagens entre utilizadores ou grupos de utilizadores - e a "Urna de Voto" - destinada à apresentação e votação de propostas. De modo a permitir aos utilizadores do sistema a utilização de ferramentas preexistentes, foi desenvolvido um módulo que permite a ligação de qualquer aplicação monoutilizador ao sistema colaborativo tornando-a desse modo numa ferramenta colaborativa.
APA, Harvard, Vancouver, ISO, and other styles
19

Ribeiro, José Luís Vaz. "Orquestração e composição de serviços web usando BPEL." Master's thesis, Universidade de Aveiro, 2008. http://hdl.handle.net/10773/2001.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
Este trabalho pretende expor de uma forma simples e clara os conceitos associados às Arquitecturas Orientadas ao Serviço, dando uma visão da evolução deste paradigma de programação, tecnologias existentes, ferramentas e motores disponíveis para o desenvolvimento, uso e teste de Web Services. O principal foco será a linguagem BPEL (Business Process Execution Language), que é considerada como o standard para a orquestração de Web Services, sendo o trabalho realizado tendo por base esta linguagem. ABSTRACT: This work intends to expose, in a simple and clear way, the concepts associated with Service Oriented Architectures, providing a vision of the evolution of this information paradigm, the existing technologies, the applications, tools and engines available to develop, use and test of Web Services in programming business processes. The main focus will be in BPEL (Business Process Execution Language), considerate to be the standard in programming languages for orchestration of Web Services, being the base to this work.
APA, Harvard, Vancouver, ISO, and other styles
20

Ramón-Fernández, Alberto de. "Modelo basado en monitorización para el empoderamiento en salud. Un enfoque centrado en arquitecturas distribuidas y dispositivos embebidos." Doctoral thesis, Universidad de Alicante, 2019. http://hdl.handle.net/10045/92012.

Full text
Abstract:
La promoción y protección de la salud por parte de las autoridades sanitarias tiene por objetivo fomentar estilos de vida y entornos saludables, reducir los riesgos para la salud y garantizar la atención sanitaria de calidad de todas las personas. Las tecnologías de la información y la comunicación (TIC) tienen un gran potencial para abordar algunos de los desafíos que enfrentan tanto los países desarrollados como aquellos en vías de desarrollo para proporcionar servicios de atención médica accesibles, rentables y de calidad. El trabajo de investigación de esta tesis doctoral plantea el diseño de un modelo basado en monitorización para ayudar al empoderamiento en salud. El objetivo es implementar un modelo que sea lo suficientemente general, para que se pueda adaptar fácilmente a diversas patologías y procesos de atención médica; integral, que permita la adquisición de cualquier variable de información para su monitorización; y flexible, para que pueda ser utilizado en diferentes entornos. Para instanciar este modelo, se ha seguido el paradigma de arquitecturas distribuidas orientadas a servicios (SOA) que proporciona características de interoperabilidad, robustez, independencia, concurrencia, escalabilidad, reusabilidad y tolerancia a fallos. Los resultados obtenidos a lo largo de esta investigación confirman la hipótesis planteada demostrando que los sistemas desarrollados cumplen con las funcionalidades descritas en el modelo y en la arquitectura y han contribuido al desarrollo de los modelos de monitorización enfocados al empoderamiento de los pacientes.
APA, Harvard, Vancouver, ISO, and other styles
21

Dias, João Gonçalo Gomes de Paiva. "Arquitectura de suporte à integração de serviços no governo electrónico." Doctoral thesis, Universidade de Aveiro, 2006. http://hdl.handle.net/10773/8967.

Full text
Abstract:
Doutoramento em Engenharia Informática
O governo electrónico, além de permitir a prestação de serviços em linha, encerra também um enorme potencial para integrar, do ponto de vista dos clientes, os serviços dispersos da administração pública. Assim, em tese, ele pode contribuir para centrar a administração pública nas necessidades dos cidadãos e das empresas, respondendo a um dos principais desafios introduzidos pelos novos modelos de gestão pública. Nesta dissertação justificamos, definimos, discutimos e validamos uma nova arquitectura de suporte à integração de serviços no governo electrónico. Trata-se de uma arquitectura versátil, segura e baseada em tecnologias normalizadas e facilmente disponíveis, que suporta a implementação de pontos únicos de acesso, de prestadores concorrentes, de múltiplos canais de atendimento e da organização por eventos da vida. Acessoriamente, fazemos uma revisão bibliográfica das áreas da sociedade da informação e do governo electrónico, identificamos as tecnologias e arquitecturas mais relevantes na área da integração de serviços e apresentamos um estudo de caso que inclui o levantamento de processos de uma câmara municipal e a sua simulação usando um protótipo que respeita a arquitectura definida.
Besides allowing on-line delivery of the services, electronic government also promises to integrate these services from the client perspective. Thus, in thesis, it can contribute to the development of a client-centred approach in government, answering to one of the main challenges of the New Public Management movements. In this dissertation a new architecture that supports the integration of services in the scope of electronic government is justified, defined, presented, discussed, and validated. The proposed architecture is versatile, secure, and based on normalized and easily available technologies. It supports the implementation of single access points, concurrent providers, channel integration, and life events. Additionally, the areas of the information society and electronic government are revised, the main technologies and architectures for service integration are identified, and a case study is presented. The case study includes analysis of processes in a local government institution and its simulation using a prototype that implements the defined architecture.
APA, Harvard, Vancouver, ISO, and other styles
22

Sousa, Rui Miguel Teixeira de. "Biblioteca para a comunicação entre FPGA e dispositivos periféricos." Master's thesis, Universidade de Aveiro, 2009. http://hdl.handle.net/10773/2146.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
Esta dissertação apresenta um trabalho de desenvolvimento de metodologias e recursos para o aumento de produtividade no design de sistemas reconfiguráveis. Os avanços explosivos na densidade de transístores por chip, permitem hoje em dia fabricar dispositivos de lógica programável de elevada capacidade como as FPGAs, suficiente para implementar sistemas inteiros de elevada complexidade, ainda assim os sistemas normalmente não são auto contidos e requerem interacção com componentes standard e dispositivos periféricos. Torna-se portanto necessário implementar as respectivas interfaces. O processo de design de sistemas reconfiguráveis através de linguagens HDL é muito semelhante ao desenvolvimento de software para computadores de uso geral, como tal, são aplicáveis algumas técnicas desse domínio, tais como a utilização de bibliotecas de funções, reutilização de código, construção hierárquica, macros e templates, estas técnicas tem como vantagens o aumento de produtividade e abstracção de complexidade. O projecto é dedicado ao desenvolvimento dum conjunto de blocos reutilizáveis que implementam interfaces com periféricos de interacção com o utilizador, nomeadamente monitor VGA, teclado e rato, UART para ligação a PC com consola virtual/terminal de texto. Foi dedicada bastante ênfase na criação de parametrizações para os blocos desenvolvidos de modo a aumentar a adaptabilidade a diferentes alvos de integração, a criação de um hardware template como ponto de partida acelera o início de um novo projecto e a criação de um repositório on-line potencia a propagação e utilização do trabalho desenvolvido. ABSTRACT: This dissertation presents a development work on methodologies and resources for the productivity increase in the design of reconfigurable systems. The explosive advances in the transistor density per chip allow nowadays to fabricate high capacity programmable logic devices such as FPGAs, sufficiently to implement entire systems with high complexity, nevertheless the systems normally are not self contained and require interaction with standard components and peripheral devices. It is therefore necessary to implement such interfaces. The design process of reconfigurable systems through HDL languages is very similar to the software development for general use computers, as such, some techniques from this domain are applicable, such as the use of function libraries, code reuse, hierarchical constructions, macros and templates, these techniques have the advantages of productivity increase and complexity abstraction. The project is dedicated to the development of a set of reusable blocks that implement interfaces with peripherals for interaction with the user, namely VGA monitor, keyboard and mouse, UART for connection to a PC virtual console/text terminal. Much emphasis was dedicated in the creation of parameterizations for the developed blocks to increase the adaptability to different integration targets, the creation of a hardware template as a starting point accelerates the start of a new project and the creation of an on-line repository potentiates the promulgation and utilization of the developed work
APA, Harvard, Vancouver, ISO, and other styles
23

Albentosa, Mora José Luis. "Modelo y arquitectura para la provisión en la nube de servicios y aplicaciones heterogéneas." Doctoral thesis, Universidad de Alicante, 2017. http://hdl.handle.net/10045/72708.

Full text
Abstract:
En un mundo donde la transformación digital avanza a un ritmo veloz y aparecen de forma exponencial nuevas soluciones y capacidades tecnológicas, las grandes compañías necesitan sacar más y mejores productos al mercado. Sin embargo, sus pesadas arquitecturas tecnológicas legadas y sus capacidades de integración y escalabilidad no les permiten llegar al mercado en el tiempo y forma deseado. En este contexto, la investigación se centra en la creación de una arquitectura en la nube que permita habilitar, implantar, desarrollar e integrar servicios, soluciones y sistemas transaccionales de distinta naturaleza de forma segura, escalable, resiliente y ágil. La validación de la misma con el desarrollo de 3 patentes en explotación que implementan casos prácticos, ofrece veracidad al modelo propuesto para resolver el problema.
APA, Harvard, Vancouver, ISO, and other styles
24

Posadas, Yagüe Juan Luís. "Arquitectura para el control de robots móviles mediante delegación de código y agentes." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/55245.

Full text
Abstract:
Como tema central de la tesis se propone una arquitectura denominada SC-Agent para el control de robots móviles. Esta arquitectura es híbrida y distribuida, los niveles deliberativo y reactivo están compuestos por agentes software que pueden moverse entre los nodos del sistema con el objetivo de reducir los requerimientos de comunicación en el acceso a los datos. La arquitectura aporta un nuevo nivel semántico donde se especifican los componentes de la misma pero no su ubicación física. Un agente podrá decidir su ubicación óptima en función de índices de medida no convencionales basados en la antigüedad de los datos que reciba. La arquitectura también permite mediante el uso de los agentes móviles aplicar técnicas de delegación de código para realizar el control de los robots minimizando los problemas relacionados con la latencia de la red. Dicho control se basa en separar el tiempo necesario de las comunicaciones del tiempo necesario de procesamiento. En primer lugar se realiza el envío del código de control necesario a los nodos del robot y en segundo lugar se realiza la ejecución del mismo de forma local. Al ejecutarse localmente dicho código, en lugar de hacerse de forma remota, se facilita el complimiento de las restricciones de tiempo real estricto. El diseño de esta arquitectura se sustenta sobre un sistema de comunicaciones basado en una estructura de pizarra distribuida de objetos. El sistema de comunicaciones permite la interacción entre los distintos agentes de la arquitectura mediante una interfaz común para el acceso a los objetos de la pizarra. Los agentes podrán transmitir mensajes o enviar información al resto de agentes mediante la escritura y lectura de los objetos de la pizarra. Los datos o valores de dichos objetos están caracterizados temporalmente por el sistema a través de su antigüedad. El sistema de comunicaciones emplea un bus de tiempo real estricto para conectar los nodos que forman parte del nivel deliberativo. El bus de tiempo real estr
Posadas Yagüe, JL. (2003). Arquitectura para el control de robots móviles mediante delegación de código y agentes [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55245
APA, Harvard, Vancouver, ISO, and other styles
25

Zamora, Hernández Mauricio Andrés. "Arquitectura para el control visual de ensamblajes en Industria 4.0 basado en aprendizaje profundo." Doctoral thesis, Universidad de Alicante, 2020. http://hdl.handle.net/10045/115750.

Full text
Abstract:
En Costa Rica, el tipo de empresa que sobresale en el mercado es el de las Micro, Pequeñas y Medianas Empresas (MiPyMEs). Para este tipo de empresas, la calidad y consistencia de los productos son elementos diferenciadores para competir en el mercado. Además, estás empresas tiene recursos económicos limitados para implementar tecnologías que le permitan incursionar en la cuarta revolución industrial. Aunque las MiP y MEs, y en concreto las del sector manufacturero, son consideradas uno de los motores económico del país, estás entidades no suelen tener ayudas del gobierno para desarrollarse digitalmente. Esto situación nos motivó a plantear un estudio para encontrar la manera en que se puede ayudar a las MiP y MEs a mejorar los procesos de manufactura. Debido principalmente a que en este tipo de negocios se basan en trabajos manuales, con personal poco cualificado; por lo que estos elementos afectan directamente la calidad de los productos desde su concepción. Se planteó un sistema de control de calidad visual que ayude a controlar la calidad durante la fase de producción, incentivando así el desarrollo de productos de calidad. Para este propósito se plantean soluciones basadas en técnicas de Visión por computadora (CV), junto con algoritmos de Machine Learning y arquitecturas de Deep Learning. Esta tesis doctoral se inició realizando una revisión del estado del arte sobre los procesos de interacción humano-robot (HRI), sistemas de control automático de calidad en los sistemas de producción, aplicación de la CV en entornos de manufactura, utilización de arquitecturas de Deep Learningy las bases de datos de imágenes de herramientas, piezas y componentesr equeridos para la manufactura. Así como bases de datos de vídeos de acciones. El resultado del estudio sirvió como base para el desarrollo del estado del arte y el conocimiento de las técnicas actuales de Deep Learning que permiten identificar objetos y acciones; particularmente para el control de la producción con operarios. Por lo que se logró evidenciar que no existían soluciones inteligentes basada en visión que permitan controlar secuencias de ensamble en la producción manual. Tras este estudio del estado del arte, se ha propuesto una arquitectura de visión por computador, reconocimiento de objetos y acciones, además de un lenguaje descriptivo. Se compone de tres módulos principales, el primero de ellos se encarga del procesamiento visual; donde se identifican los objetos y sus ubicaciones, también se reconocen las acciones ejecutadas por el operario. El segundo módulo se encarga del procesamiento del lenguaje que describe las acciones, que va ser utilizado luego para evaluar la ejecución del operario. Y el último módulo se encarga de tomar las salidas de los dos módulos anteriores, para determinar si realmente realiza el ensamble como está estipulado. Además, la arquitectura es capaz de establecer cuáles son las acciones siguientes que debe realizar el operario, para proveerle información de las herramientas o partes que debe tomar para continuar y minimizar los errores por uso incorrecto de herramientas o partes. Es importante señalar que, además de la arquitectura, este trabajo también genera como resultado, dos bases de datos. Debido a que, durante la investigación del estado del arte tampoco se logró determinar la existen-da de bases de datos para el entrenamiento de redes para la detección de herramientas o acciones de manufactura. La primera base de datos es de imágenes de herramientas, partes y componentes comunes de manufactura y la segunda se compone de videos de acciones comunes en los procesos de ensamblaje. También se propuso la generación de un lenguaje que permite describir las acciones necesarias para un proceso de ensamble. Mediante una secuencia de manufactura descrita con este lenguaje, se puede comparar un proceso de manufactura con las instrucciones que se van detectando en tiempo real. Determinando si el operario sigue los pasos tal y como fueron diseñados por los expertos en el diseño de productos. Este lenguaje, en conjunto con el módulo de verificación de acciones, permite que el sistema genere predicciones de las siguientes instrucciones o acciones.
APA, Harvard, Vancouver, ISO, and other styles
26

Sarabia, Pérez Rubén. "Modelo morfológico determinista: aplicación para el diseño y la fabricación asistidos por ordenador." Doctoral thesis, Universidad de Alicante, 2012. http://hdl.handle.net/10045/28417.

Full text
Abstract:
En esta memoria se propone un nuevo modelo geométrico capaz de soportar los requerimientos de una aplicación CAD/CAM de diseño y mecanizado de piezas tridimensionales. Tras realizar un análisis detallado del estado del arte de los modelos existentes en la actualidad y de la problemática inherente al proceso de mecanizado, se llega a la conclusión de que es necesario realizar un esfuerzo investigador que permita definir un nuevo paradigma geométrico que aborde globalmente el proceso de diseño y mecanizado de objetos, resolviendo así algunas de las principales carencias con las que cuentan los modelos existentes. En esta investigación se presenta el Modelo Morfológico Determinista (MMD), modelo geométrico que permite modelar procesos dinámicos a partir del marco formal que presenta la morfología matemática. Para demostrar la validez y operatividad del modelo se presenta un sistema computacional que, desarrollando los principios propios del MMD, implementa una aplicación realista de diseño y fabricación de objetos tridimensionales. El entorno computacional ofrece soluciones al diseño de objetos complejos y soporte aritmético a la generación de trayectorias de fabricación, uno de los problemas más complejos que se presentan actualmente en el CAD/CAM.
APA, Harvard, Vancouver, ISO, and other styles
27

Bellod, Guillén José Miguel. "Desarrollo de un sistema de triaje de urgencias escalable, reproducible y con interoperabilidad semántica." Doctoral thesis, Universidad de Alicante, 2017. http://hdl.handle.net/10045/71514.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Castro, Luís Alexandre Silva. "Controlo de infra-estruturas de Cloud Computing." Master's thesis, Universidade de Aveiro, 2009. http://hdl.handle.net/10773/2105.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
Cloud Computing é hoje um paradigma emergente e disruptivo ainda com muitas áreas por explorar, que vão desde a componente tecnológica à definição de novos modelos de negócio. Cloud Computing está a revolucionar a forma como projectamos, implementamos e gerimos toda a infra-estrutura de TI. A Infra-estrutura como Serviço (IaaS) representa a disponibilização da infraestrutura computacional, tipicamente um datacenter virtual, juntamente com um conjunto de APIs e permitirá que aplicações, de forma automática, possam controlar os recursos que pretendem utilizar. A escolha do fornecedor de serviços e a forma como este aplica o seu modelo de negócio poderão determinar um maior ou menor custo na operacionalização e manutenção das aplicações junto dos fornecedores. Este trabalho pretende explorar a vertente de utilização de serviços de infra-estrutura de Cloud Computing e como poderão ser conjugados para obtenção de escalabilidade. ABSTRACT: Cloud Computing is an emergent and disruptive technology with a lot of unexplored areas ranging from technology components to the definition of new business models. Cloud Computing is a revolution within the way we conceive, implement and manage all IT infrastructure. Infrastructure as a Service (IaaS) represents a new path to provide computational resources on demand, typically a virtual datacenter with an API set to automatically control the usage resources and apply for scalability. The choose of the Cloud Computing provider and the way he apply its business model can determine more costs in the way we operate and maintain Cloud Computing applications. The focus of this work is to study the usage of Infrastructure Services and how to compose these services to obtain scalability.
APA, Harvard, Vancouver, ISO, and other styles
29

Díaz, Cortés Eduardo Alberto. "Implantación de procesos y herramientas basadas en DevOps para una empresa de servicios de información." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/169243.

Full text
Abstract:
Memoria para optar al título de Ingeniero Civil en Computación
Previred S.A. es una empresa que presta servicios a la industria de la seguridad social nacional desde el año 2000. Una división de negocios, denominada Apoyo al Giro, implementa y presta servicios de información a diversas entidades de la industria previsional. Esta división de negocios cuenta con un equipo propio de desarrollo de software que construye cerca del 80% de los sistemas de información que sirven de apoyo a los servicios de negocio. Estos servicios son cada vez más demandados y gran parte de ellos son considerados críticos por sus clientes, lo que compromete a la organización a cumplir altos niveles de servicio, y se debe garantizar la continuidad operativa de los mismos. El proceso de implantación de nuevas versiones de los sistemas existentes se realiza mediante procesos manuales, con una tasa de fallos considerada insatisfactoria por los clientes internos y externos. Por otro lado, hay una tasa de fallos críticos que se espera disminuir. Un fallo crítico corresponde a una indisponibilidad del servicio productivo por varias horas o días. Una parte de estos fallos se debe a errores en el proceso de implantación en producción, por mala ejecución de las instrucciones, falta de prolijidad en la instalación, o en la elaboración de los documentos que describen los pasos a producción. El objetivo general de este trabajo es implementar un proceso de integración y entrega continua automatizado incorporando procesos y herramientas de DevOps dentro de la organización, para un servicio productivo de Previred, con el fin de reducir la tasa de fallos críticos debidos al proceso actual. Para lograr el objetivo se revisa el actual proceso de desarrollo de Previred, luego se realiza un estudio de los principales problemas y dolores que experimenta la organización con este proceso, mediante entrevistas a personas claves de la organización. Con los antecedentes recogidos se propone una modificación al proceso de desarrollo, junto con una plataforma tecnológica que apoya los cambios al proceso. Para poder plasmar esta plataforma se propone una arquitectura, y para construirla se analizan las herramientas disponibles y se seleccionan las adecuadas para la cultura y realidad de Previred. Para validar la arquitectura realizó una prueba de concepto que permite determinar la factibilidad de la plataforma propuesta. Además, se realiza una evaluación cualitativa de la solución a través de una encuesta realizada a un grupo de personas claves en la organización.
APA, Harvard, Vancouver, ISO, and other styles
30

Rodrigo, Mocholí Samuel. "Cost Effective Routing Implementations for On-chip Networks." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/8962.

Full text
Abstract:
Arquitecturas de múltiples núcleos como multiprocesadores (CMP) y soluciones multiprocesador para sistemas dentro del chip (MPSoCs) actuales se basan en la eficacia de las redes dentro del chip (NoC) para la comunicación entre los diversos núcleos. Un diseño eficiente de red dentro del chip debe ser escalable y al mismo tiempo obtener valores ajustados de área, latencia y consumo de energía. Para diseños de red dentro del chip de propósito general se suele usar topologías de malla 2D ya que se ajustan a la distribución del chip. Sin embargo, la aparición de nuevos retos debe ser abordada por los diseñadores. Una mayor probabilidad de defectos de fabricación, la necesidad de un uso optimizado de los recursos para aumentar el paralelismo a nivel de aplicación o la necesidad de técnicas eficaces de ahorro de energía, puede ocasionar patrones de irregularidad en las topologías. Además, el soporte para comunicación colectiva es una característica buscada para abordar con eficacia las necesidades de comunicación de los protocolos de coherencia de caché. En estas condiciones, un encaminamiento eficiente de los mensajes se convierte en un reto a superar. El objetivo de esta tesis es establecer las bases de una nueva arquitectura para encaminamiento distribuido basado en lógica que es capaz de adaptarse a cualquier topología irregular derivada de una estructura de malla 2D, proporcionando así una cobertura total para cualquier caso resultado de soportar los retos mencionados anteriormente. Para conseguirlo, en primer lugar, se parte desde una base, para luego analizar una evolución de varios mecanismos, y finalmente llegar a una implementación, que abarca varios módulos para alcanzar el objetivo mencionado anteriormente. De hecho, esta última implementación tiene por nombre eLBDR (effective Logic-Based Distributed Routing). Este trabajo cubre desde el primer mecanismo, LBDR, hasta el resto de mecanismos que han surgido progresivamente.
Rodrigo Mocholí, S. (2010). Cost Effective Routing Implementations for On-chip Networks [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/8962
Palancia
APA, Harvard, Vancouver, ISO, and other styles
31

Espinosa, Minguet Agustín Rafael. "EXTENSIONES AL LENGUAJE ADA Y A LOS SERVICIOS POSIX PARA PLANIFICACIÓN EN SISTEMAS DE TIEMPO REAL ESTRICTO." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/17743.

Full text
Abstract:
Esta tesis se ha centrado en el estudio de las políticas basadas en la extracción de holgura y en la asignación dual de prioridades, ambas orientadas a dar servicio a tareas aperiódicas en sistemas real estricto. Estas políticas constituyen una interesante alternativa a las políticas basadas en servidores de carga aperiódicas y han sido ampliamente estudiadas en numerosos trabajos. No obstante, la posibilidad de ser aplicables en la práctica todavía no había sido evaluada en detalle, y éste ha sido el principal objetivo de esta tesis. En este trabajo, ambas políticas son revisadas en profundidad. En el caso de la política basada en la extracción de holgura, algunas de sus principales debilidades han sido corregidas. En particular, se muestra que es posible compartir recursos entre tareas críticas y aperiódicas de una forma sencilla y eficiente, utilizando para ello los mismos protocolos de herencia de prioridad que pueden aplicarse en sistemas en los que sólo existen tareas críticas. La aplicabilidad de estas políticas ha sido valorada incorporándolas en los dos entornos más relevantes hoy en día para la programación de sistemas de tiempo real estricto, el lenguaje de programación Ada y los servicios POSIX. Con este fin se han definido nuevas interfaces para ambas políticas en estos entornos, coherentes con sus principios de diseño y con los servicios que actualmente ofrecen. El diseño de estas interfaces ha supuesto una adaptación de ambas políticas buscando, en todo momento, un equilibrio entre prestaciones y eficiencia. Como parte de este diseño, estas interfaces han sido implementadas en el sistema operativo MaRTE OS. El proceso de implementación ha servido para validar las distintas alternativas qu ehan sido consideradas. Un aspecto importante de una política de planificación en su eficiencia, por lo que este aspecto ha sido evaluado en detalle. Se ha caracterizado de forma analítica el efecto
ABSTRACT: This thesis is centered on the study of slack stealing and dual priority scheduling policies, both oriented to serve aperiodic tasks in hard real-time systems. These polices, largely studied in previous work, constitute an interesting alternative to policies based on aperiodic servers. However, the possibility of actually being put into practice had not been yet exhaustively evaluated. This has been the main objective of this thesis. Both policies are profoundly revised in this dissertation. In the case of the slack stealing policy, some of its weaknesses have been solved. In particular, this thesis shows that it is possible to share resources between hard and aperiodic tasks in a simple and efficient manner. This can be done by using the same priority inheritance protocols which are used in systems comprising hard tasks only. The applicability of these scheduling policies has been evaluated by means of their incorporation into the two most relevant hard real-time programming environments in use nowadays, the Ada programming language and the POSIX set of services. In order to fulfill this purpose, new interfaces for both policies have been defined in these two environments. These interfaces have been designed in order to be coherent with the environments¿ design principles and the services they currently support. This design has involved the adaptation of the original scheduling policies, trying to optimize the balance between performance and efficiency. As a part of this design, both interfaces have been implemented in the MaRTE OS operating system. These implementations have been useful for validating the different alternatives which have been considered throughout the design process. Since efficiency is an important aspect of any scheduling policy, this aspect has been extremely evaluated in this work. The effect of the implementation of both policies to the task response times has been analytically characterized. This effect has also been quantified, and then the efficiency of both policies has been compared with the fixed-priority preemptive scheduling policy, which is the one normally used in hard real-time systems. The results of this comparative study show that, although the overhead introduced by any VIII ABSTRACT of the two new policies is significant, this overhead lies in a reasonable range. The recently approved POSIX trace services have also been studied in this thesis. The necessity of having some analysis and measurement tools available for the efficiency studies carried out in this thesis led to the incorporation of these services into MaRTE OS. Related to this, a new POSIX/Ada interface for the trace services has also been proposed. In addition, the problem of obtaining temporal metrics of the system from the information of the traces has also been covered.
Espinosa Minguet, AR. (2003). EXTENSIONES AL LENGUAJE ADA Y A LOS SERVICIOS POSIX PARA PLANIFICACIÓN EN SISTEMAS DE TIEMPO REAL ESTRICTO [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17743
APA, Harvard, Vancouver, ISO, and other styles
32

Reaño, González Carlos. "On the Enhancement of Remote GPU Virtualization in High Performance Clusters." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/86219.

Full text
Abstract:
Graphics Processing Units (GPUs) are being adopted in many computing facilities given their extraordinary computing power, which makes it possible to accelerate many general purpose applications from different domains. However, GPUs also present several side effects, such as increased acquisition costs as well as larger space requirements. They also require more powerful energy supplies. Furthermore, GPUs still consume some amount of energy while idle and their utilization is usually low for most workloads. In a similar way to virtual machines, the use of virtual GPUs may address the aforementioned concerns. In this regard, the remote GPU virtualization mechanism allows an application being executed in a node of the cluster to transparently use the GPUs installed at other nodes. Moreover, this technique allows to share the GPUs present in the computing facility among the applications being executed in the cluster. In this way, several applications being executed in different (or the same) cluster nodes can share one or more GPUs located in other nodes of the cluster. Sharing GPUs should increase overall GPU utilization, thus reducing the negative impact of the side effects mentioned before. Reducing the total amount of GPUs installed in the cluster may also be possible. In this dissertation we enhance one framework offering remote GPU virtualization capabilities, referred to as rCUDA, for its use in high-performance clusters. While the initial prototype version of rCUDA demonstrated its functionality, it also revealed concerns with respect to usability, performance, and support for new GPU features, which prevented its used in production environments. These issues motivated this thesis, in which all the research is primarily conducted with the aim of turning rCUDA into a production-ready solution for eventually transferring it to industry. The new version of rCUDA resulting from this work presents a reduction of up to 35% in execution time of the applications analyzed with respect to the initial version. Compared to the use of local GPUs, the overhead of this new version of rCUDA is below 5% for the applications studied when using the latest high-performance computing networks available.
Las unidades de procesamiento gráfico (Graphics Processing Units, GPUs) están siendo utilizadas en muchas instalaciones de computación dada su extraordinaria capacidad de cálculo, la cual hace posible acelerar muchas aplicaciones de propósito general de diferentes dominios. Sin embargo, las GPUs también presentan algunas desventajas, como el aumento de los costos de adquisición, así como mayores requerimientos de espacio. Asimismo, también requieren un suministro de energía más potente. Además, las GPUs consumen una cierta cantidad de energía aún estando inactivas, y su utilización suele ser baja para la mayoría de las cargas de trabajo. De manera similar a las máquinas virtuales, el uso de GPUs virtuales podría hacer frente a los inconvenientes mencionados. En este sentido, el mecanismo de virtualización remota de GPUs permite que una aplicación que se ejecuta en un nodo de un clúster utilice de forma transparente las GPUs instaladas en otros nodos de dicho clúster. Además, esta técnica permite compartir las GPUs presentes en el clúster entre las aplicaciones que se ejecutan en el mismo. De esta manera, varias aplicaciones que se ejecutan en diferentes nodos de clúster (o los mismos) pueden compartir una o más GPUs ubicadas en otros nodos del clúster. Compartir GPUs aumenta la utilización general de la GPU, reduciendo así el impacto negativo de las desventajas anteriormente mencionadas. De igual forma, este mecanismo también permite reducir la cantidad total de GPUs instaladas en el clúster. En esta tesis mejoramos un entorno de trabajo llamado rCUDA, el cual ofrece funcionalidades de virtualización remota de GPUs para su uso en clusters de altas prestaciones. Si bien la versión inicial del prototipo de rCUDA demostró su funcionalidad, también reveló dificultades con respecto a la usabilidad, el rendimiento y el soporte para nuevas características de las GPUs, lo cual impedía su uso en entornos de producción. Estas consideraciones motivaron la presente tesis, en la que toda la investigación llevada a cabo tiene como objetivo principal convertir rCUDA en una solución lista para su uso entornos de producción, con la finalidad de transferirla eventualmente a la industria. La nueva versión de rCUDA resultante de este trabajo presenta una reducción de hasta el 35% en el tiempo de ejecución de las aplicaciones analizadas con respecto a la versión inicial. En comparación con el uso de GPUs locales, la sobrecarga de esta nueva versión de rCUDA es inferior al 5% para las aplicaciones estudiadas cuando se utilizan las últimas redes de computación de altas prestaciones disponibles.
Les unitats de processament gràfic (Graphics Processing Units, GPUs) estan sent utilitzades en moltes instal·lacions de computació donada la seva extraordinària capacitat de càlcul, la qual fa possible accelerar moltes aplicacions de propòsit general de diferents dominis. No obstant això, les GPUs també presenten alguns desavantatges, com l'augment dels costos d'adquisició, així com major requeriment d'espai. Així mateix, també requereixen un subministrament d'energia més potent. A més, les GPUs consumeixen una certa quantitat d'energia encara estant inactives, i la seua utilització sol ser baixa per a la majoria de les càrregues de treball. D'una manera semblant a les màquines virtuals, l'ús de GPUs virtuals podria fer front als inconvenients esmentats. En aquest sentit, el mecanisme de virtualització remota de GPUs permet que una aplicació que s'executa en un node d'un clúster utilitze de forma transparent les GPUs instal·lades en altres nodes d'aquest clúster. A més, aquesta tècnica permet compartir les GPUs presents al clúster entre les aplicacions que s'executen en el mateix. D'aquesta manera, diverses aplicacions que s'executen en diferents nodes de clúster (o els mateixos) poden compartir una o més GPUs ubicades en altres nodes del clúster. Compartir GPUs augmenta la utilització general de la GPU, reduint així l'impacte negatiu dels desavantatges anteriorment esmentades. A més a més, aquest mecanisme també permet reduir la quantitat total de GPUs instal·lades al clúster. En aquesta tesi millorem un entorn de treball anomenat rCUDA, el qual ofereix funcionalitats de virtualització remota de GPUs per al seu ús en clústers d'altes prestacions. Si bé la versió inicial del prototip de rCUDA va demostrar la seua funcionalitat, també va revelar dificultats pel que fa a la usabilitat, el rendiment i el suport per a noves característiques de les GPUs, la qual cosa impedia el seu ús en entorns de producció. Aquestes consideracions van motivar la present tesi, en què tota la investigació duta a terme té com a objectiu principal convertir rCUDA en una solució preparada per al seu ús entorns de producció, amb la finalitat de transferir-la eventualment a la indústria. La nova versió de rCUDA resultant d'aquest treball presenta una reducció de fins al 35% en el temps d'execució de les aplicacions analitzades respecte a la versió inicial. En comparació amb l'ús de GPUs locals, la sobrecàrrega d'aquesta nova versió de rCUDA és inferior al 5% per a les aplicacions estudiades quan s'utilitzen les últimes xarxes de computació d'altes prestacions disponibles.
Reaño González, C. (2017). On the Enhancement of Remote GPU Virtualization in High Performance Clusters [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/86219
TESIS
Premiado
APA, Harvard, Vancouver, ISO, and other styles
33

Martínez, Raga Miquel. "Improving the process of analysis and comparison of results in dependability benchmarks for computer systems." Doctoral thesis, Universitat Politècnica de València, 2018. http://hdl.handle.net/10251/111945.

Full text
Abstract:
Los dependability benchmarks (o benchmarks de confiabilidad en español), están diseñados para evaluar, mediante la categorización cuantitativa de atributos de confiabilidad y prestaciones, el comportamiento de sistemas en presencia de fallos. En este tipo de benchmarks, donde los sistemas se evalúan en presencia de perturbaciones, no ser capaces de elegir el sistema que mejor se adapta a nuestras necesidades puede, en ocasiones, conllevar graves consecuencias (económicas, de reputación, o incluso de pérdida de vidas). Por esa razón, estos benchmarks deben cumplir ciertas propiedades, como son la no-intrusión, la representatividad, la repetibilidad o la reproducibilidad, que garantizan la robustez y precisión de sus procesos. Sin embargo, a pesar de la importancia que tiene la comparación de sistemas o componentes, existe un problema en el ámbito del dependability benchmarking relacionado con el análisis y la comparación de resultados. Mientras que el principal foco de investigación se ha centrado en el desarrollo y la mejora de procesos para obtener medidas en presencia de fallos, los aspectos relacionados con el análisis y la comparación de resultados quedaron mayormente desatendidos. Esto ha dado lugar a diversos trabajos en este ámbito donde el proceso de análisis y la comparación de resultados entre sistemas se realiza de forma ambigua, mediante argumentación, o ni siquiera queda reflejado. Bajo estas circunstancias, a los usuarios de los benchmarks se les presenta una dificultad a la hora de utilizar estos benchmarks y comparar sus resultados con los obtenidos por otros usuarios. Por tanto, extender la aplicación de los benchmarks de confiabilidad y realizar la explotación cruzada de resultados es una tarea actualmente poco viable. Esta tesis se ha centrado en el desarrollo de una metodología para dar soporte a los desarrolladores y usuarios de benchmarks de confiabilidad a la hora de afrontar los problemas existentes en el análisis y comparación de resultados. Diseñada para asegurar el cumplimiento de las propiedades de estos benchmarks, la metodología integra el proceso de análisis de resultados en el flujo procedimental de los benchmarks de confiabilidad. Inspirada en procedimientos propios del ámbito de la investigación operativa, esta metodología proporciona a los evaluadores los medios necesarios para hacer su proceso de análisis explícito, y más representativo para el contexto dado. Los resultados obtenidos de aplicar esta metodología en varios casos de estudio de distintos dominios de aplicación, mostrará las contribuciones de este trabajo a mejorar el proceso de análisis y comparación de resultados en procesos de evaluación de la confiabilidad para sistemas basados en computador.
Dependability benchmarks are designed to assess, by quantifying through quantitative performance and dependability attributes, the behavior of systems in presence of faults. In this type of benchmarks, where systems are assessed in presence of perturbations, not being able to select the most suitable system may have serious implications (economical, reputation or even lost of lives). For that reason, dependability benchmarks are expected to meet certain properties, such as non-intrusiveness, representativeness, repeatability or reproducibility, that guarantee the robustness and accuracy of their process. However, despite the importance that comparing systems or components has, there is a problem present in the field of dependability benchmarking regarding the analysis and comparison of results. While the main focus in this field of research has been on developing and improving experimental procedures to obtain the required measures in presence of faults, the processes involving the analysis and comparison of results were mostly unattended. This has caused many works in this field to analyze and compare results of different systems in an ambiguous way, as the process followed in the analysis is based on argumentation, or not even present. Hence, under these circumstances, benchmark users will have it difficult to use these benchmarks and compare their results with those from others. Therefore extending the application of these dependability benchmarks and perform cross-exploitation of results among works is not likely to happen. This thesis has focused on developing a methodology to assist dependability benchmark performers to tackle the problems present in the analysis and comparison of results of dependability benchmarks. Designed to guarantee the fulfillment of dependability benchmark's properties, this methodology seamlessly integrates the process of analysis of results within the procedural flow of a dependability benchmark. Inspired on procedures taken from the field of operational research, this methodology provides evaluators with the means not only to make their process of analysis explicit to anyone, but also more representative for the context being. The results obtained from the application of this methodology to several case studies in different domains, will show the actual contributions of this work to improving the process of analysis and comparison of results in dependability benchmarking for computer systems.
Els dependability benchmarks (o benchmarks de confiabilitat, en valencià), són dissenyats per avaluar, mitjançant la categorització quantitativa d'atributs de confiabilitat i prestacions, el comportament de sistemes en presència de fallades. En aquest tipus de benchmarks, on els sistemes són avaluats en presència de pertorbacions, el no ser capaços de triar el sistema que millor s'adapta a les nostres necessitats pot tenir, de vegades, greus conseqüències (econòmiques, de reputació, o fins i tot pèrdua de vides). Per aquesta raó, aquests benchmarks han de complir certes propietats, com són la no-intrusió, la representativitat, la repetibilitat o la reproductibilitat, que garanteixen la robustesa i precisió dels seus processos. Així i tot, malgrat la importància que té la comparació de sistemes o components, existeix un problema a l'àmbit del dependability benchmarking relacionat amb l'anàlisi i la comparació de resultats. Mentre que el principal focus d'investigació s'ha centrat en el desenvolupament i la millora de processos per a obtenir mesures en presència de fallades, aquells aspectes relacionats amb l'anàlisi i la comparació de resultats es van desatendre majoritàriament. Açò ha donat lloc a diversos treballs en aquest àmbit on els processos d'anàlisi i comparació es realitzen de forma ambigua, mitjançant argumentació, o ni tan sols queden reflectits. Sota aquestes circumstàncies, als usuaris dels benchmarks se'ls presenta una dificultat a l'hora d'utilitzar aquests benchmarks i comparar els seus resultats amb els obtinguts per altres usuaris. Per tant, estendre l'aplicació dels benchmarks de confiabilitat i realitzar l'explotació creuada de resultats és una tasca actualment poc viable. Aquesta tesi s'ha centrat en el desenvolupament d'una metodologia per a donar suport als desenvolupadors i usuaris de benchmarks de confiabilitat a l'hora d'afrontar els problemes existents a l'anàlisi i comparació de resultats. Dissenyada per a assegurar el compliment de les propietats d'aquests benchmarks, la metodologia integra el procés d'anàlisi de resultats en el flux procedimental dels benchmarks de confiabilitat. Inspirada en procediments propis de l'àmbit de la investigació operativa, aquesta metodologia proporciona als avaluadors els mitjans necessaris per a fer el seu procés d'anàlisi explícit, i més representatiu per al context donat. Els resultats obtinguts d'aplicar aquesta metodologia en diversos casos d'estudi de distints dominis d'aplicació, mostrarà les contribucions d'aquest treball a millorar el procés d'anàlisi i comparació de resultats en processos d'avaluació de la confiabilitat per a sistemes basats en computador.
Martínez Raga, M. (2018). Improving the process of analysis and comparison of results in dependability benchmarks for computer systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/111945
TESIS
APA, Harvard, Vancouver, ISO, and other styles
34

Martins, Ricardo Torres. "Arquitecturas e ferramentas para gestão de redes e sistemas : um caso de estudo." Master's thesis, Universidade de Aveiro, 2001. http://hdl.handle.net/10773/1879.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
O trabalho desenvolvido teve por objectivos identificar e estudar as normas, mecanismos, políticas e aplicações a utilizar na gestão de uma infraestrutura de informática, respondendo aos actuais requisitos das Instituições. O “focus” da gestão têm-se vindo a alterar ao longo dos últimos anos, fruto de um contínuo acompanhamento da evolução das infra-estruturas de informática e dos serviços que elas suportam, o que implica um investimento constante, quer na actualização de meios tecnológicos, quer na actualização de conhecimentos dos recursos humanos. Com a consciência de que uma gestão efectiva terá de ser baseada no conhecimento profundo dos mecanismos de gestão, das tecnologias envolvidas, da configuração da infra-estrutura e da orgânica da instituição, as directivas de aprendizagem seguidas ao longo da dissertação tiveram por base estes propósitos. O estudo efectuado culminou com a implementação prática de sistema de gestão adequado a uma infra-estrutura de informática, bastante rica na diversidade de tecnologias e sistemas. Desta implementação serão apresentados alguns resultados que reiterarão a necessidade e vantagens de utilizar um sistema de gestão na infra-estrutura estudada. ABSTRACT: The work developed had the objective of identifying and studying the standards, mechanisms, policies and applications to be used in the management of a computing substructure, answering the present requirements of the institutions. The “Focus” of the management has come to change during the recent years, fruit of a continued accompanying of the evolution of substructures of computing and the services they support, which implicates a constant investment, be it in the upgrading of technological means, or the upgrading of the knowledge of human resources. With the conscience that any effective management would have to be based on profound knowledge of the mechanisms of management, the technologies involved, the configuration of the substructure and the organization of the institution, the learning directives followed in the dissertation had as basis these intentions. The study carried out culminated with the practical implementation of a system adequate to computing substructure, very rich in technological and system diversity. Some of the presented results of this implementation will reiterate the necessity and advantages of using a management system on the studied substructure.
APA, Harvard, Vancouver, ISO, and other styles
35

Martins, Joaquim Arnaldo Carvalho. "Contribuições para o estudo de arquitecturas protocolares para redes locais de elevada velocidade." Doctoral thesis, Universidade de Aveiro, 1989. http://hdl.handle.net/10773/16697.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Vallejo, Gutiérrez Enrique. "Soporte arquitectónico a la sincronización imparcial de lectores y escritores en computadores paralelos." Doctoral thesis, Universidad de Cantabria, 2010. http://hdl.handle.net/10803/10637.

Full text
Abstract:
La evolución tecnológica en el diseño de microprocesadores ha conducido a sistemas paralelos con múltiples hilos de ejecución. Estos sistemas son más difíciles de programar y presentan overheads mayores que los sistemas uniprocesadores tradicionales, que pueden limitar su rendimiento y escalabilidad: sincronización, coherencia, consistencia y otros mecanismos requeridos para garantizar una ejecución correcta. La programación paralela tradicional se basa en primitivas de sincronización como barreras y locks de lectura/escritura, con alta tendencia a fallos de programación. La Memoria Transaccional (TM) oculta estos problemas de sincronización al programador; sin embargo, múltiples sistemas TM aún se basan en locks, y se beneficiarían de una implementación eficiente de los mismos.Esta tesis presenta nuevas técnicas hardware para acelerar la ejecución de estos programas paralelos. Proponemos un sistema TM híbrido basado en locks de lectura/escritura, que minimiza los overheads del software cuando la aceleración hardware está presente. Desarrollamos un mecanismo para garantizar fairness entre transacciones hardware y software. Introducimos un mecanismo distribuido de aceleración de locks de lectura/escritura, llamado Lock Control Unit. Finalmente, proponemos una organización de multiprocesadores basadas en Kilo-Instruction Processors que garantiza Consistencia Secuencial y permite especulación en secciones críticas.
Technological evolution in microprocessor design has led to parallel systems with multiple execution threads. These systems are more difficult to program and present higher performance overheads than the traditional uniprocessor systems, what may limit their performance and scalability: synchronization, coherence, consistency and other mechanisms required to guarantee a correct execution. Traditional parallel programming is based on synchronization primitives such as barriers, critical sections and reader/writer locks, highly prone to programming errors. Transactional Memory (TM) removes the synchronization problems from the programmer. However, many TM systems still rely on reader/writer locks, and would get benefited from an efficient implementation.This thesis presents new hardware techniques to accelerate the execution of such parallel programs. We propose a Hybrid TM system based on reader/writer locks, which minimizes the software overheads when acceleration hardware is present, still allowing for correct software-only execution. We propose a mechanism to guarantee fairness between hardware and software transactions is provided. We introduce a low-cost distributed mechanism named the Lock Control Unit to handle fine-grain reader-writer locks. Finally, we propose an organization of a mutiprocessor based on Kilo-Instruction Processors, which guarantees Sequential Consistency while allowing for speculation in critical sections.
APA, Harvard, Vancouver, ISO, and other styles
37

Tavares, Paulo César Costa. "Editor de Yang." Master's thesis, Universidade de aveiro, 2011. http://hdl.handle.net/10773/6383.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
O desenvolvimento de aplicações de gestão tipicamente requer a definição do modelo de dados, a criação das aplicações que respeitem esse modelo de dados e a implementação das interfaces de comunicação. Apesar de essas tarefas serem normalmente desenvolvidas por profissionais bem treinados, estes têm que as implementar usando diferentes aplicações, numa sequência coordenada que frequentemente são obrigados a repetir devido a um qualquer erro na definição inicial do modelo de dados. A adopção de tecnologias Web no desenvolvimento de aplicações de gestão NETCONF permite a automatização de vários procedimentos. Este documento apresenta uma plataforma de desenvolvimento integrado para soluções baseadas em NETCONF sob a forma de um plug-in para o IDE Eclipse. O trabalho inclui a criação de um parser para a linguagem YANG que foi integrado com o IDE que permite o desenvolvimento total de aplicações de gestão baseados neste protocolo.
The development of network and systems management software typically requires the data model definition, the construction of applications respecting that data model and also the implementation of the communication interfaces. Although such tasks are usually performed by welltrained professionals, they have to perform those tasks using different applications, in a coordinated sequence that they may unfortunately repeat due to errors in data model definition. The adoption of web technologies in NETCONF design allows the automation of several development tasks. Current work presents an integrated development platform for NETCONF based-solutions in the form of a plug-in for the Eclipse IDE. The work includes the creation of a YANG parser that was integrated within the IDE and that enables the complete creation of the management applications.
APA, Harvard, Vancouver, ISO, and other styles
38

Puche, Lara José. "Novel Cache Hierarchies with Photonic Interconnects for Chip Multiprocessors." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/165254.

Full text
Abstract:
[ES] Los procesadores multinúcleo actuales cuentan con recursos compartidos entre los diferentes núcleos. Dos de estos recursos compartidos, la cache de último nivel y el ancho de banda de memoria principal, pueden convertirse en cuellos de botella para el rendimiento. Además, con el crecimiento del número de núcleos que implementan los diseños más recientes, la red dentro del chip también se convierte en un cuello de botella que puede afectar negativamente al rendimiento, ya que las redes tradicionales pueden encontrar limitaciones a su escalabilidad en el futuro cercano. Prácticamente la totalidad de los diseños actuales implementan jerarquías de memoria que se comunican mediante rápidas redes de interconexión. Esta organización es eficaz dado que permite reducir el número de accesos que se realizan a memoria principal y la latencia media de acceso a memoria. Las caches, la red de interconexión y la memoria principal, conjuntamente con otras técnicas conocidas como la prebúsqueda, permiten reducir las enormes latencias de acceso a memoria principal, limitando así el impacto negativo ocasionado por la diferencia de rendimiento existente entre los núcleos de cómputo y la memoria. Sin embargo, compartir los recursos mencionados es fuente de diferentes problemas y retos, siendo uno de los principales el manejo de la interferencia entre aplicaciones. Hacer un uso eficiente de la jerarquía de memoria y las caches, así como contar con una red de interconexión apropiada, es necesario para sostener el crecimiento del rendimiento en los diseños tanto actuales como futuros. Esta tesis analiza y estudia los principales problemas e inconvenientes observados en estos dos recursos: la cache de último nivel y la red dentro del chip. En primer lugar, se estudia la escalabilidad de las tradicionales redes dentro del chip con topología de malla, así como esta puede verse comprometida en próximos diseños que cuenten con mayor número de núcleos. Los resultados de este estudio muestran que, a mayor número de núcleos, el impacto negativo de la distancia entre núcleos en la latencia puede afectar seriamente al rendimiento del procesador. Como solución a este problema, en esta tesis proponemos una de red de interconexión óptica modelada en un entorno de simulación detallado, que supone una solución viable a los problemas de escalabilidad observados en los diseños tradicionales. A continuación, esta tesis dedica un esfuerzo importante a identificar y proponer soluciones a los principales problemas de diseño de las jerarquías de memoria actuales como son, por ejemplo, el sobredimensionado del espacio de cache privado, la existencia de réplicas de datos y rigidez e incapacidad de adaptación de las estructuras de cache. Aunque bien conocidos, estos problemas y sus efectos adversos en el rendimiento pueden ser evitados en procesadores de alto rendimiento gracias a la enorme capacidad de la cache de último nivel que este tipo de procesadores típicamente implementan. Sin embargo, en procesadores de bajo consumo, no existe la posibilidad de contar con tales capacidades y hacer un uso eficiente del espacio disponible es crítico para mantener el rendimiento. Como solución a estos problemas en procesadores de bajo consumo, proponemos una novedosa organización de jerarquía de dos niveles cache que utiliza una red de interconexión óptica. Los resultados obtenidos muestran que, comparado con diseños convencionales, el consumo de energía estática en la arquitectura propuesta es un 60% menor, pese a que los resultados de rendimiento presentan valores similares. Por último, hemos extendido la arquitectura propuesta para dar soporte tanto a aplicaciones paralelas como secuenciales. Los resultados obtenidos con la esta nueva arquitectura muestran un ahorro de hasta el 78 % de energía estática en la ejecución de aplicaciones paralelas.
[CA] Els processadors multinucli actuals compten amb recursos compartits entre els diferents nuclis. Dos d'aquests recursos compartits, la memòria d’últim nivell i l'ample de banda de memòria principal, poden convertir-se en colls d'ampolla per al rendiment. A mes, amb el creixement del nombre de nuclis que implementen els dissenys mes recents, la xarxa dins del xip també es converteix en un coll d'ampolla que pot afectar negativament el rendiment, ja que les xarxes tradicionals poden trobar limitacions a la seva escalabilitat en el futur proper. Pràcticament la totalitat dels dissenys actuals implementen jerarquies de memòria que es comuniquen mitjançant rapides xarxes d’interconnexió. Aquesta organització es eficaç ates que permet reduir el nombre d'accessos que es realitzen a memòria principal i la latència mitjana d’accés a memòria. Les caches, la xarxa d’interconnexió i la memòria principal, conjuntament amb altres tècniques conegudes com la prebúsqueda, permeten reduir les enormes latències d’accés a memòria principal, limitant així l'impacte negatiu ocasionat per la diferencia de rendiment existent entre els nuclis de còmput i la memòria. No obstant això, compartir els recursos esmentats és font de diversos problemes i reptes, sent un dels principals la gestió de la interferència entre aplicacions. Fer un us eficient de la jerarquia de memòria i les caches, així com comptar amb una xarxa d’interconnexió apropiada, es necessari per sostenir el creixement del rendiment en els dissenys tant actuals com futurs. Aquesta tesi analitza i estudia els principals problemes i inconvenients observats en aquests dos recursos: la memòria cache d’últim nivell i la xarxa dins del xip. En primer lloc, s'estudia l'escalabilitat de les xarxes tradicionals dins del xip amb topologia de malla, així com aquesta es pot veure compromesa en propers dissenys que compten amb major nombre de nuclis. Els resultats d'aquest estudi mostren que, a major nombre de nuclis, l'impacte negatiu de la distància entre nuclis en la latència pot afectar seriosament al rendiment del processador. Com a solució' a aquest problema, en aquesta tesi proposem una xarxa d’interconnexió' òptica modelada en un entorn de simulació detallat, que suposa una solució viable als problemes d'escalabilitat observats en els dissenys tradicionals. A continuació, aquesta tesi dedica un esforç important a identificar i proposar solucions als principals problemes de disseny de les jerarquies de memòria actuals com son, per exemple, el sobredimensionat de l'espai de memòria cache privat, l’existència de repliques de dades i la rigidesa i incapacitat d’adaptació' de les estructures de memòria cache. Encara que ben coneguts, aquests problemes i els seus efectes adversos en el rendiment poden ser evitats en processadors d'alt rendiment gracies a l'enorme capacitat de la memòria cache d’últim nivell que aquest tipus de processadors típicament implementen. No obstant això, en processadors de baix consum, no hi ha la possibilitat de comptar amb aquestes capacitats, i fer un us eficient de l'espai disponible es torna crític per mantenir el rendiment. Com a solució a aquests problemes en processadors de baix consum, proposem una nova organització de jerarquia de dos nivells de memòria cache que utilitza una xarxa d’interconnexió òptica. Els resultats obtinguts mostren que, comparat amb dissenys convencionals, el consum d'energia estàtica en l'arquitectura proposada és un 60% menor, malgrat que els resultats de rendiment presenten valors similars. Per últim, hem estes l'arquitectura proposada per donar suport tant a aplicacions paral·leles com seqüencials. Els resultats obtinguts amb aquesta nova arquitectura mostren un estalvi de fins al 78 % d'energia estàtica en l’execució d'aplicacions paral·leles.
[EN] Current multicores face the challenge of sharing resources among the different processor cores. Two main shared resources act as major performance bottlenecks in current designs: the off-chip main memory bandwidth and the last level cache. Additionally, as the core count grows, the network on-chip is also becoming a potential performance bottleneck, since traditional designs may find scalability issues in the near future. Memory hierarchies communicated through fast interconnects are implemented in almost every current design as they reduce the number of off-chip accesses and the overall latency, respectively. Main memory, caches, and interconnection resources, together with other widely-used techniques like prefetching, help alleviate the huge memory access latencies and limit the impact of the core-memory speed gap. However, sharing these resources brings several concerns, being one of the most challenging the management of the inter-application interference. Since almost every running application needs to access to main memory, all of them are exposed to interference from other co-runners in their way to the memory controller. For this reason, making an efficient use of the available cache space, together with achieving fast and scalable interconnects, is critical to sustain the performance in current and future designs. This dissertation analyzes and addresses the most important shortcomings of two major shared resources: the Last Level Cache (LLC) and the Network on Chip (NoC). First, we study the scalability of both electrical and optical NoCs for future multicoresand many-cores. To perform this study, we model optical interconnects in a cycle-accurate multicore simulation framework. A proper model is required; otherwise, important performance deviations may be observed otherwise in the evaluation results. The study reveals that, as the core count grows, the effect of distance on the end-to-end latency can negatively impact on the processor performance. In contrast, the study also shows that silicon nanophotonics are a viable solution to solve the mentioned latency problems. This dissertation is also motivated by important design concerns related to current memory hierarchies, like the oversizing of private cache space, data replication overheads, and lack of flexibility regarding sharing of cache structures. These issues, which can be overcome in high performance processors by virtue of huge LLCs, can compromise performance in low power processors. To address these issues we propose a more efficient cache hierarchy organization that leverages optical interconnects. The proposed architecture is conceived as an optically interconnected two-level cache hierarchy composed of multiple cache modules that can be dynamically turned on and off independently. Experimental results show that, compared to conventional designs, static energy consumption is improved by up to 60% while achieving similar performance results. Finally, we extend the proposal to support both sequential and parallel applications. This extension is required since the proposal adapts to the dynamic cache space needs of the running applications, and multithreaded applications's behaviors widely differ from those of single threaded programs. In addition, coherence management is also addressed, which is challenging since each cache module can be assigned to any core at a given time in the proposed approach. For parallel applications, the evaluation shows that the proposal achieves up to 78% static energy savings. In summary, this thesis tackles major challenges originated by the sharing of on-chip caches and communication resources in current multicores, and proposes new cache hierarchy organizations leveraging optical interconnects to address them. The proposed organizations reduce both static and dynamic energy consumption compared to conventional approaches while achieving similar performance; which results in better energy efficiency.
Puche Lara, J. (2021). Novel Cache Hierarchies with Photonic Interconnects for Chip Multiprocessors [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/165254
TESIS
APA, Harvard, Vancouver, ISO, and other styles
39

Alonso, Díaz Marina. "Una estrategia para la reducción del consumo de potencia en redes de interconexión." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/16186.

Full text
Abstract:
El alto nivel de potencia de cálculo requerida por algunas aplicaciones sólo puede ser alcanzado por sistemas multiprocesador. Estos sistemas consisten en varios procesadores que se comunican mediante una red de interconexión. El enorme aumento tanto en el tamaño como la complejidad de los sistemas multiprocesador ha disparado su consumo de energía. Las técnicas de reducción de consumo de potencia se están aplicando a todos los niveles en los computadores y la red de interconexión no puede ser una excepción. En este entorno, las redes de interconexión más ampliamente utilizadas están basadas en topologías regulares: directas, como los toros, e indirectas, como los fat-tree. En ambos casos el consumo de potencia de la circuitería de la red de interconexión contribuye significativamente al total del sistema. En esta tesis, proponemos una estrategia para reducir el consumo de potencia en las redes de interconexión, tanto directas como indirectas. Dicha estrategia se materializa en forma de un mecanismo que combina dos técnicas alternativas: (i) la conexión y desconexión dinámica de los enlaces de la red en función del tráfico (cualquier enlace puede ser desconectado, con tal de que la conectividad de red esté garantizada), (ii) el ajuste dinámico del ancho de banda de los enlaces en función del tráfico. En ambos casos, la topología de la red no se ve modificada. Por lo tanto, el mismo algoritmo de encaminamiento puede ser usado independientemente de las acciones de ahorro en el consumo llevadas a cabo, simplificando así el diseño del router. Nuestros resultados muestran que el consumo de potencia de la red se puede reducir muy significativamente, a costa de algún incremento en la latencia. Sin embargo, la reducción de potencia alcanzada es siempre mayor que la penalización en la latencia.
Alonso Díaz, M. (2012). Una estrategia para la reducción del consumo de potencia en redes de interconexión [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16186
Palancia
APA, Harvard, Vancouver, ISO, and other styles
40

Martí, Campoy Antonio. "Utilización de memorias cache con bloqueo en sistemas de tiempo real." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/55328.

Full text
Abstract:
Los procesadores actuales ofrecen una relación precio prestaciones muy interesante, además de otras cualidades como la garantía de funcionamiento o la gran disponibilidad de herramientas de desarrollo. Este conjunto de virtudes los hace muy atractivos para el desarrollo de cualquier sistema informático, incluidos los sistemas de tiempo real (STR). Sin embargo, los sistemas de tiempo real necesitan verificar no sólo la corrección de los cálculos y operaciones que realizan, sino que también es necesario garantizar que las tareas que debe realizar el sistema se llevarán a cabo dentro de los límites temporales establecidos. Y esta garantía debe obtenerse bajo cualquier circunstancia y condición. En la validación de la corrección temporal de un STR, tarea que recibe el nombre de Análisis de Planificabilidad, es donde surgen los problemas con los procesadores actuales. Dichos procesadores alcanzan altos niveles de prestaciones gracias a los avances en la tecnología, pero también gracias a la inclusión de mejoras en su estructura y arquitectura que permiten aprovechar los recursos disponibles de la mejor manera posible. Pero este buen uso de los recursos no se produce de forma constante, sino que dependerá de la estructura y los datos del programa que se ejecute. De este modo, las prestaciones ofrecidas por un procesador variarán para los diferentes programas que ejecute e incluso para el mismo programa en función de sus datos de entrada. Esta falta de determinismo en la respuesta temporal del procesador complica de manera importante la realización del análisis de planificabilidad. Un caso concreto de estas mejoras estructurales que presentan una seria falta de determinismo es la memoria cache. Su inclusión en la jerarquía de memoria de los computadores ha permitido alcanzar unas prestaciones muy elevadas, por lo que se han convertido en un elemento común en la mayoría de los sistemas informáticos. Sin embargo, la gran variabilidad que introduce en los tiempos
Martí Campoy, A. (2003). Utilización de memorias cache con bloqueo en sistemas de tiempo real [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55328
APA, Harvard, Vancouver, ISO, and other styles
41

Lino, Ramírez Carlos. "Diseño de una arquitectura para redes de sensores con soporte para aplicaciones de detección de eventos." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/15152.

Full text
Abstract:
Las aplicaciones para redes de sensores inalámbricas, o Wireless Sensor Networks (WSNs), han mostrado un crecimiento significativo en los últimos años. Actualmente constituyen una alternativa tecnológica interesante para el desarrollo de aplicaciones que requieren monitorizar constantemente el estado de cualquier variable relacionada con escenarios de diversos ámbitos. Si las aplicaciones detectan cambios en los valores de dichas variables, pueden activar la ejecución de acciones preventivas que ayuden a restaurar las condiciones normales del entorno monitorizado. Algunos ejemplos de aplicaciones que se pueden beneficiar de las WSNs son las aplicaciones para la detección de eventos, entre las que se incluye la detección de incendios forestales. Este tipo de aplicaciones ha recibido mucha atención recientemente, ya que cada año se presentan incendios forestales que arrasan con una gran cantidad de flora y fauna, provocando grandes pérdidas económicas y humanas. Otra área de gran interés es la utilización de redes de sensores en la detección de propagación de gases. Estas aplicaciones tienen la finalidad de evitar tragedias, sobre todo en el caso de la propagación de gases peligrosos. Por otra parte, las redes de sensores también han sido utilizadas en la detección y seguimiento de objetivos e intrusos. Con estas aplicaciones es posible vigilar áreas restringidas, ya sea por el servicio que proporcionan o por los objetos de valor que puedan contener. Para implementar eficientemente aplicaciones que utilicen redes de sensores inalámbricas en la detección de eventos de propagación de fuego y gas, así como para detectar y realizar el seguimiento de intrusos, es conveniente utilizar mecanismos que permitan detectar los eventos críticos de forma correcta e inmediata, de tal manera que se informe y actúe en tiempo real para llevar a cabo las acciones necesarias. En esta tesis doctoral se propone una arquitectura para redes de sensores que permita detectar en tiempo real la presencia de eventos que alteren el estado normal del entorno monitorizado, actuando a continuación convenientemente.
Lino Ramírez, C. (2012). Diseño de una arquitectura para redes de sensores con soporte para aplicaciones de detección de eventos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15152
Palancia
APA, Harvard, Vancouver, ISO, and other styles
42

Novo, Tiago Miguel Vigário. "Architecture for integration and exploration of eletronic health records." Master's thesis, Universidade de Aveiro, 2016. http://hdl.handle.net/10773/21189.

Full text
Abstract:
Mestrado em Engenharia de Computadores e Telemática
A sucessiva digitalização da informação de saúde dos cidadãos tem potenciado o desenvolvimento de aplicações que permitem estudar e extrair informação, facilitando a produção de conhecimento através de análise dos dados armazenados. A normalização de modelos de dados permite que as mesmas ferramentas possam ser usadas em diferentes bases de dados. O crescimento de comunidades que mantêm repositórios clínicos locais e isolados uns dos outros tem impedido que estudos epidemológicos, por exemplo, passar a ser realizados sobre um conjunto alargado de pessoas. Existe assim uma necessidade de transparentemente estudar múltiplas populações distribuidas globalmente. Esta dissertação propõe soluções para integrar distintos catálogos clínicos e ferramentas de software e permitir que possam ser utilizadas de forma distribuida.
The increase of patient-level data available on digital format led to the development of aplications that can study and extract information and produce knowledge by analysing stored data. As data standardization is achieved, tools and studies can be shared in different databases. The growth of communities that maintain clinical repositories local and isolated has prevented epidemiological studies, for example, from being carried out on a wide range of people. There is a need for transparently study multiple globally-distributed populations. This dissertation proposes solutions to integrate software tools on distinct health catalogues, allowing them to be used distributely.
APA, Harvard, Vancouver, ISO, and other styles
43

Alexandres, García María Guadalupe. "Propuesta de una arquitectura tolerante a fallos basada en agentes inteligentes para el control de un robot móvil." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/3442.

Full text
Abstract:
Este trabajo se centra en tolerar los fallos a nivel hardware y software en el sistema de control de un robot móvil, de tal manera que la supervisión, detección y recuperación de fallos se implementa independientemente al sistema de control y la plataforma en la que se desarrolla el robot. Esto se logra mediante el diseño de una arquitectura tolerante a fallos implementada con un Sistema Multiagente (MAS). Este sistema lo integran un grupo de agentes encargados de la detección y diagnóstico de fallos. La arquitectura tolerante a fallos está integrada por dos tipos de agentes principalmente los que se encargan de detectar y recuperar fallos a nivel de software (tareas) y los encargados de tolerar los fallos a nivel hardware (sensores, actuadores, memorias, controladores de red, microcontroladores, etc.). Estos agentes tolerantes a fallos ejecutan los mecanismos tolerantes a fallos de una manera muy simple haciendo acopio de una de sus características que es la intercomunicación y cooperación entre ellos, pudiendo así: detectar, aislar, reconfigurar y tratar de recuperar a un componente ante fallos (a nivel hardware y software) que se presenten durante el funcionamiento de robot. Para poder desarrollar eficientemente la arquitectura tolerante a fallos propuesta fue necesario modificar la arquitectura de control a nivel software denominada 3+ integrada en el robot, así cómo la arquitectura física (distribuida compuesta por nodos, donde a cada nodo se le conecta como máximo 2 dispositivos ya sea de entrada y/o salida, cada nodo cuenta con un microcontrolador, y sus tareas de control, navegación y planeación). El SMA que constituye la arquitectura tolerante fallos propuesta, fue diseñada utilizando la metodología MaSE (Multi-Agent Systems Software Engineering) [DeLoach 2001] ya que su contracción esta realizada bajo modelos matemáticos bien definidos. El uso esta metodología para modelar el SMA nos fue muy útil ya que sirvió de guía en el desa
Alexandres García, MG. (2007). Propuesta de una arquitectura tolerante a fallos basada en agentes inteligentes para el control de un robot móvil [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3442
Palancia
APA, Harvard, Vancouver, ISO, and other styles
44

Blanc, Clavero Sara. "Validación de la arquitectura TTA mediante inyección física de fallos a nivel de PIN." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/2344.

Full text
Abstract:
Los sistemas informáticos se encuentran presentes en muchos ámbitos, desde los relacionados con la industria hasta el hogar. Cada vez con más frecuencia, uno de los requisitos principales a la hora de diseñar sistemas informáticos es que presenten un alto grado de confiabilidad, especialmente aquellos considerados como críticos, ya que su mal funcionamiento puede poner el peligro la integridad de las personas o puede ocasionar grandes pérdidas económicas. Además, la confiabilidad también puede ser un factor importante en su expansión y competitividad en el mercado. La confiabilidad permite al usuario depositar una confianza justificada en el funcionamiento del producto y debe ser evaluada antes de su fase operacional mediante la verificación y validación del comportamiento del sistema según el servicio especificado tanto en condiciones normales como en presencia de fallos. Sin embargo la tasa de fallos en un sistema informático suele ser baja, siendo necesario recurrir a técnicas de validación experimental como la Inyección de Fallos que aceleran la validación mediante la introducción deliberada y controlada de fallos en el sistema. En general, el efecto de los fallos físicos en los semiconductores actuales, donde el incremento de la frecuencia de funcionamiento y la densidad de integración son notables, es más importante que el observado con tecnologías menos avanzadas. Ya no es justificable el asumir que un fallo simple sólo genera un error simple, siendo necesario validar el sistema ante errores múltiples causados no sólo por fallos localizados en memoria, sino también en la lógica combinacional o en soldaduras y metalizaciones, acrecentados estos últimos por la reducción de la distancia entre pistas. Existen diversas técnicas y herramientas de inyección de fallos, entre ellas, la Inyección física a nivel de pin. Una de sus principales ventajas es su aplicación externa, no generando sobrecarga adicional en el sistema o perturbando la ejecución normal de sus tar
Blanc Clavero, S. (2004). Validación de la arquitectura TTA mediante inyección física de fallos a nivel de PIN [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2344
Palancia
APA, Harvard, Vancouver, ISO, and other styles
45

Capela, Nelson Filipe. "Demonstrador de mobilidade em redes de acesso heterogéneas." Master's thesis, Universidade de Aveiro, 2010. http://hdl.handle.net/10773/5025.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
Devido a uma grande aceitação por parte dos consumidores, tem-se vindo a notar, ao longo dos últimos anos, um crescimento exponencial tanto da internet, como das tecnologias sem fios. Por sua vez, este tipo de crescimento implica o aparecimento de novas e diversas tecnologias de forma a suportar as necessidades crescentes de mobilidade de cada utilizador. Com a mobilidade surge a necessidade de se estar contactável e “ligado ao mundo” em qualquer sítio e a qualquer hora, tornando-se essencial garantir qualidade de serviço durante o movimento entre várias tecnologias e de forma transparente. Esta dissertação apresenta uma arquitectura desenvolvida para proporcionar a capacidade de movimentação dos utilizadores de forma transparente e optimizada. Para este tipo de movimentação é essencial a utilização de um protocolo de mobilidade que possa interagir com um protocolo de optimização de mobilidade. Não sendo esta interacção actualmente suportada, serão apresentadas e efectuadas modificações à implementação do protocolo de mobilidade MIPv6 para que se possa ter total controlo no processo de handover e para que este possa interagir com a implementação do protocolo IEEE 802.21, responsável pela optimização do processo de mobilidade. Seguidamente será definido um conjunto de métricas de desempenho de handover entre redes heterogéneas, procedendo paralelamente ao desenvolvimento de um módulo capaz de obter todas as métricas pretendidas, de forma a demonstrar a real necessidade de interacção entre os protocolos apresentados. Para que seja possível obter as métricas mencionadas será desenvolvida uma testbed capaz de suportar vários cenários de handovers entre as redes Wi-Fi (com WiMAX) e 3G, bem como diversos tipos de tráfego. Após a obtenção das métricas procede-se a uma análise descritiva dos dados obtidos, tanto a nível do desempenho do handover como a nível de QoS e QoE, para que se possa caracterizar todo o processo de handover.
Due to the wide acceptance by consumers, it has been noted, over the years, an exponential growing of the Internet and wireless technologies. In turn, this trend implies the appearance of new and different technologies in order to support the mobility needs of each user. With mobility, the need to be contactable and "on the world" anywhere and anytime has gained a significant importance. It is essential to ensure the quality of service when moving into existing technologies in a transparent manner. This dissertation presents an architecture developed to provide the ability of users mobility in a transparent and optimized form. For this type of movement it is essential to use a mobility protocol that can interact with a mobility optimization protocol. Since this interaction is not currently supported, it will be performed modifications to the implementation of the mobility protocol MIPv6 to have a full control in the process of handover, and to interact with the implementation of IEEE 802.21 protocol, responsible for the optimization of mobility process. Next, it will be defined a set of performance metrics of handover between heterogeneous networks, which will proceed in parallel with the module development to get all the metrics in order to demonstrate the real need for interaction between the presented protocols. To be able to obtain the desired metrics, it will be developed a testbed capable to support multiple handovers scenarios between Wi-Fi (with WiMAX) and 3G as well as various types of traffic. After obtaining the metrics, it will be performed a descriptive analysis of the results for handover performance, QoS and QoE, to characterize the whole handover.
APA, Harvard, Vancouver, ISO, and other styles
46

Candel, Margaix Francisco. "Efficient L2 Cache Management to Boost GPGPU Performance." Doctoral thesis, Universitat Politècnica de València, 2019. http://hdl.handle.net/10251/125477.

Full text
Abstract:
[ES] En los últimos años, la creciente necesidad de la capacidad de cómputo ha supuesto un reto que ha llevado a la industria a buscar arquitecturas alternativas a los procesadores superescalares con ejecución fuera de orden convencionales, con el objetivo de incrementar la potencia de cómputo con una mayor eficiencia energética. Las GPU, que hasta hace apenas una década se dedicaban exclusivamente a la aceleración de los gráficos en los computadores, han sido una de las arquitecturas alternativas más utilizadas durante varios años para alcanzar el mencionado objetivo. Una de las características particulares de las GPU es su gran ancho de banda para acceder a memoria principal, lo que les permite ejecutar un gran número de hilos de forma muy eficiente. Esta característica, así como su elevada potencia computacional ejecutando operaciones de coma flotante, ha originado la aparición del paradigma de computación denominado GPGPU computing, paradigma en el que las GPU realizan cómputo de propósito general. Las citadas características convierten a las GPU en dispositivos especialmente apropiados para la ejecución de aplicaciones masivamente paralelas que tradicionalmente se habían ejecutado en procesadores convencionales de altas prestaciones. El trabajo desarrollado en esta tesis persigue ayudar a mejorar las prestaciones de las GPU en la ejecución de aplicaciones GPGPU. Con este fin, como primer paso, se realiza un estudio de caracterización donde se identifican las características más importantes de estas aplicaciones desde el punto de vista de la jerarquía de memoria y su impacto en las prestaciones. Para ello, se utiliza un simulador detallado ciclo a ciclo donde se modela la arquitectura de una GPU reciente. El estudio revela que es necesario modelar de forma más detallada algunos componentes críticos de la jerarquía de memoria de las GPU para obtener resultados precisos. Los resultados obtenidos muestran que las prestaciones alcanzadas pueden variar hasta en un factor de 3× dependiendo de cómo se modelen estos componentes críticos. Por este motivo, como segundo paso antes de elaborar la propuesta de mejora, el trabajo se centra en determinar qué componentes de la jerarquía de memoria de la GPU necesitan modelarse con mayor detalle para mejorar la precisión de los resultados del simulador, y en mejorar los modelos existentes de estos componentes. Además, se realiza un estudio de validación que compara los resultados obtenidos con los modelos mejorados contra los de una GPU comercial real. Las mejoras implementadas reducen la desviación de los resultados del simulador sobre los resultados reales alrededor de un 96%. Finalmente, una vez mejorada la precisión del simulador, en esta tesis se presenta una propuesta innovadora, denominada FRC (siglas en inglés de Fetch and Replacement Cache), que mejora en gran medida la potencia computacional de la GPU, gracias a que aumenta el paralelismo en el acceso a memoria principal. La propuesta incrementa el número de accesos en paralelo a memoria principal mediante la aceleración de la gestión de las acciones de búsqueda y reemplazo relacionadas con los accesos que fallan en la cache. La propuesta FRC se basa en una pequeña estructura cache auxiliar que descongestiona el subsistema de memoria eficientemente, aumentando las prestaciones de la GPU hasta un 118% de media respecto al sistema base. Además, también reduce en 57% el consumo energético de la jerarquía de memoria.
[CAT] En els últims anys, la creixent necessitat de capacitat de còmput ha suposat un repte que ha portat a la indústria a buscar arquitectures alternatives als processadors superescalars amb execució fora d'ordre convencionals, amb l'objectiu d'incrementar la potència de còmput alhora que s'aconsegueix una major eficiència energètica. Les arquitectures GPU, les quals fins fa només una dècada es dedicaven exclusivament a l'acceleració dels gràfics en els computadors, han sigut una de les alternatives més utilitzades durant alguns anys per a aconseguir l'esmentat objectiu. Una de les característiques particulars de les GPU és el seu elevat ample de banda per a accedir a memòria principal, la qual cosa permet executar un gran nombre de fils de forma molt eficient. Aquesta característica, així com la seua elevada potència computacional executant operacions de coma flotant, ha originat l'aparició del paradigma de computació anomenat GPGPU computing, paradigma on les GPU realitzen còmput de propòsit general. Les citades característiques converteixen a les GPU en dispositius especialment apropiats per a l'execució d'aplicacions massivament paral·leles que tradicionalment s'havien executat en processadors convencionals d'altes prestacions. El treball desenvolupat en aquesta tesi persegueix ajudar a millorar les prestacions de les GPU en l'execució de les aplicacions GPGPU. A aquest efecte, com a primer pas, es realitza un estudi de caracterització on s'identifiquen les característiques més importants d'aquestes aplicacions des del punt de vista de la jerarquia de memòria i el seu impacte en les prestacions. Per a això s'utilitza un simulador detallat cicle a cicle on es modela l'arquitectura d'una GPU recent. L'estudi revela que és necessari modelar de forma més detallada alguns components crítics de la jerarquia de memòria de les GPU per a obtindre resultats precisos. Els resultats obtinguts mostren que les prestacions aconseguides poden variar fins i tot en un factor de 3× depenent de com es modelen aquests components crítics. Per aquest motiu, com a segon pas abans d'elaborar la proposta de millora, el treball se centra en determinar quins components de la jerarquia de memòria de la GPU necessiten modelar-se amb major detall per a millorar la precisió dels resultats del simulador i en millorar els models existents d'aquests components. A més, es realitza un estudi de validació que compara els resultats obtinguts amb els models millorats contra els d'una GPU comercial real. Les millores implementades redueixen la desviació dels resultats del simulador sobre els resultats reals al voltant d'un 96%. Finalment, una vegada millorada la precisió del simulador, en aquesta tesi es presenta una proposta innovadora, denominada FRC (sigles en anglés de Fetch and Replacement Cache), que millora en gran manera la potència computacional de la GPU, gràcies a que augmenta el paral·lelisme en l'accés a memòria principal. La proposta incrementa el nombre d'accessos en paral·lel a memòria principal mitjançant l'acceleració de la gestió de les accions de recerca i reemplaçament relacionades amb els accessos que fallen en la cache. La proposta FRC es basa en una xicoteta estructura cache auxiliar que descongestiona el subsistema de memòria eficientment, augmentant les prestacions de la GPU fins a un 118% de mitjana respecte al sistema base. A més, també redueix, al voltant d'un 57%, el consum energètic de la jerarquia de memòria.
[EN] In recent years, the growing need for computing capacity has become a challenge that has led the industry to look for alternative architectures to conventional out-of-order superscalar processors, with the goal of enabling an increase of computing power while achieving higher energy efficiency. GPU architectures, which just a decade ago were applied to accelerate computer graphics exclusively, have been one of the most employed alternatives for several years to reach the mentioned goal. A particular characteristic of GPUs is their high main memory bandwidth, which allows executing a large number of threads in a very efficient way. This feature, as well as their high computational power regarding floating-point operations, have caused the emergence of the GPGPU computing paradigm, where GPU architectures perform general purpose computations. The aforementioned characteristics make GPU devices very appropriate for the execution of massively parallel applications that have been traditionally executed in conventional high-performance processors. The work performed in this thesis aims to help improve the performance of GPUs in the execution of GPGPU applications. To this end, as a first step, a characterization study is carried out. In this study, the most important features of GPGPU applications, with respect to the memory hierarchy and its impact on performance, are identified. For this purpose, a detailed cycle-accurate simulator is used to model the architecture of a recent GPU. The study reveals that it is necessary to model with more detail some critical components of the GPU memory hierarchy in order to obtain accurate results. In addition, it shows that the achieved benefits can vary up to a factor of 3× depending on how these critical components are modeled. Due to this reason, as a second step before realizing a novel proposal, the work in this thesis focuses on determining which components of the GPU memory hierarchy must be modeled with more detail to increase the accuracy of simulator results and improving the existing simulator models of these components. Moreover, a validation study is performed comparing the results obtained with the improved GPU models against those from a real commercial GPU. The implemented simulator improvements reduce the deviation of the results obtained with the simulator from results obtained with the real GPU by about 96%. Finally, once simulation accuracy is increased, this thesis proposes a novel approach, called FRC (Fetch and Replacement Cache), which highly improves the GPU computational power by enhancing main memory-level parallelism. The proposal increases the number of parallel accesses to main memory by accelerating the management of fetch and replacement actions corresponding to those cache accesses that miss in the cache. The FRC approach is based on a small auxiliary cache structure that efficiently unclogs the memory subsystem, enhancing the GPU performance up to 118% on average compared to the studied baseline. In addition, the FRC approach reduces the energy consumption of the memory hierarchy by a 57%.
Candel Margaix, F. (2019). Efficient L2 Cache Management to Boost GPGPU Performance [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/125477
TESIS
APA, Harvard, Vancouver, ISO, and other styles
47

Cano, Reyes José. "Integrated Architecture for Configuration and Service Management in MANET Environments." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/14675.

Full text
Abstract:
Esta tesis nos ha permitido trasladar algunos conceptos teóricos de la computación ubicua a escenarios reales, identificando las necesidades específicas de diferentes tipos de aplicaciones. Con el fin de alcanzar este objetivo, proponemos dos prototipos que proporcionan servicios sensibles al contexto en diferentes entornos, tales como conferencias o salas de recuperación en hospitales. Estos prototipos experimentales explotan la tecnología Bluetooth para ofrecer información basada en las preferencias del usuario. En ambos casos, hemos llevado a cabo algunos experimentos con el fin de evaluar el comportamiento de los sistemas y su rendimento. También abordamos en esta tesis el problema de la autoconfiguración de redes MANET basadas en el estándar 802.11 a través de dos soluciones novedosas. La primera es una solución centralizada que se basa en la tecnología Bluetooth, mientras la segunda es una solución distribuida que no necesita recurrir a ninguna tecnología adicional, ya que se basa en el uso del parámetro SSID. Ambos métodos se han diseñado para permitir que usuarios no expertos puedan unirse a una red MANET de forma transparente, proporcionando una configuración automática, rápida, y fiable de los terminales. Los resultados experimentales en implementaciones reales nos han permitido evaluar el rendimiento de las soluciones propuestas y demostrar que las estaciones cercanas se pueden configurar en pocos segundos. Además, hemos comparado ambas soluciones entre sí para poner de manifiesto las diferentes ventajas y desventajas en cuanto a rendimento. La principal contribución de esta tesis es EasyMANET, una plataforma ampliable y configurable cuyo objetivo es automatizar lo máximo posible las tareas que afectan a la configuración y puesta en marcha de redes MANET, de modo que su uso sea más simple y accesible.
Cano Reyes, J. (2012). Integrated Architecture for Configuration and Service Management in MANET Environments [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14675
Palancia
APA, Harvard, Vancouver, ISO, and other styles
48

Puente, Varona Valentín. "Impacto del subsistema de comunicación en el rendimiento de los computadores paralelos: desde el hardware hasta las aplicaciones." Doctoral thesis, Universidad de Cantabria, 2000. http://hdl.handle.net/10803/10635.

Full text
Abstract:
A pesar del explosivo crecimiento de la capacidad computacional de los ordenadores convencionales, alimentada fundamentalmente por la rápida evolución experimentada por los procesadores, existen multitud de problemas de notable importancia que aún no pueden ser abordados de forma satisfactoria. La solución más factible para abordar este tipo de problemas se basa en la utilización de computadores paralelos. Esta tesis se centra en el estudio de la red de interconexión de los computadores paralelos, aportando soluciones eficaces para mejorar su rendimiento. Se proponen mejoras de los elementos críticos de la red: los encaminadores y la propia topología. Las nuevas propuestas derivadas del trabajo son:· Un eficaz mecanismo de encaminamiento con un menor coste. Esta idea fue empleada por IBM en el supercomputador IBM BlueGene/L.· Se ha mejorado la gestión interna de los encaminadores con un coste acotado.· Se presentan arquitecturas de almacenamiento para los encaminadores con una relación coste-rendimiento favorable.· Se propone una nueva disposición de la red de interconexión que permite mejorar sus propiedades topológicas de forma notable frente a las empleadas usualmente.
APA, Harvard, Vancouver, ISO, and other styles
49

Ferrándiz, Colmeiro Antonio. "Modelo de gestión del proceso de fabricación basado en la incorporación de conocimiento mediante ontologías. Aplicación a los sistemas de fabricación ágil." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/41475.

Full text
Abstract:
En la presente tesis se realiza un trabajo de investigación en el ámbito de la gestión de procesos aplicado a las organizaciones manufactureras. Concretamente se ha centrado en la integración y automatización de la gestión de los procesos de negocio y fabricación de forma que las organizaciones manufactureras puedan acortar el ciclo de vida de los procesos, recortando su tiempo de respuesta ante las nuevas demandas de un mercado cada vez más orientado a la personalización masiva, y por lo tanto les sitúe en una posición ventajosa en un mercado de competencia global. El objetivo principal de la presente tesis es lograr un sistema de gestión ágil de procesos de negocio, que reduzca al mínimo la interacción humana en el ciclo de vida de los procesos, haciendo transparente el nivel de planta, y automatizando la composición y posterior despliegue de los procesos de fabricación y negocio. Para llevar a cabo el objetivo se ha realizado un estudio de los antecedentes y de los trabajos relacionados con los ámbitos en los que se ubica el problema. Este estudio ha permitido justificar el problema, plantear la hipótesis y proponer una solución novedosa con respecto a los enfoques existentes en la línea de investigación. La solución propuesta se basa en el concepto IMaaS (Industrial Machine as a Service) en el que la maquinaria industrial es ofertada como servicio y sus capacidades productivas son conceptualizadas como procesos de negocio. IMaaS permite superar las brechas conceptuales y tecnológicas que hacían muy difícil la integración de los niveles de planta y de negocio, permitiendo abordar de manera directa las nuevas necesidades de los sistemas de gestión ágil de procesos. Como medio para lograr los objetivos planteados se realiza una exhaustiva conceptualización de los dominios implicados, identificando los conceptos relevantes e identificando las relaciones entre ellos. Toda esta información se formaliza mediante una ontología que permite incorporar conocimiento semántico a IMaaS, a partir de la cual se puede inferir nuevo conocimiento realizando una serie de razonamientos lógicos basados en cláusulas de Horn. Se identifican los elementos necesarios para lograr un sistema de gestión ágil de procesos de fabricación y negocio, y se define la arquitectura del sistema. Para validar nuestra investigación, se ha implementado la solución propuesta; se ha diseñado un entorno realista donde se pudiera reproducir la problemática planteada en la investigación y finalmente se han diseñado un conjunto de experimentos basados en la hipótesis de partida que han permitido demostrar la validez de la propuesta.
APA, Harvard, Vancouver, ISO, and other styles
50

Chielle, Eduardo. "Selective Software-Implemented Hardware Fault Tolerance Techniques to Detect Soft Errors in Processors with Reduced Overhead." Doctoral thesis, Universidad de Alicante, 2016. http://hdl.handle.net/10045/62467.

Full text
Abstract:
Software-based fault tolerance techniques are a low-cost way to protect processors against soft errors. However, they introduce significant overheads to the execution time and code size, which consequently increases the energy consumption. System operating with time or energy restrictions may not be able to use these techniques. For this reason, this work proposes new software-based fault tolerance techniques with lower overheads and similar fault coverage to state-of-the-art software techniques. Thus, they can meet the system constraints. In addition, the shorter execution time reduces the exposure time to radiation. Consequently, the reliability is higher for the same fault coverage. Techniques can work with error correction or error detection. Once detection is less costly than correction, this work focuses on software-based detection techniques. Firstly, a set of data-flow techniques called VAR is proposed. The techniques are based on general building rules to allow an exhaustive assessment, in terms of reliability and overheads, of different technique variations. The rules define how the technique duplicates the code and insert checkers. Each technique uses a different set of rules. Then, a control-flow technique called SETA (Software-only Error-detection Technique using Assertions) is introduced. Comparing SETA with a state-of-the-art technique, SETA is 11.0% faster and occupies 10.3% fewer memory positions. The most promising data-flow techniques are combined with the control-flow technique in order to protect both dataflow and control-flow of the target application. To go even further with the reduction of the overheads, methods to selective apply the proposed software techniques have been developed. For the data-flow techniques, instead of protecting all registers, only a set of selected registers is protected. The set is selected based on a metric that analyzes the code and rank the registers by their criticality. For the control-flow technique, two approaches are taken: (1) removing checkers from basic blocks: all the basic blocks are protected by SETA, but only selected basic blocks have checkers inserted, and (2) selectively protecting basic blocks: only a set of basic blocks is protected. The techniques and their selective versions are evaluated in terms of execution time, code size, fault coverage, and Mean Work To Failure (MWTF), which is a metric to measure the trade-off between fault coverage and execution time. Results show that was possible to reduce the overheads without affecting the fault coverage, and for a small reduction in the fault coverage it was possible to significantly reduce the overheads. Lastly, since the evaluation of all the possible combinations for selective hardening of every application takes too much time, this work uses a method to extrapolate the results obtained by simulation in order to find the parameters for the selective combination of data and control-flow techniques that are probably the best candidates to improve the trade-off between reliability and overheads.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography