To see the other types of publications on this topic, follow the link: Arquitectura computacional.

Dissertations / Theses on the topic 'Arquitectura computacional'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 39 dissertations / theses for your research on the topic 'Arquitectura computacional.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cifuentes, Quin Camilo Andrés. "Narrativas cibernéticas y arquitectura computacional." Doctoral thesis, Universitat Politècnica de Catalunya, 2014. http://hdl.handle.net/10803/283578.

Full text
Abstract:
This dissertation aims to contribute to the understanding of the role accorded to information technology in architecture. For this purpose the dissertation presents a look at some of the dominant models developed in the field of digital architecture, from the perspective of the relationship between the introduction of IT tools in the profession and the construction of its disciplinary problems in reference to a series ideas prometed by the information discourses. The proposed analysis is a study of the influence of cybernetic thinking in contemporary practices of digital architecture. Thus it aims to show how some of the most influential models in this field have been built around the informational paradigm inaugurated by Norbert Wiener and colleagues. The study is based on a mode of analysis from which the production of digital architecture is considered as what Bruno Latour calls a "work of mediation." That is, as a complex process resulting from the feedback between different factors including the traditional disciplinary problems of architecture, its technological aspects and a number of different references to scientific models close to the cybernetic paradigm . From this perspective is proposed a look at three key models of digital architecture that are closely linked with cybernetic thinking. These include the characterizations of design problems as systems, as genetic mechanisms, and as complex, self-organized, emergent phenomena, which, in direct reference to the ideas promoted in areas such as systems theory, the informational visions biology and complexity science, have defined elaborations of architecture and design problems that challenge the traditional representations and techniques of the profession. Starting from a look at the cybernetic origins of the discourses of performance in architecture, the proposed analysis aims to show, on the first hand, how the systemic, genetic and complex characterizations of digital architecture have been developed by defining design problems in reference to a series of concepts emanating from the information discourses, and, on the other hand, how these relate to the use of computation in design. In each of the case studies it is expected to answer to two specific questions. First, what are the central ideas promoted by the reference models and its relation with cybernetic thinking. Second, what visions of architecture have been built around these ideas and how these visions are articulated with the design methodologies developed. Therefore, the dissertation is an inquiry into how the narratives promoted by cybernetics have played a crucial role in the constructions of digital architecture; and conversely, how computational methods of design appear, not as a determining factor in the production of architecture , but as a means of exploring in architecture the informational world view that has shaped digital culture. This view challenges the deterministic visions of information technology in architecture, on behalf of a vision where the use of information technologies appear as medium for the construction of disciplinary problems within the informational episteme. By situating cybernetic thinking as one of the conditions that have structured the intellectual work of architects in the digital era, this dissertation is a contribution to building a critical regard at the digital production of architecture, it is a critical issue for both the present and the future of the profession.
Esta disertación pretende contribuir a la comprensión del rol acordado a las tecnologías de la información en la arquitectura. Con este propósito se presenta una mirada a algunos de los modelos dominantes desarrollados en el campo de la arquitectura computacional, desde la perspectiva de la relación entre la introducción de las herramientas informáticas en la profesión y la construcción de sus problemas disciplinares en referencia a una serie de ideas promovidas por los discursos de la información. El análisis planteado constituye un estudio de la influencia del pensamiento cibernético en las prácticas contemporáneas de arquitectura digital. De este modo se aspira a mostrar cómo algunos de los modelos más influyentes en este campo se han construido alrededor del paradigma informacional inaugurado por Norbert Wiener y sus colegas. Lo anterior en base a un modo de análisis desde el cual las producciones de la arquitectura digital son consideradas como lo que Bruno Latour llama un "trabajo de mediación". Es decir, como procesos resultantes de la compleja retroalimentación entre diferentes factores que incluyen los problemas disciplinares tradicionales de la arquitectura, sus aspectos tecnológicos y una serie de referencias cruzadas a diferentes modelos de pensamiento herederos del paradigma cibernético. Desde esta perspectiva se plantea una mirada a tres modelos dominantes de la arquitectura computacional que mantienen un estrecho vínculo con el pensamiento cibernético. Se trata de las exploraciones basadas en caracterizaciones de los problemas de diseño como sistemas, como mecanismos genéticos y como fenómenos complejos, auto-organizados y emergentes, que, en referencia a las ideas expuestas en campos como la teoría de sistemas, las visiones informacionales de la biología y la ciencia de la complejidad, han definido elaboraciones de los objetos arquitectónicos y de los procesos de diseño que desafían las representaciones y técnicas tradicionales de la profesión. Partiendo de una mirada al origen cibernético de los discursos del performance en la arquitectura, el análisis planteado pretende mostrar, en primer lugar, cómo las caracterizaciones sistémicas, genéticas y complejas de la arquitectura digital se han elaborado mediante la definición de los problemas de diseño en referencia a una serie de conceptos que emanan de los discursos de la información, y, en segunda instancia, cómo estas elaboraciones se relacionan con el empleo de la computación en el diseño. En cada uno de los casos analizados se trata de responder a dos cuestiones concretas. La primera, cuáles son las ideas centrales promovidas los modelos de referencia y cuál es su relación con el pensamiento cibernético. La segunda, qué visiones de la arquitectura se han construido alrededor de éstas ideas y cómo se articulan estas visiones con las metodologías de diseño desarrolladas. Por consiguiente, la disertación es una indagación sobre cómo las narrativas puestas en circulación por la cibernética han jugado un papel crucial en las elaboraciones de la arquitectura computacional; e inversamente, sobre cómo los métodos computacionales de proyectación aparecen, no como un factor determinante en los procesos de producción de la arquitectura, sino como un medio de exploración en la arquitectura de la visión informacional del mundo propia de la cultura informática. Esta mirada cuestiona las visiones deterministas de las tecnologías de la información en la arquitectura, a favor de una visión donde estas aparecen como un medio para la construcción de los problemas disciplinares dentro de episteme informacional. AJ situar el pensamiento cibernético como una de las condiciones que han estructurado el trabajo intelectual de los arquitectos en la era digital, esta disertación constituye un aporte para la construcción de una mirada crítica de la producción computacional de la arquitectura, cuestión de capital importancia tanto para el presente como para el futuro de la profesión
APA, Harvard, Vancouver, ISO, and other styles
2

Marques, Isabel Clara Neves da Rocha. "Abordagem cientìfica ao projecto numa perspectiva computacional na arquitectura." Doctoral thesis, Universidade de Lisboa. Faculdade de Arquitetura, 2015. http://hdl.handle.net/10400.5/11736.

Full text
Abstract:
Tese de Doutoramento em Arquitetura, com a especialização em Teoria e História da Arquitetura, apresentada na Faculdade de Arquitetura da Universidade de Lisboa, para obtenção do grau de Doutor.
Esta dissertação desenvolve uma análise sobre parte do contexto cultural e tecnológico que contribuiu para o surgimento do pensamento e prática computacional na arquitectura, focando mais especificamente a aproximação do campo científico pela pedagogia do ensino e prática de arquitectura e design entre 1950 e 1970, com base no projecto pedagógico da Hochschule für Gestaltung em Ulm, na Alemanha, (considerado por Kenneth Frampton a Escola mais importante do século XX depois da Bauhaus), local onde convergiram um conjunto de docentes, ideias e trabalhos notáveis deste período. Esta análise, estruturada sequencialmente, considera que a actual utilização de processos de Design computacional em arquitectura compreende conceitos ligados à ciência da computação já iniciados sobretudo na década de 60. Recuando até essa época, tais explorações pioneiras foram marcadas pelo interesse em princípios metodológicos científicos que, com o auxílio dos computadores, foram desenvolvidos em Centros de Investigação, localizados principalmente nos EUA e Reino Unido. Não obstante, esta motivação esteve também presente, uma década antes, na HfG-Ulm, sem o auxílio dos computadores, fundada em 1953 pelo arquitecto suíço Max Bill, encontrando-se pouco estudada. A dissertação pretende assim questionar e demonstrar a relevância da HfG-Ulm no contexto da análise de métodos científicos associados ao projecto, ainda sem a utilização de computadores, argumentando que nesta Escola, através das ideias desenvolvidas por três professores - Tomás Maldonado (Projecto Educativo), Max Bense (Estética da Informação) e Horst Rittel (Metodologia Científica) – criaram-se fundamentos que estão na base das posteriores abordagens computacionais na arquitectura, as quais mais tarde vieram a utilizar a computação não como uma ferramenta de desenho geométrico, mas sim como uma ferramenta de desenho computacional. Algumas destas matérias viriam a ser investigadas e ampliadas anos depois em centros de investigação académicos de departamentos de Arquitectura e Design. O argumento da investigação encontra-se estruturado em três partes: “Pré HfG-Ulm”: a reconstrução do contexto sócio-cultural e filosófico que antecedeu, sustentou e determinou a base teórica da Hochschule für Gestaltung de Ulm; “HfG-Ulm”: a própria génese da Escola; “Post HfG-Ulm”: a sua evolução ideológica, que perante o encerramento inesperado da Escola conduziu à consagração de um projecto incompleto que questionou ideias, a maioria das quais só mais tarde perspectivadas e desenvolvidas. A dissertação contribui para mapear e integrar a HfG-Ulm num contexto mais lato composto por outras Instituições e sistemas de pensamento em emergência, analisando a influência das disciplinas então emergentes da teoria da informação, da Investigação Operacional, e das metodologias científicas no pensamento arquitectónico e na concepção do projecto de arquitectura nas décadas de 50 a 70, revelando contextos culturais, históricos e tecnológicos pouco estudados, que influenciaram o desenvolvimento de uma prática computacional na arquitectura. Para dar resposta às questões levantadas durante a investigação, procedeu-se à análise do material da biblioteca da Escola, encerrada em 1968, que se encontra armazenado no Arquivo e Museu da Hochschule für Gestaltung, sendo que a recolha de material original proveniente desse Arquivo, bem como a realização de entrevistas com teóricos investigadores que leccionaram na HfG-Ulm. A análise de fontes primárias e directas constituem assim dois eixos metodológicos fulcrais do presente trabalho.
ABSTRACT: This thesis presents an analysis of the cultural and technological context which led to the emergence of computational thinking and practice in architecture, focussing specifically on how architecture teaching and Design approached science in the period 1950-1970, based on the educational programme at the Hochschule für Gestaltung in Ulm, Germany (considered by Kenneth Frampton to be the most important School in the 20th. century after the Bauhaus), a place where a remarkable set of teachers, ideas and work converged. The analysis, which is structured sequentially, considers that the actual use of computational Design processes in architecture includes concepts associated with computer science which were mainly launched in the 1960s. However, this interest was present, without the use of computers, a decade earlier at HfGUlm, having been introduced in 1953 by the Swiss architect Max Bill, and has been studied very little. Looking back to this period, it can be seen that this pioneering work was defined by an interest in scientific methodological principles later developed, with the aid of computers, in research centres located principally in the USA and the United Kingdom. The thesis therefore aims to demonstrate the relevance of HfG-Ulm by analyzing the scientific methods associated with the project, which did not involve the use of computers, arguing that through the ideas developed by some of the teaching staff - Tomás Maldonado (Education Project), Max Bense (Information Aesthetics) and Horst Rittel (Scientific Methodology) – the School laid the foundations for subsequent computational approaches in architecture which used computation not as a geometric but a computerized Design tool. Some of the material would be investigated and developed years later in research centres associated with higher education Architecture and Design departments. The argument of the research is structured into three sections: “Pre HfG-Ulm”: the reconstruction of the socio-cultural and philosophical context which preceded, supported and determined the theoretical base of the Hochschule für Gestaltung de Ulm; “HfG-Ulm”: the origins of the School; “Post HfG-Ulm”: its ideological evolution which, following the unexpected closure of the School, left an unfinished project which questioned certain ideas, the majority of which were only put into perspective and developed later. The thesis contributes towards mapping out and including HfG-Ulm within a broader context composed of other emerging institutions and systems of thought, analyzing the influence of the new disciplines of information theory, operational research and scientific methodologies in architectural thought and the concept of the architectural project from the 50s to the 70s. It examines cultural, historical and technological contexts that have been studied very little, yet were influential in the development of computational practice in architecture. The analysis is based on material from the School’s library, which closed in 1968, stored in the Hochschule für Gestaltung Archives and Museum. The original material gathered from the Archives, together with interviews with leading figures from the School, constitute the two main strands of the research, which is, to a large extent, based on the analysis of direct primary sources.
APA, Harvard, Vancouver, ISO, and other styles
3

Rocha, Benvindo da Cruz. "Implementação de um sistema de inventariação com arquitectura distribuída e visão computacional." Master's thesis, Universidade de Évora, 2013. http://hdl.handle.net/10174/9056.

Full text
Abstract:
Sumário O presente trabalho consiste no desenvolvimento de um sistema de inventário baseado em visão computacional e arquitectura distribuída. Foi desenhado para dispositivos móveis Android para que pudesse efectuar contagem física dos artigos em Stock de forma eficiente, sem a necessidade do registo das quantidades em folhas de papel. Para o desenvolvimento do aplicativo utilizou-se a linguagem de programação Java, linguagem nativa para sistemas Android e com persistência dos dados em SQLite. A sincronização com o sistema de gestão é feita por via de um serviço middleware WCF criado exclusivamente para o projecto usando a linguagem C#. Utiliza protocolos comunicação HTTP ou TCP e o formato de dados JSON. Integrou-se a biblioteca ZXing para efectuar a leitura de código de barras estampados nos artigos. Permite o utilizador a leitura do código de barras com câmara fotográfica do dispositivo e após o reconhecimento retorna informação detalhada do artigo, bem como introduzir as quantidades da contagem física. Após o desenvolvimento foi preparado um cenário para testes usando o software de gestão Primavera. Assim, efectuou-se uma análise comparativa com os métodos tradicionais e os resultados demonstraram o quanto é o ganho em tempo e dinheiro com a utilização num ambiente organizacional. No processo de contagem física o leitor reconheceu em mais de 90% dos casos em que foi submetido demonstrando a viabilidade do sistema. Palavras-chave Inventariação; Leitura Código Barra; Visão Computorizada, Computação Móvel ;Abstract This work is to develop an inventory system based on computer vision and distributed architecture. It was designed for Android mobile devices that could efficiently perform the physical count of items in Stock, without the need to record the quantities on the paper sheets. The Java programming language was used to develop the application, being the native language for Android systems and SQLite was chosen for data persistence. The synchronization with the management system is done via a WCF middleware service created exclusively for the project using the C# language. The system uses HTTP or TCP communication protocols and JSON as the data exchange format. ZXing library was included for bar code reading, from each article. Allows the user to read the bar code with the device camera and after recognition returns detailed information about the article, as well as introducing the quantities of physical count. Afterwards, a testing scenario was prepared with the management software Primavera. So, was carried out a comparative analysis with traditional methods and the results showed how much is the gain in time and money using an organizational environment. In the process of physically counting, this system reader correctly recognized over 90% of the cases, demonstrating this system viability. Keywords Inventory, Bar Code Reading, Computer Vision, Mobile Computing
APA, Harvard, Vancouver, ISO, and other styles
4

Leal, Ana Luísa Varani. "AuTema-Dis: uma arquitectura computacional para identificação da temática discursiva em textos em Língua Portuguesa." Doctoral thesis, Universidade de Évora, 2008. http://hdl.handle.net/10174/22399.

Full text
Abstract:
Os trabalhos desenvolvidos em Linguística Computacional direcionados à análise textual procuram explicar o comportamento e as relações de alguns fenômenos e mecanismos linguísticos, devidamente marcados na estrutura textual. Tais estudos revelam-se, na sua maioria, relacionados às questões de ordem morfológica, sintática e, conforme observamos, raras investigações avançam em direção à semântica. Em grande parte das investigações realizadas na área, o texto é o concreto objeto de estudo, a partir do qual os processos relacionados a sua constituição são explicados. A coerência textual emerge das relações retóricas que se produzem ao longo da configuração textual, ela é representativa da estrutura discursiva e, assim sendo, deve ser analisada e compreendida em termos globais. Para tal, é necessário considerarmos todos os níveis textuais relacionados e envolvidos no processo de significação. Neste sentido, desenvolvemos uma proposta metodológica para análise da temática discursiva. A proposta foi avaliada, nomeadamente, os processos localizados e a suas relações na constituição do tema, visando a produção automática de uma macro­ proposição/macroestrutura, tendo-se obtido resultados considerados satisfatórios. ___ ABSTRACT: ln Computational Linguistics, the works on textual analysis try mainly to explain behaviors and relations of linguistics components, properly identified in the textual structure. Such research is specially related to the morphological and syntactic structures. Few works are focused on the semantic analysis, where the text is the concrete object of study. From the textual analysis, the processes related to their constitution are exploited and justified. The textual coherence, which emerges from the rhetoric relations that occur in the textual configuration, is the representative element of the discourse structure. Therefore, it must be analyzed and understood in global terms. For this, it is necessary to consider all textual levels related on the process of signification. ln order to exploit the textual coherence, we propose and develop a methodology for analysis of the thematic discursive. The proposal was evaluated to identify the localized processes and their relations in the constitution of the subject, aiming to produce an automatic macro-proposition and macro-structure. The results are promising, in terms of precision and recall.
APA, Harvard, Vancouver, ISO, and other styles
5

Ahumada, Ahumada Francisco Javier. "Documentación de arquitecturas de sistemas en un banco." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113666.

Full text
Abstract:
Magíster en Tecnologías de la Información
Un banco posee cientos de sistemas para apoyar a la mayoría de las funciones del negocio y procesar millones de solicitudes de sus clientes internos y externos. Una falla en estos sistemas puede causar, desde un retraso en la entrega de informes de gestión, hasta pérdidas millonarias e incluso la cancelación de la licencia para poder operar. La falta de documentación apropiada puede ser la causa de errores en el diseño de una modificación de la infraestructura existente. Cuando se produce una falla, el no tener la documentación adecuada puede aumentar los tiempos de respuesta de los equipos de soporte. En general, el contar con la documentación de la arquitectura de los sistemas permite a los equipos de trabajo tener una visión general y un punto de partida para tomar decisiones ante contingencias que puedan involucrarlos. Cuando se habla de documentación formal de la arquitectura de software, existen varios modelos que se basan en la presentación de vistas que describen cómo se estructura. Algunos tienen un número fijo de vistas, y otros permiten acotar este número de acuerdo a un análisis de las necesidades existentes. En este trabajo, se propone una metodología para aplicar y verificar la utilidad de uno de los modelos de documentación existentes: el modelo de vistas del Software Engineering Institute (SEI), que busca identificar y documentar las vistas de arquitectura de software más adecuadas, de acuerdo a los requerimientos de calidad de los stakeholders de un sistema en estudio. Para realizar lo anterior, se seleccionó un sistema utilizado en un Banco, se entrevistó a sus stakeholders para conocer cuáles son sus intereses y con ello se generaron las vistas de arquitectura que propone el modelo. Finalmente, se presentan 3 casos donde se valida que la documentación de las vistas de arquitectura generadas en base al modelo mejoran la toma de decisiones de sus stakeholders, comparándola con el uso de la documentación existente antes de realizar este trabajo. Este trabajo entrega una metodología práctica para aplicar el modelo de vistas del SEI, aprovechando principalmente la relación existente entre sus guías de estilos y los atributos de calidad que apoyan, orientando la documentación de la arquitectura de sistemas a las necesidades específicas de sus stakeholders. Para la comunidad académica y profesional sirve como caso de estudio de aplicación del modelo y, para el Banco involucrado, como el punto de partida para incorporarla en su ciclo de desarrollo de proyectos tecnológicos.
APA, Harvard, Vancouver, ISO, and other styles
6

Díaz, Cortés Eduardo Alberto. "Implantación de procesos y herramientas basadas en DevOps para una empresa de servicios de información." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/169243.

Full text
Abstract:
Memoria para optar al título de Ingeniero Civil en Computación
Previred S.A. es una empresa que presta servicios a la industria de la seguridad social nacional desde el año 2000. Una división de negocios, denominada Apoyo al Giro, implementa y presta servicios de información a diversas entidades de la industria previsional. Esta división de negocios cuenta con un equipo propio de desarrollo de software que construye cerca del 80% de los sistemas de información que sirven de apoyo a los servicios de negocio. Estos servicios son cada vez más demandados y gran parte de ellos son considerados críticos por sus clientes, lo que compromete a la organización a cumplir altos niveles de servicio, y se debe garantizar la continuidad operativa de los mismos. El proceso de implantación de nuevas versiones de los sistemas existentes se realiza mediante procesos manuales, con una tasa de fallos considerada insatisfactoria por los clientes internos y externos. Por otro lado, hay una tasa de fallos críticos que se espera disminuir. Un fallo crítico corresponde a una indisponibilidad del servicio productivo por varias horas o días. Una parte de estos fallos se debe a errores en el proceso de implantación en producción, por mala ejecución de las instrucciones, falta de prolijidad en la instalación, o en la elaboración de los documentos que describen los pasos a producción. El objetivo general de este trabajo es implementar un proceso de integración y entrega continua automatizado incorporando procesos y herramientas de DevOps dentro de la organización, para un servicio productivo de Previred, con el fin de reducir la tasa de fallos críticos debidos al proceso actual. Para lograr el objetivo se revisa el actual proceso de desarrollo de Previred, luego se realiza un estudio de los principales problemas y dolores que experimenta la organización con este proceso, mediante entrevistas a personas claves de la organización. Con los antecedentes recogidos se propone una modificación al proceso de desarrollo, junto con una plataforma tecnológica que apoya los cambios al proceso. Para poder plasmar esta plataforma se propone una arquitectura, y para construirla se analizan las herramientas disponibles y se seleccionan las adecuadas para la cultura y realidad de Previred. Para validar la arquitectura realizó una prueba de concepto que permite determinar la factibilidad de la plataforma propuesta. Además, se realiza una evaluación cualitativa de la solución a través de una encuesta realizada a un grupo de personas claves en la organización.
APA, Harvard, Vancouver, ISO, and other styles
7

Borja, Luis Felipe. "Arquitectura de visión y aprendizaje para el reconocimiento de actividades de grupos usando descriptores de movimiento." Doctoral thesis, Universidad de Alicante, 2020. http://hdl.handle.net/10045/111289.

Full text
Abstract:
Según los últimos censos, nuestro planeta tiene cerca de 7.000 millones de habitantes principalmente concentrados en zonas urbanas. Consecuencia de esto las multitudes de personas se congregan en estos sitios, complicando la tarea de supervisión y vigilancia para mantener la seguridad pública en calles, plazas, avenidas y demás. Esto motiva el estudio y mejora de métodos de análisis automático del comportamiento humano. A esta área de investigación se le denomina Análisis del Comportamiento Humano, o Reconocimiento de Actividades Humanas. Gran parte de los trabajos dedicados a este problema se basan en técnicas de visión por computador junto con algoritmos de Machine Learning y, más recientemente, en Deep Learning. En este proyecto de tesis, se ha hecho inicialmente una revisión del estado del arte respecto al tema del análisis y reconocimiento de actividades y comportamientos humanos. En este estudio se han analizado los principales trabajos de machine learning tradicional y deep learning para el tema de la tesis, así como los principales datasets. Se ha visto que no existe un estándar o arquitectura que proponga solución genérica. Por otro lado, la mayoría de trabajos se centran en un determinado rango de individuos, habiendo propuestas para personas individuales, para pequeños grupos, grandes grupos o multitudes. Además, no existe un consenso en la nomenclatura respecto a los grados de complejidad, niveles de comportamiento o, como aquí se denomina, nivel de semántica de las acciones que se realizan. Tras este estudio, se ha propuesto una taxonomía bidimensional que permite clasificar las propuestas en el espacio "número de personas/nivel de semántica", siendo más descriptivo respecto al actual estado del arte y permitiendo ver donde se concentran mayormente los trabajos y cuales los retos aun no resueltos. Tras el estudio del estado del arte, en este trabajo se ha propuesto una arquitectura de visión y aprendizaje para reconocer actividades de grupos usando descriptores de movimiento. Se compone de dos bloques principales, el descriptor de movimiento y el clasificador de actividad. Las arquitecturas de red profunda que se estudian actualmente tienen la bondad de, dados unos datos en crudo (imágenes, secuencias, etc.) tratarlos internamente de forma que devuelvan un resultado, sin necesidad de pre-procesarlos primero. Sin embargo, esto los hace dependientes de los datos de entrenamiento y necesitan grandes datasets para que el entrenamiento sea suficiente. El hecho de introducir un descriptor hace que el espacio de búsqueda se reduzca, y por lo tanto se pueda entrenar con menor número de datos, y además, se pueda independizar la escena (número de individuos, localización de la actividad en el espacio, etc.) del comportamiento en sí. Para el descriptor de la arquitectura se propone en esta tesis como una variante del descriptor Activity Descriptor Vector (ADV), que se denomina D-ADV, y que obtiene dos imágenes del movimiento local acumulado, una UDF (de los movimientos arriba, Up, abajo, Down, y Frecuencia) y otra LRF (de los movimientos Left, izquierda, Right, derecha y Frecuencia). Por otro lado, como instancias de la arquitectura haciendo uso del D-ADV, se proponen el D-ADV-MultiClass para clasificación de múltiples clases. Esta propuesta se basa en utilizar los dos streams UDF y LRF, junto con una red profunda y transfer learning, para reconocer la actividad del grupo. Además, se ha propuesto otra instancia, llamada D-ADV-OneClass, que añade a los dos streams anteriores, otro con información de contexto. Esta última instancia da solución a problemas en los que solo se conoce una clase durante el entrenamiento, y por lo tanto se utilizan técnicas de one-class classification. En la experimentación se ha validado la arquitectura con las dos instancias D-ADV-MultiClass y D-ADV-OneClass utilizando los datasets públicos ampliamente conocidos, como son BEHAVE, INRIA y CAVIAR para multi-class, y para one-class los datasets Ped 1, Ped 2 y Avenue. Los resultados experimentales muestran la capacidad de la arquitectura para clasificar las actividades de los grupos presentados en los datasets. Además, se demuestra que la arquitectura es capaz de tener buenos resultados utilizando datasets con poca cantidad de datos. En este caso, no a partir de la imagen sino de la representación del movimiento. Por último se plantean como trabajos futuros experimentar con otros datasets de mayor tamaño o con otro tipo de datos (peleas callejeras y en rings de boxeo para ver como afecta el contexto en estas situaciones). A medio o largo plazo se realizarán mejoras aumentando y comprobando otras instancias de la arquitectura utilizando múltiples streams de entrada que puedan permitir detectar otros comportamientos.
APA, Harvard, Vancouver, ISO, and other styles
8

Alvarado, Cataldo Andrés Alejandro. "Diseño de una Arquitectura de Software para un Sistema Legado a Fin de Cumplir con la Normativa de Documento Electrónico." Tesis, Universidad de Chile, 2009. http://repositorio.uchile.cl/handle/2250/102039.

Full text
Abstract:
La tesis consistió en elaborar un diseño de arquitectura de software para el Ministerio del Interior. La solución permitirá la integración del sistema legado con la digitalización de documentos a nivel nacional (intendencias, gobernaciones y dependencias del Ministerio del Interior) para dar cumplimiento a la normativa legal de documento electrónico. La problemática que se pretende resolver al interior de la Organización consiste en una mejora tecnológica en la gestión documental que incorpore el cumplimiento de los decretos supremos referidos al documento electrónico: D.S. N°77/2004, D.S. N° 81/2004 y D.S. N° 83/2005. Actualmente, existe un sistema de información legado denominado “Gestión Documental Ministerial” (GDM) que registra todos los movimientos de documentos y asignaciones de trabajo que involucran todo el quehacer del Ministerio del Interior a nivel nacional. Los documentos incorporados a este sistema se refieren tanto a los movimientos de documentos ingresados a través de las Oficinas de Partes, como en cada una de las oficinas que generan documentos al interior de la Organización. Es un sistema de información centralizado que maneja altos volúmenes de documentos. Se necesita integrar el actual sistema legado a otro entorno agregando nuevas funcionalidades, para lo cual se requirió desarrollar un diseño de arquitectura que soporte los nuevos requerimientos de rendimiento, almacenamiento, interoperabilidad, escalabilidad y alta disponibilidad. El sistema legado en este nuevo contexto deberá soportar un proceso de digitalización, clasificación y recuperación de documentos de forma segura y eficiente. El diseño de arquitectura propuesto deberá soportar al sistema legado en su nuevo entorno, de manera tal que éste pueda cumplir con los decretos supremos referidos a documento electrónico. Además, se deben generar documentos con firmas electrónicas simples y avanzadas según sea el proceso involucrado para posteriormente realizar la transferencia a otros organismos en formato XML (Interoperabilidad). Se justifica incorporar Tecnologías de Información para solucionar este problema con el fin de cumplir con los requerimientos de la Organización. Se contribuirá así a mejorar la gestión y agilizar la tramitación de procedimientos administrativos mediante un proceso de digitalización, clasificación y recuperación de documentos a nivel nacional. Toda transacción en el sistema deberá tener la validez de documento electrónico, cumpliendo con la normativa respecto del documento electrónico (D.S. N° 83/2005). El resultado final de esta tesis consistió en obtener una solución a la problemática actual que presenta el Ministerio del Interior, para lo cual se desarrolló un diseño de una arquitectura de software al cual se incorporó una plataforma tecnológica que permita mejorar la gestión dentro de la organización. Se presenta tanto una tecnología propietaria como otra de código abierto, la primera corresponde a IBM Content Manager (Resource Manager y Content Manager Library Server DB2 UDB v8.3) y la segunda a una alternativa de código abierto con Alfresco Enterprise Content Management. Se hizo énfasis en la alternativa de código abierto.
APA, Harvard, Vancouver, ISO, and other styles
9

Hernández, Villar Carolina. "La tríada oscura y el mecanismo de detección de tramposos: una aproximación de la psicología evolucionista a la arquitectura computacional del engaño." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/130588.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Cano, Esquibel José Gaspar. "Métodos de inteligencia artificial aplicados a química computacional en entornos de computación de alto rendimiento." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/45000.

Full text
Abstract:
El principal objetivo de esta tesis es la propuesta de una serie de refinamientos basados en métodos de inteligencia computacional, unidos a metodología in-silico para el descubrimiento de compuestos bioactivos, gracias a la capacidad de cómputo proporcionada por la reciente aparición de las arquitecturas computacionales masivamente paralelas tales como las GPUs (Unidades de Procesamiento Gráfico). Los resultados obtenidos en este proyecto podrían por tanto ayudar y formar la base de una nueva y atractiva generación de aproximaciones para descubrimiento de compuestos bioactivos.
APA, Harvard, Vancouver, ISO, and other styles
11

Cabrera, Encalada Paúl Romeo. "Diseño de una arquitectura orientada a servicios para la integración y evolución de los sistemas de consulta de causas del Poder Judicial de Chile." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144715.

Full text
Abstract:
Magíster en Tecnologías de la Información
El Poder Judicial de Chile en su afán de transparentar los procesos, ofrece a sus usuarios (funcionarios públicos y abogados) varios portales en donde se puede consultar las diferentes causas y trámites que se llevan a cabo. Estos portales se encuentran publicados en la página oficial de la institución, pero funcionan de manera independiente según el juzgado al que se consulte: Corte Suprema, Laboral, Cobranza, Penal, Civil, Familia o Apelaciones. Por lo tanto, la arquitectura actual no permite una fácil escalabilidad de los sistemas, ya que al ser soluciones independientes, sus datos y servicios no están integrados y existe duplicidad de ellos. Además, manejan diferentes credenciales de autenticación para cada sistema aunque se trate del mismo usuario. Por otra parte, estos sistemas no están preparados para ser utilizados en dispositivos móviles, como tablets o teléfonos inteligentes, por lo tanto sus interfaces de usuario no son adaptables a los diferentes tipos de pantalla y resoluciones. Lamentablemente una parte importante de los usuarios requiere acceso a la información en terreno, por lo que el acceso para móviles se hace indispensable. Para dar solución a estos problemas se realizaron nuevos desarrollos que apuntan a unificar estos sistemas de consulta, adaptar sus interfaces de usuario a dispositivos móviles y facilitar el acceso a los usuarios estacionarios y móviles. Para ello, se diseñó e implementó una arquitectura de software orientada a servicios, que permitió dar solución a los problemas de escalabilidad y duplicidad de datos de los sistemas de la institución, permitiendo el manejo integral de la información y unificando los diferentes sistemas que actualmente están en producción. Finalmente, se implementó una aplicación móvil multi-plataforma que hace uso de la nueva arquitectura, y que está disponible para facilitar la consulta a los usuarios. Estas personas ahora acceden a los sistemas de la institución a través de un único nombre de usuario y clave, y pueden consultar en cualquiera de las cortes antes mencionadas.
APA, Harvard, Vancouver, ISO, and other styles
12

González, Catalán Christian Andrés. "Arquitectura de un Dashboard de monitoreo de Proyectos de Software en PYMES mediante la integración de herramientas de desarrollo." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/172671.

Full text
Abstract:
Tesis para optar al grado de Magíster en Tecnologías de la Información
La construcción de software es una actividad compleja, realizada por equipos de personas y que involucra diversas actividades, como planificación, gestión de incidentes, control de versiones, pruebas y codificación, entre otras. Un proceso de desarrollo permite a las organizaciones ordenar la construcción de software definiendo los artefactos y asignando los roles que realizan estas actividades, de forma de mejorar la calidad y la productividad en los proyectos de software. Las actividades de desarrollo y de monitoreo realizadas durante la ejecución de un proyecto, generalmente son apoyadas por diversas herramientas. Este trabajo de tesis se enmarca en las PyMEs de software chilenas, las cuales tienen realidades muy diferentes, pero la gran mayoría de ellas tiene necesidades de monitoreo y control de sus proyectos. A pesar de que la mayoría de las PyMEs posee información de sus actividades de desarrollo en las herramientas que utiliza, la captura de las métricas de sus proyectos la realizan generalmente de forma manual, lo cual es costoso en términos de tiempo y dinero. Una posible solución para este problema es la construcción de un software que integre, recopile y consolide la información de diversas herramientas, permitiendo visualizar mediante un dashboard o panel de control información relevante para la toma de decisiones, apoyando las actividades de monitoreo y control de proyectos. Sin embargo, al aplicar la solución a múltiples PyMEs se observa que existe una complejidad técnica debido a la variabilidad de herramientas utilizadas por las PyMEs. Esta variabilidad se manifiesta tanto en las herramientas, sus tipos y los usos que se les da. Debido a estas complejidades relacionadas con la interoperabilidad, integración y variabilidad, en este trabajo de tesis se propone una arquitectura para un sistema de dashboard, el cual tiene como objetivo proveer de un mecanismo para aprovechar la información disponible en las herramientas de desarrollo de las PyMEs para monitorear, controlar y apoyar la toma de decisiones durante la gestión de los proyectos. Finalmente, con el objetivo de validar la arquitectura propuesta, demostrar la factibilidad de su implementación y encontrar oportunidades de mejora, se realiza la validación mediante dos técnicas: la implementación de un prototipo y la evaluación de la arquitectura por expertos.
APA, Harvard, Vancouver, ISO, and other styles
13

Agustí, Melchor Manuel. "Análisis y clasificación de imágenes repetitivas mediante técnicas de simetría computacional." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/63270.

Full text
Abstract:
[EN] Currently we handle a lot of visual information. We see, create and use many images in our diary lives and work. Analysis techniques based on low level features are, in many cases, little descriptive or representative for the human user. This is partly because they are highly dependent on the conditions of acquisition of each image and also, due to the difficulty of matching the content of the image with a high number of numeric values that describe very small details of the image. In the way of approximating the computational process to describe the image content to the human way of reasoning, current trends are aimed at the construction of descriptions that involve the use of more complex concepts. These abstractions are achieved by building more elaborate descriptions assume the variability (and tolerances) with which humans make the decisions when it comes to describe the visual content of images. This thesis addresses the use of symmetry and uses the combinations of symmetries presents in an image for description based on symmetry patterns rather than pixels patterns (textures). The problem of image description in these contexts can be viewed as a classification, because of its relationship to plane group theory (WallPaper Group Theory) also called mosaic or tessellation groups, is formulated as the determination of symmetry group an image belongs to. The number of these groups is finite (there are only seventeen in 2D) and are described by a set of internal symmetries with respect to a basic element that encapsulates the entire contents of the design. If we can determine the existence of repetitive content in a picture, we get a pattern for describing the image in terms of an area that is repeated indefinitely in the plane (no gaps, nor overlaps), in discrete steps obtained from the two directions of translational symmetry that defines the grid. Under this formulation, the image content can be expressed from a minimum elemental form, which contains no internal symmetry.
[ES] Actualmente manejamos mucha información de carácter visual. Vemos, creamos y usamos imágenes en gran medida para nuestra comunicación. Las técnicas de análisis basadas en características de bajo nivel son, en muchas ocasiones, poco descriptivas o representativas para el usuario humano. Esto es debido en parte a que son muy dependientes de las condiciones de adquisición de cada imagen y, también, a la dificultad de asociar el contenido de la imagen con una gran cantidad de valores numéricos que describen detalles muy pequeños de la misma. Buscando acercar la forma computacional a la humana de describir el contenido de una imagen, las tendencias actuales están encaminadas a la construcción de descripciones que implican el uso de conceptos mas complejos. Estas abstracciones se consiguen construyendo descripciones más elaboradas que asuman la variabilidad (y las tolerancias) con que los humanos tomamos las decisiones a la hora de describir el contenido visual de las imágenes. En esta tesis se aborda el uso de la simetría y la determinación de qué combinaciones de simetrías aparecen en una imagen para su descripción en base a patrones de simetría en lugar de por ejemplo patrones de píxeles, basados en las texturas, el color, etc. El problema de la descripción de imágenes en estos contextos se puede ver como uno de clasificación, debido a su relación con la teoría de grupos en el plano (WallPaper Group Theory) también denominada de mosaicos o teselación que se formula como la determinación del grupo de simetría al que pertenecen, caracterizado por un conjunto de simetrías interiores a un elemento básico que condensa todo el contenido del diseño. Si somos capaces de determinar si existe contenido repetitivo en una imagen, podremos obtener un patrón que permita describir la imagen en términos de un área que se repite de forma indefinida en el plano (sin dejar huecos y sin solapes), en pasos discretos marcados por las dos direcciones de simetría de traslación que define la retícula. Bajo esta formulación, el contenido de la imagen se puede expresar a partir de una forma elemental mínima, que no contiene ninguna simetría interior.
[CAT] Actualment fem ús de molta informació de caràcter visual. Veiem, creem i fem ús d'imatges en gran quantitat per a la nostra comunicació. Les tècniques d'anàlisi basades en característiques de baix nivell són, moltes voltes, poc descriptives o representatives per a l'usuari humà. Açò és degut en part a què són molt dependents de les condicions d'adquisició de cada imatge i, per la dificultat d'associar el contingut de la imatge amb una gran quantitat de valors numèrics que descriuen detalls molt menuts de la imatge. Per aproximar la forma computacional a la humana de descriure el contingut d'una imatge, les tendències actuals estan encaminades a la construcció de descripcions que impliquen l'ús de conceptes mes complexos. Estes abstraccions s'aconseguixen construint descripcions més elaborades que assumisquen la variabilitat (i les toleràncies) amb que els humans prenem les decisions a l'hora de descriure el contingut visual de les imatges. En esta tesi s'aborda l'ús de la simetria i la determinació de quines combinacions de simetries apareixen en una imatge per a la seua descripció basant-se en patrons de simetria en compter de patrons de píxels (textures) . El problema de la descripció d'imatges en estos contextos es pot veure com un de classificació, degut a la seua relació amb la teoria de grups en el pla (WallPaper Group Theory) també denominada de mosaics o teselación, es formula com la determinació del grup de simetria a què pertanyen, que és de cardinal finit (només hi ha dèsset en 2D) i es descriuen per un conjunt de simetries interiors a un element bàsic que condensa tot el contingut del disseny. Si som capaços de determinar si n'hi ha contingut repetitiu a una imatge, podrem obtindre un patró que permeta descriure la imatge en termes d'una àrea que es repetix de forma indefinida en el pla (sense deixar buits i sense solapamentss), en passos discrets marcats per les dos direccions de simetria de translació que definix la malla. Davall esta formulació, el contingut de la imatge es pot expressar a partir d'una forma elemental mínima, que no conté cap simetria interior
Agustí Melchor, M. (2016). Análisis y clasificación de imágenes repetitivas mediante técnicas de simetría computacional [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63270
TESIS
APA, Harvard, Vancouver, ISO, and other styles
14

Madrid, Cabezas Francisco Javier. "Integración y evolución de sistemas de información del DCC." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/148981.

Full text
Abstract:
Ingeniero Civil en Computación
Desde hace varios años, el Departamento de Ciencias de la Computación (DCC) de la Universidad de Chile ha venido desarrollando sus sistemas de información como si fueran islas. Estos sistemas apoyan principalmente la gestión de actividades académicas, docentes y económico-financieras del DCC. Aunque esta infraestructura de software ha funcionado relativamente bien, la estrategia de desarrollo de sistemas desacoplados limita el crecimiento de dicha infraestructura de cara al futuro. Por esa razón el DCC ha decidido integrar estas islas, tanto a nivel de datos como de servicios, para permitir un desarrollo más armónico y controlado de sus sistemas de información. Se espera que esta integración facilite especialmente el reuso de información, manteniendo una única fuente de verdad para las distintas áreas de negocio (pregrado, postgrado, educación continua, investigación, etc.). Este trabajo de memoria realizó una prueba de concepto que abordó no sólo la integración de dos sistemas de información del DCC, sino también la reingeniería de uno de ellos y el desarrollo completo del otro. Las aplicaciones en cuestión son el Sistema Administrador de Recursos (SAR) y el Sistema Administrador de Noticias y Eventos (SANE). Para llevar a cabo la integración de estos sistemas se diseñó e implementó una arquitectura de microservicios que es capaz de contener a las aplicaciones críticas del Departamento. Apoyándose en dicha arquitectura se modificó y extendió el sistema SAR, agregándole por ejemplo funcionalidad para permitir la administración de puestos de trabajos de alumnos de postgrado y profesores visitantes. Por otra parte, el proceso de reservas de recursos (por ejemplo, salas de reuniones) se independizó de las secretarias, permitiendo que académicos y funcionarios puedan hacer reservas según su rol. La nueva versión del sistema SAR está actualmente en producción. Por otra parte, se diseñó e implementó un nuevo sistema de software, el cual permite mantener y gestionar las noticias y eventos del Departamento (por ejemplo, charlas, defensas de tesis, etc.). Éste permite además alimentar automáticamente otros recursos de entrega de información del Departamento; por ejemplo, su página Web oficial. El sistema SANE también adhiere a la arquitectura de microservicios definida, y permite la interacción con el SAR a través de una API (Application Programming Interface). El proyecto piloto que buscaba la integración de ambos sistemas a través de una arquitectura de microservicios resultó exitoso, pues no sólo se alcanzaron los objetivos iniciales, sino que además los usuarios finales se mostraron muy satisfechos con las soluciones obtenidas. Este piloto muestra un camino para que en adelante se integren otros sistemas a la nueva infraestructura de software del DCC, independientemente de que estas aplicaciones sean nuevas o legadas. Las nuevas aplicaciones deberán contemplar la intercomunicación con la infraestructura creada, utilizando mecanismos de autenticación adecuados para garantizar la seguridad de sus operaciones. En resumen, más allá de las ventajas propias de contar con más y mejores servicios de software para apoyar las operaciones del Departamento, este trabajo de memoria buscó determinar la factibilidad y el esfuerzo requerido para integrar los sistemas del DCC a través de una arquitectura de microservicios; y el resultado obtenido fue altamente positivo.
APA, Harvard, Vancouver, ISO, and other styles
15

Perovich, Gerosa Daniel. "Model-Based systematization of software architecture design." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/131098.

Full text
Abstract:
Doctor en Ciencias, Mención Computación
La Arquitectura de Software juega un rol crucial en la Ingeniería de Software, permitiendo el control intelectual, la integridad conceptual, la comunicación efectiva, la administración de un conjunto relacionado de variantes de sistemas, y la reutilización de conocimiento, experiencia, diseño e implementación. Aplicar el conocimiento arquitectónico promueve la calidad, reduce los riesgos, y es esencial para alcanzar las expectativas de los interesados con resultados predecibles. El conocimiento arquitectónico actual es vasto y está en constante aumento, pero a su vez, es heterogéneo y disperso, está expresado en diferentes niveles de abstracción y rigor, y requiere de herramientas que raramente están disponibles en los ambientes de desarrollo. En la práctica, el diseño arquitectónico está limitado por las habilidades y experiencia del arquitecto y por el conocimiento que domina, y requiere de gran esfuerzo para ajustarlo y adaptarlo al escenario de desarrollo. Así, el diseño arquitectónico rara vez alcanza el nivel de calidad que es posible dado el conocimiento arquitectónico disponible. Además, el esfuerzo del arquitecto no es repetible ya que resultan embebidos en las descripciones de las arquitecturas. Aunque las técnicas de modelado están siendo usadas en Arquitectura de Software, la mayoría de los enfoques carecen de generalidad y homogeneidad, dificultando su integración y aplicación. En este trabajo, usamos megamodelado para definir un mecanismo unificado y homogéneo para capturar conocimiento arquitectónico, haciéndolo compartible, reusable, manejable por herramientas, y directamente aplicable. Definimos una interpretación formal de los conceptos principales de la disciplina en términos de artefactos de modelado. Además, cambiamos el foco de construir la descripción de la arquitectura directamente, a capturar cómo dicha descripción es creada. Para ello, definimos un lenguaje para capturar las acciones de diseño, y lo interpretamos en términos de técnicas de modelado haciendo el diseño repetible. Validamos nuestro enfoque definiendo procedimientos para guiar a la comunidad en cómo capturar conocimiento arquitectónico usando nuestra interpretación formal, aplicando estos procedimientos para capturar las técnicas de descripción y diseño del SEI, y aplicando el conocimiento capturado al diseño de la línea de productos de mallas geométricas. Nuestro trabajo realiza dos contribuciones originales. Primero, definimos un mecanismo unificado y homogéneo para capturar conocimiento arquitectónico, usando técnicas de Ingeniería Dirigida por Modelos, particularmente el enfoque de megamodelado Global Model Management, y usando semántica denotacional para la formalización. Segundo, definimos una representación de decisiones y soluciones arquitectónicas en términos de un lenguaje específico, haciéndolas descriptivas y aplicables. Así, facilitamos el cambio de foco del arquitecto haciendo el diseño arquitectónico explícito, repetible y reusable, y obteniendo descripciones de arquitectura implícitas y generables en forma automática.
APA, Harvard, Vancouver, ISO, and other styles
16

Dias, Gael Harry Adélio André Dias. "Extraction automatique d´associations lexicales à partir de corpora." Doctoral thesis, FCT - UNL, 2002. http://hdl.handle.net/10362/1293.

Full text
Abstract:
The automatic acquisition of lexical associations from corpora is a crucial issue for Natural Language Processing. A lexical association is a recurrent combination of words that co-occur together more often than expected by chance in a given domain. In fact, lexical associations define linguistic phenomena such as idiomes, collocations or compound words. Due to the fact that the sense of a lexical association is not compositionnal, their identification is fundamental for the realization of analysis and synthesis that take into account all the subtilities of the language. In this report, we introduce a new statistically-based architecture that extracts from naturally occurring texts contiguous and non contiguous. For that purpose, three new concepts have been defined : the positional N-gram models, the Mutual Expectation and the GenLocalMaxs algorithm. Thus, the initial text is fisrtly transformed in a set of positionnal N-grams i.e ordered vectors of simple lexical units. Then, an association measure, the Mutual Expectation, evaluates the degree of cohesion of each positional N-grams based on the identification of local maximum values of Mutual Expectation. Great efforts have also been carried out to evaluate our metodology. For that purpose, we have proposed the normalisation of five well-known association measures and shown that both the Mutual Expectation and the GenLocalMaxs algorithm evidence significant improvements comparing to existent metodologies.
APA, Harvard, Vancouver, ISO, and other styles
17

Mayosky, Miguel Ángel. "Simulación de arquitecturas computacionales." Doctoral thesis, Universitat Autònoma de Barcelona, 1990. http://hdl.handle.net/10803/3057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Retamal, Valenzuela Jorge Hernán. "Plataforma de desarrollo de aplicaciones en el DCC basada en técnicas de DevOps." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/170717.

Full text
Abstract:
Tesis para optar al grado de Magíster en Tecnologías de la Información
El desarrollo de aplicaciones en las organizaciones es un aspecto fundamental para el apoyo de la operación y en ese sentido el DCC no es la excepción. En el DCC las aplicaciones son provistas por la facultad o bien son desarrolladas internamente apoyados en estudiantes, memoristas, tesistas y académicos. Los desarrollos han sido canalizados a través de un académico quién históricamente se ha hecho cargo de este proceso. Sin embargo, y con el fin de ordenar el proceso y potenciar los resultados, en el 2017 se crea el Área Aplicaciones. A través de un estudio, la recién creada Área Aplicaciones realizó un levantamiento de todas aquellas aplicaciones desarrolladas internamente y que apoyan la operación. Sin embargo, al ir un poco más allá y consultar acerca del código fuente de las aplicaciones, la documentación o los procedimientos de gestión de incidencias y proyectos, no se encontró información documentada por lo que se observa que no hay gobernanza en el desarrollo y operación de las aplicaciones del DCC. Para resolver esta problemática, en este trabajo de tesis se crea una plataforma de desarrollo de software basada en el paradigma DevOps. Los principios y alcance de esta plataforma respetan la forma y fuerza de trabajo del DCC. La plataforma está dividida en dos grandes áreas. La primera es un pipeline el cual representa el ciclo de vida de desarrollo de software para las aplicaciones del DCC, abarcando desde tareas de recolección de ideas e incidencias hasta la instalación de las aplicaciones desarrolladas en el ambiente de producción. La segunda es la creación de una plataforma de herramientas concretas que apoyan el uso del pipeline. Estas herramientas asisten al pipeline en todas sus fases, desde la organización y gestión de ideas e incidencias hasta la automatización de la instalación de los componentes en distintos ambientes dependiendo de la fase en la cual se encuentre el desarrollo. La validación del trabajo se realizó en dos fases. La primera es a través de un piloto en el cual el Área Aplicaciones utiliza el pipeline y las herramientas de apoyo para el desarrollo de una aplicación, para luego solicitar las opiniones de los actores a través de una técnica de retrospectiva. La segunda fase consiste en consultar a las áreas involucradas (Aplicaciones y Sistemas) sus opiniones y observaciones en cuanto a la plataforma definida.
APA, Harvard, Vancouver, ISO, and other styles
19

Garcia-Rodriguez, Jose. "Modelos neuronales auto-organizativos para la representación de objetos y de su movimiento en escenas realistas." Doctoral thesis, Universidad de Alicante, 2009. http://hdl.handle.net/10045/12735.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

López, Besora Josep Maria. "Trombosi venosa profunda: Estudi dels efectes del caminar i de la implantació de filtres de vena cava amb simulacions biomecàniques." Doctoral thesis, Universitat Rovira i Virgili, 2018. http://hdl.handle.net/10803/663370.

Full text
Abstract:
"Trombosi venosa profunda: Estudi dels efectes del caminar i de la implantació de filtres de vena cava amb simulacions biomecàniques". Aquesta tesi descriu una recerca que s'ha dut a terme mitjançant simulacions per ordinador. L'objectiu ha estat estudiar aspectes concrets relacionats amb la trombosi venosa profunda. Aquests aspectes han estat estudiats des d'un punt de vista purament mecànic, en dues situacions: quins efectes té sobre una vena poplítia trombòtica el fet de caminar, i quins efectes comparatius té la implantació de quatre filtres diversos de vena cava. L'aproximació al problema ha estat doncs calcular mitjançant simulacions els valors de les magnituds físiques que descriuen els aspectes més rellevants. S'han desenvolupat un seguit de metodologies per dissenyar i implementar les simulacions, que s'han dut a terme usant un conjunt de paquets de programari lliure i tot un volum de codi generat específicament. Pel que fa als efectes del caminar sobre la vena poplítia s'ha conclòs que l'extensió/compressió del múscul semimembranós porta a un augment quantificat del diàmetre de la vena i a una millora de la circulació. També s'ha conclòs i quantificat que aquesta millora de la circulació desapareix si en paral·lel es produeix un augment del cabal sanguini. Pel que fa als filtres de vena cava, les conclusions més rellevants són relatives a l'efecte del flux sanguini sobre els filtres mateixos. S'han quantificat les forces de fricció i pressió exercides sobre els filtres en condicions de cabals o viscositats sanguinis diverses. Quatre filtres diversos s'han pogut comparar quantitativament ateses les forces i a més s'han pogut obtenir per tots ells unes estimacions fiables de les forces totals exercides quan hi ha variacions en el cabal/ritme cardíac i/o en la viscositat sanguínia.
"Trombosis venosa profunda: Estudio de los efectos de caminar i de la implantación de filtros d evena cava con simulaciones biomecánicas" Esta tesis describe una investigación que se ha llevado a cabo mediante simulaciones por ordenador. El objetivo ha sido estudiar aspectos concretos relacionados con la trombosis venosa profunda. Estos aspectos han sido estudiados desde un punto de vista puramente mecánico, en dos situaciones: qué efectos tiene sobre una vena poplítea trombótica el caminar, y qué efectos comparativos tiene la implantación de cuatro filtros distintos de vena cava. La aproximación al problema ha sido pues calcular mediante simulaciones los valores de las magnitudes físicas que describen los aspectos más relevantes. Se han desarrollado una serie de metodologías para diseñar e implementar las simulaciones, que se han llevado a cabo usando un conjunto de paquetes de software libre y un volumen de código generado específicamente. En cuanto a los efectos de caminar sobre la vena poplítea se ha concluido que la extensión/compresión del músculo semimembranoso lleva a un aumento cuantificado del diámetro de la vena y a una mejora de la circulación. También se ha concluido y cuantificado que esta mejora de la circulación desaparece si en paralelo se produce un aumento del caudal sanguíneo. En cuanto a los filtros de vena cava, las conclusiones más relevantes son relativas a los efectos del flujo sanguíneo sobre los propios filtros. Se han cuantificado las fuerzas de fricción y presión ejercidas sobre los filtros en condiciones de caudales o viscosidades sanguíneos diversas. Cuatro filtros distintos se han podido comparar cuantitativamente dadas las fuerzas y además se han podido obtener para todos ellos unas estimaciones fiables de las fuerzas totales ejercidas cuando hay variaciones en el caudal/ritmo cardíaco y/o en la viscosidad sanguínea
"Deep vein thrombosis: Study of the effects of walking and of the implantation of vena cava filters through biomechanical simulations". This thesis describes a research that was carried out through computer simulations. The objective was to study specific aspects related to deep vein thrombosis. These aspects were studied from a purely mechanical point of view, in two different situations: effects of walking on a thrombotic popliteal vein, and effects of the implantation of four different vena cava filters. The problem was approached by calculating the values of the physical magnitudes that describe the most relevant aspects by means of numerical simulations. Several methodologies were developed to design and implement these simulations. For these purposes some taylor-made codes were created to be used along with a set of open source software packages. Regarding the effects of walking on the popliteal vein it was concluded that the extension/compression of the semimembranous muscle yields an increase of the vein diameter and an improvement in the blood flow. It was also concluded and quantified to what extent this improvement in blood flow is reduced when blood flow is increased. Regarding vena cava filters, the most relevant conclusions are related to the effect of blood flow on the filters themselves. The forces of friction and pressure exerted on the filters in different conditions of flow rates or blood viscosities have been quantified. Four different filters could be compared quantitatively with respect to the forces exerted on them. In addition reliable estimates of the total forces exerted for all filters when there are variations in flow/heart rate and/or blood viscosity were obtained.
APA, Harvard, Vancouver, ISO, and other styles
21

Figueiredo, Luís Carlos Nobre de Almeida. "Implementação em FPGA de algoritmos computacionais paralelos." Master's thesis, Universidade de Aveiro, 2010. http://hdl.handle.net/10773/3567.

Full text
Abstract:
Mestrado em Engenharia Electrónica e Telecomunicações
Nos ultimos anos, tem-se assistido a um indiscutível aumento da utilização de sistemas reconfiguráveis. Dentro destes sistemas, as FPGAs (Field- Programmable Gate Array) apresentam-se, assim, como um grande potencial, possibilitando a implementação de projectos de média/grande complexidade, tais como os algoritmos de manipulação de dados. O tempo de execução e os recursos envolvidos são, de longe, os factores mais importantes a considerar. Nesta perspectiva, foi desenvolvida nesta tese uma implementação de um algoritmo de multiplicação de matrizes e foi comparado o seu tempo de execução face a implementação em software. A implementação do algoritmo na FPGA, debruça-se essencialmente em máquinas de estados finitos, com o intuito de aproveitar o paralelismo que se pode encontrar neste tipo de dispositivos. Foi, também, criada uma comunicação entre um PC de uso geral com a placa FPGA por USB, de modo a ser possível a transmissão de dados entre ambos. O sistema foi implementado e testado com exito, podendo-se observar os resultados da multiplicação através do monitor VGA, ou através do PC.
In the last few years, the rising use of recon gurable systems is indisputable. These systems are usually constructed on the basis of FPGA (Field- Programmable Gate Array), which allow for the implementation of medium and high complexity algorithms, such as data manipulation algorithms. The most important factors to consider are the execution time and the required resources. In this thesis, matrix multiplication algorithms were implemented in FPGA and the resulting execution time was compared with the respective implementation in software. The implementation in FPGA aims at exploring parallelism as much as possible. Then a communication was established between a host computer and an FPGA-based prototype board through USB system. The entire system was implemented and tested sucessfully. The multiplications results can either be seen an a VGA monitor or on the PC console application.
APA, Harvard, Vancouver, ISO, and other styles
22

Dolz, Zaragozá Manuel Francisco. "Energy-aware matrix computacion on multirhreaded architectures." Doctoral thesis, Universitat Jaume I, 2014. http://hdl.handle.net/10803/669082.

Full text
Abstract:
Desde hace décadas, la computación de altas prestaciones ha concentrado sus esfuerzos en la optimización de algoritmos aplicados a la resolución de problemas complejos que aparecen en un amplio abanico de aplicaciones de casi todas las áreas científicas y tecnológicas. En este sentido el uso de herramientas y técnicas, tales como la computación paralela y distribuida, han impulsado la mejora de las prestaciones en este tipo de algoritmos y aplicaciones. Hoy en día, el término optimización hace referencia a la reducción del tiempo de ejecución, aunque también a la energía necesaria para su cómputo. La búsqueda de soluciones verdes o fuentes de energía alternativas que permitan reducir las emisiones de CO2 a la atmósfera demuestran la creciente preocupación por el medio ambiente. En el ámbito de las tecnologías de la información y, más concretamente, en la computación de altas prestaciones, la comunidad científico-técnica muestra especial interés en el desarrollo de componentes, herramientas y técnicas que permitan minimizar el consumo energético. En este sentido, se pretende que las aplicaciones sean conscientes de la energía disipada, tanto en el sistema operativo como en las bibliotecas de cómputo, comunicación y aplicaciones paralelas. Los objetivos de la presente tesis están orientados al estudio, análisis y aprovechamiento de las técnicas de ahorro disponibles en las arquitecturas de computadores multinúcleo e híbridas (CPU-GPU) actuales actuales con el fin de mejorar el rendimiento energético en aplicaciones que requieren la resolución de problemas de álgebra lineal densa y dispersa. Los resultados experimentales obtenidos que validan las ganancias conseguidas mediante medidores de energía, consiguiendo destacables ahorros energéticos y manteniendo un constante compromiso entre prestaciones y ahorros generados.
APA, Harvard, Vancouver, ISO, and other styles
23

Herrera, Hernández José. "Optimización de arquitecturas distribuidas para el procesado de datos masivos." Doctoral thesis, Universitat Politècnica de València, 2020. http://hdl.handle.net/10251/149374.

Full text
Abstract:
[ES] La utilización de sistemas para el tratamiento eficiente de grandes volúmenes de información ha crecido en popularidad durante los últimos años. Esto conlleva el desarrollo de nuevas tecnologías, métodos y algoritmos, que permitan un uso eficiente de las infraestructuras. El tratamiento de grandes volúmenes de información no está exento de numerosos problemas y retos, algunos de los cuales se tratarán de mejorar. Dentro de las posibilidades actuales debemos tener en cuenta la evolución que han tenido los sistemas durante los últimos años y las oportunidades de mejora que existan en cada uno de ellos. El primer sistema de estudio, el Grid, constituye una aproximación inicial de procesamiento masivo y representa uno de los primeros sistemas distribuidos de tratamiento de grandes conjuntos de datos. Participando en la modernización de uno de los mecanismos de acceso a los datos se facilita la mejora de los tratamientos que se realizan en la genómica actual. Los estudios que se presentan están centrados en la transformada de Burrows-Wheeler, que ya es conocida en el análisis genómico por su capacidad para mejorar los tiempos en el alineamiento de cadenas cortas de polinucleótidos. Esta mejora en los tiempos, se perfecciona mediante la reducción de los accesos remotos con la utilización de un sistema de caché intermedia que optimiza su ejecución en un sistema Grid ya consolidado. Esta caché se implementa como complemento a la librería de acceso estándar GFAL utilizada en la infraestructura de IberGrid. En un segundo paso se plantea el tratamiento de los datos en arquitecturas de Big Data. Las mejoras se realizan tanto en la arquitectura Lambda como Kappa mediante la búsqueda de métodos para tratar grandes volúmenes de información multimedia. Mientras que en la arquitectura Lambda se utiliza Apache Hadoop como tecnología para este tratamiento, en la arquitectura Kappa se utiliza Apache Storm como sistema de computación distribuido en tiempo real. En ambas arquitecturas se amplía el ámbito de utilización y se optimiza la ejecución mediante la aplicación de algoritmos que mejoran los problemas en cada una de las tecnologías. El problema del volumen de datos es el centro de un último escalón, por el que se permite mejorar la arquitectura de microservicios. Teniendo en cuenta el número total de nodos que se ejecutan en sistemas de procesamiento tenemos una aproximación de las magnitudes que podemos obtener para el tratamiento de grandes volúmenes. De esta forma, la capacidad de los sistemas para aumentar o disminuir su tamaño permite un gobierno óptimo. Proponiendo un sistema bioinspirado se aporta un método de autoescalado dinámico y distribuido que mejora el comportamiento de los métodos comúnmente utilizados frente a las circunstancias cambiantes no predecibles. Las tres magnitudes clave del Big Data, también conocidas como V's, están representadas y mejoradas: velocidad, enriqueciendo los sistemas de acceso de datos por medio de una reducción de los tiempos de tratamiento de las búsquedas en los sistemas Grid bioinformáticos; variedad, utilizando sistemas multimedia menos frecuentes que los basados en datos tabulares; y por último, volumen, incrementando las capacidades de autoescalado mediante el aprovechamiento de contenedores software y algoritmos bioinspirados.
[CA] La utilització de sistemes per al tractament eficient de grans volums d'informació ha crescut en popularitat durant els últims anys. Açò comporta el desenvolupament de noves tecnologies, mètodes i algoritmes, que aconsellen l'ús eficient de les infraestructures. El tractament de grans volums d'informació no està exempt de nombrosos problemes i reptes, alguns dels quals es tractaran de millorar. Dins de les possibilitats actuals hem de tindre en compte l'evolució que han tingut els sistemes durant els últims anys i les ocasions de millora que existisquen en cada un d'ells. El primer sistema d'estudi, el Grid, constituïx una aproximació inicial de processament massiu i representa un dels primers sistemes de tractament distribuït de grans conjunts de dades. Participant en la modernització d'un dels mecanismes d'accés a les dades es facilita la millora dels tractaments que es realitzen en la genòmica actual. Els estudis que es presenten estan centrats en la transformada de Burrows-Wheeler, que ja és coneguda en l'anàlisi genòmica per la seua capacitat per a millorar els temps en l'alineament de cadenes curtes de polinucleòtids. Esta millora en els temps, es perfecciona per mitjà de la reducció dels accessos remots amb la utilització d'un sistema de memòria cau intermèdia que optimitza la seua execució en un sistema Grid ja consolidat. Esta caché s'implementa com a complement a la llibreria d'accés estàndard GFAL utilitzada en la infraestructura d'IberGrid. En un segon pas es planteja el tractament de les dades en arquitectures de Big Data. Les millores es realitzen tant en l'arquitectura Lambda com a Kappa per mitjà de la busca de mètodes per a tractar grans volums d'informació multimèdia. Mentre que en l'arquitectura Lambda s'utilitza Apache Hadoop com a tecnologia per a este tractament, en l'arquitectura Kappa s'utilitza Apache Storm com a sistema de computació distribuït en temps real. En ambdós arquitectures s'àmplia l'àmbit d'utilització i s'optimitza l'execució per mitjà de l'aplicació d'algoritmes que milloren els problemes en cada una de les tecnologies. El problema del volum de dades és el centre d'un últim escaló, pel qual es permet millorar l'arquitectura de microserveis. Tenint en compte el nombre total de nodes que s'executen en sistemes de processament tenim una aproximació de les magnituds que podem obtindre per al tractaments de grans volums. D'aquesta manera la capacitat dels sistemes per a augmentar o disminuir la seua dimensió permet un govern òptim. Proposant un sistema bioinspirat s'aporta un mètode d'autoescalat dinàmic i distribuït que millora el comportament dels mètodes comunment utilitzats enfront de les circumstàncies canviants no predictibles. Les tres magnituds clau del Big Data, també conegudes com V's, es troben representades i millorades: velocitat, enriquint els sistemes d'accés de dades per mitjà d'una reducció dels temps de tractament de les busques en els sistemes Grid bioinformàtics; varietat, utilitzant sistemes multimèdia menys freqüents que els basats en dades tabulars; i finalment, volum, incrementant les capacitats d'autoescalat per mitjà de l'aprofitament de contenidors i algoritmes bioinspirats.
[EN] The use of systems for the efficient treatment of large data volumes has grown in popularity during the last few years. This has led to the development of new technologies, methods and algorithms to efficiently use of infrastructures. The Big Data treatment is not exempt from numerous problems and challenges, some of which will be attempted to improve. Within the existing possibilities, we must take into account the evolution that systems have had during the last years and the improvement that exists in each one. The first system of study, the Grid, constitutes an initial approach of massive distributed processing and represents one of the first treatment systems of big data sets. By researching in the modernization of the data access mechanisms, the advance of the treatments carried out in current genomics is facilitated. The studies presented are centred on the Burrows-Wheeler Transform, which is already known in genomic analysis for its ability to improve alignment times of short polynucleotids chains. This time, the update is enhanced by reducing remote accesses by using an intermediate cache system that optimizes its execution in an already consolidated Grid system. This cache is implemented as a GFAL standard file access library complement used in IberGrid infrastructure. In a second step, data processing in Big Data architectures is considered. Improvements are made in both the Lambda and Kappa architectures searching for methods to process large volumes of multimedia information. For the Lambda architecture, Apache Hadoop is used as the main processing technology, while for the Kappa architecture, Apache Storm is used as a real time distributed computing system. In both architectures the use scope is extended and the execution is optimized applying algorithms that improve problems for each technology. The last step is focused on the data volume problem, which allows the improvement of the microservices architecture. The total number of nodes running in a processing system provides a measure for the capacity of processing large data volumes. This way, the ability to increase and decrease capacity allows optimal governance. By proposing a bio-inspired system, a dynamic and distributed self-scaling method is provided improving common methods when facing unpredictable workloads. The three key magnitudes of Big Data, also known as V's, will be represented and improved: speed, enriching data access systems by reducing search processing times in bioinformatic Grid systems; variety, using multimedia data less used than tabular data; and finally, volume, increasing self-scaling capabilities using software containers and bio-inspired algorithms.
Herrera Hernández, J. (2020). Optimización de arquitecturas distribuidas para el procesado de datos masivos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/149374
TESIS
APA, Harvard, Vancouver, ISO, and other styles
24

Flores, Liubov Alexandrovna. "Algoritmos Paralelos de Reconstrucción de Imágenes TAC sobre Arquitecturas Heterogéneas." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/59424.

Full text
Abstract:
[EN] In medicine, the diagnosis based on computed tomography (CT) imaging is fundamental for the detection of abnormal tissues by different attenuation values on X-ray energy, which frequently are not clearly distinguished for the radiologist. Different methods have been developed to reconstruct images. In this work we analyse and compare analytical and iterative methods to resolve the reconstruction problem. Today, in practice, the reconstruction process is based on analytical methods and one of the most widely used algorithms is known as Filtered back projections (FBP) algorithm. This algorithm implements the inverse Radon Transform, which is a mathematical tool used in Biomedical Engineering for the reconstruction of CT images. From the very beginning of the development of scanners, it was important to reduce the scanning time, to improve the quality of images and to reduce the reconstruction time of images. Today's technology provides powerful systems, multiprocessor and multicore processor systems, that provide the possibility to reduce the reconstruction time. In this work, we analyze the FBP based on the inverse Radon Transform and its relation to the Fourier Transform, with the aim to achieve better performance while using resources of a system in an optimal way. This algorithm uses parallel projections, is simple, robust, and the results could be extended for a variety of situations. In many applications, the set of projection data needed for the reconstruction, is incomplete due to the physical reasons. Consequently, it is possible to achieve only approximated reconstruction. In this conditions, the images reconstructed with analytical methods have a lot of artefacts in two and three dimensions. Iterative methods are more suitable for the reconstruction from a limited number of projections in noisy conditions. Their usage may be important for the functionality of portable scanners in emergency situations. However, in practice, these methods are less used due to their high computational cost. In this work, the reduction of the execution time is achieved by performing the parallel implementation on multi-core and many-core systems of such iterative algorithms as SART, MLEM and LSQR. The iterative methods have become a hot topic of interest because of their capacity to resolve the reconstruction problem from a limited number of projections. This allows the possibility to reduce the radiation dose during the data acquisition process. At the same time, in the reconstructed images appear undesired artefacts. To resolve the problem effectively, we have adopted the LSQR method with soft threshold filtering technique and the fast iterative shrinkage-thresholding algorithm for computed tomography imaging and present the efficiency of the method named LSQR-STF-FISTA. The reconstruction methods are analysed through the reconstructions from simulated and real projection data. Also, the quality of the reconstructed images is compared with the aim of drawing conclusions regarding the studied methods. We conclude from this study that iterative methods are capable to reconstruct images from a limited number of dataset at a low computational cost.
[ES] En medicina, el diagnóstico basado en imágenes de tomografía axial computerizada (TAC) es fundamental para la determinación de anormalidades a través de diferentes valores de atenuación de la energía de rayos-X, las cuales, frecuentemente, son difíciles de ser distinguidas por los radiólogos. Se han desarrollado diferentes técnicas de reconstrucción de imagen. En este trabajo analizamos y comparamos métodos analíticos e iterativos para resolver de forma eficiente el problema de reconstrucción. Hoy, en la práctica, el proceso de reconstrucción de imagen se basa en algoritmos analíticos entre los cuales, el algoritmo de retroproyección filtrada 'filtered backprojection' (FBP) es el más conocido. Este algoritmo se usa para implementar la Transformada de Radon inversa que es una herramienta matemática cuya utilización principal en Ingeniería Biomédica es la reconstrucción de imágenes TAC. Desde el comienzo del desarrollo de escáneres ha sido importante reducir el tiempo de escaneo, mejorar la calidad de imagen y reducir el tiempo de reconstrucción. La tecnología de hoy ofrece potentes sistemas con varios procesadores y núcleos que posibilitan reducir el tiempo invertido en la reconstrucción de imágenes. En este trabajo se analiza el algoritmo FBP basado en la Transformada de Radon inversa y su relación con la Transformada de Fourier con el objetivo de optimizar su cálculo aprovechando al máximo los recursos del sistema. Este algoritmo se basa en proyecciones paralelas y se destaca por su simplicidad y robustez, y permite extender los resultados a una variedad de situaciones. En muchas aplicaciones el conjunto de proyecciones necesarias para la reconstrucción puede ser incompleto por razones físicas. Entonces, la única posibilidad es realizar una reconstrucción aproximada. En estas condiciones, las imágenes reconstruidas por los algoritmos analíticos en dos o tres dimensiones son de baja calidad y con muchos artefactos. Los métodos iterativos son más adecuados para la reconstrucción de imágenes cuando se dispone de un menor número de proyecciones en condiciones más ruidosas. Su uso puede ser importante para el funcionamiento en escáneres portátiles en condiciones de urgencia en cualquier lugar. Sin embargo, en la práctica, estos métodos son menos usados por su alto coste computacional. En este trabajo presentamos el estudio y diversas implementaciones paralelas que permiten bajar el coste computacional de tales métodos iterativos como SART, MLEM y LSQR. Los métodos iterativos se han convertido en un tópico de gran interés para muchos vendedores de sistemas de TAC clínicos por su capacidad de resolver el problema de reconstrucción con un número limitado de proyecciones. Esto proporciona la posibilidad de reducir la dosis radiactiva en los pacientes durante el proceso de adquisición de datos. Al mismo tiempo, en la reconstrucción aparecen artefactos no deseados. Para resolver el problema en forma efectiva y eficiente, hemos adaptado el método LSQR con el método de filtrado 'Soft Threshold Filtering' y el algoritmo de aceleración 'Fast Iterative Shrinkage-thresholding Algorithm' para TAC. La eficiencia y fiabilidad del método nombrado LSQR-STF-FISTA se presenta en este trabajo. Los métodos de reconstrucción de imágenes se analizan mediante la reconstrucción a partir de proyecciones simuladas y reales, comparando la calidad de imagen reconstruida con el objetivo de obtener conclusiones respecto a los métodos usados. Basándose en este estudio, concluimos que los métodos iterativos son capaces de reconstruir imágenes con el conjunto limitado de proyecciones con un bajo coste computacional.
[CAT] En medicina, el diagnòstic basat en imatges de tomografia axial compueritzada (TAC) és fonamental per a la determinació d'anormalitats a través de diferents valors d'atenuació de l'energia de rajos-X, les quals, freqüentment,són difícils de ser distingides pels radiòlegs. S'han desenvolupat diferents tècniques de reconstrucció d'imatge. En aquest treball analitzem i comparem mètodes analítics i iteratius per a resoldre el problema de reconstrucció. Avui, en la pràctica, el procés de reconstrucció d'imatge es basa en algorismes analítics entre els quals, l'algorisme de retroproyección filtrada 'filtered backprojection' (FBP) és el més conegut. Aquest algorisme s'usa per a implementar la Transformada de Radon inversa que és una eina matemàtica la utilització principal de la qual en Enginyeria Biomèdica és la reconstrucció d'imatges TAC. Des del començament del desenvolupament dels lectors òptics ha sigut important reduir el temps d'escanege, millorar la qualitat d'imatge i reduir el temps de reconstrucció. La tecnologia d'avui ofereix potents sistemes amb diversos processadors i nuclis que possibiliten reduir el temps invertit en la reconstrucció d'imatges. En aquest treball s'analitza l'algorisme FBP basat en la Transformada de Radon inversa i la seua relació amb la Transformada de Fourier amb l'objectiu d'optimitzar el seu càlcul aprofitant al màxim els recursos del sistema. Aquest algorisme es basa en projeccions paral·leles i es destaca per la seua simplicitat i robustesa, i permet estendre els resultats a una varietat de situacions. En moltes aplicacions el conjunt de projeccions necessàries per a la reconstrucció pot ser incomplet per raons físiques. Llavors, l'única possibilitat és realitzar una reconstrucció aproximada. En aquestes condicions, les imatges reconstruïdes pels algorismes analítics en dues o tres dimensions són de baixa qualitat i amb molts artefactes. Els mètodes iteratius són més adequats per a la reconstrucció d'imatges quan es disposa d'un menor nombre de projeccions en condicions més sorolloses. El seu ús pot ser important per al funcionament en escáneres portàtils en condicions d'urgència en qualsevol lloc. No obstant açò, en la pràctica, aquests mètodes són menys usats pel seu alt cost computacional. En aquest treball presentem l'estudi i diverses implementacions paral·leles que permeten baixar el cost computacional de tals mètodes iteratius com SART, MLEM i LSQR. Els mètodes iteratius s'han convertit en un tòpic de gran interès per a molts venedors de sistemes de TAC clínics per la seua capacitat de resoldre el problema de reconstrucció amb un nombre limitat de projeccions. Açò proporciona la possibilitat de reduir la dosi radioactiva en els pacients durant el procés d'adquisició de dades. Al mateix temps, en la reconstrucció apareixen artefactes no desitjats. Per a resoldre el problema en forma efectiva i eficient, hem adaptat el mètode LSQR amb el mètode de filtrat 'Soft Threshold Filtering' i l'algorisme d'acceleració 'Fast Iterative Shrinkage-thresholding Algorithm' per a TAC. L'eficiència i fiabilitat del mètode nomenat LSQR-STF-FISTA es presenta en aquest treball. Els mètodes de reconstrucció d'imatges s'analitzen mitjançant la reconstrucció a partir de projeccions simulades i reals, comparant la qualitat d'imatge reconstruïda amb l'objectiu d'obtenir conclusions respecte als mètodes usats. Basant-se en aquest estudi, concloem que els mètodes iteratius són capaços de reconstruir imatges amb el conjunt limitat de projeccions amb un baix cost computacional.
Flores, LA. (2015). Algoritmos Paralelos de Reconstrucción de Imágenes TAC sobre Arquitecturas Heterogéneas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59424
TESIS
APA, Harvard, Vancouver, ISO, and other styles
25

Sánchez, Cervantes María Guadalupe. "Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore." Doctoral thesis, Universitat Politècnica de València, 2013. http://hdl.handle.net/10251/28854.

Full text
Abstract:
En esta tesis se aborda la eliminaci'on de ruido impulsivo, gaussiano y speckle en im'agenes a color y en escala de gises. Como caso particular se puede mencionar la eliminaci'on de ruido en im'agenes m'edicas. Algunos m'etodos de filtrado son costosos computacionalmente y m'as a'un, si las im'agenes son de gran tama¿no. Con el fin de reducir el coste computacional de dichos m'etodos, en esta tesis se utiliza hardware que soporta procesamiento paralelo, como lo son los cores CPU con procesadores multicore y GPUs con procesadores manycore.En las implementaciones paralelas en CUDA, se configuran algunas caracter'¿sticas con la finalidad de optimizar el procesamiento de la aplicaci'on en las GPUs. Esta tesis estudia por un lado, el rendimiento computacional obtenido en el proceso de eliminaci'on de ruido impulsivo y uniforme. Por otro lado, se eval'ua la calidad despu'es de realizar el proceso de filtrado. El rendimiento computacional se ha obtenido con la paralelizaci'on de los algoritmos en CPU y/o GPU. Para obtener buena calidad en la imagen filtrada, primero se detectan los p'¿xeles corruptos y luego son filtrados solo los p'¿xeles que se han detectado como corruptos. Por lo que respecta a la eliminaci'on de ruido gaussiano y speckle, el an'alisis del filtro difusivo no lineal ha demostrado ser eficaz para este caso. Los algoritmos que se utilizan para eliminar el ruido impulsivo y uniforme en las im'agenes, y sus implementaciones secuenciales y paralelas se han evaluado experimentalmente en tiempo de ejecuci'on (speedup) y eficiencia en tres equipos de c'omputo de altas prestaciones. Los resultados han mostrado que las implementaciones paralelas disminuyen considerablemente los tiempos de ejecuci'on secuenciales. Finalmente, en esta tesis se propone un m'etodo para reducir eficientemente el ruido en las im'agenes sin tener informaci'on inicial del tipo de ruido contenido en ellas. I
Sánchez Cervantes, MG. (2013). Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28854
TESIS
APA, Harvard, Vancouver, ISO, and other styles
26

Segrelles, Quilis José Damián. "Diseño y desarrollo de una arquitectura software genérica orientada a servicios para la construcción de un middleware grid orientado a la gestión y proceso seguro de información en formato DICOM sobre un marco ontológico." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/1973.

Full text
Abstract:
Una de las áreas que más se ha beneficiado del soporte digital es la imagen médica, reforzada por la aparición del estándar Digital Imaging and Communication in Medicine (DICOM), evolucionado a lo largo de los años para soportar no sólo imágenes médicas sino otros tipos de información médica como videos, señales e incluso informes estructurados (DICOM-SR). Con la aparición de DICOM, se ha conseguido la integración de dispositivos de adquisición, visualización, impresión y almacenamiento de imágenes médicas de diferentes fabricantes, al ser este un estándar utilizado por todas las compañias proveedoras. En la actualidad, los sistemas que trabajan con imagen médica digital, como PACS, RIS y HIS permiten integrar los datos a nivel departamental y hospitalario, existiendo soluciones comerciales muy efectivas. En estos sistemas, la seguridad de usuarios y datos se gestiona en un único dominio administrativo restringido. A consecuencia de su uso en producción en la práctica clínica, existe en la actualidad una gran cantidad de información en formato DICOM cuya utilización se restringe generalmente al tratamiento de los pacientes individuales. Sin embargo, la investigación médica requiere consolidar información multicéntrica para la extracción de patrones y la validación de técnicas y diagnósticos, realizándose esta actividad de forma manual y sin herramientas especiales. En la presente tesis se plantea como objetivo general la definición de una Arquitectura Orientada a Servicios (SOA) y la implementación de un Middleware Grid basado en esta arquitectura, cuya principal función será la gestión, integración y proceso de información en formato DICOM almacenada de forma distribuida en diferentes dominios administrativos, de forma segura y estructurada semánticamente mediante la definición de ontologías médicas basadas en el informe estructurado y los estudios DICOM. Este middleware, proporciona a los desarrolladores un interfaz de alto nivel orientado a objetos que permite aumentar la productividad en el desarrollo de aplicaciones en diferentes ámbitos médicos. Las aportaciones más destacables de esta tesis son las siguientes: " Diseño de una Arquitectura Grid de propósito general para virtualizar el almacenamiento distribuido y proceso de datos en formato DICOM, basada en Web Services Resorce Framework (WSRF), frente a otras arquitecturas existentes que no utilizan estándares. " Desarrollo de un modelo para la indexación y estructuración de datos DICOM basado en ontologías médicas obtenidas a partir de informes radiológicos, frente a los modelos convencionales basados en nombres identificadores y metadata básica. " Diseño e implementación de un sistema de autorización que estructura los permisos de los miembros de las organizaciones virtuales a partir de ontologías médicas. " Implementación de una plataforma y de los objetos de alto nivel necesarios, junto con diversas aplicaciones para la asistencia en la investigación en Diagnóstico por Imagen.
Segrelles Quilis, JD. (2008). Diseño y desarrollo de una arquitectura software genérica orientada a servicios para la construcción de un middleware grid orientado a la gestión y proceso seguro de información en formato DICOM sobre un marco ontológico [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1973
Palancia
APA, Harvard, Vancouver, ISO, and other styles
27

DO, CARMO BORATTO MURILO. "Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/48529.

Full text
Abstract:
El presente trabajo se inscribe en el campo de la computación paralela y, más en concreto, en el desarrollo y utilización de modelos computacionales en arquitecturas paralelas heterogéneas para la resolución de problemas aplicados. En la tesis abordamos una serie de problemas que están relacionados con la aplicación de la tecnología en el ámbito de las explotaciones agrícolas y comprenden: la representación del relieve, el manejo de información climática como la temperatura, y la gestión de recursos hídricos. El estudio y la solución a estos problemas en el área en la que se han estudiado tienen un amplio impacto económico y medioambiental. Los problemas basan su formulación en un modelo matemático cuya solución es costosa desde el punto de vista computacional, siendo incluso a veces inviable. La tesis consiste en implementar algoritmos paralelos rápidos y eficientes que resuelven el problema matemático asociado a estos problemas en nodos multicore y multi-GPU. También se estudia, propone y aplican técnicas que permiten a las rutinas diseñadas adaptarse automáticamente a las características del sistema paralelo donde van a ser instaladas y ejecutadas con el objeto de obtener la versión más cercana posible a la óptima a un bajo coste. El objetivo es proporcionar un software a los usuarios que sea portable, pero a la vez, capaz de ejecutarse eficientemente en la ordenador donde se esté trabajando, independientemente de las características de la arquitectura y de los conocimientos que el usuario pueda tener sobre dicha arquitectura.
Do Carmo Boratto, M. (2015). Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48529
TESIS
APA, Harvard, Vancouver, ISO, and other styles
28

Costa, Soria Cristobal. "DYNAMIC EVOLUTION AND RECONFIGURATION OF SOFTWARE ARCHITECTURES THROUGH ASPECTS." Doctoral thesis, Universitat Politècnica de València, 2011. http://hdl.handle.net/10251/11038.

Full text
Abstract:
Change is an intrinsic property of software. A software system, during its lifetime, may require several updates, improvements, or new features. If these change requirements are not addressed, the risk of becoming a useless system increases. In fact, this is a challenging issue of safety- and mission-critical software systems, which cannot be stopped to perform maintenance or evolution operations due to their continuous operation. To reduce the aging of these critical systems, they must be provided with mechanisms enabling their dynamic evolution, i.e. the support of changes on their structure and behaviour while they remain in operation. This thesis is concerned with the design of a framework to build architecture-based, dynamically evolvable, software systems. The fact that this framework is a software architecture based approach provides the following advantages: (i) it offers a high-level of abstraction for describing dynamic changes; (ii) it allows varying the level of system description; and (iii) it advantages from the existing support for system modelling, code-generation, and formal analysis provided by architecture description languages. The framework presented in this thesis, called Dynamic PRISMA, is characterized by the combination of two levels of dynamism: Dynamic Reconfiguration, which addresses changes at the configuration level (i.e. the architectural configuration), and Dynamic Type Evolution, which addresses changes at the type-level (i.e. the specification of architectural types and instances). This combination is one of the major contributions of this thesis: thus a system is not only able to reconfigure at runtime the building blocks it is composed of (i.e. architectural types), but also to redefine these building blocks (or introduce new ones) at runtime. Another contribution of the thesis is the identification of the concerns related to dynamic evolution and their integration in the framework through aspects. This improves the separation of concerns and allows us to change reconfiguration specifications, evolution mechanisms, or the business logic independently of each other. A third contribution of this thesis is how this dynamism is supported: reconfiguration through autonomic capabilities, which provides proactivity according to either internal or external stimuli; and type evolution through asynchronous reflection, which enables the modification of a type specification and the transformation of their instances at different rates (i.e. when they are ready for evolution). Specifically, the asynchronous evolution semantics is precisely described by means of graph transformations. This formalism has been chosen because it naturally models both the system architecture and its asynchronous evolution. The work presented in this thesis is illustrated through a case study from the robotics domain; an area which could potentially benefit from the results of this thesis.
El cambio es una propiedad intrínseca del software. Un sistema software, a lo largo de su vida útil, puede necesitar actualizaciones, mejoras o la integración de nuevas características. Si estas necesidades de cambio no son cubiertas, el riesgo de que el sistema software deje de ser útil aumenta. Esto supone un reto para los sistemas críticos, los cuales no pueden ser detenidos para realizar operaciones de mantenimiento o evolución debido a que deben estar continuamente operativos. Para reducir el envejecimiento de dichos sistemas, éstos deben incorporar mecanismos que les permitan evolucionar dinámicamente, i.e. tolerar cambios tanto estructurales como de comportamiento mientras están operativos. Esta tesis aborda el diseño de una infraestructura para la construcción de sistemas software dinámicamente evolucionables y basados en arquitecturas software. Las razones que han motivado el uso de un enfoque basado en arquitecturas software son: (i) proporcionan un alto nivel de abstracción para definir cambios dinámicos; (ii) permiten variar el nivel de descripción del sistema; y (iii) permiten reutilizar las herramientas existentes para modelado de sistemas, generación automática de código, y análisis formal proporcionadas por los lenguajes de descripción de arquitecturas. El marco presentado en esta tesis, llamado Dynamic PRISMA, se caracteriza por la combinación de dos niveles de dinamismo: Reconfiguración Dinámica, que aborda los cambios a nivel de configuración (i.e. la configuración arquitectónica), y Evolución Dinámica de Tipos, que aborda los cambios a nivel de tipos (i.e. la especificación de tipos arquitectónicos e instancias). Esta combinación es una de las mayores contribuciones de esta tesis: así, un sistema no es solamente capaz de reconfigurar durante su ejecución los elementos constructivos que lo forman (i.e. los tipos arquitectónicos), sino también de redefinir dichos elementos constructivos (o introducir otros) durante su ejecución. Otra contribución de la tesis es la identificación de las funcionalidades relacionadas con la evolución dinámica y su integración a través de aspectos. Esto mejora la separación de funcionalidades y permite cambiar de forma independiente entre sí las especificaciones de reconfiguración, los mecanismos de evolución, o la lógica de negocio. Una tercera contribución es cómo este dinamismo se ha soportado: la reconfiguración a través de capacidades autonómicas, aportando así proactividad en función de estímulos internos y/o externos; y la evolución de tipos a través de la reflexión asíncrona, permitiendo así modificar la especificación de un tipo y la transformación de sus instancias en distintos tiempos (i.e. cuando éstas están listas para su evolución). Además, la semántica de la evolución asíncrona se ha formalizado a través de transformaciones de grafos, lo que ha permitido modelar de forma natural tanto la arquitectura de un sistema como su evolución asíncrona. Por último, el trabajo presentado en esta tesis se ha ilustrado a través de un caso de estudio del dominio robótico; un área que podría verse potencialmente beneficiada con los resultados de esta tesis.
Costa Soria, C. (2011). DYNAMIC EVOLUTION AND RECONFIGURATION OF SOFTWARE ARCHITECTURES THROUGH ASPECTS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11038
Palancia
APA, Harvard, Vancouver, ISO, and other styles
29

Cerdá, Pérez Manuel. "EL ESPACIO UBICUO La idea de espacio arquitectónico derivado de la implementación de las tecnologías de Inteligencia Ambiental." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/62173.

Full text
Abstract:
[EN] This work is aimed to interpret, analyse and know which are the conceptual bases that nowadays define the idea of space in architecture, the contemporary ways of dwelling, through the analysis on a specific pattern, the ubiquitous space. This tries to reveal a new way to understand space, which has arisen from what today is shaped as "the new paradigm", associated to the Information and Communications Technology era (ICT). The intention of this work has been born with a proposing vision. Not a historiographic one. The interest lies in getting deeper in the present to reveal known data -although they are not yet assumed or sufficiently applied-, which will lead to propose a working system that develops in practice the essence of dwelling today. Through the definition of this ubiquitous space, an objective pattern of space in harmony with our era will be exposed, as a proposal to develop today a really contemporary architecture. This work is born as a personal investigation project, the one of an architect who builds and who, according to his way of facing the materialization of reality, searches to set up a working method arisen from the project, and adding to it the virtual condition under a real and pragmatic vision of it. For this, a specific project of architecture is chosen as a study case, UBITAT 1.0. Mainly, its analysed parameters will be the ones that gave origin to this project, now extended, modified or renewed according to the needs of investigation required by each moment. They will be a guide to extract a global depiction of the object of study -space-, which will allow its application to other settings with the only aim to answer the key question of this work: What are the characteristics that define today's space and, therefore, what does it mean to dwell today?
[ES] Mediante este trabajo se busca interpretar, analizar y conocer las bases conceptuales que definen hoy la idea de espacio en arquitectura, los modos de habitación contemporáneos, a través del análisis sobre un modelo concreto, el del espacio ubicuo, que intenta desvelar un nuevo modo de entender el espacio derivado de lo que se configura hoy como el "nuevo paradigma", asociado a la era de las tecnologías de la información y la comunicación (TIC). La intención del trabajo es propositiva. No historiográfica. El interés reside en profundizar en el presente, para revelar datos conocidos pero aún no asumidos o suficientemente aplicados, que nos puedan llevar a proponer un sistema de trabajo que desarrolle en la práctica la esencia del habitar hoy. A través de la caracterización de dicho espacio ubicuo se intentará exponer un modelo objetivo de espacio acorde a nuestra era, como propuesta para desarrollar hoy una arquitectura realmente contemporánea. Este trabajo nace como un proyecto de investigación personal, de un arquitecto que construye, y que según su manera de abordar la materialización de la realidad, busca plantear un método de trabajo derivado del proyectual, añadiendo a éste la condición virtual, bajo una visión real y pragmática del mismo. Para ello se elige un proyecto de arquitectura concreto como caso de estudio, UBITAT 1.0, cuyos parámetros analizados serán principalmente los que dieron origen al mismo, ahora ampliados, modificados o renovados según el curso que la investigación demande en cada momento. Servirán como guía para extraer una caracterización global del objeto de estudio, el espacio, que permita ser aplicado en otros escenarios con la intención de responder en cualquier situación a la pregunta clave de este trabajo: ¿Qué características definen al espacio hoy y qué significa, por ello, habitar, hoy?
[CAT] Amb aquest treball busquem interpretar, analitzar i esbrinar les bases conceptuals que defineixen avuí en dia la idea d'espai en arquitectura, els modes d'habitatge contemporanis, mitjançant l'anàlisi sobre un model concret, el d'espai ubicu, que intenta desvetllar/caracteritzar una nova manera d'entendre l'espai derivat d'allò que es configura recentment com el "nou paradigma", associat a l'era de les tecnologies de la informació i la comunicació (TIC). La intenció del treball sorgeix amb una visió propositiva. No historiogràfica. L'interés resideix en aprofundir en el present, per revelar dades conegudes, però encara no asumides o allò suficientment aplicades, que ens duen a proposar un sistema de treball que desenvolupe en la pràctica l'essència de l'habitar avuí. A través de la caracterització d'aquest espai ubicu, es tractarà d'exposar un model objectiu d'espai d'acord a la nostra època, com a proposta per desenvolupar avuí una arquitectura realment contemporània. Aquest treball naix/sorgeix/parteix com un projecte de recerca personal, d'un arquitecte que construeix, i que segons la seua concepció d'abordar la materialització de la realitat, busca plantejar un mètode de treball derivat del projectual, afegint a aquest la condició virtual, sota una visió real i pragmàtica d'ell mateix. Per a tal fi, es tria un projecte d'arquitectura concret com a cas d'estudi, UBITAT 1.0, els paràmetres del qual analitzats seran conductors de l'orige d'aquest treball, ara ampliats, modificats i renovats segons el curs que la recerca demanda en cada moment. Serviran com a guia per a extraure una caracterització global de l'objecte d'estudi, l'espai, que permeta ser aplicat en altres escenaris, amb la intenció de respondre en qualsevol situació a la pregunta clau d'aquest treball: ¿Quines característiques defineixen l'espai avuí i què significa, per tant, habitar, avuí?
Cerdá Pérez, M. (2016). EL ESPACIO UBICUO La idea de espacio arquitectónico derivado de la implementación de las tecnologías de Inteligencia Ambiental [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62173
TESIS
APA, Harvard, Vancouver, ISO, and other styles
30

Duro, Gómez José. "Photonic Interconnection Networks for Exascale Computers." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/166796.

Full text
Abstract:
[ES] En los últimos años, distintos proyectos alrededor del mundo se han centrado en el diseño de supercomputadores capaces de alcanzar la meta de la computación a exascala, con el objetivo de soportar la ejecución de aplicaciones de gran importancia para la sociedad en diversos campos como el de la salud, la inteligencia artificial, etc. Teniendo en cuenta la creciente tendencia de la potencia computacional en cada generación de supercomputadores, este objetivo se prevee accesible en los próximos años. Alcanzar esta meta requiere abordar diversos retos en el diseño y desarrollo del sistema. Uno de los principales es conseguir unas comunicaciones rápidas y eficientes entre el inmenso número de nodos de computo y los sitemas de memoria. La tecnología fotónica proporciona ciertas ventajas frente a las redes eléctricas, como un mayor ancho de banda en los enlaces, un mayor paralelismo a nivel de comunicaciones gracias al DWDM o una mejor gestión del cableado gracias a su reducido tamaño. En la tesis se ha desarrollado un estudio de viabilidad y desarrollo de redes de interconexión haciendo uso de la tecnología fotónica para los futuros sistemas a exaescala dentro del proyecto europeo ExaNeSt. En primer lugar, se ha realizado un análisis y caracterización de aplicaciones exaescala. Este análisis se ha utilizado para conocer el comportamiento y requisitos de red que presentan las aplicaciones, y con ello guiarnos en el diseño de la red del sistema. El análisis considera tres parámetros: la distribución de mensajes en base a su tamaño y su tipo, el consumo de ancho de banda requerido a lo largo de la ejecución y la matriz de comunicación espacial entre los nodos. El estudio revela la necesidad de una red eficiente y rápida, debido a que la mayoría de las comunaciones se realizan en burst y con mensajes de un tamaño medio inferior a 50KB. A continuación, la tesis se centra en identificar los principales elementos que diferencian las redes fotónicas de las eléctricas. Identificamos una secuencia de pasos en el diseño de un simulador, ya sea haciéndolo desde cero con tecnología fotónica o adaptando un simulador de redes eléctricas existente para modelar la fotónica. Después se han realizado dos estudios de rendimiento y comparativas entre las actuales redes eléctricas y distintas configuraciones de redes fotónicas utilizando topologías clásicas. En el primer estudio, realizado tanto con tráfico sintético como con trazas de ExaNeSt en un toro, fat tree y dragonfly, se observa como la tecnología fotónica supone una clara mejora respecto a la eléctrica. Además, el estudio muestra que el parámetro que más afecta al rendimiento es el ancho de banda del canal fotónico. El segundo estudio muestra el comportamiento y rendimiento de aplicaciones reales en simulaciones a gran escala en una topología jellyfish. En este estudio se confirman las conclusiones obtenidas en el anterior, revelando además que la tecnología fotónica permite reducir la complejidad de algunas topologías, y por ende, el coste de la red. En los estudios realizados se ha observado una baja utilización de la red debido a que las topologías utilizadas para redes eléctricas no aprovechan las características que proporciona la tecnología fotónica. Por ello, se ha propuesto Segment Switching, una estrategia de conmutación orientada a reducir la longitud de las rutas mediante el uso de buffers intermedios. Los resultados experimentales muestran que cada topología tiene sus propios requerimientos. En el caso del toro, el mayor rendimiento se obtiene con un mayor número de buffers en la red. En el fat tree el parámetro más importante es el tamaño del buffer, obteniendo unas prestaciones similares una configuración con buffers en todos los switches que la que los ubica solo en el nivel superior. En resumen, esta tesis estudia el uso de la tecnología fotónica para las redes de sistemas a exascala y propone aprovechar
[CA] Els darrers anys, múltiples projectes de recerca a tot el món s'han centrat en el disseny de superordinadors capaços d'assolir la barrera de computació exascala, amb l'objectiu de donar suport a l'execució d'aplicacions importants per a la nostra societat, com ara salut, intel·ligència artificial, meteorologia, etc. Segons la tendència creixent en la potència de càlcul en cada generació de superordinadors, es preveu assolir aquest objectiu en els propers anys. No obstant això, assolir aquest objectiu requereix abordar diferents reptes importants en el disseny i desenvolupament del sistema. Un dels principals és aconseguir comunicacions ràpides i eficients entre l'enorme nombre de nodes computacionals i els sistemes de memòria. La tecnologia fotònica proporciona diversos avantatges respecte a les xarxes elèctriques actuals, com ara un major ample de banda als enllaços, un major paral·lelisme de la xarxa gràcies a DWDM o una millor gestió del cable a causa de la seva mida molt més xicoteta. En la tesi, s'ha desenvolupat un estudi de viabilitat i desenvolupament de xarxes d'interconnexió mitjançant tecnologia fotònica per a futurs sistemes exascala dins del projecte europeu ExaNeSt. En primer lloc, s'ha dut a terme un estudi de caracterització d'aplicacions exascala dels requisits de xarxa. Els resultats de l'anàlisi ajuden a entendre els requisits de xarxa de les aplicacions exascale i, per tant, ens guien en el disseny de la xarxa del sistema. Aquesta anàlisi considera tres paràmetres principals: la distribució dels missatges en funció de la seva mida i tipus, el consum d'ample de banda requerit durant tota l'execució i els patrons de comunicació espacial entre els nodes. L'estudi revela la necessitat d'una xarxa d'interconnexió ràpida i eficient, ja que la majoria de comunicacions consisteixen en ràfegues de transmissions, cadascuna amb una mida mitjana de missatge de 50 KB. A continuació, la tesi se centra a identificar els principals elements que diferencien les xarxes fotòniques de les elèctriques. Identifiquem una seqüència de passos en el disseny i implementació d'un simulador: tractar la tecnologia fotònica des de zero o per ampliar un simulador de xarxa elèctrica existent per modelar la fotònica. Després, es presenten dos estudis principals de comparació de rendiment entre xarxes elèctriques i diferents configuracions de xarxes fotòniques mitjançant topologies clàssiques. En el primer estudi, realitzat tant amb trànsit sintètic com amb traces d'ExaNeSt en un toro, fat tree i dragonfly, vam trobar que la tecnologia fotònica representa una millora notable respecte a la tecnologia elèctrica. A més, l'estudi mostra que el paràmetre que més afecta el rendiment és l'amplada de banda del canal fotònic. Aquest darrer estudi analitza el rendiment d'aplicacions reals en simulacions a gran escala en una topologia jellyfish. Els resultats d'aquest estudi corroboren les conclusions obtingudes en l'anterior, revelant també que la tecnologia fotònica permet reduir la complexitat d'algunes topologies i, per tant, el cost de la xarxa. En els estudis anteriors ens adonem que la xarxa estava infrautilitzada principalment perquè les topologies estudiades per a xarxes elèctriques no aprofiten les característiques proporcionades per la tecnologia fotònica. Per aquest motiu, proposem Segment Switching, una estratègia de commutació destinada a reduir la longitud de les rutes mitjançant la implementació de memòries intermèdies en nodes intermedis al llarg de la ruta. Els resultats experimentals mostren que cadascuna de les topologies estudiades presenta diferents requisits de memòria intermèdia. Per al toro, com més gran siga el nombre de memòries intermèdies a la xarxa, major serà el rendiment. Per al fat tree, el paràmetre clau és la mida de la memòria intermèdia, aconseguint un rendiment similar tant amb una configuració amb memòria intermèdia en tots els co
[EN] In the last recent years, multiple research projects around the world have focused on the design of supercomputers able to reach the exascale computing barrier, with the aim of supporting the execution of important applications for our society, such as health, artificial intelligence, meteorology, etc. According to the growing trend in the computational power in each supercomputer generation, this objective is expected to be reached in the coming years. However, achieving this goal requires addressing distinct major challenges in the design and development of the system. One of the main ones is to achieve fast and efficient communications between the huge number of computational nodes and the memory systems. Photonics technology provides several advantages over current electrical networks, such as higher bandwidth in the links, greater network parallelism thanks to DWDM, or better cable management due to its much smaller size. In this thesis, a feasibility study and development of interconnection networks have been developed using photonics technology for future exascale systems within the European project ExaNeSt. First, a characterization study of exascale applications from the network requirements has been carried out. The results of the analysis help understand the network requirements of exascale applications, and thereby guide us in the design of the system network. This analysis considers three main parameters: the distribution of the messages based on their size and type, the required bandwidth consumption throughout the execution, and the spatial communication patterns between the nodes. The study reveals the need for a fast and efficient interconnection network, since most communications consist of bursts of transmissions, each with an average message size of 50 KB. Next, this dissertation concentrates on identifying the main elements that differentiate photonic networks from electrical ones. We identify a sequence of steps in the design and implementation of a simulator either i) dealing with photonic technology from scratch or ii) to extend an existing electrical network simulator in order to model photonics. After that, two main performance comparison studies between electrical networks and different configurations of photonic networks are presented using classical topologies. In the former study, carried out with both synthetic traffic and traces of ExaNeSt in a torus, fat tree and dragonfly, we found that photonic technology represents a noticeable improvement over electrical technology. Furthermore, the study shows that the parameter that most affects the performance is the bandwidth of the photonic channel. The latter study analyzes performance of real applications in large-scale simulations in a jellyfish topology. The results of this study corroborates the conclusions obtained in the previous, also revealing that photonic technology allows reducing the complexity of some topologies, and therefore, the cost of the network. In the previous studies we realize that the network was underutilized mainly because the studied topologies for electrical networks do not take advantage of the features provided by photonic technology. For this reason, we propose Segment Switching, a switching strategy aimed at reducing the length of the routes by implementing buffers at intermediate nodes along the path. Experimental results show that each of the studied topologies presents different buffering requirements. For the torus, the higher the number of buffers in the network, the higher the performance. For the fat tree, the key parameter is the buffer size, achieving similar performance a configuration with buffers on all switches that locating buffers only at the top level. In summary, this thesis studies the use of photonic technology for networks of exascale systems, and proposes to take advantage of the characteristics of this technology in current electrical network topologies.
This thesis has been conceived from the work carried out by Polytechnic University of Valencia in the ExaNeSt European project
Duro Gómez, J. (2021). Photonic Interconnection Networks for Exascale Computers [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/166796
TESIS
APA, Harvard, Vancouver, ISO, and other styles
31

López, Huguet Sergio. "Elastic, Interoperable and Container-based Cloud Infrastructures for High Performance Computing." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/172327.

Full text
Abstract:
Tesis por compendio
[ES] Las aplicaciones científicas implican generalmente una carga computacional variable y no predecible a la que las instituciones deben hacer frente variando dinámicamente la asignación de recursos en función de las distintas necesidades computacionales. Las aplicaciones científicas pueden necesitar grandes requisitos. Por ejemplo, una gran cantidad de recursos computacionales para el procesado de numerosos trabajos independientes (High Throughput Computing o HTC) o recursos de alto rendimiento para la resolución de un problema individual (High Performance Computing o HPC). Los recursos computacionales necesarios en este tipo de aplicaciones suelen acarrear un coste muy alto que puede exceder la disponibilidad de los recursos de la institución o estos pueden no adaptarse correctamente a las necesidades de las aplicaciones científicas, especialmente en el caso de infraestructuras preparadas para la ejecución de aplicaciones de HPC. De hecho, es posible que las diferentes partes de una aplicación necesiten distintos tipos de recursos computacionales. Actualmente las plataformas de servicios en la nube se han convertido en una solución eficiente para satisfacer la demanda de las aplicaciones HTC, ya que proporcionan un abanico de recursos computacionales accesibles bajo demanda. Por esta razón, se ha producido un incremento en la cantidad de clouds híbridos, los cuales son una combinación de infraestructuras alojadas en servicios en la nube y en las propias instituciones (on-premise). Dado que las aplicaciones pueden ser procesadas en distintas infraestructuras, actualmente la portabilidad de las aplicaciones se ha convertido en un aspecto clave. Probablemente, las tecnologías de contenedores son la tecnología más popular para la entrega de aplicaciones gracias a que permiten reproducibilidad, trazabilidad, versionado, aislamiento y portabilidad. El objetivo de la tesis es proporcionar una arquitectura y una serie de servicios para proveer infraestructuras elásticas híbridas de procesamiento que puedan dar respuesta a las diferentes cargas de trabajo. Para ello, se ha considerado la utilización de elasticidad vertical y horizontal desarrollando una prueba de concepto para proporcionar elasticidad vertical y se ha diseñado una arquitectura cloud elástica de procesamiento de Análisis de Datos. Después, se ha trabajo en una arquitectura cloud de recursos heterogéneos de procesamiento de imágenes médicas que proporciona distintas colas de procesamiento para trabajos con diferentes requisitos. Esta arquitectura ha estado enmarcada en una colaboración con la empresa QUIBIM. En la última parte de la tesis, se ha evolucionado esta arquitectura para diseñar e implementar un cloud elástico, multi-site y multi-tenant para el procesamiento de imágenes médicas en el marco del proyecto europeo PRIMAGE. Esta arquitectura utiliza un almacenamiento distribuido integrando servicios externos para la autenticación y la autorización basados en OpenID Connect (OIDC). Para ello, se ha desarrollado la herramienta kube-authorizer que, de manera automatizada y a partir de la información obtenida en el proceso de autenticación, proporciona el control de acceso a los recursos de la infraestructura de procesamiento mediante la creación de las políticas y roles. Finalmente, se ha desarrollado otra herramienta, hpc-connector, que permite la integración de infraestructuras de procesamiento HPC en infraestructuras cloud sin necesitar realizar cambios en la infraestructura HPC ni en la arquitectura cloud. Cabe destacar que, durante la realización de esta tesis, se han utilizado distintas tecnologías de gestión de trabajos y de contenedores de código abierto, se han desarrollado herramientas y componentes de código abierto y se han implementado recetas para la configuración automatizada de las distintas arquitecturas diseñadas desde la perspectiva DevOps.
[CA] Les aplicacions científiques impliquen generalment una càrrega computacional variable i no predictible a què les institucions han de fer front variant dinàmicament l'assignació de recursos en funció de les diferents necessitats computacionals. Les aplicacions científiques poden necessitar grans requisits. Per exemple, una gran quantitat de recursos computacionals per al processament de nombrosos treballs independents (High Throughput Computing o HTC) o recursos d'alt rendiment per a la resolució d'un problema individual (High Performance Computing o HPC). Els recursos computacionals necessaris en aquest tipus d'aplicacions solen comportar un cost molt elevat que pot excedir la disponibilitat dels recursos de la institució o aquests poden no adaptar-se correctament a les necessitats de les aplicacions científiques, especialment en el cas d'infraestructures preparades per a l'avaluació d'aplicacions d'HPC. De fet, és possible que les diferents parts d'una aplicació necessiten diferents tipus de recursos computacionals. Actualment les plataformes de servicis al núvol han esdevingut una solució eficient per satisfer la demanda de les aplicacions HTC, ja que proporcionen un ventall de recursos computacionals accessibles a demanda. Per aquest motiu, s'ha produït un increment de la quantitat de clouds híbrids, els quals són una combinació d'infraestructures allotjades a servicis en el núvol i a les mateixes institucions (on-premise). Donat que les aplicacions poden ser processades en diferents infraestructures, actualment la portabilitat de les aplicacions s'ha convertit en un aspecte clau. Probablement, les tecnologies de contenidors són la tecnologia més popular per a l'entrega d'aplicacions gràcies al fet que permeten reproductibilitat, traçabilitat, versionat, aïllament i portabilitat. L'objectiu de la tesi és proporcionar una arquitectura i una sèrie de servicis per proveir infraestructures elàstiques híbrides de processament que puguen donar resposta a les diferents càrregues de treball. Per a això, s'ha considerat la utilització d'elasticitat vertical i horitzontal desenvolupant una prova de concepte per proporcionar elasticitat vertical i s'ha dissenyat una arquitectura cloud elàstica de processament d'Anàlisi de Dades. Després, s'ha treballat en una arquitectura cloud de recursos heterogenis de processament d'imatges mèdiques que proporciona distintes cues de processament per a treballs amb diferents requisits. Aquesta arquitectura ha estat emmarcada en una col·laboració amb l'empresa QUIBIM. En l'última part de la tesi, s'ha evolucionat aquesta arquitectura per dissenyar i implementar un cloud elàstic, multi-site i multi-tenant per al processament d'imatges mèdiques en el marc del projecte europeu PRIMAGE. Aquesta arquitectura utilitza un emmagatzemament integrant servicis externs per a l'autenticació i autorització basats en OpenID Connect (OIDC). Per a això, s'ha desenvolupat la ferramenta kube-authorizer que, de manera automatitzada i a partir de la informació obtinguda en el procés d'autenticació, proporciona el control d'accés als recursos de la infraestructura de processament mitjançant la creació de les polítiques i rols. Finalment, s'ha desenvolupat una altra ferramenta, hpc-connector, que permet la integració d'infraestructures de processament HPC en infraestructures cloud sense necessitat de realitzar canvis en la infraestructura HPC ni en l'arquitectura cloud. Es pot destacar que, durant la realització d'aquesta tesi, s'han utilitzat diferents tecnologies de gestió de treballs i de contenidors de codi obert, s'han desenvolupat ferramentes i components de codi obert, i s'han implementat receptes per a la configuració automatitzada de les distintes arquitectures dissenyades des de la perspectiva DevOps.
[EN] Scientific applications generally imply a variable and an unpredictable computational workload that institutions must address by dynamically adjusting the allocation of resources to their different computational needs. Scientific applications could require a high capacity, e.g. the concurrent usage of computational resources for processing several independent jobs (High Throughput Computing or HTC) or a high capability by means of using high-performance resources for solving complex problems (High Performance Computing or HPC). The computational resources required in this type of applications usually have a very high cost that may exceed the availability of the institution's resources or they are may not be successfully adapted to the scientific applications, especially in the case of infrastructures prepared for the execution of HPC applications. Indeed, it is possible that the different parts that compose an application require different type of computational resources. Nowadays, cloud service platforms have become an efficient solution to meet the need of HTC applications as they provide a wide range of computing resources accessible on demand. For this reason, the number of hybrid computational infrastructures has increased during the last years. The hybrid computation infrastructures are the combination of infrastructures hosted in cloud platforms and the computation resources hosted in the institutions, which are named on-premise infrastructures. As scientific applications can be processed on different infrastructures, the application delivery has become a key issue. Nowadays, containers are probably the most popular technology for application delivery as they ease reproducibility, traceability, versioning, isolation, and portability. The main objective of this thesis is to provide an architecture and a set of services to build up hybrid processing infrastructures that fit the need of different workloads. Hence, the thesis considered aspects such as elasticity and federation. The use of vertical and horizontal elasticity by developing a proof of concept to provide vertical elasticity on top of an elastic cloud architecture for data analytics. Afterwards, an elastic cloud architecture comprising heterogeneous computational resources has been implemented for medical imaging processing using multiple processing queues for jobs with different requirements. The development of this architecture has been framed in a collaboration with a company called QUIBIM. In the last part of the thesis, the previous work has been evolved to design and implement an elastic, multi-site and multi-tenant cloud architecture for medical image processing has been designed in the framework of a European project PRIMAGE. This architecture uses a storage integrating external services for the authentication and authorization based on OpenID Connect (OIDC). The tool kube-authorizer has been developed to provide access control to the resources of the processing infrastructure in an automatic way from the information obtained in the authentication process, by creating policies and roles. Finally, another tool, hpc-connector, has been developed to enable the integration of HPC processing infrastructures into cloud infrastructures without requiring modifications in both infrastructures, cloud and HPC. It should be noted that, during the realization of this thesis, different contributions to open source container and job management technologies have been performed by developing open source tools and components and configuration recipes for the automated configuration of the different architectures designed from the DevOps perspective. The results obtained support the feasibility of the vertical elasticity combined with the horizontal elasticity to implement QoS policies based on a deadline, as well as the feasibility of the federated authentication model to combine public and on-premise clouds.
López Huguet, S. (2021). Elastic, Interoperable and Container-based Cloud Infrastructures for High Performance Computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/172327
TESIS
Compendio
APA, Harvard, Vancouver, ISO, and other styles
32

Naranjo, Delgado Diana María. "Serverless Computing Strategies on Cloud Platforms." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/160916.

Full text
Abstract:
[ES] Con el desarrollo de la Computación en la Nube, la entrega de recursos virtualizados a través de Internet ha crecido enormemente en los últimos años. Las Funciones como servicio (FaaS), uno de los modelos de servicio más nuevos dentro de la Computación en la Nube, permite el desarrollo e implementación de aplicaciones basadas en eventos que cubren servicios administrados en Nubes públicas y locales. Los proveedores públicos de Computación en la Nube adoptan el modelo FaaS dentro de su catálogo para proporcionar computación basada en eventos altamente escalable para las aplicaciones. Por un lado, los desarrolladores especializados en esta tecnología se centran en crear marcos de código abierto serverless para evitar el bloqueo con los proveedores de la Nube pública. A pesar del desarrollo logrado por la informática serverless, actualmente hay campos relacionados con el procesamiento de datos y la optimización del rendimiento en la ejecución en los que no se ha explorado todo el potencial. En esta tesis doctoral se definen tres estrategias de computación serverless que permiten evidenciar los beneficios de esta tecnología para el procesamiento de datos. Las estrategias implementadas permiten el análisis de datos con la integración de dispositivos de aceleración para la ejecución eficiente de aplicaciones científicas en plataformas cloud públicas y locales. En primer lugar, se desarrolló la plataforma CloudTrail-Tracker. CloudTrail-Tracker es una plataforma serverless de código abierto basada en eventos para el procesamiento de datos que puede escalar automáticamente hacia arriba y hacia abajo, con la capacidad de escalar a cero para minimizar los costos operativos. Seguidamente, se plantea la integración de GPUs en una plataforma serverless local impulsada por eventos para el procesamiento de datos escalables. La plataforma admite la ejecución de aplicaciones como funciones severless en respuesta a la carga de un archivo en un sistema de almacenamiento de ficheros, lo que permite la ejecución en paralelo de las aplicaciones según los recursos disponibles. Este procesamiento es administrado por un cluster Kubernetes elástico que crece y decrece automáticamente según las necesidades de procesamiento. Ciertos enfoques basados en tecnologías de virtualización de GPU como rCUDA y NVIDIA-Docker se evalúan para acelerar el tiempo de ejecución de las funciones. Finalmente, se implementa otra solución basada en el modelo serverless para ejecutar la fase de inferencia de modelos de aprendizaje automático previamente entrenados, en la plataforma de Amazon Web Services y en una plataforma privada con el framework OSCAR. El sistema crece elásticamente de acuerdo con la demanda y presenta una escalado a cero para minimizar los costes. Por otra parte, el front-end proporciona al usuario una experiencia simplificada en la obtención de la predicción de modelos de aprendizaje automático. Para demostrar las funcionalidades y ventajas de las soluciones propuestas durante esta tesis se recogen varios casos de estudio que abarcan diferentes campos del conocimiento como la analítica de aprendizaje y la Inteligencia Artificial. Esto demuestra que la gama de aplicaciones donde la computación serverless puede aportar grandes beneficios es muy amplia. Los resultados obtenidos avalan el uso del modelo serverless en la simplificación del diseño de arquitecturas para el uso intensivo de datos en aplicaciones complejas.
[CA] Amb el desenvolupament de la Computació en el Núvol, el lliurament de recursos virtualitzats a través d'Internet ha crescut granment en els últims anys. Les Funcions com a Servei (FaaS), un dels models de servei més nous dins de la Computació en el Núvol, permet el desenvolupament i implementació d'aplicacions basades en esdeveniments que cobreixen serveis administrats en Núvols públics i locals. Els proveïdors de computació en el Núvol públic adopten el model FaaS dins del seu catàleg per a proporcionar a les aplicacions computació altament escalable basada en esdeveniments. D'una banda, els desenvolupadors especialitzats en aquesta tecnologia se centren en crear marcs de codi obert serverless per a evitar el bloqueig amb els proveïdors del Núvol públic. Malgrat el desenvolupament alcançat per la informàtica serverless, actualment hi ha camps relacionats amb el processament de dades i l'optimització del rendiment d'execució en els quals no s'ha explorat tot el potencial. En aquesta tesi doctoral es defineixen tres estratègies informàtiques serverless que permeten demostrar els beneficis d'aquesta tecnologia per al processament de dades. Les estratègies implementades permeten l'anàlisi de dades amb a integració de dispositius accelerats per a l'execució eficient d'aplicacion scientífiques en plataformes de Núvol públiques i locals. En primer lloc, es va desenvolupar la plataforma CloudTrail-Tracker. CloudTrail-Tracker és una plataforma de codi obert basada en esdeveniments per al processament de dades serverless que pot escalar automáticament cap amunt i cap avall, amb la capacitat d'escalar a zero per a minimitzar els costos operatius. A continuació es planteja la integració de GPUs en una plataforma serverless local impulsada per esdeveniments per al processament de dades escalables. La plataforma admet l'execució d'aplicacions com funcions severless en resposta a la càrrega d'un arxiu en un sistema d'emmagatzemaments de fitxers, la qual cosa permet l'execució en paral·lel de les aplicacions segon sels recursos disponibles. Este processament és administrat per un cluster Kubernetes elàstic que creix i decreix automàticament segons les necessitats de processament. Certs enfocaments basats en tecnologies de virtualització de GPU com rCUDA i NVIDIA-Docker s'avaluen per a accelerar el temps d'execució de les funcions. Finalment s'implementa una altra solució basada en el model serverless per a executar la fase d'inferència de models d'aprenentatge automàtic prèviament entrenats en la plataforma de Amazon Web Services i en una plataforma privada amb el framework OSCAR. El sistema creix elàsticament d'acord amb la demanda i presenta una escalada a zero per a minimitzar els costos. D'altra banda el front-end proporciona a l'usuari una experiència simplificada en l'obtenció de la predicció de models d'aprenentatge automàtic. Per a demostrar les funcionalitats i avantatges de les solucions proposades durant esta tesi s'arrepleguen diversos casos d'estudi que comprenen diferents camps del coneixement com l'analítica d'aprenentatge i la Intel·ligència Artificial. Això demostra que la gamma d'aplicacions on la computació serverless pot aportar grans beneficis és molt àmplia. Els resultats obtinguts avalen l'ús del model serverless en la simplificació del disseny d'arquitectures per a l'ús intensiu de dades en aplicacions complexes.
[EN] With the development of Cloud Computing, the delivery of virtualized resources over the Internet has greatly grown in recent years. Functions as a Service (FaaS), one of the newest service models within Cloud Computing, allows the development and implementation of event-based applications that cover managed services in public and on-premises Clouds. Public Cloud Computing providers adopt the FaaS model within their catalog to provide event-driven highly-scalable computing for applications. On the one hand, developers specialized in this technology focus on creating open-source serverless frameworks to avoid the lock-in with public Cloud providers. Despite the development achieved by serverless computing, there are currently fields related to data processing and execution performance optimization where the full potential has not been explored. In this doctoral thesis three serverless computing strategies are defined that allow to demonstrate the benefits of this technology for data processing. The implemented strategies allow the analysis of data with the integration of accelerated devices for the efficient execution of scientific applications on public and on-premises Cloud platforms. Firstly, the CloudTrail-Tracker platform was developed to extract and process learning analytics in the Cloud. CloudTrail-Tracker is an event-driven open-source platform for serverless data processing that can automatically scale up and down, featuring the ability to scale to zero for minimizing the operational costs. Next, the integration of GPUs in an event-driven on-premises serverless platform for scalable data processing is discussed. The platform supports the execution of applications as serverless functions in response to the loading of a file in a file storage system, which allows the parallel execution of applications according to available resources. This processing is managed by an elastic Kubernetes cluster that automatically grows and shrinks according to the processing needs. Certain approaches based on GPU virtualization technologies such as rCUDA and NVIDIA-Docker are evaluated to speed up the execution time of the functions. Finally, another solution based on the serverless model is implemented to run the inference phase of previously trained machine learning models on theAmazon Web Services platform and in a private platform with the OSCAR framework. The system grows elastically according to demand and is scaled to zero to minimize costs. On the other hand, the front-end provides the user with a simplified experience in obtaining the prediction of machine learning models. To demonstrate the functionalities and advantages of the solutions proposed during this thesis, several case studies are collected covering different fields of knowledge such as learning analytics and Artificial Intelligence. This shows the wide range of applications where serverless computing can bring great benefits. The results obtained endorse the use of the serverless model in simplifying the design of architectures for the intensive data processing in complex applications.
Naranjo Delgado, DM. (2021). Serverless Computing Strategies on Cloud Platforms [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160916
TESIS
APA, Harvard, Vancouver, ISO, and other styles
33

Signes, Pont María Teresa. "Modelo paramétrico de arquitectura para la generación de primitivas computacionales." Doctoral thesis, 2005. http://hdl.handle.net/10045/13264.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

González, David Ignacio. "Minería de argumentos con aprendizaje profundo y atención." Bachelor's thesis, 2019. http://hdl.handle.net/11086/15038.

Full text
Abstract:
Tesis (Lic. en Ciencias de la Computación)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía, Física y Computación, 2019.
En este trabajo agregamos un mecanismo de atención a una red neuronal del estado del arte, que consiste de una red BiLSTM con embeddings de caracteres y una capa de CRF. Este modelo no sólo ha sido previamente aplicado en minería de argumentos, sino en muchas otras tareas de etiquetado de secuencias, como el Reconocimiento de Entidades Nombradas, PoS tagging, chunking, y el reconocimiento de eventos. Se simplificó la red para poder lograr una mejor comparación de resultados, y agregamos dos enfoques distintos del mecanismo de atención, variando las funciones de activación disponibles. Luego se realizaron experimentos y se analizaron los resultados obtenidos para determinar el impacto de la atención en el rendimiento de la red. Los modelos con atención fueron evaluados con un conocido corpus de ensayos persuasivos. El mismo consta de 402 ensayos de estudiantes en inglés, anotados manualmente con componentes argumentativos y sus relaciones. Se observó que el rendimiento de uno de los enfoques del mecanismo de atención superó al modelo sin atención, mientras que el enfoque restante no obtuvo mejoras en el desempeño. De la misma manera se comprobó que las distintas funciones de activación del mecanismo de atención son determinantes para el mismo.
In this paper, we add an attention mechanism to a state-of-the-art neural network, which consists of a BiLSTM with characters embeddings and a CRF layer. This model has not only been previously applied in argument mining, but in many other sequence tagging tasks, such as Named Entity Recognition, PoS tagging, chunking, and event recognition. The network was simplified in order to achieve a better comparison of results, and then two different attention mechanism approaches were added, varying between the availables activation functions. Experiments were then conducted, and the results obtained were analyzed to determine the impact of attention on the network performance. Attention models were evaluated with a well-known persuasive essays corpus. It consists of 402 students essays, manually annotated with argumentative components and their relations. It was observed that the performance of one of the attention mechanism approaches outperformed the no-attention model, while the remaining approach did not result in improvements of performance. Also, we proved that the different activation functions of the attention mechanism are decisive in the network performance.
Fil: González, David Ignacio. Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía, Física y Computación; Argentina.
APA, Harvard, Vancouver, ISO, and other styles
35

Santos, Veríssimo Manuel Brandão Lima. "Arquitecturas de comunicação industriais para suporte a sistemas computacionais móveis." Dissertação, 2007. http://hdl.handle.net/10216/10949.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Santos, Veríssimo Manuel Brandão Lima. "Arquitecturas de comunicação industriais para suporte a sistemas computacionais móveis." Master's thesis, 2007. http://hdl.handle.net/10216/10949.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Dias, Sérgio Emanuel Duarte. "Geometric representation and detection methods of cavities on protein surfaces." Doctoral thesis, 2015. http://hdl.handle.net/10400.6/3981.

Full text
Abstract:
Most living organisms are made up of cells, while cells are composed by molecules. Molecules play a fundamental role in biochemical processes that sustain life. The functions of a molecule depend not only on its interaction with other molecules, but also on the sites of its surface where such interactions take place. Indeed, these interactions are the driving force of almost all cellular processes. Interactions between molecules occur on specific molecular surface regions, called binding sites. The challenge here is to know the compatible sites of two coupling molecules. The compatibility is only effective if there is physico-chemical compatibility, as well as geometric compatibility in respect to docking of shape between the interacting molecules. Most (but not all) binding sites of a molecule (e.g., protein) correspond to cavities on its surface; conversely, most (but not all) cavities correspond to binding sites. This thesis essentially approaches cavity detection algorithms on protein surfaces. This means that we are primarily interested in geometric methods capable of identifying protein cavities as tentative binding sites for their ligands. Finding protein cavities has been a major challenge in molecular graphics and modeling, computational biology, and computational chemistry. This is so because the shape of a protein usually looks very unpredictable, with many small downs and ups. These small shape features on the surface of a protein are rather illusive because they are too small when compared to cavities as tentative binding sites. This means that the concept of curvature (a local shape descriptor) cannot be used as a tool to detect those cavities. Thus, more enlarged shape descriptors have to be used to succeed in determining such cavities on the surface of proteins. In this line of thought, this thesis explores the application of mathematical theory of scalar fields, including its topology, as the cornerstone for the development of cavity detection algorithms described herein. Furthermore, for the purpose of graphic visualisation, this thesis introduces a GPU-based triangulation algorithm for molecular surfaces.
APA, Harvard, Vancouver, ISO, and other styles
38

Ramos, Ximena Soledad. "Arquitectura y evolución de sistemas planetarios en resonancias de dos cuerpos." Doctoral thesis, 2017. http://hdl.handle.net/11086/5755.

Full text
Abstract:
Tesis (Doctor en Astronomía)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía, Física y Computación, 2017.
En esta tesis se estudia de forma analítica y numérica el movimiento de una partícula de prueba perturbada en un potencial central. Se encuentran dos límites que permiten relacionar diferentes criterios de estabilidad, los cuales separan las regiones de movimiento estable e inestable de dicha partícula. Además, por medio de desarrollos analíticos, simulaciones hidrodinámicas y simulaciones de N-cuerpos, se realiza un estudio de la dinámica resonante de sistemas planetarios inmersos en el disco y en resonancias de movimientos medios. Se encuentra que la relación de períodos de pares de planetas de baja masa resonantes aumenta cuando los planetas migran en discos de gas acampanados. Finalmente, se comparan los resultados con la distribución observada de los sistemas Kepler.
In this thesis, the motion of a perturbed test particle in a central potential is studied both analytically and numerically. Two limits are found, enabling us to relate different stability criteria. These limits separate regions of stable and unstable motion. In addition, by mean of analytical developments, hydrodynamical simulations, and N-body simulations, the resonant dynamics of planetary systems embedded in the disk and in mean-motion resonances is studied. It is found that the orbital period ratio of the adjacent pair of low mass resonant planets increases when the planets migrate in flared disks. Finally, the results are compared to the observed distribution of the Kepler systems.
APA, Harvard, Vancouver, ISO, and other styles
39

Mora, Pascual Jerónimo Manuel. "Unidades aritméticas en coma flotante para tiempo real." Doctoral thesis, 2001. http://hdl.handle.net/10045/3749.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography