Dissertations / Theses on the topic 'Arquitectura computacional'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 39 dissertations / theses for your research on the topic 'Arquitectura computacional.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
Cifuentes, Quin Camilo Andrés. "Narrativas cibernéticas y arquitectura computacional." Doctoral thesis, Universitat Politècnica de Catalunya, 2014. http://hdl.handle.net/10803/283578.
Full textEsta disertación pretende contribuir a la comprensión del rol acordado a las tecnologías de la información en la arquitectura. Con este propósito se presenta una mirada a algunos de los modelos dominantes desarrollados en el campo de la arquitectura computacional, desde la perspectiva de la relación entre la introducción de las herramientas informáticas en la profesión y la construcción de sus problemas disciplinares en referencia a una serie de ideas promovidas por los discursos de la información. El análisis planteado constituye un estudio de la influencia del pensamiento cibernético en las prácticas contemporáneas de arquitectura digital. De este modo se aspira a mostrar cómo algunos de los modelos más influyentes en este campo se han construido alrededor del paradigma informacional inaugurado por Norbert Wiener y sus colegas. Lo anterior en base a un modo de análisis desde el cual las producciones de la arquitectura digital son consideradas como lo que Bruno Latour llama un "trabajo de mediación". Es decir, como procesos resultantes de la compleja retroalimentación entre diferentes factores que incluyen los problemas disciplinares tradicionales de la arquitectura, sus aspectos tecnológicos y una serie de referencias cruzadas a diferentes modelos de pensamiento herederos del paradigma cibernético. Desde esta perspectiva se plantea una mirada a tres modelos dominantes de la arquitectura computacional que mantienen un estrecho vínculo con el pensamiento cibernético. Se trata de las exploraciones basadas en caracterizaciones de los problemas de diseño como sistemas, como mecanismos genéticos y como fenómenos complejos, auto-organizados y emergentes, que, en referencia a las ideas expuestas en campos como la teoría de sistemas, las visiones informacionales de la biología y la ciencia de la complejidad, han definido elaboraciones de los objetos arquitectónicos y de los procesos de diseño que desafían las representaciones y técnicas tradicionales de la profesión. Partiendo de una mirada al origen cibernético de los discursos del performance en la arquitectura, el análisis planteado pretende mostrar, en primer lugar, cómo las caracterizaciones sistémicas, genéticas y complejas de la arquitectura digital se han elaborado mediante la definición de los problemas de diseño en referencia a una serie de conceptos que emanan de los discursos de la información, y, en segunda instancia, cómo estas elaboraciones se relacionan con el empleo de la computación en el diseño. En cada uno de los casos analizados se trata de responder a dos cuestiones concretas. La primera, cuáles son las ideas centrales promovidas los modelos de referencia y cuál es su relación con el pensamiento cibernético. La segunda, qué visiones de la arquitectura se han construido alrededor de éstas ideas y cómo se articulan estas visiones con las metodologías de diseño desarrolladas. Por consiguiente, la disertación es una indagación sobre cómo las narrativas puestas en circulación por la cibernética han jugado un papel crucial en las elaboraciones de la arquitectura computacional; e inversamente, sobre cómo los métodos computacionales de proyectación aparecen, no como un factor determinante en los procesos de producción de la arquitectura, sino como un medio de exploración en la arquitectura de la visión informacional del mundo propia de la cultura informática. Esta mirada cuestiona las visiones deterministas de las tecnologías de la información en la arquitectura, a favor de una visión donde estas aparecen como un medio para la construcción de los problemas disciplinares dentro de episteme informacional. AJ situar el pensamiento cibernético como una de las condiciones que han estructurado el trabajo intelectual de los arquitectos en la era digital, esta disertación constituye un aporte para la construcción de una mirada crítica de la producción computacional de la arquitectura, cuestión de capital importancia tanto para el presente como para el futuro de la profesión
Marques, Isabel Clara Neves da Rocha. "Abordagem cientìfica ao projecto numa perspectiva computacional na arquitectura." Doctoral thesis, Universidade de Lisboa. Faculdade de Arquitetura, 2015. http://hdl.handle.net/10400.5/11736.
Full textEsta dissertação desenvolve uma análise sobre parte do contexto cultural e tecnológico que contribuiu para o surgimento do pensamento e prática computacional na arquitectura, focando mais especificamente a aproximação do campo científico pela pedagogia do ensino e prática de arquitectura e design entre 1950 e 1970, com base no projecto pedagógico da Hochschule für Gestaltung em Ulm, na Alemanha, (considerado por Kenneth Frampton a Escola mais importante do século XX depois da Bauhaus), local onde convergiram um conjunto de docentes, ideias e trabalhos notáveis deste período. Esta análise, estruturada sequencialmente, considera que a actual utilização de processos de Design computacional em arquitectura compreende conceitos ligados à ciência da computação já iniciados sobretudo na década de 60. Recuando até essa época, tais explorações pioneiras foram marcadas pelo interesse em princípios metodológicos científicos que, com o auxílio dos computadores, foram desenvolvidos em Centros de Investigação, localizados principalmente nos EUA e Reino Unido. Não obstante, esta motivação esteve também presente, uma década antes, na HfG-Ulm, sem o auxílio dos computadores, fundada em 1953 pelo arquitecto suíço Max Bill, encontrando-se pouco estudada. A dissertação pretende assim questionar e demonstrar a relevância da HfG-Ulm no contexto da análise de métodos científicos associados ao projecto, ainda sem a utilização de computadores, argumentando que nesta Escola, através das ideias desenvolvidas por três professores - Tomás Maldonado (Projecto Educativo), Max Bense (Estética da Informação) e Horst Rittel (Metodologia Científica) – criaram-se fundamentos que estão na base das posteriores abordagens computacionais na arquitectura, as quais mais tarde vieram a utilizar a computação não como uma ferramenta de desenho geométrico, mas sim como uma ferramenta de desenho computacional. Algumas destas matérias viriam a ser investigadas e ampliadas anos depois em centros de investigação académicos de departamentos de Arquitectura e Design. O argumento da investigação encontra-se estruturado em três partes: “Pré HfG-Ulm”: a reconstrução do contexto sócio-cultural e filosófico que antecedeu, sustentou e determinou a base teórica da Hochschule für Gestaltung de Ulm; “HfG-Ulm”: a própria génese da Escola; “Post HfG-Ulm”: a sua evolução ideológica, que perante o encerramento inesperado da Escola conduziu à consagração de um projecto incompleto que questionou ideias, a maioria das quais só mais tarde perspectivadas e desenvolvidas. A dissertação contribui para mapear e integrar a HfG-Ulm num contexto mais lato composto por outras Instituições e sistemas de pensamento em emergência, analisando a influência das disciplinas então emergentes da teoria da informação, da Investigação Operacional, e das metodologias científicas no pensamento arquitectónico e na concepção do projecto de arquitectura nas décadas de 50 a 70, revelando contextos culturais, históricos e tecnológicos pouco estudados, que influenciaram o desenvolvimento de uma prática computacional na arquitectura. Para dar resposta às questões levantadas durante a investigação, procedeu-se à análise do material da biblioteca da Escola, encerrada em 1968, que se encontra armazenado no Arquivo e Museu da Hochschule für Gestaltung, sendo que a recolha de material original proveniente desse Arquivo, bem como a realização de entrevistas com teóricos investigadores que leccionaram na HfG-Ulm. A análise de fontes primárias e directas constituem assim dois eixos metodológicos fulcrais do presente trabalho.
ABSTRACT: This thesis presents an analysis of the cultural and technological context which led to the emergence of computational thinking and practice in architecture, focussing specifically on how architecture teaching and Design approached science in the period 1950-1970, based on the educational programme at the Hochschule für Gestaltung in Ulm, Germany (considered by Kenneth Frampton to be the most important School in the 20th. century after the Bauhaus), a place where a remarkable set of teachers, ideas and work converged. The analysis, which is structured sequentially, considers that the actual use of computational Design processes in architecture includes concepts associated with computer science which were mainly launched in the 1960s. However, this interest was present, without the use of computers, a decade earlier at HfGUlm, having been introduced in 1953 by the Swiss architect Max Bill, and has been studied very little. Looking back to this period, it can be seen that this pioneering work was defined by an interest in scientific methodological principles later developed, with the aid of computers, in research centres located principally in the USA and the United Kingdom. The thesis therefore aims to demonstrate the relevance of HfG-Ulm by analyzing the scientific methods associated with the project, which did not involve the use of computers, arguing that through the ideas developed by some of the teaching staff - Tomás Maldonado (Education Project), Max Bense (Information Aesthetics) and Horst Rittel (Scientific Methodology) – the School laid the foundations for subsequent computational approaches in architecture which used computation not as a geometric but a computerized Design tool. Some of the material would be investigated and developed years later in research centres associated with higher education Architecture and Design departments. The argument of the research is structured into three sections: “Pre HfG-Ulm”: the reconstruction of the socio-cultural and philosophical context which preceded, supported and determined the theoretical base of the Hochschule für Gestaltung de Ulm; “HfG-Ulm”: the origins of the School; “Post HfG-Ulm”: its ideological evolution which, following the unexpected closure of the School, left an unfinished project which questioned certain ideas, the majority of which were only put into perspective and developed later. The thesis contributes towards mapping out and including HfG-Ulm within a broader context composed of other emerging institutions and systems of thought, analyzing the influence of the new disciplines of information theory, operational research and scientific methodologies in architectural thought and the concept of the architectural project from the 50s to the 70s. It examines cultural, historical and technological contexts that have been studied very little, yet were influential in the development of computational practice in architecture. The analysis is based on material from the School’s library, which closed in 1968, stored in the Hochschule für Gestaltung Archives and Museum. The original material gathered from the Archives, together with interviews with leading figures from the School, constitute the two main strands of the research, which is, to a large extent, based on the analysis of direct primary sources.
Rocha, Benvindo da Cruz. "Implementação de um sistema de inventariação com arquitectura distribuída e visão computacional." Master's thesis, Universidade de Évora, 2013. http://hdl.handle.net/10174/9056.
Full textLeal, Ana Luísa Varani. "AuTema-Dis: uma arquitectura computacional para identificação da temática discursiva em textos em Língua Portuguesa." Doctoral thesis, Universidade de Évora, 2008. http://hdl.handle.net/10174/22399.
Full textAhumada, Ahumada Francisco Javier. "Documentación de arquitecturas de sistemas en un banco." Tesis, Universidad de Chile, 2013. http://www.repositorio.uchile.cl/handle/2250/113666.
Full textUn banco posee cientos de sistemas para apoyar a la mayoría de las funciones del negocio y procesar millones de solicitudes de sus clientes internos y externos. Una falla en estos sistemas puede causar, desde un retraso en la entrega de informes de gestión, hasta pérdidas millonarias e incluso la cancelación de la licencia para poder operar. La falta de documentación apropiada puede ser la causa de errores en el diseño de una modificación de la infraestructura existente. Cuando se produce una falla, el no tener la documentación adecuada puede aumentar los tiempos de respuesta de los equipos de soporte. En general, el contar con la documentación de la arquitectura de los sistemas permite a los equipos de trabajo tener una visión general y un punto de partida para tomar decisiones ante contingencias que puedan involucrarlos. Cuando se habla de documentación formal de la arquitectura de software, existen varios modelos que se basan en la presentación de vistas que describen cómo se estructura. Algunos tienen un número fijo de vistas, y otros permiten acotar este número de acuerdo a un análisis de las necesidades existentes. En este trabajo, se propone una metodología para aplicar y verificar la utilidad de uno de los modelos de documentación existentes: el modelo de vistas del Software Engineering Institute (SEI), que busca identificar y documentar las vistas de arquitectura de software más adecuadas, de acuerdo a los requerimientos de calidad de los stakeholders de un sistema en estudio. Para realizar lo anterior, se seleccionó un sistema utilizado en un Banco, se entrevistó a sus stakeholders para conocer cuáles son sus intereses y con ello se generaron las vistas de arquitectura que propone el modelo. Finalmente, se presentan 3 casos donde se valida que la documentación de las vistas de arquitectura generadas en base al modelo mejoran la toma de decisiones de sus stakeholders, comparándola con el uso de la documentación existente antes de realizar este trabajo. Este trabajo entrega una metodología práctica para aplicar el modelo de vistas del SEI, aprovechando principalmente la relación existente entre sus guías de estilos y los atributos de calidad que apoyan, orientando la documentación de la arquitectura de sistemas a las necesidades específicas de sus stakeholders. Para la comunidad académica y profesional sirve como caso de estudio de aplicación del modelo y, para el Banco involucrado, como el punto de partida para incorporarla en su ciclo de desarrollo de proyectos tecnológicos.
Díaz, Cortés Eduardo Alberto. "Implantación de procesos y herramientas basadas en DevOps para una empresa de servicios de información." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/169243.
Full textPrevired S.A. es una empresa que presta servicios a la industria de la seguridad social nacional desde el año 2000. Una división de negocios, denominada Apoyo al Giro, implementa y presta servicios de información a diversas entidades de la industria previsional. Esta división de negocios cuenta con un equipo propio de desarrollo de software que construye cerca del 80% de los sistemas de información que sirven de apoyo a los servicios de negocio. Estos servicios son cada vez más demandados y gran parte de ellos son considerados críticos por sus clientes, lo que compromete a la organización a cumplir altos niveles de servicio, y se debe garantizar la continuidad operativa de los mismos. El proceso de implantación de nuevas versiones de los sistemas existentes se realiza mediante procesos manuales, con una tasa de fallos considerada insatisfactoria por los clientes internos y externos. Por otro lado, hay una tasa de fallos críticos que se espera disminuir. Un fallo crítico corresponde a una indisponibilidad del servicio productivo por varias horas o días. Una parte de estos fallos se debe a errores en el proceso de implantación en producción, por mala ejecución de las instrucciones, falta de prolijidad en la instalación, o en la elaboración de los documentos que describen los pasos a producción. El objetivo general de este trabajo es implementar un proceso de integración y entrega continua automatizado incorporando procesos y herramientas de DevOps dentro de la organización, para un servicio productivo de Previred, con el fin de reducir la tasa de fallos críticos debidos al proceso actual. Para lograr el objetivo se revisa el actual proceso de desarrollo de Previred, luego se realiza un estudio de los principales problemas y dolores que experimenta la organización con este proceso, mediante entrevistas a personas claves de la organización. Con los antecedentes recogidos se propone una modificación al proceso de desarrollo, junto con una plataforma tecnológica que apoya los cambios al proceso. Para poder plasmar esta plataforma se propone una arquitectura, y para construirla se analizan las herramientas disponibles y se seleccionan las adecuadas para la cultura y realidad de Previred. Para validar la arquitectura realizó una prueba de concepto que permite determinar la factibilidad de la plataforma propuesta. Además, se realiza una evaluación cualitativa de la solución a través de una encuesta realizada a un grupo de personas claves en la organización.
Borja, Luis Felipe. "Arquitectura de visión y aprendizaje para el reconocimiento de actividades de grupos usando descriptores de movimiento." Doctoral thesis, Universidad de Alicante, 2020. http://hdl.handle.net/10045/111289.
Full textAlvarado, Cataldo Andrés Alejandro. "Diseño de una Arquitectura de Software para un Sistema Legado a Fin de Cumplir con la Normativa de Documento Electrónico." Tesis, Universidad de Chile, 2009. http://repositorio.uchile.cl/handle/2250/102039.
Full textHernández, Villar Carolina. "La tríada oscura y el mecanismo de detección de tramposos: una aproximación de la psicología evolucionista a la arquitectura computacional del engaño." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/130588.
Full textCano, Esquibel José Gaspar. "Métodos de inteligencia artificial aplicados a química computacional en entornos de computación de alto rendimiento." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/45000.
Full textCabrera, Encalada Paúl Romeo. "Diseño de una arquitectura orientada a servicios para la integración y evolución de los sistemas de consulta de causas del Poder Judicial de Chile." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/144715.
Full textEl Poder Judicial de Chile en su afán de transparentar los procesos, ofrece a sus usuarios (funcionarios públicos y abogados) varios portales en donde se puede consultar las diferentes causas y trámites que se llevan a cabo. Estos portales se encuentran publicados en la página oficial de la institución, pero funcionan de manera independiente según el juzgado al que se consulte: Corte Suprema, Laboral, Cobranza, Penal, Civil, Familia o Apelaciones. Por lo tanto, la arquitectura actual no permite una fácil escalabilidad de los sistemas, ya que al ser soluciones independientes, sus datos y servicios no están integrados y existe duplicidad de ellos. Además, manejan diferentes credenciales de autenticación para cada sistema aunque se trate del mismo usuario. Por otra parte, estos sistemas no están preparados para ser utilizados en dispositivos móviles, como tablets o teléfonos inteligentes, por lo tanto sus interfaces de usuario no son adaptables a los diferentes tipos de pantalla y resoluciones. Lamentablemente una parte importante de los usuarios requiere acceso a la información en terreno, por lo que el acceso para móviles se hace indispensable. Para dar solución a estos problemas se realizaron nuevos desarrollos que apuntan a unificar estos sistemas de consulta, adaptar sus interfaces de usuario a dispositivos móviles y facilitar el acceso a los usuarios estacionarios y móviles. Para ello, se diseñó e implementó una arquitectura de software orientada a servicios, que permitió dar solución a los problemas de escalabilidad y duplicidad de datos de los sistemas de la institución, permitiendo el manejo integral de la información y unificando los diferentes sistemas que actualmente están en producción. Finalmente, se implementó una aplicación móvil multi-plataforma que hace uso de la nueva arquitectura, y que está disponible para facilitar la consulta a los usuarios. Estas personas ahora acceden a los sistemas de la institución a través de un único nombre de usuario y clave, y pueden consultar en cualquiera de las cortes antes mencionadas.
González, Catalán Christian Andrés. "Arquitectura de un Dashboard de monitoreo de Proyectos de Software en PYMES mediante la integración de herramientas de desarrollo." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/172671.
Full textLa construcción de software es una actividad compleja, realizada por equipos de personas y que involucra diversas actividades, como planificación, gestión de incidentes, control de versiones, pruebas y codificación, entre otras. Un proceso de desarrollo permite a las organizaciones ordenar la construcción de software definiendo los artefactos y asignando los roles que realizan estas actividades, de forma de mejorar la calidad y la productividad en los proyectos de software. Las actividades de desarrollo y de monitoreo realizadas durante la ejecución de un proyecto, generalmente son apoyadas por diversas herramientas. Este trabajo de tesis se enmarca en las PyMEs de software chilenas, las cuales tienen realidades muy diferentes, pero la gran mayoría de ellas tiene necesidades de monitoreo y control de sus proyectos. A pesar de que la mayoría de las PyMEs posee información de sus actividades de desarrollo en las herramientas que utiliza, la captura de las métricas de sus proyectos la realizan generalmente de forma manual, lo cual es costoso en términos de tiempo y dinero. Una posible solución para este problema es la construcción de un software que integre, recopile y consolide la información de diversas herramientas, permitiendo visualizar mediante un dashboard o panel de control información relevante para la toma de decisiones, apoyando las actividades de monitoreo y control de proyectos. Sin embargo, al aplicar la solución a múltiples PyMEs se observa que existe una complejidad técnica debido a la variabilidad de herramientas utilizadas por las PyMEs. Esta variabilidad se manifiesta tanto en las herramientas, sus tipos y los usos que se les da. Debido a estas complejidades relacionadas con la interoperabilidad, integración y variabilidad, en este trabajo de tesis se propone una arquitectura para un sistema de dashboard, el cual tiene como objetivo proveer de un mecanismo para aprovechar la información disponible en las herramientas de desarrollo de las PyMEs para monitorear, controlar y apoyar la toma de decisiones durante la gestión de los proyectos. Finalmente, con el objetivo de validar la arquitectura propuesta, demostrar la factibilidad de su implementación y encontrar oportunidades de mejora, se realiza la validación mediante dos técnicas: la implementación de un prototipo y la evaluación de la arquitectura por expertos.
Agustí, Melchor Manuel. "Análisis y clasificación de imágenes repetitivas mediante técnicas de simetría computacional." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/63270.
Full text[ES] Actualmente manejamos mucha información de carácter visual. Vemos, creamos y usamos imágenes en gran medida para nuestra comunicación. Las técnicas de análisis basadas en características de bajo nivel son, en muchas ocasiones, poco descriptivas o representativas para el usuario humano. Esto es debido en parte a que son muy dependientes de las condiciones de adquisición de cada imagen y, también, a la dificultad de asociar el contenido de la imagen con una gran cantidad de valores numéricos que describen detalles muy pequeños de la misma. Buscando acercar la forma computacional a la humana de describir el contenido de una imagen, las tendencias actuales están encaminadas a la construcción de descripciones que implican el uso de conceptos mas complejos. Estas abstracciones se consiguen construyendo descripciones más elaboradas que asuman la variabilidad (y las tolerancias) con que los humanos tomamos las decisiones a la hora de describir el contenido visual de las imágenes. En esta tesis se aborda el uso de la simetría y la determinación de qué combinaciones de simetrías aparecen en una imagen para su descripción en base a patrones de simetría en lugar de por ejemplo patrones de píxeles, basados en las texturas, el color, etc. El problema de la descripción de imágenes en estos contextos se puede ver como uno de clasificación, debido a su relación con la teoría de grupos en el plano (WallPaper Group Theory) también denominada de mosaicos o teselación que se formula como la determinación del grupo de simetría al que pertenecen, caracterizado por un conjunto de simetrías interiores a un elemento básico que condensa todo el contenido del diseño. Si somos capaces de determinar si existe contenido repetitivo en una imagen, podremos obtener un patrón que permita describir la imagen en términos de un área que se repite de forma indefinida en el plano (sin dejar huecos y sin solapes), en pasos discretos marcados por las dos direcciones de simetría de traslación que define la retícula. Bajo esta formulación, el contenido de la imagen se puede expresar a partir de una forma elemental mínima, que no contiene ninguna simetría interior.
[CAT] Actualment fem ús de molta informació de caràcter visual. Veiem, creem i fem ús d'imatges en gran quantitat per a la nostra comunicació. Les tècniques d'anàlisi basades en característiques de baix nivell són, moltes voltes, poc descriptives o representatives per a l'usuari humà. Açò és degut en part a què són molt dependents de les condicions d'adquisició de cada imatge i, per la dificultat d'associar el contingut de la imatge amb una gran quantitat de valors numèrics que descriuen detalls molt menuts de la imatge. Per aproximar la forma computacional a la humana de descriure el contingut d'una imatge, les tendències actuals estan encaminades a la construcció de descripcions que impliquen l'ús de conceptes mes complexos. Estes abstraccions s'aconseguixen construint descripcions més elaborades que assumisquen la variabilitat (i les toleràncies) amb que els humans prenem les decisions a l'hora de descriure el contingut visual de les imatges. En esta tesi s'aborda l'ús de la simetria i la determinació de quines combinacions de simetries apareixen en una imatge per a la seua descripció basant-se en patrons de simetria en compter de patrons de píxels (textures) . El problema de la descripció d'imatges en estos contextos es pot veure com un de classificació, degut a la seua relació amb la teoria de grups en el pla (WallPaper Group Theory) també denominada de mosaics o teselación, es formula com la determinació del grup de simetria a què pertanyen, que és de cardinal finit (només hi ha dèsset en 2D) i es descriuen per un conjunt de simetries interiors a un element bàsic que condensa tot el contingut del disseny. Si som capaços de determinar si n'hi ha contingut repetitiu a una imatge, podrem obtindre un patró que permeta descriure la imatge en termes d'una àrea que es repetix de forma indefinida en el pla (sense deixar buits i sense solapamentss), en passos discrets marcats per les dos direccions de simetria de translació que definix la malla. Davall esta formulació, el contingut de la imatge es pot expressar a partir d'una forma elemental mínima, que no conté cap simetria interior
Agustí Melchor, M. (2016). Análisis y clasificación de imágenes repetitivas mediante técnicas de simetría computacional [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/63270
TESIS
Madrid, Cabezas Francisco Javier. "Integración y evolución de sistemas de información del DCC." Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/148981.
Full textDesde hace varios años, el Departamento de Ciencias de la Computación (DCC) de la Universidad de Chile ha venido desarrollando sus sistemas de información como si fueran islas. Estos sistemas apoyan principalmente la gestión de actividades académicas, docentes y económico-financieras del DCC. Aunque esta infraestructura de software ha funcionado relativamente bien, la estrategia de desarrollo de sistemas desacoplados limita el crecimiento de dicha infraestructura de cara al futuro. Por esa razón el DCC ha decidido integrar estas islas, tanto a nivel de datos como de servicios, para permitir un desarrollo más armónico y controlado de sus sistemas de información. Se espera que esta integración facilite especialmente el reuso de información, manteniendo una única fuente de verdad para las distintas áreas de negocio (pregrado, postgrado, educación continua, investigación, etc.). Este trabajo de memoria realizó una prueba de concepto que abordó no sólo la integración de dos sistemas de información del DCC, sino también la reingeniería de uno de ellos y el desarrollo completo del otro. Las aplicaciones en cuestión son el Sistema Administrador de Recursos (SAR) y el Sistema Administrador de Noticias y Eventos (SANE). Para llevar a cabo la integración de estos sistemas se diseñó e implementó una arquitectura de microservicios que es capaz de contener a las aplicaciones críticas del Departamento. Apoyándose en dicha arquitectura se modificó y extendió el sistema SAR, agregándole por ejemplo funcionalidad para permitir la administración de puestos de trabajos de alumnos de postgrado y profesores visitantes. Por otra parte, el proceso de reservas de recursos (por ejemplo, salas de reuniones) se independizó de las secretarias, permitiendo que académicos y funcionarios puedan hacer reservas según su rol. La nueva versión del sistema SAR está actualmente en producción. Por otra parte, se diseñó e implementó un nuevo sistema de software, el cual permite mantener y gestionar las noticias y eventos del Departamento (por ejemplo, charlas, defensas de tesis, etc.). Éste permite además alimentar automáticamente otros recursos de entrega de información del Departamento; por ejemplo, su página Web oficial. El sistema SANE también adhiere a la arquitectura de microservicios definida, y permite la interacción con el SAR a través de una API (Application Programming Interface). El proyecto piloto que buscaba la integración de ambos sistemas a través de una arquitectura de microservicios resultó exitoso, pues no sólo se alcanzaron los objetivos iniciales, sino que además los usuarios finales se mostraron muy satisfechos con las soluciones obtenidas. Este piloto muestra un camino para que en adelante se integren otros sistemas a la nueva infraestructura de software del DCC, independientemente de que estas aplicaciones sean nuevas o legadas. Las nuevas aplicaciones deberán contemplar la intercomunicación con la infraestructura creada, utilizando mecanismos de autenticación adecuados para garantizar la seguridad de sus operaciones. En resumen, más allá de las ventajas propias de contar con más y mejores servicios de software para apoyar las operaciones del Departamento, este trabajo de memoria buscó determinar la factibilidad y el esfuerzo requerido para integrar los sistemas del DCC a través de una arquitectura de microservicios; y el resultado obtenido fue altamente positivo.
Perovich, Gerosa Daniel. "Model-Based systematization of software architecture design." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/131098.
Full textLa Arquitectura de Software juega un rol crucial en la Ingeniería de Software, permitiendo el control intelectual, la integridad conceptual, la comunicación efectiva, la administración de un conjunto relacionado de variantes de sistemas, y la reutilización de conocimiento, experiencia, diseño e implementación. Aplicar el conocimiento arquitectónico promueve la calidad, reduce los riesgos, y es esencial para alcanzar las expectativas de los interesados con resultados predecibles. El conocimiento arquitectónico actual es vasto y está en constante aumento, pero a su vez, es heterogéneo y disperso, está expresado en diferentes niveles de abstracción y rigor, y requiere de herramientas que raramente están disponibles en los ambientes de desarrollo. En la práctica, el diseño arquitectónico está limitado por las habilidades y experiencia del arquitecto y por el conocimiento que domina, y requiere de gran esfuerzo para ajustarlo y adaptarlo al escenario de desarrollo. Así, el diseño arquitectónico rara vez alcanza el nivel de calidad que es posible dado el conocimiento arquitectónico disponible. Además, el esfuerzo del arquitecto no es repetible ya que resultan embebidos en las descripciones de las arquitecturas. Aunque las técnicas de modelado están siendo usadas en Arquitectura de Software, la mayoría de los enfoques carecen de generalidad y homogeneidad, dificultando su integración y aplicación. En este trabajo, usamos megamodelado para definir un mecanismo unificado y homogéneo para capturar conocimiento arquitectónico, haciéndolo compartible, reusable, manejable por herramientas, y directamente aplicable. Definimos una interpretación formal de los conceptos principales de la disciplina en términos de artefactos de modelado. Además, cambiamos el foco de construir la descripción de la arquitectura directamente, a capturar cómo dicha descripción es creada. Para ello, definimos un lenguaje para capturar las acciones de diseño, y lo interpretamos en términos de técnicas de modelado haciendo el diseño repetible. Validamos nuestro enfoque definiendo procedimientos para guiar a la comunidad en cómo capturar conocimiento arquitectónico usando nuestra interpretación formal, aplicando estos procedimientos para capturar las técnicas de descripción y diseño del SEI, y aplicando el conocimiento capturado al diseño de la línea de productos de mallas geométricas. Nuestro trabajo realiza dos contribuciones originales. Primero, definimos un mecanismo unificado y homogéneo para capturar conocimiento arquitectónico, usando técnicas de Ingeniería Dirigida por Modelos, particularmente el enfoque de megamodelado Global Model Management, y usando semántica denotacional para la formalización. Segundo, definimos una representación de decisiones y soluciones arquitectónicas en términos de un lenguaje específico, haciéndolas descriptivas y aplicables. Así, facilitamos el cambio de foco del arquitecto haciendo el diseño arquitectónico explícito, repetible y reusable, y obteniendo descripciones de arquitectura implícitas y generables en forma automática.
Dias, Gael Harry Adélio André Dias. "Extraction automatique d´associations lexicales à partir de corpora." Doctoral thesis, FCT - UNL, 2002. http://hdl.handle.net/10362/1293.
Full textMayosky, Miguel Ángel. "Simulación de arquitecturas computacionales." Doctoral thesis, Universitat Autònoma de Barcelona, 1990. http://hdl.handle.net/10803/3057.
Full textRetamal, Valenzuela Jorge Hernán. "Plataforma de desarrollo de aplicaciones en el DCC basada en técnicas de DevOps." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/170717.
Full textEl desarrollo de aplicaciones en las organizaciones es un aspecto fundamental para el apoyo de la operación y en ese sentido el DCC no es la excepción. En el DCC las aplicaciones son provistas por la facultad o bien son desarrolladas internamente apoyados en estudiantes, memoristas, tesistas y académicos. Los desarrollos han sido canalizados a través de un académico quién históricamente se ha hecho cargo de este proceso. Sin embargo, y con el fin de ordenar el proceso y potenciar los resultados, en el 2017 se crea el Área Aplicaciones. A través de un estudio, la recién creada Área Aplicaciones realizó un levantamiento de todas aquellas aplicaciones desarrolladas internamente y que apoyan la operación. Sin embargo, al ir un poco más allá y consultar acerca del código fuente de las aplicaciones, la documentación o los procedimientos de gestión de incidencias y proyectos, no se encontró información documentada por lo que se observa que no hay gobernanza en el desarrollo y operación de las aplicaciones del DCC. Para resolver esta problemática, en este trabajo de tesis se crea una plataforma de desarrollo de software basada en el paradigma DevOps. Los principios y alcance de esta plataforma respetan la forma y fuerza de trabajo del DCC. La plataforma está dividida en dos grandes áreas. La primera es un pipeline el cual representa el ciclo de vida de desarrollo de software para las aplicaciones del DCC, abarcando desde tareas de recolección de ideas e incidencias hasta la instalación de las aplicaciones desarrolladas en el ambiente de producción. La segunda es la creación de una plataforma de herramientas concretas que apoyan el uso del pipeline. Estas herramientas asisten al pipeline en todas sus fases, desde la organización y gestión de ideas e incidencias hasta la automatización de la instalación de los componentes en distintos ambientes dependiendo de la fase en la cual se encuentre el desarrollo. La validación del trabajo se realizó en dos fases. La primera es a través de un piloto en el cual el Área Aplicaciones utiliza el pipeline y las herramientas de apoyo para el desarrollo de una aplicación, para luego solicitar las opiniones de los actores a través de una técnica de retrospectiva. La segunda fase consiste en consultar a las áreas involucradas (Aplicaciones y Sistemas) sus opiniones y observaciones en cuanto a la plataforma definida.
Garcia-Rodriguez, Jose. "Modelos neuronales auto-organizativos para la representación de objetos y de su movimiento en escenas realistas." Doctoral thesis, Universidad de Alicante, 2009. http://hdl.handle.net/10045/12735.
Full textLópez, Besora Josep Maria. "Trombosi venosa profunda: Estudi dels efectes del caminar i de la implantació de filtres de vena cava amb simulacions biomecàniques." Doctoral thesis, Universitat Rovira i Virgili, 2018. http://hdl.handle.net/10803/663370.
Full text"Trombosis venosa profunda: Estudio de los efectos de caminar i de la implantación de filtros d evena cava con simulaciones biomecánicas" Esta tesis describe una investigación que se ha llevado a cabo mediante simulaciones por ordenador. El objetivo ha sido estudiar aspectos concretos relacionados con la trombosis venosa profunda. Estos aspectos han sido estudiados desde un punto de vista puramente mecánico, en dos situaciones: qué efectos tiene sobre una vena poplítea trombótica el caminar, y qué efectos comparativos tiene la implantación de cuatro filtros distintos de vena cava. La aproximación al problema ha sido pues calcular mediante simulaciones los valores de las magnitudes físicas que describen los aspectos más relevantes. Se han desarrollado una serie de metodologías para diseñar e implementar las simulaciones, que se han llevado a cabo usando un conjunto de paquetes de software libre y un volumen de código generado específicamente. En cuanto a los efectos de caminar sobre la vena poplítea se ha concluido que la extensión/compresión del músculo semimembranoso lleva a un aumento cuantificado del diámetro de la vena y a una mejora de la circulación. También se ha concluido y cuantificado que esta mejora de la circulación desaparece si en paralelo se produce un aumento del caudal sanguíneo. En cuanto a los filtros de vena cava, las conclusiones más relevantes son relativas a los efectos del flujo sanguíneo sobre los propios filtros. Se han cuantificado las fuerzas de fricción y presión ejercidas sobre los filtros en condiciones de caudales o viscosidades sanguíneos diversas. Cuatro filtros distintos se han podido comparar cuantitativamente dadas las fuerzas y además se han podido obtener para todos ellos unas estimaciones fiables de las fuerzas totales ejercidas cuando hay variaciones en el caudal/ritmo cardíaco y/o en la viscosidad sanguínea
"Deep vein thrombosis: Study of the effects of walking and of the implantation of vena cava filters through biomechanical simulations". This thesis describes a research that was carried out through computer simulations. The objective was to study specific aspects related to deep vein thrombosis. These aspects were studied from a purely mechanical point of view, in two different situations: effects of walking on a thrombotic popliteal vein, and effects of the implantation of four different vena cava filters. The problem was approached by calculating the values of the physical magnitudes that describe the most relevant aspects by means of numerical simulations. Several methodologies were developed to design and implement these simulations. For these purposes some taylor-made codes were created to be used along with a set of open source software packages. Regarding the effects of walking on the popliteal vein it was concluded that the extension/compression of the semimembranous muscle yields an increase of the vein diameter and an improvement in the blood flow. It was also concluded and quantified to what extent this improvement in blood flow is reduced when blood flow is increased. Regarding vena cava filters, the most relevant conclusions are related to the effect of blood flow on the filters themselves. The forces of friction and pressure exerted on the filters in different conditions of flow rates or blood viscosities have been quantified. Four different filters could be compared quantitatively with respect to the forces exerted on them. In addition reliable estimates of the total forces exerted for all filters when there are variations in flow/heart rate and/or blood viscosity were obtained.
Figueiredo, Luís Carlos Nobre de Almeida. "Implementação em FPGA de algoritmos computacionais paralelos." Master's thesis, Universidade de Aveiro, 2010. http://hdl.handle.net/10773/3567.
Full textNos ultimos anos, tem-se assistido a um indiscutível aumento da utilização de sistemas reconfiguráveis. Dentro destes sistemas, as FPGAs (Field- Programmable Gate Array) apresentam-se, assim, como um grande potencial, possibilitando a implementação de projectos de média/grande complexidade, tais como os algoritmos de manipulação de dados. O tempo de execução e os recursos envolvidos são, de longe, os factores mais importantes a considerar. Nesta perspectiva, foi desenvolvida nesta tese uma implementação de um algoritmo de multiplicação de matrizes e foi comparado o seu tempo de execução face a implementação em software. A implementação do algoritmo na FPGA, debruça-se essencialmente em máquinas de estados finitos, com o intuito de aproveitar o paralelismo que se pode encontrar neste tipo de dispositivos. Foi, também, criada uma comunicação entre um PC de uso geral com a placa FPGA por USB, de modo a ser possível a transmissão de dados entre ambos. O sistema foi implementado e testado com exito, podendo-se observar os resultados da multiplicação através do monitor VGA, ou através do PC.
In the last few years, the rising use of recon gurable systems is indisputable. These systems are usually constructed on the basis of FPGA (Field- Programmable Gate Array), which allow for the implementation of medium and high complexity algorithms, such as data manipulation algorithms. The most important factors to consider are the execution time and the required resources. In this thesis, matrix multiplication algorithms were implemented in FPGA and the resulting execution time was compared with the respective implementation in software. The implementation in FPGA aims at exploring parallelism as much as possible. Then a communication was established between a host computer and an FPGA-based prototype board through USB system. The entire system was implemented and tested sucessfully. The multiplications results can either be seen an a VGA monitor or on the PC console application.
Dolz, Zaragozá Manuel Francisco. "Energy-aware matrix computacion on multirhreaded architectures." Doctoral thesis, Universitat Jaume I, 2014. http://hdl.handle.net/10803/669082.
Full textHerrera, Hernández José. "Optimización de arquitecturas distribuidas para el procesado de datos masivos." Doctoral thesis, Universitat Politècnica de València, 2020. http://hdl.handle.net/10251/149374.
Full text[CA] La utilització de sistemes per al tractament eficient de grans volums d'informació ha crescut en popularitat durant els últims anys. Açò comporta el desenvolupament de noves tecnologies, mètodes i algoritmes, que aconsellen l'ús eficient de les infraestructures. El tractament de grans volums d'informació no està exempt de nombrosos problemes i reptes, alguns dels quals es tractaran de millorar. Dins de les possibilitats actuals hem de tindre en compte l'evolució que han tingut els sistemes durant els últims anys i les ocasions de millora que existisquen en cada un d'ells. El primer sistema d'estudi, el Grid, constituïx una aproximació inicial de processament massiu i representa un dels primers sistemes de tractament distribuït de grans conjunts de dades. Participant en la modernització d'un dels mecanismes d'accés a les dades es facilita la millora dels tractaments que es realitzen en la genòmica actual. Els estudis que es presenten estan centrats en la transformada de Burrows-Wheeler, que ja és coneguda en l'anàlisi genòmica per la seua capacitat per a millorar els temps en l'alineament de cadenes curtes de polinucleòtids. Esta millora en els temps, es perfecciona per mitjà de la reducció dels accessos remots amb la utilització d'un sistema de memòria cau intermèdia que optimitza la seua execució en un sistema Grid ja consolidat. Esta caché s'implementa com a complement a la llibreria d'accés estàndard GFAL utilitzada en la infraestructura d'IberGrid. En un segon pas es planteja el tractament de les dades en arquitectures de Big Data. Les millores es realitzen tant en l'arquitectura Lambda com a Kappa per mitjà de la busca de mètodes per a tractar grans volums d'informació multimèdia. Mentre que en l'arquitectura Lambda s'utilitza Apache Hadoop com a tecnologia per a este tractament, en l'arquitectura Kappa s'utilitza Apache Storm com a sistema de computació distribuït en temps real. En ambdós arquitectures s'àmplia l'àmbit d'utilització i s'optimitza l'execució per mitjà de l'aplicació d'algoritmes que milloren els problemes en cada una de les tecnologies. El problema del volum de dades és el centre d'un últim escaló, pel qual es permet millorar l'arquitectura de microserveis. Tenint en compte el nombre total de nodes que s'executen en sistemes de processament tenim una aproximació de les magnituds que podem obtindre per al tractaments de grans volums. D'aquesta manera la capacitat dels sistemes per a augmentar o disminuir la seua dimensió permet un govern òptim. Proposant un sistema bioinspirat s'aporta un mètode d'autoescalat dinàmic i distribuït que millora el comportament dels mètodes comunment utilitzats enfront de les circumstàncies canviants no predictibles. Les tres magnituds clau del Big Data, també conegudes com V's, es troben representades i millorades: velocitat, enriquint els sistemes d'accés de dades per mitjà d'una reducció dels temps de tractament de les busques en els sistemes Grid bioinformàtics; varietat, utilitzant sistemes multimèdia menys freqüents que els basats en dades tabulars; i finalment, volum, incrementant les capacitats d'autoescalat per mitjà de l'aprofitament de contenidors i algoritmes bioinspirats.
[EN] The use of systems for the efficient treatment of large data volumes has grown in popularity during the last few years. This has led to the development of new technologies, methods and algorithms to efficiently use of infrastructures. The Big Data treatment is not exempt from numerous problems and challenges, some of which will be attempted to improve. Within the existing possibilities, we must take into account the evolution that systems have had during the last years and the improvement that exists in each one. The first system of study, the Grid, constitutes an initial approach of massive distributed processing and represents one of the first treatment systems of big data sets. By researching in the modernization of the data access mechanisms, the advance of the treatments carried out in current genomics is facilitated. The studies presented are centred on the Burrows-Wheeler Transform, which is already known in genomic analysis for its ability to improve alignment times of short polynucleotids chains. This time, the update is enhanced by reducing remote accesses by using an intermediate cache system that optimizes its execution in an already consolidated Grid system. This cache is implemented as a GFAL standard file access library complement used in IberGrid infrastructure. In a second step, data processing in Big Data architectures is considered. Improvements are made in both the Lambda and Kappa architectures searching for methods to process large volumes of multimedia information. For the Lambda architecture, Apache Hadoop is used as the main processing technology, while for the Kappa architecture, Apache Storm is used as a real time distributed computing system. In both architectures the use scope is extended and the execution is optimized applying algorithms that improve problems for each technology. The last step is focused on the data volume problem, which allows the improvement of the microservices architecture. The total number of nodes running in a processing system provides a measure for the capacity of processing large data volumes. This way, the ability to increase and decrease capacity allows optimal governance. By proposing a bio-inspired system, a dynamic and distributed self-scaling method is provided improving common methods when facing unpredictable workloads. The three key magnitudes of Big Data, also known as V's, will be represented and improved: speed, enriching data access systems by reducing search processing times in bioinformatic Grid systems; variety, using multimedia data less used than tabular data; and finally, volume, increasing self-scaling capabilities using software containers and bio-inspired algorithms.
Herrera Hernández, J. (2020). Optimización de arquitecturas distribuidas para el procesado de datos masivos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/149374
TESIS
Flores, Liubov Alexandrovna. "Algoritmos Paralelos de Reconstrucción de Imágenes TAC sobre Arquitecturas Heterogéneas." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/59424.
Full text[ES] En medicina, el diagnóstico basado en imágenes de tomografía axial computerizada (TAC) es fundamental para la determinación de anormalidades a través de diferentes valores de atenuación de la energía de rayos-X, las cuales, frecuentemente, son difíciles de ser distinguidas por los radiólogos. Se han desarrollado diferentes técnicas de reconstrucción de imagen. En este trabajo analizamos y comparamos métodos analíticos e iterativos para resolver de forma eficiente el problema de reconstrucción. Hoy, en la práctica, el proceso de reconstrucción de imagen se basa en algoritmos analíticos entre los cuales, el algoritmo de retroproyección filtrada 'filtered backprojection' (FBP) es el más conocido. Este algoritmo se usa para implementar la Transformada de Radon inversa que es una herramienta matemática cuya utilización principal en Ingeniería Biomédica es la reconstrucción de imágenes TAC. Desde el comienzo del desarrollo de escáneres ha sido importante reducir el tiempo de escaneo, mejorar la calidad de imagen y reducir el tiempo de reconstrucción. La tecnología de hoy ofrece potentes sistemas con varios procesadores y núcleos que posibilitan reducir el tiempo invertido en la reconstrucción de imágenes. En este trabajo se analiza el algoritmo FBP basado en la Transformada de Radon inversa y su relación con la Transformada de Fourier con el objetivo de optimizar su cálculo aprovechando al máximo los recursos del sistema. Este algoritmo se basa en proyecciones paralelas y se destaca por su simplicidad y robustez, y permite extender los resultados a una variedad de situaciones. En muchas aplicaciones el conjunto de proyecciones necesarias para la reconstrucción puede ser incompleto por razones físicas. Entonces, la única posibilidad es realizar una reconstrucción aproximada. En estas condiciones, las imágenes reconstruidas por los algoritmos analíticos en dos o tres dimensiones son de baja calidad y con muchos artefactos. Los métodos iterativos son más adecuados para la reconstrucción de imágenes cuando se dispone de un menor número de proyecciones en condiciones más ruidosas. Su uso puede ser importante para el funcionamiento en escáneres portátiles en condiciones de urgencia en cualquier lugar. Sin embargo, en la práctica, estos métodos son menos usados por su alto coste computacional. En este trabajo presentamos el estudio y diversas implementaciones paralelas que permiten bajar el coste computacional de tales métodos iterativos como SART, MLEM y LSQR. Los métodos iterativos se han convertido en un tópico de gran interés para muchos vendedores de sistemas de TAC clínicos por su capacidad de resolver el problema de reconstrucción con un número limitado de proyecciones. Esto proporciona la posibilidad de reducir la dosis radiactiva en los pacientes durante el proceso de adquisición de datos. Al mismo tiempo, en la reconstrucción aparecen artefactos no deseados. Para resolver el problema en forma efectiva y eficiente, hemos adaptado el método LSQR con el método de filtrado 'Soft Threshold Filtering' y el algoritmo de aceleración 'Fast Iterative Shrinkage-thresholding Algorithm' para TAC. La eficiencia y fiabilidad del método nombrado LSQR-STF-FISTA se presenta en este trabajo. Los métodos de reconstrucción de imágenes se analizan mediante la reconstrucción a partir de proyecciones simuladas y reales, comparando la calidad de imagen reconstruida con el objetivo de obtener conclusiones respecto a los métodos usados. Basándose en este estudio, concluimos que los métodos iterativos son capaces de reconstruir imágenes con el conjunto limitado de proyecciones con un bajo coste computacional.
[CAT] En medicina, el diagnòstic basat en imatges de tomografia axial compueritzada (TAC) és fonamental per a la determinació d'anormalitats a través de diferents valors d'atenuació de l'energia de rajos-X, les quals, freqüentment,són difícils de ser distingides pels radiòlegs. S'han desenvolupat diferents tècniques de reconstrucció d'imatge. En aquest treball analitzem i comparem mètodes analítics i iteratius per a resoldre el problema de reconstrucció. Avui, en la pràctica, el procés de reconstrucció d'imatge es basa en algorismes analítics entre els quals, l'algorisme de retroproyección filtrada 'filtered backprojection' (FBP) és el més conegut. Aquest algorisme s'usa per a implementar la Transformada de Radon inversa que és una eina matemàtica la utilització principal de la qual en Enginyeria Biomèdica és la reconstrucció d'imatges TAC. Des del començament del desenvolupament dels lectors òptics ha sigut important reduir el temps d'escanege, millorar la qualitat d'imatge i reduir el temps de reconstrucció. La tecnologia d'avui ofereix potents sistemes amb diversos processadors i nuclis que possibiliten reduir el temps invertit en la reconstrucció d'imatges. En aquest treball s'analitza l'algorisme FBP basat en la Transformada de Radon inversa i la seua relació amb la Transformada de Fourier amb l'objectiu d'optimitzar el seu càlcul aprofitant al màxim els recursos del sistema. Aquest algorisme es basa en projeccions paral·leles i es destaca per la seua simplicitat i robustesa, i permet estendre els resultats a una varietat de situacions. En moltes aplicacions el conjunt de projeccions necessàries per a la reconstrucció pot ser incomplet per raons físiques. Llavors, l'única possibilitat és realitzar una reconstrucció aproximada. En aquestes condicions, les imatges reconstruïdes pels algorismes analítics en dues o tres dimensions són de baixa qualitat i amb molts artefactes. Els mètodes iteratius són més adequats per a la reconstrucció d'imatges quan es disposa d'un menor nombre de projeccions en condicions més sorolloses. El seu ús pot ser important per al funcionament en escáneres portàtils en condicions d'urgència en qualsevol lloc. No obstant açò, en la pràctica, aquests mètodes són menys usats pel seu alt cost computacional. En aquest treball presentem l'estudi i diverses implementacions paral·leles que permeten baixar el cost computacional de tals mètodes iteratius com SART, MLEM i LSQR. Els mètodes iteratius s'han convertit en un tòpic de gran interès per a molts venedors de sistemes de TAC clínics per la seua capacitat de resoldre el problema de reconstrucció amb un nombre limitat de projeccions. Açò proporciona la possibilitat de reduir la dosi radioactiva en els pacients durant el procés d'adquisició de dades. Al mateix temps, en la reconstrucció apareixen artefactes no desitjats. Per a resoldre el problema en forma efectiva i eficient, hem adaptat el mètode LSQR amb el mètode de filtrat 'Soft Threshold Filtering' i l'algorisme d'acceleració 'Fast Iterative Shrinkage-thresholding Algorithm' per a TAC. L'eficiència i fiabilitat del mètode nomenat LSQR-STF-FISTA es presenta en aquest treball. Els mètodes de reconstrucció d'imatges s'analitzen mitjançant la reconstrucció a partir de projeccions simulades i reals, comparant la qualitat d'imatge reconstruïda amb l'objectiu d'obtenir conclusions respecte als mètodes usats. Basant-se en aquest estudi, concloem que els mètodes iteratius són capaços de reconstruir imatges amb el conjunt limitat de projeccions amb un baix cost computacional.
Flores, LA. (2015). Algoritmos Paralelos de Reconstrucción de Imágenes TAC sobre Arquitecturas Heterogéneas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/59424
TESIS
Sánchez, Cervantes María Guadalupe. "Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore." Doctoral thesis, Universitat Politècnica de València, 2013. http://hdl.handle.net/10251/28854.
Full textSánchez Cervantes, MG. (2013). Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28854
TESIS
Segrelles, Quilis José Damián. "Diseño y desarrollo de una arquitectura software genérica orientada a servicios para la construcción de un middleware grid orientado a la gestión y proceso seguro de información en formato DICOM sobre un marco ontológico." Doctoral thesis, Universitat Politècnica de València, 2008. http://hdl.handle.net/10251/1973.
Full textSegrelles Quilis, JD. (2008). Diseño y desarrollo de una arquitectura software genérica orientada a servicios para la construcción de un middleware grid orientado a la gestión y proceso seguro de información en formato DICOM sobre un marco ontológico [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1973
Palancia
DO, CARMO BORATTO MURILO. "Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola." Doctoral thesis, Universitat Politècnica de València, 2015. http://hdl.handle.net/10251/48529.
Full textDo Carmo Boratto, M. (2015). Modelos Paralelos para la Resolución de Problemas de Ingeniería Agrícola [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/48529
TESIS
Costa, Soria Cristobal. "DYNAMIC EVOLUTION AND RECONFIGURATION OF SOFTWARE ARCHITECTURES THROUGH ASPECTS." Doctoral thesis, Universitat Politècnica de València, 2011. http://hdl.handle.net/10251/11038.
Full textEl cambio es una propiedad intrínseca del software. Un sistema software, a lo largo de su vida útil, puede necesitar actualizaciones, mejoras o la integración de nuevas características. Si estas necesidades de cambio no son cubiertas, el riesgo de que el sistema software deje de ser útil aumenta. Esto supone un reto para los sistemas críticos, los cuales no pueden ser detenidos para realizar operaciones de mantenimiento o evolución debido a que deben estar continuamente operativos. Para reducir el envejecimiento de dichos sistemas, éstos deben incorporar mecanismos que les permitan evolucionar dinámicamente, i.e. tolerar cambios tanto estructurales como de comportamiento mientras están operativos. Esta tesis aborda el diseño de una infraestructura para la construcción de sistemas software dinámicamente evolucionables y basados en arquitecturas software. Las razones que han motivado el uso de un enfoque basado en arquitecturas software son: (i) proporcionan un alto nivel de abstracción para definir cambios dinámicos; (ii) permiten variar el nivel de descripción del sistema; y (iii) permiten reutilizar las herramientas existentes para modelado de sistemas, generación automática de código, y análisis formal proporcionadas por los lenguajes de descripción de arquitecturas. El marco presentado en esta tesis, llamado Dynamic PRISMA, se caracteriza por la combinación de dos niveles de dinamismo: Reconfiguración Dinámica, que aborda los cambios a nivel de configuración (i.e. la configuración arquitectónica), y Evolución Dinámica de Tipos, que aborda los cambios a nivel de tipos (i.e. la especificación de tipos arquitectónicos e instancias). Esta combinación es una de las mayores contribuciones de esta tesis: así, un sistema no es solamente capaz de reconfigurar durante su ejecución los elementos constructivos que lo forman (i.e. los tipos arquitectónicos), sino también de redefinir dichos elementos constructivos (o introducir otros) durante su ejecución. Otra contribución de la tesis es la identificación de las funcionalidades relacionadas con la evolución dinámica y su integración a través de aspectos. Esto mejora la separación de funcionalidades y permite cambiar de forma independiente entre sí las especificaciones de reconfiguración, los mecanismos de evolución, o la lógica de negocio. Una tercera contribución es cómo este dinamismo se ha soportado: la reconfiguración a través de capacidades autonómicas, aportando así proactividad en función de estímulos internos y/o externos; y la evolución de tipos a través de la reflexión asíncrona, permitiendo así modificar la especificación de un tipo y la transformación de sus instancias en distintos tiempos (i.e. cuando éstas están listas para su evolución). Además, la semántica de la evolución asíncrona se ha formalizado a través de transformaciones de grafos, lo que ha permitido modelar de forma natural tanto la arquitectura de un sistema como su evolución asíncrona. Por último, el trabajo presentado en esta tesis se ha ilustrado a través de un caso de estudio del dominio robótico; un área que podría verse potencialmente beneficiada con los resultados de esta tesis.
Costa Soria, C. (2011). DYNAMIC EVOLUTION AND RECONFIGURATION OF SOFTWARE ARCHITECTURES THROUGH ASPECTS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/11038
Palancia
Cerdá, Pérez Manuel. "EL ESPACIO UBICUO La idea de espacio arquitectónico derivado de la implementación de las tecnologías de Inteligencia Ambiental." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/62173.
Full text[ES] Mediante este trabajo se busca interpretar, analizar y conocer las bases conceptuales que definen hoy la idea de espacio en arquitectura, los modos de habitación contemporáneos, a través del análisis sobre un modelo concreto, el del espacio ubicuo, que intenta desvelar un nuevo modo de entender el espacio derivado de lo que se configura hoy como el "nuevo paradigma", asociado a la era de las tecnologías de la información y la comunicación (TIC). La intención del trabajo es propositiva. No historiográfica. El interés reside en profundizar en el presente, para revelar datos conocidos pero aún no asumidos o suficientemente aplicados, que nos puedan llevar a proponer un sistema de trabajo que desarrolle en la práctica la esencia del habitar hoy. A través de la caracterización de dicho espacio ubicuo se intentará exponer un modelo objetivo de espacio acorde a nuestra era, como propuesta para desarrollar hoy una arquitectura realmente contemporánea. Este trabajo nace como un proyecto de investigación personal, de un arquitecto que construye, y que según su manera de abordar la materialización de la realidad, busca plantear un método de trabajo derivado del proyectual, añadiendo a éste la condición virtual, bajo una visión real y pragmática del mismo. Para ello se elige un proyecto de arquitectura concreto como caso de estudio, UBITAT 1.0, cuyos parámetros analizados serán principalmente los que dieron origen al mismo, ahora ampliados, modificados o renovados según el curso que la investigación demande en cada momento. Servirán como guía para extraer una caracterización global del objeto de estudio, el espacio, que permita ser aplicado en otros escenarios con la intención de responder en cualquier situación a la pregunta clave de este trabajo: ¿Qué características definen al espacio hoy y qué significa, por ello, habitar, hoy?
[CAT] Amb aquest treball busquem interpretar, analitzar i esbrinar les bases conceptuals que defineixen avuí en dia la idea d'espai en arquitectura, els modes d'habitatge contemporanis, mitjançant l'anàlisi sobre un model concret, el d'espai ubicu, que intenta desvetllar/caracteritzar una nova manera d'entendre l'espai derivat d'allò que es configura recentment com el "nou paradigma", associat a l'era de les tecnologies de la informació i la comunicació (TIC). La intenció del treball sorgeix amb una visió propositiva. No historiogràfica. L'interés resideix en aprofundir en el present, per revelar dades conegudes, però encara no asumides o allò suficientment aplicades, que ens duen a proposar un sistema de treball que desenvolupe en la pràctica l'essència de l'habitar avuí. A través de la caracterització d'aquest espai ubicu, es tractarà d'exposar un model objectiu d'espai d'acord a la nostra època, com a proposta per desenvolupar avuí una arquitectura realment contemporània. Aquest treball naix/sorgeix/parteix com un projecte de recerca personal, d'un arquitecte que construeix, i que segons la seua concepció d'abordar la materialització de la realitat, busca plantejar un mètode de treball derivat del projectual, afegint a aquest la condició virtual, sota una visió real i pragmàtica d'ell mateix. Per a tal fi, es tria un projecte d'arquitectura concret com a cas d'estudi, UBITAT 1.0, els paràmetres del qual analitzats seran conductors de l'orige d'aquest treball, ara ampliats, modificats i renovats segons el curs que la recerca demanda en cada moment. Serviran com a guia per a extraure una caracterització global de l'objecte d'estudi, l'espai, que permeta ser aplicat en altres escenaris, amb la intenció de respondre en qualsevol situació a la pregunta clau d'aquest treball: ¿Quines característiques defineixen l'espai avuí i què significa, per tant, habitar, avuí?
Cerdá Pérez, M. (2016). EL ESPACIO UBICUO La idea de espacio arquitectónico derivado de la implementación de las tecnologías de Inteligencia Ambiental [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62173
TESIS
Duro, Gómez José. "Photonic Interconnection Networks for Exascale Computers." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/166796.
Full text[CA] Els darrers anys, múltiples projectes de recerca a tot el món s'han centrat en el disseny de superordinadors capaços d'assolir la barrera de computació exascala, amb l'objectiu de donar suport a l'execució d'aplicacions importants per a la nostra societat, com ara salut, intel·ligència artificial, meteorologia, etc. Segons la tendència creixent en la potència de càlcul en cada generació de superordinadors, es preveu assolir aquest objectiu en els propers anys. No obstant això, assolir aquest objectiu requereix abordar diferents reptes importants en el disseny i desenvolupament del sistema. Un dels principals és aconseguir comunicacions ràpides i eficients entre l'enorme nombre de nodes computacionals i els sistemes de memòria. La tecnologia fotònica proporciona diversos avantatges respecte a les xarxes elèctriques actuals, com ara un major ample de banda als enllaços, un major paral·lelisme de la xarxa gràcies a DWDM o una millor gestió del cable a causa de la seva mida molt més xicoteta. En la tesi, s'ha desenvolupat un estudi de viabilitat i desenvolupament de xarxes d'interconnexió mitjançant tecnologia fotònica per a futurs sistemes exascala dins del projecte europeu ExaNeSt. En primer lloc, s'ha dut a terme un estudi de caracterització d'aplicacions exascala dels requisits de xarxa. Els resultats de l'anàlisi ajuden a entendre els requisits de xarxa de les aplicacions exascale i, per tant, ens guien en el disseny de la xarxa del sistema. Aquesta anàlisi considera tres paràmetres principals: la distribució dels missatges en funció de la seva mida i tipus, el consum d'ample de banda requerit durant tota l'execució i els patrons de comunicació espacial entre els nodes. L'estudi revela la necessitat d'una xarxa d'interconnexió ràpida i eficient, ja que la majoria de comunicacions consisteixen en ràfegues de transmissions, cadascuna amb una mida mitjana de missatge de 50 KB. A continuació, la tesi se centra a identificar els principals elements que diferencien les xarxes fotòniques de les elèctriques. Identifiquem una seqüència de passos en el disseny i implementació d'un simulador: tractar la tecnologia fotònica des de zero o per ampliar un simulador de xarxa elèctrica existent per modelar la fotònica. Després, es presenten dos estudis principals de comparació de rendiment entre xarxes elèctriques i diferents configuracions de xarxes fotòniques mitjançant topologies clàssiques. En el primer estudi, realitzat tant amb trànsit sintètic com amb traces d'ExaNeSt en un toro, fat tree i dragonfly, vam trobar que la tecnologia fotònica representa una millora notable respecte a la tecnologia elèctrica. A més, l'estudi mostra que el paràmetre que més afecta el rendiment és l'amplada de banda del canal fotònic. Aquest darrer estudi analitza el rendiment d'aplicacions reals en simulacions a gran escala en una topologia jellyfish. Els resultats d'aquest estudi corroboren les conclusions obtingudes en l'anterior, revelant també que la tecnologia fotònica permet reduir la complexitat d'algunes topologies i, per tant, el cost de la xarxa. En els estudis anteriors ens adonem que la xarxa estava infrautilitzada principalment perquè les topologies estudiades per a xarxes elèctriques no aprofiten les característiques proporcionades per la tecnologia fotònica. Per aquest motiu, proposem Segment Switching, una estratègia de commutació destinada a reduir la longitud de les rutes mitjançant la implementació de memòries intermèdies en nodes intermedis al llarg de la ruta. Els resultats experimentals mostren que cadascuna de les topologies estudiades presenta diferents requisits de memòria intermèdia. Per al toro, com més gran siga el nombre de memòries intermèdies a la xarxa, major serà el rendiment. Per al fat tree, el paràmetre clau és la mida de la memòria intermèdia, aconseguint un rendiment similar tant amb una configuració amb memòria intermèdia en tots els co
[EN] In the last recent years, multiple research projects around the world have focused on the design of supercomputers able to reach the exascale computing barrier, with the aim of supporting the execution of important applications for our society, such as health, artificial intelligence, meteorology, etc. According to the growing trend in the computational power in each supercomputer generation, this objective is expected to be reached in the coming years. However, achieving this goal requires addressing distinct major challenges in the design and development of the system. One of the main ones is to achieve fast and efficient communications between the huge number of computational nodes and the memory systems. Photonics technology provides several advantages over current electrical networks, such as higher bandwidth in the links, greater network parallelism thanks to DWDM, or better cable management due to its much smaller size. In this thesis, a feasibility study and development of interconnection networks have been developed using photonics technology for future exascale systems within the European project ExaNeSt. First, a characterization study of exascale applications from the network requirements has been carried out. The results of the analysis help understand the network requirements of exascale applications, and thereby guide us in the design of the system network. This analysis considers three main parameters: the distribution of the messages based on their size and type, the required bandwidth consumption throughout the execution, and the spatial communication patterns between the nodes. The study reveals the need for a fast and efficient interconnection network, since most communications consist of bursts of transmissions, each with an average message size of 50 KB. Next, this dissertation concentrates on identifying the main elements that differentiate photonic networks from electrical ones. We identify a sequence of steps in the design and implementation of a simulator either i) dealing with photonic technology from scratch or ii) to extend an existing electrical network simulator in order to model photonics. After that, two main performance comparison studies between electrical networks and different configurations of photonic networks are presented using classical topologies. In the former study, carried out with both synthetic traffic and traces of ExaNeSt in a torus, fat tree and dragonfly, we found that photonic technology represents a noticeable improvement over electrical technology. Furthermore, the study shows that the parameter that most affects the performance is the bandwidth of the photonic channel. The latter study analyzes performance of real applications in large-scale simulations in a jellyfish topology. The results of this study corroborates the conclusions obtained in the previous, also revealing that photonic technology allows reducing the complexity of some topologies, and therefore, the cost of the network. In the previous studies we realize that the network was underutilized mainly because the studied topologies for electrical networks do not take advantage of the features provided by photonic technology. For this reason, we propose Segment Switching, a switching strategy aimed at reducing the length of the routes by implementing buffers at intermediate nodes along the path. Experimental results show that each of the studied topologies presents different buffering requirements. For the torus, the higher the number of buffers in the network, the higher the performance. For the fat tree, the key parameter is the buffer size, achieving similar performance a configuration with buffers on all switches that locating buffers only at the top level. In summary, this thesis studies the use of photonic technology for networks of exascale systems, and proposes to take advantage of the characteristics of this technology in current electrical network topologies.
This thesis has been conceived from the work carried out by Polytechnic University of Valencia in the ExaNeSt European project
Duro Gómez, J. (2021). Photonic Interconnection Networks for Exascale Computers [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/166796
TESIS
López, Huguet Sergio. "Elastic, Interoperable and Container-based Cloud Infrastructures for High Performance Computing." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/172327.
Full text[ES] Las aplicaciones científicas implican generalmente una carga computacional variable y no predecible a la que las instituciones deben hacer frente variando dinámicamente la asignación de recursos en función de las distintas necesidades computacionales. Las aplicaciones científicas pueden necesitar grandes requisitos. Por ejemplo, una gran cantidad de recursos computacionales para el procesado de numerosos trabajos independientes (High Throughput Computing o HTC) o recursos de alto rendimiento para la resolución de un problema individual (High Performance Computing o HPC). Los recursos computacionales necesarios en este tipo de aplicaciones suelen acarrear un coste muy alto que puede exceder la disponibilidad de los recursos de la institución o estos pueden no adaptarse correctamente a las necesidades de las aplicaciones científicas, especialmente en el caso de infraestructuras preparadas para la ejecución de aplicaciones de HPC. De hecho, es posible que las diferentes partes de una aplicación necesiten distintos tipos de recursos computacionales. Actualmente las plataformas de servicios en la nube se han convertido en una solución eficiente para satisfacer la demanda de las aplicaciones HTC, ya que proporcionan un abanico de recursos computacionales accesibles bajo demanda. Por esta razón, se ha producido un incremento en la cantidad de clouds híbridos, los cuales son una combinación de infraestructuras alojadas en servicios en la nube y en las propias instituciones (on-premise). Dado que las aplicaciones pueden ser procesadas en distintas infraestructuras, actualmente la portabilidad de las aplicaciones se ha convertido en un aspecto clave. Probablemente, las tecnologías de contenedores son la tecnología más popular para la entrega de aplicaciones gracias a que permiten reproducibilidad, trazabilidad, versionado, aislamiento y portabilidad. El objetivo de la tesis es proporcionar una arquitectura y una serie de servicios para proveer infraestructuras elásticas híbridas de procesamiento que puedan dar respuesta a las diferentes cargas de trabajo. Para ello, se ha considerado la utilización de elasticidad vertical y horizontal desarrollando una prueba de concepto para proporcionar elasticidad vertical y se ha diseñado una arquitectura cloud elástica de procesamiento de Análisis de Datos. Después, se ha trabajo en una arquitectura cloud de recursos heterogéneos de procesamiento de imágenes médicas que proporciona distintas colas de procesamiento para trabajos con diferentes requisitos. Esta arquitectura ha estado enmarcada en una colaboración con la empresa QUIBIM. En la última parte de la tesis, se ha evolucionado esta arquitectura para diseñar e implementar un cloud elástico, multi-site y multi-tenant para el procesamiento de imágenes médicas en el marco del proyecto europeo PRIMAGE. Esta arquitectura utiliza un almacenamiento distribuido integrando servicios externos para la autenticación y la autorización basados en OpenID Connect (OIDC). Para ello, se ha desarrollado la herramienta kube-authorizer que, de manera automatizada y a partir de la información obtenida en el proceso de autenticación, proporciona el control de acceso a los recursos de la infraestructura de procesamiento mediante la creación de las políticas y roles. Finalmente, se ha desarrollado otra herramienta, hpc-connector, que permite la integración de infraestructuras de procesamiento HPC en infraestructuras cloud sin necesitar realizar cambios en la infraestructura HPC ni en la arquitectura cloud. Cabe destacar que, durante la realización de esta tesis, se han utilizado distintas tecnologías de gestión de trabajos y de contenedores de código abierto, se han desarrollado herramientas y componentes de código abierto y se han implementado recetas para la configuración automatizada de las distintas arquitecturas diseñadas desde la perspectiva DevOps.
[CA] Les aplicacions científiques impliquen generalment una càrrega computacional variable i no predictible a què les institucions han de fer front variant dinàmicament l'assignació de recursos en funció de les diferents necessitats computacionals. Les aplicacions científiques poden necessitar grans requisits. Per exemple, una gran quantitat de recursos computacionals per al processament de nombrosos treballs independents (High Throughput Computing o HTC) o recursos d'alt rendiment per a la resolució d'un problema individual (High Performance Computing o HPC). Els recursos computacionals necessaris en aquest tipus d'aplicacions solen comportar un cost molt elevat que pot excedir la disponibilitat dels recursos de la institució o aquests poden no adaptar-se correctament a les necessitats de les aplicacions científiques, especialment en el cas d'infraestructures preparades per a l'avaluació d'aplicacions d'HPC. De fet, és possible que les diferents parts d'una aplicació necessiten diferents tipus de recursos computacionals. Actualment les plataformes de servicis al núvol han esdevingut una solució eficient per satisfer la demanda de les aplicacions HTC, ja que proporcionen un ventall de recursos computacionals accessibles a demanda. Per aquest motiu, s'ha produït un increment de la quantitat de clouds híbrids, els quals són una combinació d'infraestructures allotjades a servicis en el núvol i a les mateixes institucions (on-premise). Donat que les aplicacions poden ser processades en diferents infraestructures, actualment la portabilitat de les aplicacions s'ha convertit en un aspecte clau. Probablement, les tecnologies de contenidors són la tecnologia més popular per a l'entrega d'aplicacions gràcies al fet que permeten reproductibilitat, traçabilitat, versionat, aïllament i portabilitat. L'objectiu de la tesi és proporcionar una arquitectura i una sèrie de servicis per proveir infraestructures elàstiques híbrides de processament que puguen donar resposta a les diferents càrregues de treball. Per a això, s'ha considerat la utilització d'elasticitat vertical i horitzontal desenvolupant una prova de concepte per proporcionar elasticitat vertical i s'ha dissenyat una arquitectura cloud elàstica de processament d'Anàlisi de Dades. Després, s'ha treballat en una arquitectura cloud de recursos heterogenis de processament d'imatges mèdiques que proporciona distintes cues de processament per a treballs amb diferents requisits. Aquesta arquitectura ha estat emmarcada en una col·laboració amb l'empresa QUIBIM. En l'última part de la tesi, s'ha evolucionat aquesta arquitectura per dissenyar i implementar un cloud elàstic, multi-site i multi-tenant per al processament d'imatges mèdiques en el marc del projecte europeu PRIMAGE. Aquesta arquitectura utilitza un emmagatzemament integrant servicis externs per a l'autenticació i autorització basats en OpenID Connect (OIDC). Per a això, s'ha desenvolupat la ferramenta kube-authorizer que, de manera automatitzada i a partir de la informació obtinguda en el procés d'autenticació, proporciona el control d'accés als recursos de la infraestructura de processament mitjançant la creació de les polítiques i rols. Finalment, s'ha desenvolupat una altra ferramenta, hpc-connector, que permet la integració d'infraestructures de processament HPC en infraestructures cloud sense necessitat de realitzar canvis en la infraestructura HPC ni en l'arquitectura cloud. Es pot destacar que, durant la realització d'aquesta tesi, s'han utilitzat diferents tecnologies de gestió de treballs i de contenidors de codi obert, s'han desenvolupat ferramentes i components de codi obert, i s'han implementat receptes per a la configuració automatitzada de les distintes arquitectures dissenyades des de la perspectiva DevOps.
[EN] Scientific applications generally imply a variable and an unpredictable computational workload that institutions must address by dynamically adjusting the allocation of resources to their different computational needs. Scientific applications could require a high capacity, e.g. the concurrent usage of computational resources for processing several independent jobs (High Throughput Computing or HTC) or a high capability by means of using high-performance resources for solving complex problems (High Performance Computing or HPC). The computational resources required in this type of applications usually have a very high cost that may exceed the availability of the institution's resources or they are may not be successfully adapted to the scientific applications, especially in the case of infrastructures prepared for the execution of HPC applications. Indeed, it is possible that the different parts that compose an application require different type of computational resources. Nowadays, cloud service platforms have become an efficient solution to meet the need of HTC applications as they provide a wide range of computing resources accessible on demand. For this reason, the number of hybrid computational infrastructures has increased during the last years. The hybrid computation infrastructures are the combination of infrastructures hosted in cloud platforms and the computation resources hosted in the institutions, which are named on-premise infrastructures. As scientific applications can be processed on different infrastructures, the application delivery has become a key issue. Nowadays, containers are probably the most popular technology for application delivery as they ease reproducibility, traceability, versioning, isolation, and portability. The main objective of this thesis is to provide an architecture and a set of services to build up hybrid processing infrastructures that fit the need of different workloads. Hence, the thesis considered aspects such as elasticity and federation. The use of vertical and horizontal elasticity by developing a proof of concept to provide vertical elasticity on top of an elastic cloud architecture for data analytics. Afterwards, an elastic cloud architecture comprising heterogeneous computational resources has been implemented for medical imaging processing using multiple processing queues for jobs with different requirements. The development of this architecture has been framed in a collaboration with a company called QUIBIM. In the last part of the thesis, the previous work has been evolved to design and implement an elastic, multi-site and multi-tenant cloud architecture for medical image processing has been designed in the framework of a European project PRIMAGE. This architecture uses a storage integrating external services for the authentication and authorization based on OpenID Connect (OIDC). The tool kube-authorizer has been developed to provide access control to the resources of the processing infrastructure in an automatic way from the information obtained in the authentication process, by creating policies and roles. Finally, another tool, hpc-connector, has been developed to enable the integration of HPC processing infrastructures into cloud infrastructures without requiring modifications in both infrastructures, cloud and HPC. It should be noted that, during the realization of this thesis, different contributions to open source container and job management technologies have been performed by developing open source tools and components and configuration recipes for the automated configuration of the different architectures designed from the DevOps perspective. The results obtained support the feasibility of the vertical elasticity combined with the horizontal elasticity to implement QoS policies based on a deadline, as well as the feasibility of the federated authentication model to combine public and on-premise clouds.
López Huguet, S. (2021). Elastic, Interoperable and Container-based Cloud Infrastructures for High Performance Computing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/172327
TESIS
Compendio
Naranjo, Delgado Diana María. "Serverless Computing Strategies on Cloud Platforms." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/160916.
Full text[CA] Amb el desenvolupament de la Computació en el Núvol, el lliurament de recursos virtualitzats a través d'Internet ha crescut granment en els últims anys. Les Funcions com a Servei (FaaS), un dels models de servei més nous dins de la Computació en el Núvol, permet el desenvolupament i implementació d'aplicacions basades en esdeveniments que cobreixen serveis administrats en Núvols públics i locals. Els proveïdors de computació en el Núvol públic adopten el model FaaS dins del seu catàleg per a proporcionar a les aplicacions computació altament escalable basada en esdeveniments. D'una banda, els desenvolupadors especialitzats en aquesta tecnologia se centren en crear marcs de codi obert serverless per a evitar el bloqueig amb els proveïdors del Núvol públic. Malgrat el desenvolupament alcançat per la informàtica serverless, actualment hi ha camps relacionats amb el processament de dades i l'optimització del rendiment d'execució en els quals no s'ha explorat tot el potencial. En aquesta tesi doctoral es defineixen tres estratègies informàtiques serverless que permeten demostrar els beneficis d'aquesta tecnologia per al processament de dades. Les estratègies implementades permeten l'anàlisi de dades amb a integració de dispositius accelerats per a l'execució eficient d'aplicacion scientífiques en plataformes de Núvol públiques i locals. En primer lloc, es va desenvolupar la plataforma CloudTrail-Tracker. CloudTrail-Tracker és una plataforma de codi obert basada en esdeveniments per al processament de dades serverless que pot escalar automáticament cap amunt i cap avall, amb la capacitat d'escalar a zero per a minimitzar els costos operatius. A continuació es planteja la integració de GPUs en una plataforma serverless local impulsada per esdeveniments per al processament de dades escalables. La plataforma admet l'execució d'aplicacions com funcions severless en resposta a la càrrega d'un arxiu en un sistema d'emmagatzemaments de fitxers, la qual cosa permet l'execució en paral·lel de les aplicacions segon sels recursos disponibles. Este processament és administrat per un cluster Kubernetes elàstic que creix i decreix automàticament segons les necessitats de processament. Certs enfocaments basats en tecnologies de virtualització de GPU com rCUDA i NVIDIA-Docker s'avaluen per a accelerar el temps d'execució de les funcions. Finalment s'implementa una altra solució basada en el model serverless per a executar la fase d'inferència de models d'aprenentatge automàtic prèviament entrenats en la plataforma de Amazon Web Services i en una plataforma privada amb el framework OSCAR. El sistema creix elàsticament d'acord amb la demanda i presenta una escalada a zero per a minimitzar els costos. D'altra banda el front-end proporciona a l'usuari una experiència simplificada en l'obtenció de la predicció de models d'aprenentatge automàtic. Per a demostrar les funcionalitats i avantatges de les solucions proposades durant esta tesi s'arrepleguen diversos casos d'estudi que comprenen diferents camps del coneixement com l'analítica d'aprenentatge i la Intel·ligència Artificial. Això demostra que la gamma d'aplicacions on la computació serverless pot aportar grans beneficis és molt àmplia. Els resultats obtinguts avalen l'ús del model serverless en la simplificació del disseny d'arquitectures per a l'ús intensiu de dades en aplicacions complexes.
[EN] With the development of Cloud Computing, the delivery of virtualized resources over the Internet has greatly grown in recent years. Functions as a Service (FaaS), one of the newest service models within Cloud Computing, allows the development and implementation of event-based applications that cover managed services in public and on-premises Clouds. Public Cloud Computing providers adopt the FaaS model within their catalog to provide event-driven highly-scalable computing for applications. On the one hand, developers specialized in this technology focus on creating open-source serverless frameworks to avoid the lock-in with public Cloud providers. Despite the development achieved by serverless computing, there are currently fields related to data processing and execution performance optimization where the full potential has not been explored. In this doctoral thesis three serverless computing strategies are defined that allow to demonstrate the benefits of this technology for data processing. The implemented strategies allow the analysis of data with the integration of accelerated devices for the efficient execution of scientific applications on public and on-premises Cloud platforms. Firstly, the CloudTrail-Tracker platform was developed to extract and process learning analytics in the Cloud. CloudTrail-Tracker is an event-driven open-source platform for serverless data processing that can automatically scale up and down, featuring the ability to scale to zero for minimizing the operational costs. Next, the integration of GPUs in an event-driven on-premises serverless platform for scalable data processing is discussed. The platform supports the execution of applications as serverless functions in response to the loading of a file in a file storage system, which allows the parallel execution of applications according to available resources. This processing is managed by an elastic Kubernetes cluster that automatically grows and shrinks according to the processing needs. Certain approaches based on GPU virtualization technologies such as rCUDA and NVIDIA-Docker are evaluated to speed up the execution time of the functions. Finally, another solution based on the serverless model is implemented to run the inference phase of previously trained machine learning models on theAmazon Web Services platform and in a private platform with the OSCAR framework. The system grows elastically according to demand and is scaled to zero to minimize costs. On the other hand, the front-end provides the user with a simplified experience in obtaining the prediction of machine learning models. To demonstrate the functionalities and advantages of the solutions proposed during this thesis, several case studies are collected covering different fields of knowledge such as learning analytics and Artificial Intelligence. This shows the wide range of applications where serverless computing can bring great benefits. The results obtained endorse the use of the serverless model in simplifying the design of architectures for the intensive data processing in complex applications.
Naranjo Delgado, DM. (2021). Serverless Computing Strategies on Cloud Platforms [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160916
TESIS
Signes, Pont María Teresa. "Modelo paramétrico de arquitectura para la generación de primitivas computacionales." Doctoral thesis, 2005. http://hdl.handle.net/10045/13264.
Full textGonzález, David Ignacio. "Minería de argumentos con aprendizaje profundo y atención." Bachelor's thesis, 2019. http://hdl.handle.net/11086/15038.
Full textEn este trabajo agregamos un mecanismo de atención a una red neuronal del estado del arte, que consiste de una red BiLSTM con embeddings de caracteres y una capa de CRF. Este modelo no sólo ha sido previamente aplicado en minería de argumentos, sino en muchas otras tareas de etiquetado de secuencias, como el Reconocimiento de Entidades Nombradas, PoS tagging, chunking, y el reconocimiento de eventos. Se simplificó la red para poder lograr una mejor comparación de resultados, y agregamos dos enfoques distintos del mecanismo de atención, variando las funciones de activación disponibles. Luego se realizaron experimentos y se analizaron los resultados obtenidos para determinar el impacto de la atención en el rendimiento de la red. Los modelos con atención fueron evaluados con un conocido corpus de ensayos persuasivos. El mismo consta de 402 ensayos de estudiantes en inglés, anotados manualmente con componentes argumentativos y sus relaciones. Se observó que el rendimiento de uno de los enfoques del mecanismo de atención superó al modelo sin atención, mientras que el enfoque restante no obtuvo mejoras en el desempeño. De la misma manera se comprobó que las distintas funciones de activación del mecanismo de atención son determinantes para el mismo.
In this paper, we add an attention mechanism to a state-of-the-art neural network, which consists of a BiLSTM with characters embeddings and a CRF layer. This model has not only been previously applied in argument mining, but in many other sequence tagging tasks, such as Named Entity Recognition, PoS tagging, chunking, and event recognition. The network was simplified in order to achieve a better comparison of results, and then two different attention mechanism approaches were added, varying between the availables activation functions. Experiments were then conducted, and the results obtained were analyzed to determine the impact of attention on the network performance. Attention models were evaluated with a well-known persuasive essays corpus. It consists of 402 students essays, manually annotated with argumentative components and their relations. It was observed that the performance of one of the attention mechanism approaches outperformed the no-attention model, while the remaining approach did not result in improvements of performance. Also, we proved that the different activation functions of the attention mechanism are decisive in the network performance.
Fil: González, David Ignacio. Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía, Física y Computación; Argentina.
Santos, Veríssimo Manuel Brandão Lima. "Arquitecturas de comunicação industriais para suporte a sistemas computacionais móveis." Dissertação, 2007. http://hdl.handle.net/10216/10949.
Full textSantos, Veríssimo Manuel Brandão Lima. "Arquitecturas de comunicação industriais para suporte a sistemas computacionais móveis." Master's thesis, 2007. http://hdl.handle.net/10216/10949.
Full textDias, Sérgio Emanuel Duarte. "Geometric representation and detection methods of cavities on protein surfaces." Doctoral thesis, 2015. http://hdl.handle.net/10400.6/3981.
Full textRamos, Ximena Soledad. "Arquitectura y evolución de sistemas planetarios en resonancias de dos cuerpos." Doctoral thesis, 2017. http://hdl.handle.net/11086/5755.
Full textEn esta tesis se estudia de forma analítica y numérica el movimiento de una partícula de prueba perturbada en un potencial central. Se encuentran dos límites que permiten relacionar diferentes criterios de estabilidad, los cuales separan las regiones de movimiento estable e inestable de dicha partícula. Además, por medio de desarrollos analíticos, simulaciones hidrodinámicas y simulaciones de N-cuerpos, se realiza un estudio de la dinámica resonante de sistemas planetarios inmersos en el disco y en resonancias de movimientos medios. Se encuentra que la relación de períodos de pares de planetas de baja masa resonantes aumenta cuando los planetas migran en discos de gas acampanados. Finalmente, se comparan los resultados con la distribución observada de los sistemas Kepler.
In this thesis, the motion of a perturbed test particle in a central potential is studied both analytically and numerically. Two limits are found, enabling us to relate different stability criteria. These limits separate regions of stable and unstable motion. In addition, by mean of analytical developments, hydrodynamical simulations, and N-body simulations, the resonant dynamics of planetary systems embedded in the disk and in mean-motion resonances is studied. It is found that the orbital period ratio of the adjacent pair of low mass resonant planets increases when the planets migrate in flared disks. Finally, the results are compared to the observed distribution of the Kepler systems.
Mora, Pascual Jerónimo Manuel. "Unidades aritméticas en coma flotante para tiempo real." Doctoral thesis, 2001. http://hdl.handle.net/10045/3749.
Full text