To see the other types of publications on this topic, follow the link: Inteligencia Computacional.

Dissertations / Theses on the topic 'Inteligencia Computacional'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Inteligencia Computacional.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Vargas, Patricia Amancio. "Sistemas computacionais bio-inspirados : sintese e aplicação em inteligencia computacional e homeostase artificial." [s.n.], 2005. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260780.

Full text
Abstract:
Orientadores: Fernando Jose Von Zuben, Leandro Nunes de Castro Silva<br>Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e Computação<br>Made available in DSpace on 2018-08-06T14:08:06Z (GMT). No. of bitstreams: 1 Vargas_PatriciaAmancio_D.pdf: 4626705 bytes, checksum: b203a58e3f5f1c613db0787b3e396196 (MD5) Previous issue date: 2005<br>Resumo: Este trabalho propõe uma classificação circunstancial para sistemas complexos, incluindo uma estrutura unificada de descrição a ser empregada na análise e síntese de sistemas computacionais bio-inspirados. Como um ramo dos sistemas complexos organizados, os sistemas computacionais bio-inspirados admitem uma sub-divisão em sistemas de inteligência computacional e sistemas homeostáticos artificiais. Com base neste formalismo, duas abordagens híbridas são concebidas e aplicadas em problemas de navegação autônoma de robôs. A primeira abordagem envolve sistemas classificadores com aprendizado e sistemas imunológicos artificiais, visando explorar conjuntamente conceitos intrínsecos a sistemas complexos, como auto-organização, evolução e cognição dinâmica. Fundamentada nas interações neuro-imuno-endócrinas do corpo humano, a segunda abordagem propõe um novo modelo de sistema homeostático artificial, explorando mudanças de contexto e efeitos do meio sobre o comportamento autônomo de um robô móvel. Embora preliminares, os resultados obtidos envolvem simulação computacional em ambientes virtuais e alguns experimentos com robôs reais, permitindo extrair conclusões relevantes acerca do potencial das abordagens propostas e abrindo perspectivas para a síntese de sistemas complexos adaptativos de interesse prático<br>Abstract: This work proposes a circumstantial classification for complex systems, including a unified description structure to be employed in the analysis and synthesis of biologically inspired computing metaphors. Considered as a branch of organized complex systems, these bio-inspired computing frameworks may be subdivided into computation intelligence systems and artificial homeostatic systems. Developed under this formalism, two novel hybrid systems are conceived and applied to robot autonomous navigation problems. The first approach involves learning classifier systems and artificial immune systems, in an attempt to investigate intrinsic concepts of complex systems as self-organization, evolution, and dynamic cognition. Drawn on the principles of the human nervous, immune and endocrine systems, the second approach envisages a new model of an artificial homeostatic system to explore context changes and environmental effects on the behaviour of an autonomous robotic agent. Though preliminary, the obtained results encompass computer simulation on virtual environments in addition to a number of real robot¿s experiments. Relevant conclusions can be invoked, mainly related to the potentiality of the proposed frameworks, thus opening attractive prospects for the synthesis of complex adaptive systems of practical interest<br>Doutorado<br>Engenharia de Computação<br>Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
2

Nakamiti, Gilberto Shigueo. "Inteligencia computacional distribuida : arquitetura especificação formal e aplicação." [s.n.], 1996. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260764.

Full text
Abstract:
Orientador: Fernando Antonio Campos Gomide<br>Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-07-21T08:56:52Z (GMT). No. of bitstreams: 1 Nakamiti_GilbertoShigueo_D.pdf: 7528317 bytes, checksum: 169305dea03fa0a98dc876700c4a3b08 (MD5) Previous issue date: 1996<br>Resumo: A inteligência artificial distribuída tem como objetivo a criação de modelos flexíveis para a resolução de problemas através de um conjunto de agentes inteligentes. Cada um dos agentes, embora possuidor de conhecimento incompleto, incerto ou eventualmente inconsistente, deve interagir com seus pares, procurando resolver cooperativamente um problema comum. A teoria dos conjuntos nebulosos tem sido foco de intensa pesquisa, tanto no campo teórico quanto na área de aplicações nos últimos anos. Sua utilização tem se estendido pelos mecanismos de tratamento de incertezas e a flexibilidade que provê aos sistemas. Os sistemas baseados em casos provêem mecanismos que mimetizam características importantes do raciocínio humano na tomada de decisões, utilizando modelos e experiências de decisões anteriores para aplicá-las a situações similares novas. Permitem a tomada de decisões complexas, reaproveitando o esforço computacional anterior. Os algoritmos genéticos constituem-se em uma ferramenta para a resolução de problemas e tomada de decisões em ambientes pouco estruturados. Propiciam adaptação e aumento de desempenho nesses ambientes, evitando máximos ou mínimos locais. Este trabalho decorre da simbiose entre a inteligência artificial distribuída, a teoria dos conjuntos nebulosos, os sistemas baseados em casos e os algoritmos genéticos. Seu objetivo é o de propor uma abordagem única e coesa que apresente características de resolução distribuída de problemas, cooperação, manipulação de incertezas, flexibilidade, utilização de experiências anteriores e adaptação a novas situações. A abordagem proposta, denominada Inteligência Computacional Distribuída, fornece base para o desenvolvimento de um sistema distribuído de controle de tráfego urbano. Vários testes de desempenho são apresentados, comparando-se seus resultados com os de estratégias tradicionais de controle de tráfego urbano<br>Abstract: Distributed artificial intelligence aims at creating flexible models for problem solving through intelligent agents. Agents have to interact with one another seeking for cooperation, despite their incomplete, uncertain or even inconsistent knowledge. Fuzzy sets theory has been a focus of intense research in the last years, both in the theoretical as well as in the application fields. Its use has spread over for its mechanisms for handling uncertainties and for the flexibility it provides. Case-based systems provides mechanisms to mimic human behavior in decision making through the use of past decisions models in similar situations. They allow complex decision making, re-using previous computational effort. Genetic algorithms are often used for problem solving and decision making in new environments. They lead to adaptation and performance increase, avoiding local maxima or minima. This work constitutes a symbiosis among distributed artificial intelligence, fuzzy sets theory, case-based systems, and genetic algorithms. It aims at introducing an approach that provides distributed problem solving, cooperation, uncertainties handling, flexibility, use of past experiences, and adaptation to new situations. The Distributed Computational lntelligence approach is a basis for the development of a distributed traific control system. Several performance tests are presented, and their results are compared to conventional traific control strategies<br>Doutorado<br>Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
3

Urrutia, Arestizábal Patricio Alejandro. "Modelación y Optimización de Redes IP Usando Herramientas de Inteligencia Computacional." Tesis, Universidad de Chile, 2007. http://www.repositorio.uchile.cl/handle/2250/104527.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Gomes, Lalinka de Campos Teixeira. "Inteligencia computacional na sintese de meta-heuristicas para otimização combinatoria e multimodal." [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260779.

Full text
Abstract:
Orientadores: Fernando Jose Von Zuben, Leandro Nunes de Castro<br>Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-08-15T01:42:44Z (GMT). No. of bitstreams: 1 Gomes_LalinkadeCamposTeixeira_D.pdf: 3303378 bytes, checksum: 65adc8d5ec20cd1f431eaca2fe3765cc (MD5) Previous issue date: 2006<br>Resumo: Problemas de otimização combinatória apresentam grande relevância prática e surgem em uma ampla gama de aplicações. Em geral, a otimização combinatória está associada a uma explosão de candidatos à solução, inviabilizando a aplicação de métodos exatos. Frente à intratabilidade desta classe de problemas via métodos exatos, nos últimos anos tem havido um crescente interesse por métodos heurísticos capazes de encontrar soluções de alta qualidade, não necessariamente ótimas. Considerando o notório sucesso empírico de meta-heurísticas concebidas através da inspiração biológica e na natureza, essas abordagens vêm ganhando cada vez mais atenção por parte de pesquisadores. É fato conhecido que não existe uma única metodologia capaz de sempre produzir os melhores resultados para todas as classes de problemas, ou mesmo para todas as instâncias de uma mesma classe. Assim, a busca de solução para problemas de natureza combinatória constitui uma linha de pesquisa desafiadora. Nesta tese são considerados problemas de otimização combinatória multicritério e multimodal. Como principal contribuição, destaca-se a concepção de novas meta-heurísticas para a solução de problemas combinatórios de elevada complexidade, tendo sido propostas duas classes de ferramentas computacionais. A primeira envolve um método híbrido fundamentado em mapas auto-organizáveis de Kohonen e inferência nebulosa, em que um conjunto de regras guia o processo de treinamento do mapa de modo a permitir o tratamento de problemas com restrições e múltiplos objetivos. A segunda abordagem baseia-se em sistemas imunológicos artificiais. Em particular, a abordagem imunológica levou à proposição de meta-heurísticas capazes de encontrar e manter diversas soluções de alta qualidade, viabilizando o tratamento de problemas multimodais. Como casos de estudo, foram consideradas duas classes de problemas de otimização combinatória multimodal: o problema de roteamento de veículos capacitados e o problema do caixeiro viajante simétrico. As técnicas propostas foram também adaptadas para a solução de problemas de bioinformática, em particular ao problema de análise de dados de expressão gênica, produzindo resultados diferenciados e indicando um elevado potencial para aplicações práticas.<br>Abstract: Combinatorial optimization problems possess a high practical relevance and emerge on a wide range of applications. Usually, combinatorial optimization is associated with an explosion of candidates to the solution, making exact methods unfeasible. Before the unfeasibility of exact methods when dealing with this class of problems, lately there has been an increasing interest in heuristic methods capable of finding high-quality solutions, not necessarily the optimal one. Considering the widely known empirical success of metaheuristics conceived with inspiration on biological systems and on the nature itself, such approaches are receiving more and more attention from the scientific community. Evidently, there is no single methodology able to always produce the best results for all classes of problems, or even for all instances of one specific class. That is why the search for solutions to combinatorial problems remains a challenging task. This thesis considers multicriteria and multimodal combinatorial optimization problems. As the main contribution, one can emphasize the conception of new metaheuristics designed to the solution of high-complexity combinatorial optimization problems, and two classes of computational tools have been proposed. The first one involves hybrid method based on Kohonen self-organizing maps and fuzzy inference, in which a set of rules guides the training of the self-organizing maps in order to allow the handling of problems with constraints and multiple objectives. The second approach is based on artificial immune systems. Particularly, the immune-inspired approach leads to the proposal of metaheuristics capable of finding out and maintaining multiple high-quality solutions, making it possible to deal with multimodal problems. As case studies, the capacitated vehicle routing problem and the symmetric traveling salesman problem are considered, giving rise to combinatorial and multimodal problems. The proposed techniques were also adapted to the solution of problems in the field of bioinformatics, specifically the analysis of gene expression data, leading to distinguished results and indicating a high potential for practical applications.<br>Doutorado<br>Engenharia de Computação<br>Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
5

Iyoda, Eduardo Masato. "Inteligencia computacional no projeto automatico de redes neurais hibridas e redes neurofuzzy heterogeneas." [s.n.], 2000. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259071.

Full text
Abstract:
Orientador: Fernando Jose Von Zuben<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-08-12T00:43:17Z (GMT). No. of bitstreams: 1 Iyoda_EduardoMasato_M.pdf: 15416989 bytes, checksum: 11aa55a6d43148430b0475e3eb7e8fc0 (MD5) Previous issue date: 2000<br>Resumo: Esta tese apresenta um estudo a respeito de possíveis interações entre os principais paradigmas que compõem a área de inteligência computacional: redes neurais artificiais, sistemas fuzzy e computação evolutiva. Como principais contribuições, são propostas duas novas estratégias de solução de problemas de engenharia: as redes neurais híbridas e as redes neurofuzzy heterogêneas. A rede neural híbrida corresponde a uma extensão dos modelos de aproximação por busca de projeção, onde são consideradas também composições multiplicativas das funções de ativação dos neurônios escondidos. A arquitetura neurofuzzy heterogênea, diferentemente das arquiteturas neurofuzzy tradicionais, utiliza neurônios lógicos que podem ter pares distintos de normas triangulares. Os resultados de simulações computacionais mostram que os dois novos modelos propostos são bastante promissores, no sentido de que eles são capazes de fornecer soluções de melhor qualidade do que os modelos convencionais<br>Abstract: This thesis presents a study on possible combinations of the main paradigms that compose the field of computational intelligence: artificial neural networks, fuzzy systems and evolutionary computation. Among other contributions, two new engineering problem-solving strategies are proposed: hybrid neural networks and heterogeneous neurofuzzy networks. Hybrid neural networks correspond to an extension of project pursuit learning models, where multiplicative compositions of the hidden neurons' activation functions are also considered. Differently from traditional neurofuzzy architectures, heterogeneous neurofuzzy networks employ logical neurons that may have distinct pairs of triangular norms. Simulation results show that these new proposed models are very promising, in the sense that they are capable of providing higher quality solutions than traditional models<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
6

Falqueto, Jovelino. "Inspiração biológica em IA." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/83846.

Full text
Abstract:
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós -Graduação em Computação.<br>Made available in DSpace on 2012-10-20T03:56:51Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T01:52:17Z : No. of bitstreams: 1 181944.pdf: 4890524 bytes, checksum: b9f5bbe1f8ca94583ee7f28323ac6f9e (MD5)<br>O objetivo principal deste trabalho é explorar as possibilidades de estender as atuais fronteiras dos campos de aplicação dos paradigmas de IA, através de uma cópia mais fiel de inspirações biológicas. Dessa forma, o objetivo global foi dividido em quatro idéias principais: i) Verificar as possíveis soluções oferecidas pela Natureza, ainda não exploradas pela IA, especialmente pelos paradigmas de Computação Evolucionária; ii) Desenvolver um modelo para implementar no AG uma daquelas soluções; iii) Testar este modelo em uma situação prática; iv) Estudar a proposição de uma possível metodologia para mensurar as variações de inteligência entre sistemas de IA Simbólicos, Conexionistas , Evolucionários ou outros. Como conseqüência de uma avaliação geral das metodologias de IA, apontar a necessidade de definições mais precisas, juntamente com a utilidade de uma métrica para sistemas de IA. É mostrada a conveniência de dotar os sistemas de IA com a visão dada pelo Prêmio Nobel de Química, Ilya Prigogine, que indicou formas para analisar os fenômenos evolucionários com a ajuda das leis físicas, como as da termodinâmica. São feitos testes para verificar os resultados práticos da adoção de "métodos mais naturais" na construção de sistemas de IA Evolucionária no tratamento de problema com espaço de soluções finito, vulgarmente conhecido por "quadrado mágico". Foi executada uma segunda implementação para verificar estas idéias, usando AG para evoluir redes neurais com dados extraídos de sintomas de doenças reumáticas. Neste caso, os resultados obtidos mostram que algoritmos evolutivos que sigam mais cuidadosamente os fenômenos da Natureza podem ter sua eficiência melhorada em relação aos que simplesmente adotam os operadores comuns.
APA, Harvard, Vancouver, ISO, and other styles
7

Rivera, Gutiérrez José Luis. "Planeamiento de movimientos del robot explorador RE1 usando inteligencia computacional implementada en un FPGA." Universidad Nacional de Ingeniería. Programa Cybertesis PERÚ, 2010. http://cybertesis.uni.edu.pe/uni/2010/rivera_gj/html/index-frames.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Coelho, Leandro dos Santos. "Metodologias da inteligencia computacional em identificação e controle de processos : abordagem nebulosa evolutiva e neural." reponame:Repositório Institucional da UFSC, 1997. http://repositorio.ufsc.br/xmlui/handle/123456789/77062.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico<br>Made available in DSpace on 2012-10-17T00:27:36Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T21:24:04Z : No. of bitstreams: 1 106549.pdf: 11541153 bytes, checksum: 7575f2206b683c6693ce7160231badbb (MD5)<br>Esta dissertação trata da descrição, projeto e implementação de metodologias da inteligência computacional em identificação e controle de processos, em escala laboratorial, com propósito ao tratamento adequado das restrições e dos requisitos exigidos no projeto de sistemas. As metodologias da inteligência computacional utilizados são: lógica nebulosa, computação evolucionária, redes neurais artificiais, "simulated annealing" e sistemas híbridos inteligentes.
APA, Harvard, Vancouver, ISO, and other styles
9

Cano, Esquibel José Gaspar. "Métodos de inteligencia artificial aplicados a química computacional en entornos de computación de alto rendimiento." Doctoral thesis, Universidad de Alicante, 2014. http://hdl.handle.net/10045/45000.

Full text
Abstract:
El principal objetivo de esta tesis es la propuesta de una serie de refinamientos basados en métodos de inteligencia computacional, unidos a metodología in-silico para el descubrimiento de compuestos bioactivos, gracias a la capacidad de cómputo proporcionada por la reciente aparición de las arquitecturas computacionales masivamente paralelas tales como las GPUs (Unidades de Procesamiento Gráfico). Los resultados obtenidos en este proyecto podrían por tanto ayudar y formar la base de una nueva y atractiva generación de aproximaciones para descubrimiento de compuestos bioactivos.
APA, Harvard, Vancouver, ISO, and other styles
10

Lima, Fernando Correa. "\"Um resolvedor SAT paralelo com BSP sobre uma grade\"." Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-03062007-144527/.

Full text
Abstract:
O Objetivo deste trabalho foi implementar um resolvedor distribuído para o problema de satisfabilidade em lógica proposicional (SAT) que pudesse ser executado em uma grade de computadores. Foi analisada a influência que o número de máquinas utilizadas pela grade para resolver diversas instâncias do SAT exerce sobre o desempenho do resolvedor implementado<br>O Objetivo deste trabalho foi implementar um resolvedor distribuído para o problema de satisfabilidade em lógica proposicional (SAT) que pudesse ser executado em uma grade de computadores. Foi analisada a influência que o número de máquinas utilizadas pela grade para resolver diversas instâncias do SAT exerce sobre o desempenho do resolvedor implementado
APA, Harvard, Vancouver, ISO, and other styles
11

Castelleto, Puño Pablo Andrés. "Optimización de asignación de campos clínicos en la Universidad de las Américas con herramientas de inteligencia computacional." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137897.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>Los campos clínicos son establecimientos como clínicas, hospitales y diversas instituciones del área de la salud que atienden pacientes. Los alumnos universitarios del área de la salud requieren asistir a campos clínicos como requisito básico para aprobar los cursos prácticos incluidos en los currículos de las universidades. Cada universidad que imparte carreras del área de la salud debe conseguir campos clínicos que les faciliten sus instalaciones, y personal para que sus alumnos realicen sus cursos prácticos. Algunas universidades cuentan con sus propios campos clínicos; las que no los tienen, deben establecer convenios con instituciones que manejen campos clínicos. Estos convenios son acuerdos bajo contrato entre dos entidades, que reglamentan deberes y derechos para el uso de campos clínicos. La Universidad de las Américas no cuenta con campos clínicos como recurso propio y tiene más de 5000 estudiantes en carreras pertenecientes al área de salud que necesitan asistir a campos clínicos. Actualmente mantiene más de 100 convenios con diversas entidades de salud para cumplir con el requerimiento curricular. La asignación de cada uno de sus estudiantes a campos clínicos representa una tarea compleja, debido al alto número de alumnos a asignar y las distintas variables asociadas a los convenios y sus campos clínicos, como por ejemplo: el horario, las características propias cada curso, número máximo de alumnos asociado a un supervisor, etc. Un problema adicional es la falta de un estándar de convenios, una estructura de datos que indique cuales son las variables más relevantes de cada convenio para el proceso de asignación. Actualmente el proceso de asignación se realiza de forma manual. Considerando su complejidad, la falta de un estándar de convenios y una gran diferencia entre el costo predicho y el real del proceso, el equipo de gestión de la Universidad de las Américas estima que el proceso es ineficiente y mejorable. El objetivo del presente trabajo es implementar un sistema que permita automatizar y mejorar el proceso de asignación de campos clínicos a alumnos de la Universidad de las Américas. Para ello, se propone plantear el proceso de asignación como un problema de optimización multi-objetivo y el uso de herramientas de inteligencia computacional como principal método de resolución. El sistema se implementó exitosamente y en una prueba simplificada que simuló el proceso de asignación de los alumnos de la sede Viña del mar de la Universidad de las Américas en el primer semestre del año 2014, se logró una reducción de los costos de asignación de un 20% con respecto costo real.
APA, Harvard, Vancouver, ISO, and other styles
12

Fonseca, Polyana Santos. "Proposta de definição de inteligência de máquina inspirada na teoria das inteligências múltiplas de Howard Gardner." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/82664.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.<br>Made available in DSpace on 2012-10-19T17:11:20Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T02:07:34Z : No. of bitstreams: 1 190254.pdf: 11156867 bytes, checksum: e104c9093ea96de92fbf409f773de811 (MD5)<br>Esta pesquisa apresenta um estudo sobre medição de Inteligência de Máquina inspirado na Teoria das Inteligências Múltiplas de Howard Gardner. Após uma análise dessa Teoria, é feita uma comparação das principais características de cada uma das sete inteligências de Gardner com as funcionalidades centrais de uma máquina computacional. Baseando-se nessas comparações são propostos paralelos, representando as inteligências de máquina. A mensuração é feita associada a uma tarefa, através de um Sistema Especialista com inferência Nebulosa. Um questionário analisa, em módulos, as características da tarefa com relação a cada uma das inteligências propostas. Essas informações representam as entradas do Sistema Especialista. O sistema então retorna os valores das inteligências necessários para resolver a tarefa, permitindo ao engenheiro do conhecimento decidir a melhor forma de abordar computacionalmente o problema.
APA, Harvard, Vancouver, ISO, and other styles
13

Fialho, Francisco Antonio Pereira. "Modelagem computacional da equilibração das estruturas cognitivas como proposto por Jean Piaget." reponame:Repositório Institucional da UFSC, 1994. http://repositorio.ufsc.br/xmlui/handle/123456789/76018.

Full text
Abstract:
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnologico<br>Made available in DSpace on 2012-10-16T06:36:57Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T18:54:04Z : No. of bitstreams: 1 98099.pdf: 18964643 bytes, checksum: 8e487bd2a0c5912db3e6457e16c4526d (MD5)<br>O presente trabalho consiste em uma tese de doutoramento na área de Engenharia do Conhecimento onde, a partir da conjectura de Turing sobre a possibilidade de construir máquinas inteligentes e dos trabalhos de Jean Piaget sobre como as crianças constróem seus conhecimentos, propõe-se um simulador capaz de emular as Estruturas Cognitivas e o Mecanismo pelos quais essas estruturas atingem um estado de equilíbrio majorante após desequilíbrios provocados por estímulos externos e internos.
APA, Harvard, Vancouver, ISO, and other styles
14

Moreno, Calderón Gabriel Felipe. "Identificación de Sistemas Basada en Inteligencia Computacional y su Aplicación a la Modelación de un Aerogenerador." Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/102628.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Souza, Antonio Artur de. "Um sistema computacional baseado em tecnicas de inteligencia artificial aplicado ao gerenciamento de centrais de informações de fretes." reponame:Repositório Institucional da UFSC, 1990. https://repositorio.ufsc.br/xmlui/handle/123456789/157629.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnologico<br>Made available in DSpace on 2016-01-08T16:38:50Z (GMT). No. of bitstreams: 1 81150.pdf: 4132154 bytes, checksum: bd35b6a84ef44ff60af76b4676729ce9 (MD5) Previous issue date: 1990<br>O presente trabalho apresenta uma proposta de informatização das atividades operacionais de um sistema de CIFs, postos informativos do mercado de fretes rodoviários. Esta proposta consiste num sistema computacional (software) baseado em técnicas de inteligência artificial (busca heurística e processamento de linguagem natural), chamado SGCIF, desenvolvido não somente com o propósito de gerênciar as atividades das CIFs, mas também de apresentar uma maneira de maximizar o lucro dos transportadores. O SGCIF possibilita o gerênciamento de um sistema de CIFs de maneira interligada, isto é, todas as CIFs compartilham a mesma bolsa de fretes. Com isso pode haver, em cada CIF o conhecimento de todos os fretes disponíveis em dado momento. Isto amplia os benefícios aos usuários, uma vez que possibilita a escolha da melhor rota entre dois pontos da malha rodoviária, permitindo com isso, uma maximização no lucro do transportador. A determinação desta rota emprega informações heurísticas e algoritmos que constituem idéias sólidas de inteligência artificial. Além de ressaltar a complexidade do problema, este trabalho mostra a modelagem efetuada e sua solução através do algoritmo A* adaptado a função de maximização do lucro.
APA, Harvard, Vancouver, ISO, and other styles
16

Almeida, Otacilio da Mota. "Controle PID auto-ajustável, inteligente e preditivo." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/83097.

Full text
Abstract:
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica<br>Made available in DSpace on 2012-10-19T20:57:28Z (GMT). No. of bitstreams: 0Bitstream added on 2014-09-26T02:28:23Z : No. of bitstreams: 1 183135.pdf: 11455154 bytes, checksum: 78f44a203e8565a27d3d1028c137afb6 (MD5)
APA, Harvard, Vancouver, ISO, and other styles
17

Rodríguez, Rivero Cristian. "Modelos no lineales de pronóstico de series temporales basados en inteligencia computacional para soporte en la toma de decisiones agrícolas." Doctoral thesis, Universidad Nacional de Córdoba. Facultad de Ciencias Exactas, Físicas y Naturales, 2016. http://hdl.handle.net/11086/4604.

Full text
Abstract:
Tesis (DCI)--FCEFN-UNC, 2016<br>Centra modelos predictivos basados en redes neuronales destinados a pronosticar datos históricos de lluvia observados para la toma de desiciones. Estos algoritmos de aprendizaje automático pueden mejorarse en numerosos aspectos y son una herramienta muy promisoria en el ámbito agropecuario.
APA, Harvard, Vancouver, ISO, and other styles
18

Xavier, Edison Alessandro. "Aplicação de inteligência computacional na gerência de redes através da automatização do uso de agentes móveis." Florianópolis, SC, 2003. http://repositorio.ufsc.br/xmlui/handle/123456789/86160.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.<br>Made available in DSpace on 2012-10-21T04:14:35Z (GMT). No. of bitstreams: 1 192457.pdf: 582899 bytes, checksum: cbbb7374270531fb3d2f0cb9f4310116 (MD5)<br>A gerência de redes de computadores é uma atividade computacional que precisa ser implementada de maneira a obter os dados ou enviar ações ao ambiente gerenciado da melhor forma possível. Dentre as formas de implementação da coleta dos dados destacamos os agentes móveis, que possuem características interessantes: podem variar a quantidade de agentes envolvidos ou o momento de entrega dos dados ao gerente. Essa variação abre um ponto de decisão: qual a melhor configuração de agentes móveis, dada uma gerência? Esse trabalho inicia investigando as variações das configurações de agentes móveis, obtendo métricas que podem ser classificadas e avaliadas, dando subsídios para a decisão de qual a melhor configuração. Por fim, apresenta soluções de decisão baseadas em paradigmas de inteligência computacional, notadamente redes neurais, lógica fuzzy e regras de inferência.
APA, Harvard, Vancouver, ISO, and other styles
19

Núñez, Vicencio Alfredo Antonio. "Design of Hybrid Predictive Control Strategies for Optimization of Operational Processes in Dynamic Transport Systems." Tesis, Universidad de Chile, 2009. http://www.repositorio.uchile.cl/handle/2250/102223.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Mesones, Barrón Carlos Enrique. "Comprensión y generación de lenguaje natural en un sistema de diálogo usando inteligencia artificial para servicios telefónicos de información de cines." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2006. http://tesis.pucp.edu.pe/repositorio/handle/123456789/241.

Full text
Abstract:
El presente documento es resultado de la investigación sobre automatización inteligente - comprensión y generación de lenguaje natural- en un Sistema de Diálogo, para optimar el servicio de atención al cliente actualmente brindado por un operador vía telefónica.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
21

Espinosa-Anke, Luis. "Knowledge acquisition in the information age: the interplay between lexicography and natural language processing." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/404985.

Full text
Abstract:
Natural Language Processing (NLP) is the branch of Artificial Intelligence aimed at understanding and generating language as close as possible to a human’s. Today, NLP benefits substantially of large amounts of unnanotated corpora with which it derives state-of-the-art resources for text understanding such as vectorial representations or knowledge graphs. In addition, NLP also leverages structured and semi-structured information in the form of ontologies, knowledge bases (KBs), encyclopedias or dictionaries. In this dissertation, we present several improvements in NLP tasks such as Definition and Hypernym Extraction, Hypernym Discovery, Taxonomy Learning or KB construction and completion, and in all of them we take advantage of knowledge repositories of various kinds, showing that these are essential enablers in text understanding. Conversely, we use NLP techniques to create, improve or extend existing repositories, and release them along with the associated code for the use of the community.<br>El Procesamiento del Lenguaje Natural (PLN) es la rama de la Inteligencia Artificial que se ocupa de la comprensión y la generación de lenguage, tomando como referencia el lenguaje humano. Hoy, el PLN se basa en gran medida en la explotación de grandes cantidades de corpus sin anotar, a partir de los cuales se derivan representaciones de gran calidad para la comprensión automática de texto, tales como representaciones vectoriales o grafos de conocimiento. Además, el PLN también explota información estructurada y parcialmente estructurada como ontologías, bases de conocimiento (BCs), enciclopedias o diccionarios. En esta tesis presentamos varias mejoras del estado del arte en tareas de PLN tales como la extracción de definiciones e hiperónimos, descubrimiento de hiperónimos, inducción de taxonomías o construcción y enriquecimiento de BCs, y en todas ellas incorporamos repositorios de varios tipos, evaluando su contribución en diferentes áreas del PLN. Por otra parte, también usamos técnicas de PLN para crear, mejorar o extender repositorios ya existentes, y los publicamos junto con su código asociado con el fin de que sean de utilidad para la comunidad.
APA, Harvard, Vancouver, ISO, and other styles
22

Labarca, Mercado Fabián Felipe. "Plan de escalamiento para un SaaS en la industria del talento." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168711.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Huijse, Heise Pablo Andrés. "Detección de Período en Series de Tiempo Astronómicas Usando Correntropía." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103725.

Full text
Abstract:
Las series de tiempo estudiadas en astronomía, también conocidas como “Curvas de Luz”, contienen información del brillo estelar versus tiempo y se caracterizan por estar irregularmente muestreadas, poseer múltiples espacios sin datos (gaps) y ser ruidosas. El análisis de curvas de luz permite estudiar el comportamiento del objeto estelar en cuestión, detectar eventos de interés, despejar otros parámetros del objeto y realizar tareas de clasificación estelar. En la actualidad son múltiples los catálogos de curvas de luz producidos por sondeos astronómicos alrededor del mundo. La extensión de estas bases de datos sumada a las características ya mencionadas de las curvas de luz, hacen que el análisis de series de tiempo astronómicas sea una tarea difícil y costosa. Es por esto que existe un gran interés por el desarrollo de métodos inteligentes que sean capaces de analizar automáticamente los extensos catálogos de curvas de luz. En el presente trabajo de memoria se propone y prueba una metodología para la detección automática de período orbital en series de tiempo astronómicas, basada en la correntropía y su espectro de potencia. La correntropía es una medida de similitud en un espacio de alta dimensionalidad entre muestras separadas en el tiempo en el espacio de entrada. La correntropía también puede definirse como una generalización de la auto-correlación ya que es capaz de detectar no linealidades y no está restringida a procesos Gaussianos. El método propuesto combina la densidad espectral de la correntropía con la técnica de folding, la técnica del ranurado, y otras técnicas convencionales de análisis de señales. La aplicación propuesta en esta memoria de título está enfocada a un aspecto del análisis de curvas de luz, el cual corresponde a la detección de período de estrellas variables periódicas. El método desarrollado se prueba sobre una base de datos de 193 curvas de luz de estrellas binarias eclipsantes obtenidas del proyecto MACHO y cuyo período es conocido. La mejor versión de la implementación desarrollada obtiene un 58% de aciertos (91% si se consideran los múltiplos), superando a la auto-correlación convencional (20% de aciertos) y a una batería de aplicaciones de detección de período en curvas de luz compuesta por Period04, SigSpec y VarTools (todas disponibles en la literatura). Sin embargo, el desempeño del método debe ser mejorado si se desea aplicar en bases de datos de tamaño real. Por lo tanto se propone una serie de modificaciones, entre las que se incluye: Incorporar una etapa de ajuste fino de períodos candidatos; diseñar una métrica de calidad basada en la entropía cuadrática de Renyi; y diseñar una estrategia para escoger los parámetros de los kernel utilizados.
APA, Harvard, Vancouver, ISO, and other styles
24

Vargas, Rosales Alfredo Adrián. "Desarrollo de una herramienta que permita la extracción de una taxonomía de un conjunto de documentos de un dominio específico usando CFinder para la extracción de conceptos clave." Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6050.

Full text
Abstract:
Gracias a la World Wide Web la idea de información compartida alrededor del mundo es común para todos, la información es ingresada desde diferentes fuentes para que todos puedan verla y usarla. Una Smart Web o Semantic Web tiene como objetivo estructurar los contenidos de forma tal que todo esté relacionado y por lo tanto, presente información consistente. Para ello, se requieren de estructuras que puedan ser accesadas por computadoras y contengan reglas de inferencia para un razonamiento automático. Una de estas estructuras es la ontología. Una ontología busca conceptualizar el conocimiento de un dominio específico valiéndose de representaciones. Como primer paso para construir una ontología, se debe obtener una taxonomía. Una taxonomía es una clasificación de entidades de información a manera de jerarquías. Las taxonomías ofrecen diversas ventajas como clasificar de la información, realizar búsquedas de manera más eficaz y navegar entre muchos conceptos, sin embargo, requieren mucho esfuerzo para ser construidas a mano. Para poder construir una taxonomía en base a un grupo de documentos, primero se debe extraer los conceptos más relevantes presentes en dichos textos. Luego, se debe deducir la jerarquía se convertirá en la taxonomía. Para extraer los conceptos más relevantes de un grupo de documentos, el método CFinder ha probado ser muy útil y dar buenos resultados. El objetivo del CFinder es que sea usado para la construcción de ontologías u otro tipo de estructura que requiera una fase de extracción de conceptos clave. No obstante, no se ha integrado con un método que permita estructurar la jerarquía entre los conceptos extraídos. En este proyecto se busca complementar el método CFinder con una fase para la deducción de jerarquías entre los conceptos extraídos y la construcción de una taxonomía, de esta manera, se está brindando una nueva opción para la construcción automática de taxonomías. Para ello, se realiza la implementación de una herramienta para la construcción automática de una taxonomía de un dominio que haga uso del método CFinder. El proyecto inicia con la implementación de un módulo que permite la extracción de conceptos clave de un conjunto de documentos usando el método CFinder. Luego, se procede a implementar un módulo que permita extraer una taxonomía usando los conceptos clave extraídos. Finalmente, se realizan las pruebas necesarias para medir la eficacia del método implementado y, con los resultados obtenidos, se concluye que se alcanzó el objetivo principal del proyecto.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
25

Sanchis, Trilles Germán. "Building task-oriented machine translation systems." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/17174.

Full text
Abstract:
La principal meta de esta tesis es desarrollar sistemas de traduccion interactiva que presenten mayor sinergia con sus usuarios potenciales. Por ello, el objetivo es hacer los sistemas estado del arte mas ergonomicos, intuitivos y eficientes, con el fin de que el experto humano se sienta mas comodo al utilizarlos. Con este fin se presentan diferentes t�ecnicas enfocadas a mejorar la adaptabilidad y el tiempo de respuesta de los sistemas de traduccion automatica subyacentes, as�ÿ como tambien se presenta una estrategia cuya finalidad es mejorar la interaccion hombre-m�aquina. Todo ello con el proposito ultimo de rellenar el hueco existente entre el estado del arte en traduccion automatica y las herramientas que los traductores humanos tienen a su disposici�on. En lo que respecta al tiempo de respuesta de los sistemas de traducci�on autom�atica, en esta tesis se presenta una t�ecnica de poda de los par�ametros de los modelos de traducci�on actuales, cuya intuici�on est�a basada en el concepto de segmentaci�on biling¤ue, pero que termina por evolucionar hacia una estrategia de re-estimaci�on de dichos par�ametros. Utilizando esta estrategia se obtienen resultados experimentales que demuestran que es posible podar la tabla de segmentos hasta en un 97%, sin mermar por ello la calidad de las traducciones obtenidas. Adem�as, estos resultados son coherentes en diferentes pares de lenguas, lo cual evidencia que la t�ecnica que se presenta aqu�ÿ es efectiva en un entorno de traducci�on autom�atica tradicional, y por lo tanto podr�ÿa ser utilizada directamente en un escenario de post-edici�on. Sin embargo, los experimentos llevados a cabo en traducci�on interactiva son ligeramente menos convincentes, pues implican la necesidad de llegar a un compromiso entre el tiempo de respuesta y la calidad de los sufijos producidos. Por otra parte, se presentan dos t�ecnicas de adaptaci�on, con el prop�osito de mejorar la adaptabilidad de los sistemas de traducci�on autom�atica. La primera<br>Sanchis Trilles, G. (2012). Building task-oriented machine translation systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17174<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
26

Biasi, Herculano Haymussi de. "Desenvolvimento de uma metodologia de visão computacional para o auxílio no planejamento cirúrgico no implante de próteses endoluminais." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/83032.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Ciência da Computação.<br>Made available in DSpace on 2012-10-19T20:24:15Z (GMT). No. of bitstreams: 1 186201.pdf: 2995502 bytes, checksum: fc247eccf6b3f31c58d6738aaaaef000 (MD5)<br>O tratamento endoluminal tem evoluído de forma significativa, reduzindo enormemente os riscos do tratamento aneurismático. Essas técnicas de tratamento endoluminais poderiam ser ainda melhores se utilizassem um suporte computacional para uma clara e objetiva quantificação da patologia aneurismática. Em função das variações anatômicas entre pacientes existe a necessidade clara de um software específico para a mensuração das patologias vasculares tratáveis endoluminalmente a partir de volumes tomográficos no sentido de: a) prover dados para a escolha de uma prótese endovascular adequada dentre os modelos comercialmente disponíveis ou, caso não exista um modelo comercial adequado, b) prover dados quantitativos detalhados que permitam a um fabricante de endopróteses a confecção de uma prótese com diâmetro e curvatura adequados às especificidades anatômicas do paciente. Em função das deficiências da tecnologia atualmente empregada, faz-se necessário o desenvolvimento de um novo enfoque para o processamento de volumes tomográficos objetivando o planejamento cirúrgico endovascular. O trabalho aqui descrito objetivou o desenvolvimento de uma metodologia de visão computacinal e de uma ferramenta de software para o auxílio ao planejamento do tratamento endoluminal. Para o desenvolvimento inicial da tecnologia escolheu-se o aneurisma de aorta abdominal como área de aplicação. Deve-se atender às seguintes exigências principais. a) identificação de forma automática com exatidão e confiabilidade a luz e o tecido aneurismático da aorta abdominal e a luz das artérias femurais e ilíacas com base em um volume tomográfico; b) execução uma reconstrução tridimensional e exportação desses dados de reconstrução e mensuração em um formato que permita a visualização através de técnicas de realidade virtual e compartilhamento através da Internet e que possam ser utilizados para a confecção das próteses endovasculares; c) realização de forma automática e confiável a mensuração de diâmetro, volume e extensão de segmentos arteriais, independentemente de sua curvatura; d) conformidade com o padrão DICOM 3.0 e independência de plataforma.
APA, Harvard, Vancouver, ISO, and other styles
27

Grigoletti, Pablo Souza. "Uma arquitetura baseada em sistemas multiagentes para simulações em geoprocessamento." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2007. http://hdl.handle.net/10183/10365.

Full text
Abstract:
Este trabalho situa-se nas áreas de Sistemas Multiagentes e Geoprocessamento. Em Sistemas Multiagentes, a especificação de um sistema pode ser realizada através da modelagem do ambiente, agentes, mecanismos de interação e organização dos agentes envolvidos. Um aspecto pouco explorado, porém extremamente importante, é a modelagem e representação do ambiente em que os agentes estão situados e através do qual irão interagir. Por outro lado, o Geoprocessamento sempre enfatizou a representação de fenômenos espaciais de forma estática. No entanto, alguns fenômenos espaciais são inerentemente dinâmicos e as representações estáticas não os capturam de forma adequada. Assim, o foco principal deste trabalho é fornecer uma arquitetura, baseada em Sistemas Multiagentes, para a criação e execução de simulações na área de Geoprocessamento. Uma característica importante é a utilização de dados vetoriais, provenientes de um Banco de Dados Geográficos, na geração da representação espacial do ambiente e das entidades existentes nas simulações. Com esta forma de representação contínua e precisa, é possível criar modelos mais próximos da realidade, representando adequadamente um maior número de características. Além disto, a arquitetura permite a representação de fenômenos espaço-temporais dinâmicos, uma necessidade da área de Geoprocessamento. Focando no desenvolvimento das funcionalidades da arquitetura proposta, foi realizada uma análise das características positivas, negativas e das necessidades de algumas das principais plataformas para criação e execução de simulações baseadas em agentes. Considerando os resultados desta análise, foram criadas a arquitetura proposta e suas funcionalidades. Além disto, neste trabalho é apresentado o protótipo implementado, no qual foram realizados estudos de caso de diferentes cenários, objetivando avaliar e demonstrar o uso das funcionalidades desenvolvidas.<br>This work is situated in the intersection of two areas: Multi-Agent Systems and Geocomputing. In Multi-Agent Systems, the specification of a system can be achieved by the modelling of environment, agents, mechanisms of interaction and organization of the agents. Although being a very important aspect, the modelling and representation of the environment has not been yet fully explored. On the other hand, Geocomputing has always focused in the static representation of spatial phenomena. However, some spatial phenomena are dynamic on time and space and usual representation adopted in Geocomputing do not capture them well. The aim of this work is to provide an architecture, based on Multi-Agent Systems, for the development and execution of Geocomputing simulations. A very important feature of the proposed architecture is the use of vectorial data, from a Geographic Database, for the representation of the environment and the spatial entities that exist in it. Using this continuous and accurate representation form, it is possible to develop more realistic models, representing appropriately geographic features. Moreover, this architecture allows the representation of dynamic phenomena in time and space, an old need of the Geocomputing area. Focusing on the development of the features of this architecture, an analysis of some related works was realized. The development of this architecture and its features was done based on the results of this analysis. Moreover, a prototype was presented in this work, in which some case studies of different scenes were performed, aiming at the evaluation and demonstration of the developed model and its features.
APA, Harvard, Vancouver, ISO, and other styles
28

Serrano, Musalem Álvaro. "Redes neuronales artificiales auto-organizativas dinámicas." Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/132968.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>El análisis de series de tiempo es de gran importancia ya que la gran mayoría de los datos que se miden cada día son función del tiempo. Su estudio está motivado tanto por el deseo de entender la naturaleza del sistema que se está midiendo, como también predecir su comportamiento futuro. Una técnica de análisis consiste en realizar una cuantificación espacio temporal, es decir, identificar y clasificar las secuencias de datos que presenten una dinámica espacio temporal similar. La red neuronal artificial (RNA) Gas Neuronal Creciente (GNG: Growing Neural Gas) es un algoritmo diseñado para la cuantificación espacial de datos. Este trabajo de título busca extender la cuantificación espacial del algoritmo GNG a una cuantificación espacio temporal en series de tiempo. La extensión se realiza sobre la unidad básica, la neurona, la cual es extendida a un segmento temporal. Se proponen dos extensiones de GNG las cuales son: (i) uso de conexiones temporales en lugar de conexiones espaciales, y (ii) utilización de segmentos en lugar de puntos. Los algoritmos propuestos se llaman GSG (Growing Segment Gas) y MGSG (Merge Growing Neural Gas). Este último introduce en GSG el uso de contextos para la cuantificación espacio temporal. Dada la forma en la que se extendió el algoritmo GNG, los algoritmos propuestos GSG y MGSG, resultan ser una generalización de GNG y MGNG, respectivamente. El desempeño de GSG y MGSG se evalúa utilizando como métrica, el error de cuantificación temporal (TQE) para distintos retardos y se comparan los resultados con los obtenidos con la redes GNG y MGNG. Los resultados obtenidos en MGSG muestran una ventaja estadísticamente significativa en 3 de las 4 series de datos evaluadas, mientras que GSG sólo muestra ventajas sobre GNG en 2 de las 4 series de datos evaluadas. Además se muestran ventajas en términos de la visualización que otorgan la redes resultantes de GSG y MGSG. Considerando el buen desempeño de MGSG se propone como trabajo futuro construir algoritmos predictivos basados en MGSG para el estudio de series de tiempo. Por último los algoritmos propuestos son una primera aproximación a la cuantificación espacio temporal utilizando segmentos, por esta razón se exponen posibles mejoras de los algoritmos propuestos para trabajos futuros.
APA, Harvard, Vancouver, ISO, and other styles
29

Galleguillos, Aguilar Matías. "Desarrollo de un modelo predictivo de deserción de estudiantes de primer año en institución de educación superior." Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/170006.

Full text
Abstract:
Memoria para optar al título de Ingeniero Civil Eléctrico<br>En Chile, durante los últimos 30 años ha habido un crecimiento significativo en el acceso de las personas a la educación superior. Acompañado de este crecimiento se ha visto un aumento en la deserción universitaria, siendo particularmente elevada la de alumnos de primer año. Este problema tiene grandes costos de distinta índole tanto para los alumnos como para las universidades, haciendo que se haya posicionado como una de las métricas más importantes que se utiliza para acreditar a las instituciones. La Universidad de las Américas se ha visto enfrentada a una alta tasa de deserción, traduciéndose en que en el año 2013 haya contribuido de manera importante a la pérdida de su acreditación, por lo que se transformó en tema prioritario a resolver. Por esto se ideó un plan para ayudar a los alumnos con mayor probabilidad de desertar. Actualmente UDLA no posee un sistema automatizado que clasifique a los alumnos en base a análisis de datos de su comportamiento, sólo se cuenta con un sistema de reglas creado en base al conocimiento de deserción de miembros de la universidad, por lo que tiene una alta tasa de errores. En el último estudio publicado por el Servicio de Información de Educación Superior sobre retención de alumnos de primer año, construido con datos de alumnos que ingresaron a estudiar el año 2016, la Universidad de las Américas se ubica en la posición 47 de 58 universidades. Por esto, desarrollar un sistema capaz de identificar a los alumnos que estén en riesgo de desertar sigue siendo un tema prioritario para la institución. El objetivo del presente trabajo es desarrollar un sistema capaz de entregar un índice de riesgo de deserción de cada alumno de primer año. Para esto se propone plantear el proceso de asignar riesgo como un problema de clasificación y afrontarlo con herramientas de inteligencia computacional. Para resolver el problema se dividió el semestre en tramos y se entrenó un modelo para cada uno de éstos. La precisión del primer modelo fue más baja que la de estudios similares que afrontaron el mismo problema en otras universidades del mundo, teniendo un 70,1% de aciertos. El modelo de cada tramo entregó mejores resultados que los del tramo anterior, siendo el del final del semestre el de mejores resultados llegando a un 82,5% de precisión, lo que se asemeja a otros trabajos.
APA, Harvard, Vancouver, ISO, and other styles
30

Torres, Farro Denis Joel. "Sistema inteligente con visión computacional para mejorar la postura en la fase de salida de los atletas con discapacidad física, mental e intelectual del club Oswen, Chiclayo-Perú." Bachelor's thesis, Universidad Católica Santo Toribio de Mogrovejo, 2021. http://hdl.handle.net/20.500.12423/3715.

Full text
Abstract:
En la presente tesis se plantea el problema de ¿Cómo se puede mejorar la postura en la fase salida de los atletas con discapacidad física, mental e intelectual del club Oswen, Chiclayo - Perú?, teniendo como objetivo principal mejorar la postura en la fase de salida de los atletas con habilidades especiales y dificultades motoras del club Oswen, Chiclayo – Perú y como objetivos específicos: “Diseñar una base de conocimiento basada en la información de uno o más expertos en preparación física de atletas especiales del club Oswen, Chiclayo – Perú”, “Determinar la arquitectura del sistema inteligente con visión computacional basado en variables, hechos y reglas para la detección de errores en las técnicas deportivas”, “Desarrollar los módulos del sistema inteligente con visión computacional considerando la arquitectura propuesta” y “Validar el sistema inteligente con visión computacional a través de juicios expertos”. Como resultado, se obtuvo que la implementación de un sistema inteligente con visión computacional ayudo a mejorar la postura de los atletas con habilidades especiales y dificultades motoras en la fase de salida.
APA, Harvard, Vancouver, ISO, and other styles
31

Foix, Castillo Cristián Isaac. "Proyección del Precio del Cobre: ¿Herramientas de Inteligencia Computacional o Series de Tiempo? En Busca de Pronósticos Ajustados para el Precio del Cobre en el Corto y Mediano Plazo." Tesis, Universidad de Chile, 2007. http://repositorio.uchile.cl/handle/2250/102966.

Full text
Abstract:
Esta tesis tiene como objetivo la entrega de evidencias respecto a la potencia de las redes neuronales como herramienta para el pronóstico del precio anual del cobre. Con este fin se evaluó el desempeño predictivo, fuera de muestra, de diferentes redes neuronales de tipo multilayer perceptron, construidas sobre la base del precio rezagado del cobre y variables derivadas del mismo, tales como la última variación del precio y la desviación estándar de los últimos periodos. Los resultados conseguidos se contrastaron con los generados mediante la aplicación de los más tradicionales y exitosos modelos de series de tiempo (ARIMA, caminata aleatoria y promedio móvil). Adicionalmente, se construyeron modelos híbridos combinando modelos ARIMA y redes neuronales. En este caso, los errores de pronóstico fuera de muestra de los modelos de series de tiempo sirvieron para entrenar redes destinadas a la proyección de residuos. Con los residuos así pronosticados, se corrigieron las proyecciones iniciales de los modelos de series de tiempo. En términos generales, la metodología de trabajo aplicada en este estudio comprendió las siguientes tareas: selección de datos (precio anual del cobre refinado de la Bolsa de Metales de Londres entre los años 1913 y 2006); aplicación de transformaciones en los datos (escalamiento y transformación logarítmica); aplicación de redes neuronales, modelos de series de tiempo y modelos híbridos, junto con la programación de rutinas computacionales para la realización de pronósticos con un alcance de hasta 6 años; evaluación de resultados e identificación de las características de los modelos más exitosos. La calidad de los pronósticos generados se midió comparando el promedio y la desviación estándar de los errores porcentuales absolutos en el periodo comprendido entre los años 1977 y 2006, ventana de tiempo que abarca tanto fases ascendentes como descendentes del precio. Los resultados revelaron un mejor desempeño de los modelos de pronóstico basados en redes neuronales, con una reducción relativa del promedio del error porcentual absoluto (MAPE) de 30% respecto de los mejores modelos ARIMA y de hasta un 49% respecto a la caminata aleatoria, en pronósticos a más de dos años. De este modo, se estableció que el modelamiento no lineal a través de redes neuronales es capaz de aprovechar mejor la información contenida en los precios históricos considerados en el estudio. Por otra parte, en pronósticos a 1 año, el menor error alcanzado con la aplicación de un modelo híbrido (reducción relativa del MAPE de 1,5% respecto a redes neuronales, de 5,6% respecto a modelos ARIMA y de 13% respecto al camino aleatorio) evidenció que, mediante el trabajo conjunto con modelos de series de tiempo y redes neuronales, es posible conseguir pronósticos de mayor precisión a los generados con cada técnica por separado. Finalmente, la comparación de los pronósticos publicados por un prestigioso analista del mercado del cobre versus los resultados conseguidos con los mejores modelos seleccionados reveló la mayor precisión de estos últimos, con reducciones relativas del MAPE de 33% y 43% en proyecciones a 1 y 2 años respectivamente. El impacto que tiene el precio del cobre en la actividad minera (evaluación de proyectos, planificación de la producción, evaluación y control de los resultados de gestión y de negocios) y en la economía de nuestro país (alta participación del cobre en las exportaciones y en los ingresos fiscales), conjuntamente con los resultados observados en este estudio, hacen atractivo continuar con la investigación en torno al uso de herramientas de Inteligencia Computacional en el pronóstico del precio del cobre. Trabajos futuros podrían enfocarse en otras estrategias de aprendizaje, arquitecturas alternativas, incorporación de otras variables explicativas (stocks en semanas de consumos, índices de actividad económica, etc.), aplicación de heurísticas para el diseño de redes, evaluación de diferentes modelos híbridos y la aplicación de máquinas de soporte vectorial.
APA, Harvard, Vancouver, ISO, and other styles
32

Marqués, Sahlberg Johan. "Homonimia y polisemia en la traducción automática del español al sueco." Thesis, Stockholms universitet, Institutionen för spanska, portugisiska och latinamerikastudier, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:su:diva-85909.

Full text
Abstract:
Esta investigación elabora y defiende la hipótesis de que la traducción automática no es capaz detraducir las palabras que presentan polisemia u homonimia. La homonimia y la polisemia son dosfenómenos lingüísticos que implican, cada uno a su manera, la ramificación de distintossignificados bajo un mismo denominador (palabra). Por regla general estos fenómenos pasandesapercibidos gracias a que el significado de cada palabra se interpreta en un contexto. Por lotanto el contexto activa un significado de cada palabra y cancela los demás. Creemos que latraducción automática no es capaz de decodificar la información necesaria del contexto. Lainvestigación gira alrededor de los resultados obtenidos por un corpus español traducido al suecopor Google Translate.
APA, Harvard, Vancouver, ISO, and other styles
33

Jimeno, Yepes Antonio José. "Ontology refinement for improved information retrieval in the biomedical domain." Doctoral thesis, Universitat Jaume I, 2009. http://hdl.handle.net/10803/384552.

Full text
Abstract:
Este trabajo de tesis doctoral se centra en el uso de ontologías de dominio y su refinamiento enfocado a la recuperación de la información. El dominio seleccionado ha sido el de la Biomedicina, que dispone de una extensa colección de resúmenes en la base de datos Medline y recursos que facilitan la creación de ontologías muy extensas, tales como MeSH o UMLS. En este trabajo se ha desarrollado también un modelo de formulación de consulta que permite relacionar un modelo de documento con una ontología dentro de los modelos de lenguaje. Además hemos desarrollado un algoritmo que permite mejorar la ontología para la tarea de recuperación de la información a partir de recursos no estructurados. Los resultados muestran que el refinamiento de las ontologías aplicado a la recuperación de la información mejora el rendimiento, identificando automáticamente información no presente en la ontología. Además hemos comprobado que el tipo de contenido relevante para las consultas depende de propiedades relacionadas con el tipo de consulta y la colección de documentos. Los resultados están acordes con resultados existentes en el campo de la recuperación de la información.
APA, Harvard, Vancouver, ISO, and other styles
34

Okuyama, Fabio Yoshimitsu. "Modelo MAS-SOC : integrando ambientes e organizações para simulações baseadas em sistemas multiagentes situados." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2008. http://hdl.handle.net/10183/18646.

Full text
Abstract:
Este trabalho encontra-se situado na área de Inteligência Artificial, mais especificamente na modelagem de Sistemas Multiagentes destinados à simulação social. A área de pesquisa de simulação social baseada em agentes é uma área recente e bastante promissora. Por tratar de problemas extremamente complexos, existe a necessidade de criar modelos e abstrações para possibilitar sua realização. Dando continuidade a trabalhos anteriores, esta tese pretende consolidar uma nova versão do modelo MAS-SOC, destinado à definição de simulações sociais baseada em Sistemas Multiagentes Situados, com organizações que funcionam em ambientes determinados (organizações situadas). É proposta uma abordagem integrada, que conecta de maneira forte as entidades agentes, organizações e ambiente, sendo os agentes, o ambiente e as estruturas da organização tratadas como entidades de primeira ordem. A definição do ambiente é feita através da linguagem ELMS, estendida com uma infraestrutura normativa. Esta infraestrutura normativa é composta basicamente por objetos normativos e espaços normativos que permitem a distribuição espacial da informação normativa no ambiente, possibilitando a contextualização das normas que os agentes devem seguir em um escopo espacial determinado. A contextualização das normas facilita a sua operacionalização e a verificação de conformidade, reduzindo também a possibilidade de interpretações errôneas das normas. Com isso, a infraestrutura normativa conecta ambiente físico à estrutura da organização do sistema multiagente. Além disso, o modelo proposto usa um esquema mínimo de definição das organizações para armazenar informações e restrições que o projetista da simulação prefira representar desta forma. Esta maneira integrada de modelar os sistemas multiagentes, associando a organização ao espaço em que a organização deve funcionar, pode facilitar a modelagem de grandes sistemas, pois o conceito de espaço normativo permite que a modelagem seja feita através da partição do ambiente físico em módulos onde as atividades da organização situada são realizadas. Assim, o modelo trata de forma bastante prática o uso das normas organizacionais que podem ser representadas através de objetos normativos. Esta forma de representação possibilita aos agentes decidirem sobre a aderência as normas, já que estas não estão embutidas no mecanismo de raciocínio dos agentes. Além disso, a forma contextualizada das normas facilita raciocínio sobre elas e possibilita a aderência a normas previamente desconhecidas pelos agentes.<br>This work is situated in the research area of Artificial Intelligence, specifically the modelling of Multi-agent systems for social simulation. The research area of agent based social simulation is a recent and interesting area. In order to handle with its very complex problems, it requires the development of models and abstractions to make possible its realisation. Continuing previous works, this thesis aims to consolidate extensions to the MAS-SOC model, in order to turn it into a suitable model for the social simulation based on situated multi-agent systems with organizations that operate in determined environments (situated organisations). It is proposed an integrated approach in which multiagent entities such as agents, organisations and environments are strongly connected to each other, and the environment and the organisational structures being treated as first order entities. The definition of the environment is made with the use of the ELMS language, which have been extended with a normative infrastructure. The normative infrastructure is composed essentially by normative objects and normative places, which are means for the spatial distribution of the normative information over the environment, allowing the contextualisation of the norms in a bounded spatial scope. The norms being bounded in a specific spatial scope facilitates its operationalisation and conformity checks, also reducing the possibilities of norms misinterpretations. Thus, the normative infrastructure connects the physical environment to the organisational structures of the multiagent system. The thesis proposes that this integrated approach to model multi-agent systems may ease the modelling of large scale systems, since it allows the partition of the environment in a modular way, facilitating the operationalisation and verification of the adequacy of the structure of an organisation to the physical space where it is located, and also reducing the possibility of the misinterpretations of norms by the agents, through the contextualisation of norms. Also, the proposed scheme uses a minimal structure for the definition of the organisations in order to store information that the simulation designer prefers to represent in such way. Further, the proposed approach allows a very practical way to use of norms in a physical environment, by allowing the agents to reason about following a norm abiding behaviour or not, since the norms are not hard-wired in their reasoning mechanisms, and its contextualized form facilitates that agents reason about adhering to norms that were previously unknown to them.
APA, Harvard, Vancouver, ISO, and other styles
35

Jiménez, García Brian. "Development and optimization of high-performance computational tools for protein-protein docking." Doctoral thesis, Universitat de Barcelona, 2016. http://hdl.handle.net/10803/398790.

Full text
Abstract:
Computing has pushed a paradigm shift in many disciplines, including structural biology and chemistry. This change has been mainly driven by the increase in performance of computers, the capacity of dealing with huge amounts of experimental and analysis data and the development of new algorithms. Thanks to these advances, our understanding on the chemistry that supports life has increased and it is even more sophisticated that we had never imagined before. Proteins play a major role in nature and are often described as the factories of the cell as they are involved in virtually all important function in living organisms. Unfortunately, our understanding of the function of many proteins is still very poor due to the actual limitations in experimental techniques which, at the moment, they can not provide crystal structure for many protein complexes. The development of computational tools as protein-protein docking methods could help to fill this gap. In this thesis, we have presented a new protein-protein docking method, LightDock, which supports the use of different custom scoring functions and it includes anisotropic normal analysis to model backbone flexibility upon binding process. Second, several interesting web-based tools for the scientific community have been developed, including a web server for protein-protein docking, a web tool for the characterization of protein-protein interfaces and a web server for including SAXS experimental data for a better prediction of protein complexes. Moreover, the optimizations made in the pyDock protocol and the increase in th performance helped our group to score in the 5th position among more than 60 participants in the past two CAPRI editions. Finally, we have designed and compiled the Protein-Protein (version 5.0) and Protein-RNA (version 1.0) docking benchmarks, which are important resources for the community to test and to develop new methods against a reference set of curated cases.<br>Gràcies als recents avenços en computació, el nostre coneixement de la química que suporta la vida ha incrementat enormement i ens ha conduït a comprendre que la química de la vida és més sofisticada del que mai haguéssim pensat. Les proteïnes juguen un paper fonamental en aquesta química i són descrites habitualment com a les fàbriques de les cèl·lules. A més a més, les proteïnes estan involucrades en gairebé tots els processos fonamentals en els éssers vius. Malauradament, el nostre coneixement de la funció de moltes proteïnes és encara escaig degut a les limitacions actuals de molts mètodes experimentals, que encara no són capaços de proporcionar-nos estructures de cristall per a molts complexes proteïna-proteïna. El desenvolupament de tècniques i eines informàtiques d’acoblament proteïna-proteïna pot ésser crucial per a ajudar-nos a reduir aquest forat. En aquesta tesis, hem presentat un nou mètode computacional de predicció d’acoblament proteïna-proteïna, LightDock, que és capaç de fer servir diverses funcions energètiques definides per l’usuari i incloure un model de flexibilitat de la cadena principal mitjançant la anàlisis de modes normals. Segon, diverses eines d’interès per a la comunitat científica i basades en tecnologia web han sigut desenvolupades: un servidor web de predicció d’acoblament proteïna-proteïna, una eina online per a caracteritzar les interfícies d’acoblament proteïna-proteïna i una eina web per a incloure dades experimentals de tipus SAXS. A més a més, les optimitzacions fetes al protocol pyDock i la conseqüent millora en rendiment han propiciat que el nostre grup de recerca obtingués la cinquena posició entre més de 60 grups en les dues darreres avaluacions de l’experiment internacional CAPRI. Finalment, hem dissenyat i compilat els banc de proves d’acoblament proteïna-proteïna (versió 5) i proteïna-ARN (versió 1), molt importants per a la comunitat ja que permeten provar i desenvolupar nous mètodes i analitzar-ne el rendiment en aquest marc de referència comú.
APA, Harvard, Vancouver, ISO, and other styles
36

Cire, Andre Augusto. "Modelos computacionais para o escalonamento de tarefas em redes de dutos." [s.n.], 2008. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276064.

Full text
Abstract:
Orientador: Arnaldo Vieira Moura, Cid Carvalho de Souza<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação<br>Made available in DSpace on 2018-08-12T08:44:27Z (GMT). No. of bitstreams: 1 Cire_AndreAugusto_M.pdf: 961770 bytes, checksum: 5fad1ce7143a7b6505cc4194ac56dc65 (MD5) Previous issue date: 2008<br>Resumo: Esta dissertação de Mestrado trata de um problema real de escalonamento, no qual uma complexa rede de dutos é utilizada para distribuição de derivados de petróleo e bio-combustíveis de refinarias a mercados locais. Dutos constituem a alternativa de transporte mais vantajosa em termos econômicos e ambientais, mas trazem consigo um amplo conjunto de restrições operacionais difíceis, envolvendo seqüenciamento de produtos, capacidade de tanques, controle de taxa de vazão, controle de estoque e muitas outras. O objetivo do problema está em escalonar operações de bombeamento nos dutos de forma a satisfazer as demandas locais em cada órgão de distribuição, dentro de um horizonte de planejamento pré-definido. Para resolvê-lo, este trabalho propõe uma nova abordagem híbrida composta por duas fases. Primeiramente, uma fase de planejamento define os volumes de produto que devem ser transmitidos entre órgãos para que as demandas sejam completamente atendidas. Em seguida, uma fase de escalonamento é responsável por criar e escalonar as operações de bombeamento, de forma a garantir que os volumes definidos na fase anterior sejam efetivamente enviados. Esta disserta¸c¿ao foca na fase de escalonamento, e duas formulações em Programação por Restrições (PR) são apresentadas para modelá-la. Conforme foi verificado, a flexibilidade de PR 'e fundamental para representar e satisfazer restrição que, usualmente, são desconsideradas na literatura, mas que são essenciais para a viabilidade operacional das soluções. A estratégia completa foi implementada e produziu resultados adequados e promissoras para 5 instâncias reais fornecidas pela Petrobras. Tais instâncias cont¿em 30 dutos, mais de 30 produtos e 14 órgãos de distribuição que contemplam cerca de 200 tanques.<br>Abstract: This dissertation deals with a very difficult overly-constrained scheduling challenge: how to operate a large pipeline network in order to adequately transport oil derivatives and biofuels from refineries to local markets. Pipeline network systems are considered the major option for transporting these product types, in view of their many economic and environmental advantages. However, they pose serious operational difficulties related to product sequencing, flow rates and tank capacities. The challenge is how to schedule individual pumping operations, given the daily production and demand of each product, at each location in the network, over a given time horizon. In order to tackle this problem, we propose a novel hybrid approach which comprises two phases. Firstly, a planning phase decides the necessary volume transmission among depots to satisfy the given demands. Finally, a scheduling phase generates and schedules the pumping operations that guarantee the required volume transmission. This dissertation focuses on the scheduling phase, in which two new Constraint Programming (CP) models are proposed. The CP flexibility plays a key role in modeling and satisfying operational constraints that are usually overlooked in literature, but that are essential in rder to guarantee viable solutions. The full strategy was implemented and produced adequate and promising results when tested over 5 large real instances from Petrobras. These instances have a complex topology with around 30 interconnecting pipelines, over 30 different products in circulation, and about 14 distribution depots which harbor more than 200 tanks.<br>Mestrado<br>Pesquisa Operacional<br>Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
37

Canals, Guinand Vicente José. "Implementación en hardware de sistemas de alta fiabilidad basados en metodologías estocásticas." Doctoral thesis, Universitat de les Illes Balears, 2012. http://hdl.handle.net/10803/84125.

Full text
Abstract:
La sociedad actual demanda cada vez más aplicaciones computacionalmente exigentes y que se implementen de forma energéticamente eficiente. Esto obliga a la industria del semiconductor a mantener una continua progresión de la tecnología CMOS. No obstante, los expertos vaticinan que el fin de la era de la progresión de la tecnología CMOS se acerca, puesto que se prevé que alrededor del 2020 la tecnología CMOS llegue a su límite. Cuando ésta llegue al punto conocido como “Red Brick Wall”, las limitaciones físicas, tecnológicas y económicas no harán viable el proseguir por esta senda. Todo ello ha motivado que a lo largo de la última década tanto instituciones públicas como privadas apostasen por el desarrollo de soluciones tecnológicas alternativas como es el caso de la nanotecnología (nanotubos, nanohilos, tecnologías basadas en el grafeno, etc.). En esta tesis planteamos una solución alternativa para poder afrontar algunos de los problemas computacionalmente exigentes. Esta solución hace uso de la tecnología CMOS actual sustituyendo la forma de computación clásica desarrollada por Von Neumann por formas de computación no convencionales. Éste es el caso de las computaciones basadas en lógicas pulsantes y en especial la conocida como computación estocástica, la cual proporciona un aumento de la fiabilidad y del paralelismo en los sistemas digitales. En esta tesis se presenta el desarrollo y evaluación de todo un conjunto de bloques computacionales estocásticos implementados mediante elementos digitales clásicos. A partir de estos bloques se proponen diversas metodologías computacionalmente eficientes que mediante su uso permiten afrontar algunos problemas de computación masiva de forma mucho más eficiente. En especial se ha centrado el estudio en los problemas relacionados con el campo del reconocimiento de patrones.<br>Today's society demands the use of applications with a high computational complexity that must be executed in an energy-efficient way. Therefore the semiconductor industry is forced to maintain the CMOS technology progression. However, experts predict that the end of the age of CMOS technology progression is approaching. It is expected that at 2020 CMOS technology would reach the point known as "Red Brick Wall" at which the physical, technological and economic limitations of CMOS technology will be unavoidable. All of this has caused that over the last decade public and private institutions has bet by the development of alternative technological solutions as is the case of nanotechnology (nanotubes, nanowires, graphene, etc.). In this thesis we propose an alternative solution to address some of the computationally exigent problems by using the current CMOS technology but replacing the classical computing way developed by Von Neumann by other forms of unconventional computing. This is the case of computing based on pulsed logic and especially the stochastic computing that provide a significant increase of the parallelism and the reliability of the systems. This thesis presents the development and evaluation of different stochastic computing methodologies implemented by digital gates. The different methods proposed are able to face some massive computing problems more efficiently than classical digital electronics. This is the case of those fields related to pattern recognition, which is the field we have focused the main part of the research work developed in this thesis.
APA, Harvard, Vancouver, ISO, and other styles
38

Claver, Iborra José Manuel. "Algoritmos paralelos y distribuidos para resolver ecuaciones matriciales de Lyapunov en problemas de reducción de modelos." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4721.

Full text
Abstract:
La reducción de modelos para problemas de control de gran tamaño es actualmente uno de los temas fundamentales en teoría de sistemas y control. Entre diversas técnicas existentes, los métodos de truncamiento de estados son los que permiten una mayor precisión en la representación del sistema reducido. Muchos de estos métodos necesitan resolver una o más ecuaciones de Lyapunov (habitualmente acopladas), requiriéndose en ocasiones el factor de Cholesky de su solución. En esta tesis se pesentan algoritmos secuenciales por bloques y paralelos para la resolución de estas ecuaciones. Se han diseñado algoritomos de grano fino, medio y combinado, basados en el método de Hammarling, para multiprocesadores en memoria compartida. También se han desarrollado algoritmos paralelos para multicomputadores que utilizan paso de mensajes, adaptando y desarrollando los algoritmos frente de nda y cíclicos utilizados en la resolución de sistemas triangulares lineales, además se presentan nuevos algoritmos, basados en el método de la función signo matricial, para la resolución completa de las ecuaciones de Lyapunov para tiempo continuo acopladas en el caso estándar y generalizado, calculando tanto la solución explícita como el factor de Cholesky, Todos los algoritmos han sido implementados en diversos computadores paralelos y se han evaluado los resultados.<br>Claver Iborra, JM. (1998). Algoritmos paralelos y distribuidos para resolver ecuaciones matriciales de Lyapunov en problemas de reducción de modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4721<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
39

Chaves, Luciano Eustáquio [UNESP]. "Modelos computacionais fuzzy e neuro-fuzzy para avaliarem os efeitos da poluição do ar." Universidade Estadual Paulista (UNESP), 2013. http://hdl.handle.net/11449/105352.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:34:58Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-07-26Bitstream added on 2014-06-13T19:44:42Z : No. of bitstreams: 1 chaves_le_dr_guara.pdf: 1947123 bytes, checksum: ee8c45d5619f8378be62c209cfe77f98 (MD5)<br>O presente estudo teve por objetivo verificar a associação entre a exposição aos poluentes do ar e o número de internações hospitalares por asma e pneumonia. Para a verificação foi proposto desenvolver e validar modelos fuzzy (Mamdani) e neuro-fuzzy (Sugeno) e comparar qual dos modelos apresenta uma melhor eficácia para a predição de internações. A metodologia utilizada foi dividida em três módulos: limpeza e elaboração de dados, elaboração do modelo fuzzy (Mamdani) e elaboração do modelo neuro-fuzzy (Sugeno). Foram coletados dados reais de internações do DATASUS, os quais foram utilizados como saída do modelo. Os dados de entradas foram os poluentes do ar material particulado (MP10), dióxido de enxofre (SO2), ozônio (O3) e a temperatura aparente (Tap). As saídas geradas pelos modelos foram comparadas e correlacionadas com os dados reais de internações através do Coeficiente de Correlação de Pearson. Para o estudo o nível de significância estatístico adotado foi α = 5%. A acurácia dos modelos foi realizada utilizando a Curva ROC. Neste estudo foi possível desenvolver e validar os modelos. O modelo neuro-fuzzy apresentou melhor correlação do que o modelo fuzzy; porém a acurácia foi melhor para o modelo fuzzy<br>This study aimed at investigating the association between exposure to air pollutants and the number of hospital admissions for asthma and pneumonia. For such verification it was proposed to develop and validate the Mamdani fuzzy and neuro-fuzzy (Sugeno) models and compare which of the two provides better efficacy in predicting hospitalization. The methodology was divided into three modules: data cleaning and preparation, elaboration of the fuzzy model (Mamdani) and elaboration of the neuro-fuzzy model (Sugeno). Data were collected from DATASUS actual admissions, which were used as the models output. The input data were air pollutants particulate matter (PM10), sulfur dioxide (SO2), ozone (O3) and the apparent temperature (Tap). The outputs generated by the models were compared and correlated with the actual data of admissions through the Pearson Correlation Coefficient. In this study the level of statistical significance adopted was α = 5%. The accuracy of the models was performed using the ROC curve. In this study it was possible to develop and validate the models. The neuro-fuzzy model showed better correlation than the fuzzy model, but the accuracy was better for the fuzzy model
APA, Harvard, Vancouver, ISO, and other styles
40

Bahamonde, Muñoz Felipe Alberto. "Diseño e implementación de un panel de indicadores como herramienta de inteligencia de negocios para el apoyo en la gestión dentro de IBM Chile." Tesis, Universidad de Chile, 2019. http://repositorio.uchile.cl/handle/2250/170623.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Ruiz, Martínez Pedro Antonio. "Nuevos métodos y algoritmos de altas prestaciones para el cálculo de funciones de matrices." Doctoral thesis, Universitat Politècnica de València, 2020. http://hdl.handle.net/10251/137035.

Full text
Abstract:
[ES] El objetivo de esta tesis es el desarrollo de algoritmos e implementaciones innovadoras de altas prestaciones (HPC) para la computación de funciones de matrices basadas en series de polinomios matriciales. En concreto, se desarrollarán algoritmos para el cálculo de las funciones matriciales más utilizadas: la exponencial, el seno y el coseno. El estudio de los polinomios ortogonales matriciales es un campo emergente cuyo avance está alcanzando importantes resultados tanto desde el punto de vista teórico como práctico. Las ¿últimas investigaciones realizadas por el doctorando, junto a los miembros del grupo de investigación al que está vinculado, High Performance Scientific Computing (HiPerSC), revelan por qué los polinomios matriciales desempeñan un papel fundamental en la aproximación de funciones de matrices, proporcionando propiedades muy interesantes. En esta tesis se han desarrollado nuevos algoritmos de alto rendimiento basados en series polinomiales matriciales. En particular, se han implementado algoritmos para el cálculo de la exponencial, el seno y el coseno de una matriz usando las series matriciales polinomiales de Taylor y de Hermite. Además, se han proporcionado cotas del error cometido en las aproximaciones calculadas, proporcionando además los parámetros teóricos y experimentales óptimos de dichas aproximaciones. Los algoritmos finales han sido comparados con otras implementaciones del estado del arte para probar la mejora que presentan en cuanto a eficiencia y prestaciones. Los resultados obtenidos a lo largo de la investigación y presentados en esta memoria han sido publicados en varias revistas de alto nivel y se han presentado como ponencias en diversas ediciones del congreso internacional Mathematical Modelling in Engineering & Human Behaviour para dotarlas de la mayor difusión posible. Por otra parte, los códigos informáticos implementados han sido puestos a disposición de la comunidad científica internacional a través de nuestra página web http://hipersc.blogs.upv.es.<br>[CAT] L'objectiu d'aquesta Tesi és el desenvolupament d'algoritmes i implementacions innovadores d'altes prestacions (HPC) per a la computació de funcions de matrius basades en sèries de polinomis matricials. En concret, es desenvoluparan algoritmes per al càlcul de les funcions matricials més emprades: l'exponencial, el sinus i el cosinus. L'estudi dels polinomis ortogonals matricials és un camp emergent, el creixement del qual està aconseguint importants resultats tant des del punt de vista teòric com pràctic. Les últimes investigacions realitzades pel doctorand junt amb els membres del grup d'investigació on està vinculat, High Performance Scientific Computing (HiPerSC), revelen per què els polinomis matricials exerceixen un paper fonamental en l'aproximació de funcions de matrius, proporcionant propietats molt interessants. En aquesta Tesi s'han desenvolupat nous algoritmes d'alt rendiment basats en sèries polinomials matricials. En particular, s'han implementat algoritmes per al càlcul de l'exponencial, el sinus i el cosinus d'una matriu usant les sèries matricials polinomials de Taylor i d'Hermite. A més, s'han proporcionat cotes de l'error comès en les aproximacions calculades, proporcionant a més els paràmetres teòrics i experimentals òptims d'aquestes aproximacions. Els algoritmes finals han estat comparats amb altres implementacions de l'estat de l'art per a provar la millora que presenten en termes d'eficiència i prestacions. Els resultats obtinguts al llarg de la investigació i presentats en aquesta memòria han estat publicats en diverses revistes d'alt nivell i s'han presentat com a ponències en diferents edicions del congrés internacional Mathematical Modelling in Engineering \& Human Behaviour per a dotar-les de la major difusió possible. D'altra banda, s'han posat els codis informàtics implementats a disposició de la Comunitat Científica Internacional mitjançant la nostra pàgina web http://hipersc.blogs.upv.es.<br>[EN] The aim of this thesis is the development of high performance computing (HPC) innovative algorithms and implementations for computing matrix functions based on matrix polynomials series. Specifically, algorithms for the calculation of the most commonly-used functions, the exponential, sine and cosine have been developed. The study of orthogonal matrix polynomials is an emerging field whose growth is achieving important results both theoretically and practically. The last investigations made by the doctoral student, together with the members of the research group, High Performance Scientific Computing (HiPerSC), he is linked, reveal why the matrix polynomials play a fundamental role in the approximation of matrix functions, providing very interesting properties.In this thesis new high-performance algorithms based on matrix polynomial series have been developed. In particular, algorithms for computing the exponential, sine and cosine of a matrix using Taylor and Hermite matrix polynomial series have been implemented.In addition, the error bounds for the approximations calculated have been provided and optimal theoretical and experimental parameters for such approximations have also been provided. Final algorithms have been compared to other state of the art implementations to test the improvement obtained in terms of efficiency and performance. The results obtained during the investigation and presented in this memory have been published in several high-level journals and presented as papers at various editions of the International Congress Mathematical Modelling in Engineering & Human Behaviour to give them the widest possible distribution. On the other hand, implemented computer codes have been made freely available to the international scientific community at our web page http://hipersc.blogs.upv.es.<br>Ruiz Martínez, PA. (2020). Nuevos métodos y algoritmos de altas prestaciones para el cálculo de funciones de matrices [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/137035<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
42

Caballer, Fernández Miguel. "Gestión de infraestructuras virtuales configuradas dinámicamente." Doctoral thesis, Universitat Politècnica de València, 2014. http://hdl.handle.net/10251/37376.

Full text
Abstract:
En los últimos años y con el auge las tecnologías de virtualización y de las infraestructuras cloud, se abre un nuevo abanico de posibilidades para acceso de recursos de cómputo para el ámbito científico. Estas tecnologías permiten "acceso ubicuo, adaptado y bajo demanda en red a un conjunto compartido de recursos de computación". Estas tecnologías permiten que el acceso a grandes cantidades de recursos virtualizados sea mucho más sencillo para el científico. Si bien la adaptación de aplicaciones a un entorno distribuido sigue requiriendo de una experiencia importante, es posible utilizar de forma eficiente software adaptado a sistemas de colas e incluso computación paralela de memoria distribuida. A pesar de todo, en la actualidad existen diferentes proveedores cloud, diferente software para el despliegue de plataformas cloud, diferentes gestores de máquinas virtuales, y otros componentes que complican el acceso de forma sencilla y homogénea. Por tanto el objetivo principal de esta tesis es la de proporcionar a la comunidad científica el acceso a las tecnologías de virtualización y cloud de manera sencilla. De tal manera que sea muy sencillo el despliegue y gestión de sus infraestructuras virtuales, para que los investigadores solo tengan que centrarse en las tareas propias de su aplicación. Una plataforma Cloud para investigación debe contemplar todos los aspectos necesarios para creación y gestión de las infraestructuras, partiendo de que el investigador debe poder expresar sus requerimientos, tanto hardware como software, sobre los recursos que va a necesitar para la ejecución de su aplicación. En base a los requerimientos definidos por el usuario el sistema debe crear la infraestructura del usuario, teniendo en cuenta aspectos como la selección de despliegues cloud, de imágenes de máquinas virtuales, procesos de contextualización, etc. El sistema también debe permitir que el usuario modifique la cantidad de recursos (elasticidad horizontal) así como las características de los mismos (elasticidad vertical). Por último la plataforma debe proporcionar interfaces tanto a nivel de usuario, mediante aplicaciones de comandos o interfaces gráficas, como a nivel programático para que capas de mayor nivel puedan hacer uso de la funcionalidad mediante un API. La tesis pretende tanto avanzar en las especificaciones y arquitecturas software como desarrollar y testear un prototipo.<br>Caballer Fernández, M. (2014). Gestión de infraestructuras virtuales configuradas dinámicamente [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37376<br>TESIS<br>Premiado
APA, Harvard, Vancouver, ISO, and other styles
43

Gallego, Antonio-Javier. "Avances en la representación y modelado computacionales de la estructura del espacio." Doctoral thesis, Universidad de Alicante, 2012. http://hdl.handle.net/10045/27974.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Cerdá, Pérez Manuel. "EL ESPACIO UBICUO La idea de espacio arquitectónico derivado de la implementación de las tecnologías de Inteligencia Ambiental." Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/62173.

Full text
Abstract:
[EN] This work is aimed to interpret, analyse and know which are the conceptual bases that nowadays define the idea of space in architecture, the contemporary ways of dwelling, through the analysis on a specific pattern, the ubiquitous space. This tries to reveal a new way to understand space, which has arisen from what today is shaped as "the new paradigm", associated to the Information and Communications Technology era (ICT). The intention of this work has been born with a proposing vision. Not a historiographic one. The interest lies in getting deeper in the present to reveal known data -although they are not yet assumed or sufficiently applied-, which will lead to propose a working system that develops in practice the essence of dwelling today. Through the definition of this ubiquitous space, an objective pattern of space in harmony with our era will be exposed, as a proposal to develop today a really contemporary architecture. This work is born as a personal investigation project, the one of an architect who builds and who, according to his way of facing the materialization of reality, searches to set up a working method arisen from the project, and adding to it the virtual condition under a real and pragmatic vision of it. For this, a specific project of architecture is chosen as a study case, UBITAT 1.0. Mainly, its analysed parameters will be the ones that gave origin to this project, now extended, modified or renewed according to the needs of investigation required by each moment. They will be a guide to extract a global depiction of the object of study -space-, which will allow its application to other settings with the only aim to answer the key question of this work: What are the characteristics that define today's space and, therefore, what does it mean to dwell today?<br>[ES] Mediante este trabajo se busca interpretar, analizar y conocer las bases conceptuales que definen hoy la idea de espacio en arquitectura, los modos de habitación contemporáneos, a través del análisis sobre un modelo concreto, el del espacio ubicuo, que intenta desvelar un nuevo modo de entender el espacio derivado de lo que se configura hoy como el "nuevo paradigma", asociado a la era de las tecnologías de la información y la comunicación (TIC). La intención del trabajo es propositiva. No historiográfica. El interés reside en profundizar en el presente, para revelar datos conocidos pero aún no asumidos o suficientemente aplicados, que nos puedan llevar a proponer un sistema de trabajo que desarrolle en la práctica la esencia del habitar hoy. A través de la caracterización de dicho espacio ubicuo se intentará exponer un modelo objetivo de espacio acorde a nuestra era, como propuesta para desarrollar hoy una arquitectura realmente contemporánea. Este trabajo nace como un proyecto de investigación personal, de un arquitecto que construye, y que según su manera de abordar la materialización de la realidad, busca plantear un método de trabajo derivado del proyectual, añadiendo a éste la condición virtual, bajo una visión real y pragmática del mismo. Para ello se elige un proyecto de arquitectura concreto como caso de estudio, UBITAT 1.0, cuyos parámetros analizados serán principalmente los que dieron origen al mismo, ahora ampliados, modificados o renovados según el curso que la investigación demande en cada momento. Servirán como guía para extraer una caracterización global del objeto de estudio, el espacio, que permita ser aplicado en otros escenarios con la intención de responder en cualquier situación a la pregunta clave de este trabajo: ¿Qué características definen al espacio hoy y qué significa, por ello, habitar, hoy?<br>[CAT] Amb aquest treball busquem interpretar, analitzar i esbrinar les bases conceptuals que defineixen avuí en dia la idea d'espai en arquitectura, els modes d'habitatge contemporanis, mitjançant l'anàlisi sobre un model concret, el d'espai ubicu, que intenta desvetllar/caracteritzar una nova manera d'entendre l'espai derivat d'allò que es configura recentment com el "nou paradigma", associat a l'era de les tecnologies de la informació i la comunicació (TIC). La intenció del treball sorgeix amb una visió propositiva. No historiogràfica. L'interés resideix en aprofundir en el present, per revelar dades conegudes, però encara no asumides o allò suficientment aplicades, que ens duen a proposar un sistema de treball que desenvolupe en la pràctica l'essència de l'habitar avuí. A través de la caracterització d'aquest espai ubicu, es tractarà d'exposar un model objectiu d'espai d'acord a la nostra època, com a proposta per desenvolupar avuí una arquitectura realment contemporània. Aquest treball naix/sorgeix/parteix com un projecte de recerca personal, d'un arquitecte que construeix, i que segons la seua concepció d'abordar la materialització de la realitat, busca plantejar un mètode de treball derivat del projectual, afegint a aquest la condició virtual, sota una visió real i pragmàtica d'ell mateix. Per a tal fi, es tria un projecte d'arquitectura concret com a cas d'estudi, UBITAT 1.0, els paràmetres del qual analitzats seran conductors de l'orige d'aquest treball, ara ampliats, modificats i renovats segons el curs que la recerca demanda en cada moment. Serviran com a guia per a extraure una caracterització global de l'objecte d'estudi, l'espai, que permeta ser aplicat en altres escenaris, amb la intenció de respondre en qualsevol situació a la pregunta clau d'aquest treball: ¿Quines característiques defineixen l'espai avuí i què significa, per tant, habitar, avuí?<br>Cerdá Pérez, M. (2016). EL ESPACIO UBICUO La idea de espacio arquitectónico derivado de la implementación de las tecnologías de Inteligencia Ambiental [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62173<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
45

Romero, Alcalde Eloy. "Parallel implementation of Davidson-type methods for large-scale eigenvalue problems." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/15188.

Full text
Abstract:
El problema de valores propios (tambien llamado de autovalores, o eigenvalues) esta presente en diversas tareas cienficas a traves de la resolucion de ecuaciones diferenciales, analisis de modelos y calculos de funciones matriciales, entre otras muchas aplicaciones. Si los problemas son de dimension moderada (menor a 106), pueden ser abordados mediante los llamados metodos directos, como el algoritmo iterativo QR o el metodo de divide y vencerlas. Sin embargo, si el problema es de gran dimension y solo se requieren unas pocas soluciones (comparado con el tama~no del problema) y con un cierto grado de aproximacion, los metodos iterativos pueden resultar mas eficientes. Ademas los metodos iterativos pueden ofrecer mejores prestaciones en arquitecturas de altas prestaciones, como las de memoria distribuida, en las que existen un cierto numero de nodos computacionales con espacio de memoria propios y solo pueden compartir informacion y sincronizarse mediante el paso de mensajes. Esta tesis aborda la implementacion de metodos de tipo Davidson, destacando Generalized Davidson y Jacobi-Davidson, una clase de metodos iterativos que puede ser competitiva en casos especialmente dificiles como calcular valores propios en el interior del espectro o cuando la factorizacion de matrices es prohibitiva o ineficiente, y solo es posible una factorizacion aproximada. La implementacion se desarrolla en SLEPc (Scalable Library for Eigenvalue Problem Computations), libreria libre destacada en la resolucion de problemas de gran tama~no de valores propios, problemas cuadraticos de valores propios y problemas de valores singulares, entre otros. A su vez, SLEPc se desarrolla bajo el marco de PETSc (Portable, Extensible Toolkit for Scientic Computation), que ofrece implementaciones eficientes de operaciones basicas del algebra lineal, como operaciones con matrices y vectores, resolucion aproximada de sistemas lineales, factorizaciones exactas y aproximadas de matrices, etc.<br>Romero Alcalde, E. (2012). Parallel implementation of Davidson-type methods for large-scale eigenvalue problems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/15188<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
46

Flores, Sánchez Omar. "Estudio de librerías paralelas de libre distribución y algoritmos paralelos iterativos multipaso para la resolución de sistemas de ecuaciones lineales dispersos. Aplicación a la ecuación de difusión neutrónica." Doctoral thesis, Universitat Politècnica de València, 2009. http://hdl.handle.net/10251/4334.

Full text
Abstract:
En esta tesis se abordan dos problemas fundamentales relacionados con los estudios de estabilidad y seguridad de reactores nucleares, donde es necesario resolver eficientemente sistemas de ecuaciones lineales dispersos de gran dimensi'on. El primero de ellos est'a relacionado con el problema de los modos Lambda de la ecuaci'on de difusi'on neutr'onica aplicada a un caso de estudio (reactor Ringhals I, tipo agua en ebullici'on o BWR), que constituye un problema de valores propios generalizado. El segundo problema est'a relacionado con la resoluci'on de un sistema de ecuaciones lineales disperso de gran dimensi'on que surge de la discretizaci'on temporal de la ecuaci'on de difusi'on neutr'onica aplicada a otro caso de estudio (reactor Leibstadt, tipo BWR) y que debe resolverse en distintos pasos de tiempo. Para la resoluci'on de los sistemas de ecuaciones lineales dispersos de gran dimensi'on asociados al problema de los modos Lambda, en esta tesis se ha realizado un estudio num'erico del comportamiento secuencial y paralelo de algunos de los m'etodos que resuelven este tipo de problemas, tales como: m'etodos directos, m'etodos iterativos y m'etodos basados en subespacios de Krylov. Para realizar el estudio se han utilizando librer'yas de libre distribuci'on, tanto secuenciales como paralelas. Con los resultados obtenidos, se han identificado aquellos m'etodos y librer'yas que resuelven m'as eficientemente los sistemas lineales para el caso de estudio seleccionado. Para la resoluci'on de los sistemas de ecuaciones lineales dispersos del caso din'amico, en esta tesis se han propuesto m'etodos iterativos multipaso para la aceleraci'on de su resoluci'on, los cuales tambi'en se han implementado secuencial y paralelamente utilizando librer'yas de libre distribuci'on. En la experimentaci'on de estos m'etodos iterativos multipaso propuestos se ha podido comprobar que se ha alcanzado una aceleraci'on considerable y que pueden ser una opci'on apropiada para llevar a cabo simul<br>Flores Sánchez, O. (2009). Estudio de librerías paralelas de libre distribución y algoritmos paralelos iterativos multipaso para la resolución de sistemas de ecuaciones lineales dispersos. Aplicación a la ecuación de difusión neutrónica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4334<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
47

Trujillo, Rasúa Rafael Arturo. "Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7108.

Full text
Abstract:
En diversas aplicaciones prácticas cada vez es más frecuente la presencia de problemas de optimización que involucran variables que deben tomar valores discretos. Debido a su naturaleza combinatoria, los problemas de optimización discretos presentan por lo general una complejidad computacional exponencial, y por tanto son mucho más complicados de resolver que los problemas continuos. El trabajo descrito en esta tesis se ha centrado en el estudio y solución al problema de encontrar el punto de una retícula más cercano a un punto dado. Dicho problema puede originarse, entre otras múltiples aplicaciones prácticas, en la detección de señales en sistemas de comunicaciones inalámbricos MIMO (Multiple Input - Multiple Output). Los problemas de optimización discretos no pueden abordarse con métodos de convergencia rápida basados en derivadas. En su lugar, la solución se obtiene mediante métodos como Ramificación y Poda, programación dinámica y búsquedas heurísticas. El trabajo presentado ha consistido, en primer lugar, en realizar un amplio estudio del estado del arte de los métodos de Búsqueda Directa (que son métodos de optimización no basados en derivadas) y de los métodos Sphere-Decoding (pertenecientes al esquema de Ramificación y Poda). En segundo lugar, se ha abordado la paralelización de estos métodos dirigida a distintas arquitecturas, bien sea arquitecturas con memoria compartida, memoria distribuida y esquemas híbridos; además de explorar, en el caso de la Búsqueda Directa, variantes asíncronas de paralelización. Adicionalmente se proponen mejoras en los propios algoritmos secuenciales. Se diseñaron e implementaron diversas variantes de métodos de Búsqueda Directa, las cuales tuvieron buenos resultados en la resolución del Problema Inverso Aditivo de Valores Singulares, pues lograron converger y obtener mejor precisión en la solución que los métodos basados en derivadas tipo Newton.<br>Trujillo Rasúa, RA. (2009). Algoritmos paralelos para la solución de problemas de optimización discretos aplicados a la decodificación de señales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7108<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
48

García, García Andrés. "SLA-Driven Cloud Computing Domain Representation and Management." Doctoral thesis, Universitat Politècnica de València, 2014. http://hdl.handle.net/10251/36579.

Full text
Abstract:
The assurance of Quality of Service (QoS) to the applications, although identified as a key feature since long ago [1], is one of the fundamental challenges that remain unsolved. In the Cloud Computing context, Quality of Service is defined as the measure of the compliance of certain user requirement in the delivery of a cloud resource, such as CPU or memory load for a virtual machine, or more abstract and higher level concepts such as response time or availability. Several research groups, both from academia and industry, have started working on describing the QoS levels that define the conditions under which the service need to be delivered, as well as on developing the necessary means to effectively manage and evaluate the state of these conditions. [2] propose Service Level Agreements (SLAs) as the vehicle for the definition of QoS guarantees, and the provision and management of resources. A Service Level Agreement (SLA) is a formal contract between providers and consumers, which defines the quality of service, the obligations and the guarantees in the delivery of a specific good. In the context of Cloud computing, SLAs are considered to be machine readable documents, which are automatically managed by the provider's platform. SLAs need to be dynamically adapted to the variable conditions of resources and applications. In a multilayer architecture, different parts of an SLA may refer to different resources. SLAs may therefore express complex relationship between entities in a changing environment, and be applied to resource selection to implement intelligent scheduling algorithms. Therefore SLAs are widely regarded as a key feature for the future development of Cloud platforms. However, the application of SLAs for Grid and Cloud systems has many open research lines. One of these challenges, the modeling of the landscape, lies at the core of the objectives of the Ph. D. Thesis.<br>García García, A. (2014). SLA-Driven Cloud Computing Domain Representation and Management [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/36579<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
49

Acevedo, Martínez Liesner. "Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica." Doctoral thesis, Universitat Politècnica de València, 2010. http://hdl.handle.net/10251/7107.

Full text
Abstract:
Esta tesis tiene el objetivo de estudiar aplicaciones de la transformada wavelet discreta (DWT) al álgebra lineal numérica. Se hace un estudio de las distintas variantes de paralelización de la DWT y se propone una nueva variante paralela, en memoria distribuida, con distribuciones de datos orientadas a bloques de matrices, como la 2DBC de ScaLAPACK. La idea es que la DWT en muchos casos es una operación intermedia y debe ajustarse a las distribuciones de datos que se estén usando. Se define y demuestra una forma de calcular exactamente la cantidad de elementos que debe comunicar cada procesador para que se puedan calcular de forma independiente todo los coeficientes wavelet en una cantidad de niveles determinada. Finalmente se propone una variante específica, más eficiente, para el cálculo de la DWT-2D cuando se aplica como paso previo a la resolución de un sistema de ecuaciones distribuido 2DBC, considerando una permutación de las filas y columnas del sistema que minimiza las comunicaciones. Otro de los aportes de esta tesis es el de considerar como un caso típico, el cálculo de la DWT-2D no estándar en matrices dispersas, proponemos algoritmos para realizar esta operación sin necesidad de construir explícitamente la matriz wavelet. Además tenemos en cuenta el fenómeno de rellenado (fill-in) que ocurre al aplicar la DWT a una matriz dispersa. Para ello exploramos con los métodos de reordenamiento clásicos de grado mínimo y de reducción a banda. De forma adicional sugerimos como pueden influir esos reordenamientos a la convergencia de los métodos multimalla ya que ocurre una redistribución de la norma de la matriz hacia los niveles inferiores de la representación multi-escala, lo que garantizaría una mejor compresión. El campo de aplicación de la transformada wavelet que se propone es la resolución de grandes sistemas de ecuaciones lineales.<br>Acevedo Martínez, L. (2009). Computación paralela de la transformada Wavelet; Aplicaciones de la transformada Wavelet al Álgebra Lineal Numérica [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7107<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
50

Milián, Enrique Carles. "Optimisation of nonlinear photonic devices: design of optical fibre spectra and plasmonic systems." Doctoral thesis, Universitat Politècnica de València, 2012. http://hdl.handle.net/10251/14670.

Full text
Abstract:
El propósito de esta tesis es diseñar y optimizar dispositivos fotónicos en el régimen no lineal. En particular, se han elegido dos tipos de dispositivos, que se clasifican según los fenómenos físicos de interés. La primera clase corresponde a fibras convencionales o de cristal fotónico, diseñadas para que la dinámica temporal de los paquetes de onda que se propagan en su interior genere espectros con las características deseadas, en el contexto del supercontinuo. La segunda clase explota la fenomenología espacial asociada a las ondas electromagnéticas que se propagan sobre la superficie de un metal. Estas ondas permiten, desde diseñar dispositivos tipo chip fotónico cuyas dimensiones típicas están muy por debajo de la longitud de onda de la luz, hasta la generación de estados no lineales híbridos de dinámica singular. Todos estos efectos tienen lugar dentro del marco proporcionado por las ecuaciones de Maxwell macroscópicas, las cuales han sido resueltas numéricamente. En algunos casos se emplean grandes aproximaciones teóricas para estudiar sistemas 1D, mientras que en otros se integran directamente en 3D. En el caso en el que la optimización del dispositivo resulta no trivial tras haber adquirido un conocimiento teórico profundo del mismo, se emplea una novedosa herramienta numérica que nace de la combinación de algoritmos genéticos con plataforma Grid.<br>Milián Enrique, C. (2012). Optimisation of nonlinear photonic devices: design of optical fibre spectra and plasmonic systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/14670<br>Palancia
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!