To see the other types of publications on this topic, follow the link: Computação paralela.

Dissertations / Theses on the topic 'Computação paralela'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Computação paralela.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Menezes, Ronaldo Parente de. "Um estudo sobre modelos de computação paralela." [s.n.], 1995. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275986.

Full text
Abstract:
Orientador: João Carlos Setubal
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação
Made available in DSpace on 2018-07-20T10:42:14Z (GMT). No. of bitstreams: 1 Menezes_RonaldoParentede_M.pdf: 3928510 bytes, checksum: ea2fba03acca3afbcc6c42b92cf68f1c (MD5) Previous issue date: 1995
Resumo: Modelos de Computação são uma ferramenta muito importante para um bom desenvolvimento de algoritmos. Em geral, eles visam facilitar o trabalho de projetistas abstraindo diversos fatores existentes nas máquinas reais. Em computação paralela, a necessidade de um modelo é extrema devido a grande variedade de arquiteturas. O surgimento de um modelo de computação paralela poderia impulsionar ainda mais o crescimento da área que já é bastante acentuado, devido a limitações físicas existentes em computadores seqüenciais. Nesta dissertação fazemos um estudo de modelos de computação paralela sob o ponto de vista de projeto de algoritmos e com enfoque na computação paralela derivada da arquitetura de von Neumann. Para tanto, começamos por estudar um conjunto de máquinas paralelas para que suas diferenças fiquem claras. Escolhemos as máquinas paralelas mais conhecidas, ou mais difundidas, como: CM-2, Sequent Symmetry, MasPar MP-l, CM-5, entre outras. Após este estudo de máquinas, partimos diretamente para os modelos de computação paralela. Escolhemos três como base. Tais modelos apresentam características bem distintas quanto a simplicidade e realismo. Os modelos estudados são PRAM, BSP [Val90] e LogP [CKP+93]. Muitos defendem que continuemos usando o modelo PRAM , pois este, apesar de ser muito abstrato, facilita bastante o trabalho dos projetistas. A proposta do modelo BSP é um pouco mais ousada pois Valiant tenta, com seu modelo, influenciar as áreas de hardware e software da mesma forma que a arquitetura von Neumann fez com a computação seqüencial. Já a proposta do modelo LogP é bastante imediatista, visto que tenta resolver o problema atual de dificuldade de projeto de algoritmos. Para que pudéssemos avaliar um modelo sob o ponto de vista de projeto de algoritmos, fizemos um estudo de casos com os problemas de Transformada de Fourier e Eliminação de Gauss. Com este estudo de casos pudemos avaliar quão fácil ou difícil é projetar algoritmos em cada um dos modelos.
Abstract: Models of Computation are one of most important tools in algorithm design With these models, the work of an algorithm designer becomes easier, because these models leave out many characteristics of real machines. In parallel computing there is a great need for a general model, because we have many different parallel machines. The advent of a parallel computing model could make the area grow more than it is already growing. In this dissertation we study some parallel computing models. First we take a look at a representative set of parallel machines, in order to learn the differences between each architecture. Our set of machines contains some of the most important commercial machines such as: CM-2, Sequent Symmetry, MasPar MP-l and CM-5. After this, we study the models themselves. The models chosen were: PRAM, BSP [Va190] and LogP [CKP+93]. Many researchers argue that the PRAM is the best model for algorithm design although it is not realistic. The proposal of the BSP mo dei is bold, since it also seeks to influence parallel architecture design The proposal of LogP model although similar to the BSP, does not require parallel machines to have synchronization mechanisms. This makes LogP the most realistic but also the most difficult model to use. We evaluate these models based on the problems of Fourier Transform and Gaussian Elimination. After this study we made an evaluation of the three models.
Mestrado
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
2

Abrantes, Ricardo Luiz de Andrade. "Aplicações de computação paralela em otimização contínua." Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-09072008-175128/.

Full text
Abstract:
No presente trabalho, estudamos alguns conceitos relacionados ao desenvolvimento de programas paralelos, algumas formas de aplicar computação paralela em métodos de otimização contínua e dois métodos que envolvem o uso de otimização. O primeiro método que apresentamos, chamado PUMA (Pointwise Unconstrained Minimization Approach), recupera constantes óticas e espessuras de filmes finos a partir de valores de transmitância. O problema de recuperação é modelado como um problema inverso e resolvido com auxílio de um método de otimização. Através da paralelização do PUMA viabilizamos a recuperação empírica de constantes e espessuras de sistemas compostos por até dois filmes sobrepostos. Relatamos aqui os resultados obtidos e discutimos o desempenho da versão paralela e a qualidade dos resultados obtidos. O segundo método estudado tem o objetivo de obter configurações iniciais de moléculas para simulações de dinâmica molecular e é chamado PACKMOL. O problema de obter uma configuração inicial de moléculas é modelado como um problema de empacotamento e resolvido com o auxílio de um método de otimização. Construímos uma versão paralela do PACKMOL e mostramos os ganhos de desempenho obtidos com a paralelização.
In this work we studied some concepts of parallel programming, some ways of using parallel computing in continuous optimization methods and two optimization methods. The first method we present is called PUMA (Pointwise Unconstrained Minimization Approach), and it retrieves optical constants and thicknesses of thin films from transmitance data. The problem of retrieve thickness and optical constants is modeled as an inverse problem and solved with aid of an optimization method. Through the paralelization of PUMA we managed to retrieve optical constants and thicknesses of thin films in structures with one and two superposed films. We describe some results and discuss the performance of the parallel PUMA and the quality of the retrievals. The second studied method is used to build an initial configuration of molecules for molecular dynamics simulations and it is called PACKMOL. The problem of create an initial configuration of molecules is modeled as a packing problem and solved with aid of an optimization method. We developed a parallel version of PACKMOL and we show the obtained performance gains.
APA, Harvard, Vancouver, ISO, and other styles
3

Quirino, Rogerio Bastos. "Filtro de Kalman : hierarquização e computação paralela." [s.n.], 1990. http://repositorio.unicamp.br/jspui/handle/REPOSIP/258839.

Full text
Abstract:
Orientador : Celso Pascoli Bottura
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-07-13T22:59:34Z (GMT). No. of bitstreams: 1 Quirino_RogerioBastos_M.pdf: 3562441 bytes, checksum: fd580d0c82d210f732c72d7856b2b7c1 (MD5) Previous issue date: 1990
Resumo: Neste trabalho realizamos a computacão paralela de um algoritmo para filtragem ótima de sistemas dinamicos lineares interconectados, explorando eficientemente o paralelismo natural da estrutura de cálculo hierárquico, empregando multiprogramação com o sistema operacional Unix
Abstract: In this work the computational parallelization algorithm for optimum filtering of I arge scale systems is efficiently exploiting the natural parallelism there is hierarquical calculation structure, via multiprogramming on operational system Unix
Mestrado
Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
4

Rodrigues, Francisco Aparecido. "Técnicas de orientação ao objeto para computação científica paralela." Universidade de São Paulo, 2004. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-13092007-165832/.

Full text
Abstract:
Neste trabalho apresentamos a metodologia de orientação ao objeto no desenvolvimentos de uma biblioteca de classes para facilitar o processo de programação numérica paralela. Na implementação dos métodos das classes utilizamos as rotinas do pacote ScaLAPACK, sendo que essas classes oferecem métodos para manipulações matriciais básicas e para a diagonalização de matrizes, onde essas matrizes podem ser reais e complexas, de simples e dupla precisão. Este trabalho apresenta detalhes de implementação e uma análise comparativa de desempenho, a fim de mostrarmos a eficiência e as facilidades de uso da orientação ao objeto no desenvolvimento de programas científicos paralelos.
In this work current vs. voltage (I vs. V) and alternating conductivity (ac) measurements were carried out in poly[(2-methoxy- 5-hexyloxy)-pphenylenevinilene] ? MEH-PPV light-emitting diodes having zinc oxide (ZnO) as transparent anode and Al as metallic cathode. MEH-PPV is a PPV derivative, which emits in the red spectral region; ZnO has a work function similar to that of ITO, but it is less aggressive to the polymer, less expensive and easily processed. The retificated I vs. V curves shows that the direct current depends on the temperature. Moreover, the real and imaginary components of alternating conductivity (ac) present typical behavior of somewhat disordered material: the imaginary component grows as a function of the frequency and the real component was observed to be frequency independent for lower frequencies, and follows a power-law above a certain frequency. The Random Energy Free Barrier model approaches and a resistance in series for the interface phenomenon were developed and adjusted for the ac results. From this experimental-theoretical fitting we obtained important parameters of the devices as well as, quantitative informations about the MEH-PPV transport phenomenon.
APA, Harvard, Vancouver, ISO, and other styles
5

Mourão, Diogo André Ribeiro. "Um middleware independente da plataforma para computação paralela." Master's thesis, Faculdade de Ciências e Tecnologia, 2011. http://hdl.handle.net/10362/6322.

Full text
Abstract:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
A adoção generalizada dos processadores com vários núcleos (multi-core) requer modelos de programação que permitam expressar paralelismo de uma forma simples, sem expor detalhes de baixo nível no que se refere à gestão da concorrência. No entanto, apesar dos processadores multi-core se terem tornado o standard de-facto desde o ano de 2006, as linguagens de programação de uso generalizado e respetivos compiladores e sistemas de execução permanecem, na sua essência, inalterados. Este facto reflete-se não só ao nível do desempenho das aplicações como também ao nível de produtividade do seu desenvolvimento. É então necessário criar novas soluções que ofereçam abstrações de alto nível que permitam expressar o paralelismo de uma forma simples, ao mesmo tempo que permitam separar a lógica da aplicação da gestão da concorrência. Neste contexto, esta dissertação propõe um middleware independente da plataforma que tem como objetivo o suporte à execução de aplicações paralelas fornecendo as funcionalidades mais comuns, tais como: paralelismo de tarefas e de dados, comunicação e controlo de concorrência. Pretende ser suficientemente genérico de forma a que possa ser utilizado como suporte ao desenvolvimento de uma grande variedade de aplicações concorrentes e paralelas, bem como servir de suporte a sistemas de execução de linguagens de programação. A sua arquitetura é inspirada na arquitetura dos sistemas de operação, na medida em que, para além de oferecer uma interface bem definida para o programador, centrada no conceito de localidade, também especifica uma interface, baseada em drivers, para o suporte de várias implementações das funcionalidades necessárias. De forma a simplificar o desenvolvimento de aplicações foi desenvolvido um mecanismo de anotações permitindo ao programador expressar o paralelismo nas suas aplicações com recurso às anotações oferecidas. O middleware está atualmente concretizado para arquiteturas de memória partilhada apesar do seu desenho contemplar a sua extensão para arquiteturas de memória distribuída sobre a qual já existe trabalho em curso. A implementação atual é avaliada emtermos de desempenho através dos benchmarks NAS Parallel Benchmarks [NAS] e Java Grande Benchmark Suite [EPC]. Os resultados obtidos confirmam a existência de um overhead associado à utilização do middleware, como era expectável antes da realização deste estudo. Porém, este é compensado pelo facto de se oferecerem abstrações que simplificam o desenvolvimento de aplicações paralelas.
APA, Harvard, Vancouver, ISO, and other styles
6

Dantas, Anna Catharina da Costa. "Avaliação de algoritmos de ordenação em sistemas paralelos." [s.n.], 1997. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259207.

Full text
Abstract:
Orientador: Ivan Luiz Marques Ricarte
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-07-23T14:35:54Z (GMT). No. of bitstreams: 1 Dantas_AnnaCatharinadaCosta_M.pdf: 9497760 bytes, checksum: 097a379f20e9653f453d5fe6e9bcd664 (MD5) Previous issue date: 1997
Resumo: A classificação ou ordenação de dados tem assumido grandes proporções no âmbito do processamento de informações, tanto devido a sua importância na análise de desempenho quanto pelo fato de ser utilizado como processo intermediário em diversas aplicações. Os primeiros estudos sobre ordenação se deram a partir dos algoritmos seqüenciais. Entretanto, o tamanho crescente das aplicações tratadas vem impondo maior demanda de tempo de execução e memória, provocando uma necessidade de evolução. Para tentar minimizar os efeitos de complexidade dos algoritmos seqüenciais de ordenação, diversos algoritmos paralelos vêm sendo propostos. A combinação entre a tecnologia disponibilizada pelo processamento paralelo e a eficiência dos algoritmos de ordenação produz algoritmos paralelos de ordenação com alto poder de computação. Esse trabalho avalia alguns dos algoritmos paralelos de ordenação interna disponíveis na literatura, aplicáveis ou adaptados a multicomputadores MIMD de memória distribuída, interconectados por redes locais. Alguns benchmarks com diferentes características de distribuição de probabilidade foram implementados para validar os resultados apresentados, obtidos a partir da execução paralela suportada por bibliotecas de comunicação por troca de mensagens
Abstract: Data sorting has assumed large proportions in the field of information processing, even because of its importance in performance analysis and also because of its use as an intermediate process for several applications. The first researches about sorting have been undertaken trough serial algorithms. However, the increasing size of treated applications has imposed demand on execution time and memory, leading to evolution necessities. In order to minimize complexity effects of serial sorting algorithms, many parallel algorithms have been proposed. The combination between technology made available by parallel processing and efficiency of sorting algorithms produces parallel sorting algorithms with high computation power. This work evaluates some parallel internal sorting algorithms available in actual literature, applicable to or adapted for distributed memory MIMD multicomputers, interconnected by local works. Some benchmarks with different features of probability distribution have been complemented to validate presented results. Such results have been obtained from parallel execution supported by libraries that provide communication by message-passing
Mestrado
Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
7

Rosa, Bruno Otto Theodoro. "Análise de sistemas de comunicação para computação paralela em clusters." Universidade de São Paulo, 2002. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-01062009-112839/.

Full text
Abstract:
Apesar do aumento constante da largura de banda das tecnologias de rede de computadores as aplicações de processamento paralelo ainda necessitam de uma latência de comunicação mais baixa que a oferecida. Este aspecto não tem sido contemplado por estas tecnologias de rede pois está relacionado à maneira como o sistema operacional utiliza-se dos recursos do hardware com relação aos dados enviados pelas aplicações dos usuários. Neste trabalho apresentamos um estudo da técnica para diminuição desta latência e as características necessárias para implementação deste tipo de sistemas, incluindo mecanismos de transferência de dados, técnicas para tradução de endereços, proteção, transferência de controle, grau de confiabilidade e implementação de \"Multicasting\". Apresentamos também o estudo de um sistema já implementado, chamado M-VIA, comparando seu desempenho com o TCP/IP tradicional.
Despite the constant bandwidth increase in computer networks parallel processing tasks still require a lower communication latency than offered. This necessity has not been addressed by these network technologies because it is related to how operating systems use hardware resources to send user data through network. In this work we present strategies to lower latency and the requirements to implement these systems, including data transfer mechanisms, address translation , security, control transfer, reliability and \"Multicasting\" deployment . We also present a ready to use system, M-VIA, comparing it to traditional TCP/IP performance.
APA, Harvard, Vancouver, ISO, and other styles
8

SOUZA, Victor Cezar Tocantins de. "Modelagem numérica de dados MCSEM 3D usando computação paralela." Universidade Federal do Pará, 2007. http://repositorio.ufpa.br/jspui/handle/2011/5673.

Full text
Abstract:
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-05-29T15:23:17Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_ModelagemNumericaDados.pdf: 4316537 bytes, checksum: 3772e7595f31591201efc321071a7b6d (MD5)
Rejected by Irvana Coutinho (irvana@ufpa.br), reason: Definir palavras-chave on 2014-08-06T16:18:17Z (GMT)
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-08-27T13:35:55Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_ModelagemNumericaDados.pdf: 4316537 bytes, checksum: 3772e7595f31591201efc321071a7b6d (MD5)
Approved for entry into archive by Irvana Coutinho (irvana@ufpa.br) on 2014-09-10T16:36:08Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_ModelagemNumericaDados.pdf: 4316537 bytes, checksum: 3772e7595f31591201efc321071a7b6d (MD5)
Made available in DSpace on 2014-09-10T16:36:08Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Tese_ModelagemNumericaDados.pdf: 4316537 bytes, checksum: 3772e7595f31591201efc321071a7b6d (MD5) Previous issue date: 2007
ANP - Agência Nacional do Petróleo
FINEP - Financiadora de Estudos e Projetos
Desenvolvemos a modelagem numérica de dados sintéticos Marine Controlled Source Electromagnetic (MCSEM) usada na exploração de hidrocarbonetos para simples modelos tridimensionais usando computação paralela. Os modelos são constituidos de duas camadas estrati cadas: o mar e o sedimentos encaixantes de um delgado reservatório tridimensional, sobrepostas pelo semi-espaço correspondente ao ar. Neste Trabalho apresentamos uma abordagem tridimensional da técnica dos elementos nitos aplicada ao método MCSEM, usando a formulação da decomposição primária e secundária dos potenciais acoplados magnético e elétrico. Num pós-processamento, os campos eletromagnéticos são calculados a partir dos potenciais espalhados via diferenciação numérica. Exploramos o paralelismo dos dados MCSEM 3D em um levantamento multitransmissor, em que para cada posição do transmissor temos o mesmo processo de cálculos com dados diferentes. Para isso, usamos a biblioteca Message Passing Interface (MPI) e o modelo servidor cliente, onde o processador administrador envia os dados de entradas para os processadores clientes computar a modelagem. Os dados de entrada são formados pelos parâmetros da malha de elementos nitos, dos transmissores e do modelo geoelétrico do reservatório. Esse possui geometria prismática que representa lentes de reservatórios de hidrocarbonetos em águas profundas. Observamos que quando a largura e o comprimento horizontais desses reservatório têm a mesma ordem de grandeza, as resposta in-line são muito semelhantes e conseqüentemente o efeito tridimensional não é detectado. Por sua vez, quando a diferença nos tamanhos da largura e do comprimento do reservatório é signi cativa o efeito 3D é facilmente detectado em medidas in-line na maior dimensão horizontal do reservatório. Para medidas na menor dimensão esse efeito não é detectável, pois, nesse caso o modelo 3D se aproxima de um modelo bidimensional. O paralelismo dos dados é de rápida implementação e processamento. O tempo de execução para a modelagem multitransmissor em ambiente paralelo é equivalente ao tempo de processamento da modelagem para um único transmissor em uma máquina seqüêncial, com o acréscimo do tempo de latência na transmissão de dados entre os nós do cluster, o que justi ca o uso desta metodologia na modelagem e interpretação de dados MCSEM. Devido a reduzida memória (2 Gbytes) em cada processador do cluster do departamento de geofísica da UFPA, apenas modelos muito simples foram executados.
We developed the numerical modeling of Marine Controlled Source Electromagnetic (MCSEM) synthetic data used in hydrocarbon exploration for three-dimensional models using parallel computation. The models are formed of two strati ed layers: the sea and the host with a thin three-dimensional embedded reservoir overlapped by the air half-space. In this work we present a three-dimensional nite elements technique of MCSEM modeling using the primary and secondary decomposition of the magnetic and electric coupled potentials. The electromagnetic elds are calculated by numerical di erentiation of the scattered potentials. We explore the parallelism of the MCSEM 3D data in a multitransmitter survey, where as for each transmitter position we have the same forward model but with di erent data. For this, we use Message Passing Interface library (MPI) and the client server approach, where the server processor sends the input data to client processors to perform the calculation. The input data are formed by the parameters of the nite element mesh, together with informations about the transmitters and the geoeletric model of hydrocarbon reservoir with prismatic geometry. We observe that when the horizontal width and the length of the reservoir have the same order of magnitude, the in-line responses are very similar and the consequently the three-dimensional e ect is not detectable. On the other hand, when the di erence in the sizes of the horizontal width and the length of the reservoir is very large, the e ect 3D is easily detected in in-line along the biggest dimension of the reservoir. For measures done along the lesser dimension this e ect is not detectable, therefore, the model 3D approaches to a bidimensional model. The parallelism of multiple data has fast implementation and processing, and its time of execution is of the same order of the serial problem, with the addition of the latency time in the data transmission among the cluster nodes, which justifying this methodology in modeling and interpretation MCSEM data. Only simple 3D models were computed because of the reduced memory (2 Gbytes in each node) of the cluster of UFPA Departament of Geophysics.
APA, Harvard, Vancouver, ISO, and other styles
9

Saramago, João André Figueiredo Gonçalves. "Um middleware para computação paralela em clusters de multicores." Master's thesis, Faculdade de Ciências e Tecnologia, 2012. http://hdl.handle.net/10362/7776.

Full text
Abstract:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
A boa relação custo/performance dos aglomerados (clusters) de processadores multicore popularizou este tipo de plataforma no âmbito da High Performance Computing (HPC)- Computação de Alta Performance. No entanto, a programação de clusters é complexa, requerendo a consciência da sua arquitetura, o que prejudica o desenvolvimento, portabilidade e manutenção das aplicações. No caso particular dos clusters de multi-cores, esta complexidade aumenta quando os nós que compõem o cluster não são uniformes, quer no número de cores, quer na hierarquia de memórias cache. Este tipo de arquitetura já foi apelidada de Non-Uniform Cluster Computing (NUCC) [CGS+05], pois conjuga os conceitos de clustering e acesso não uniforme à memória. Neste contexto, é essencial o desenvolvimento de ferramentas que proporcionem níveis de abstração mais elevados, escondendo os detalhes subjacentes à arquitetura e às tecnologias necessárias à comunicação, escalonamento de tarefas, consistência de memória,entre outros. O trabalho desenvolvido pretende contribuir para o avanço do estado da arte nessa área. Propõe-se um middleware para programação paralela especialmente vocacionado para clusters de multi-cores, cujo desenho é inspirado no de Sistemas de Operação, no sentido de que, além de definir uma interface para as aplicações, define outra para o desenvolvimento de novos módulos (drivers) que permitem a especialização das suas funcionalidades para uma dada arquitetura alvo. O trabalho partiu de uma base já existente para memória partilhada, tendo sido estendido para arquiteturas de memória distribuída. Para tal, foram especializadas as camadas de interface, de suporte base e drivers para suportar estas arquiteturas, nomeadamente clusters de multi-cores.
APA, Harvard, Vancouver, ISO, and other styles
10

Fernandes, Leonardo Leiria. "Metodologias para analise de desempenho de sistemas de computação paralela." [s.n.], 2004. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276406.

Full text
Abstract:
Orientador: Ricardo de Oliveira Anido
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-03T23:46:40Z (GMT). No. of bitstreams: 1 Fernandes_LeonardoLeiria_M.pdf: 1817080 bytes, checksum: e223a750bcebd0d02b1ff29f8e7cd9e2 (MD5) Previous issue date: 2004
Mestrado
Ciência da Computação
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
11

Santos, Carlos Henrique da Silva. "Computação paralela aplicada a problemas eletromagneticos utilizando o metodo FDTD." [s.n.], 2005. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261767.

Full text
Abstract:
Orientador: Hugo Enrique Hernandez Figueroa
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-05T08:10:41Z (GMT). No. of bitstreams: 1 Santos_CarlosHenriquedaSilva_M.pdf: 1752834 bytes, checksum: 8ed5b0902bb130762ff802db03187fbb (MD5) Previous issue date: 2005
Resumo: Esse trabalho tem por objetivo desenvolver soluções computacionais de alto desempenho a um baixo custo, seguindo as propostas incentivadoras do Governo Federal para adoção de software livre. Essas soluções possibilitam simular, de maneira eficiente, os domínios computacionais de médio e grande porte utilizados no eletromagnetismo computacional. Os bons resultados obtidos nesse trabalho mostram a importância e eficiência da computação massivamente paralela utilizando cluster Beowulf para o processamento do método FDTD aplicado em estruturas complexas, porém a um baixo custo financeiro. O desempenho desse sistema ficou comprovado na realização de experimentos para analisar a SAR na cabeça humana e estudar os efeitos de estruturas metamateriais
Abstract: This work has as objective to develop high performance computational solutions to a low cost, following the stimulated proposals of the Federal Government for adoption of free software. They make possible to simulate, in efficient way, the computational domains of middle and high size useful on the computational electromagnetism. The good results gotten in these work showed the importance and efficiency of the massive parallel computation using the Beowulf cluster for the process the FDTD method applied on complex structures, however to a low financial cost. The performance of this system was proved in the realization of experiments to analyze the SAR on the human head and to study the effects of metamarial structures
Mestrado
Telecomunicações e Telemática
Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
12

Pinheiro, Anderson Boettge. "Fusion: abstrações linguísticas sobre Java para programação paralela heterogênea sobre GPGPUs." reponame:Repositório Institucional da UFC, 2013. http://www.repositorio.ufc.br/handle/riufc/17027.

Full text
Abstract:
PINHEIRO, Anderson Boettge. Fusion: abstrações linguísticas sobre Java para programação paralela heterogênea sobre GPGPUs. 2013. 140 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2013.
Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-05-25T20:11:06Z No. of bitstreams: 1 2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5)
Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-05-25T20:11:42Z (GMT) No. of bitstreams: 1 2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5)
Made available in DSpace on 2016-05-25T20:11:42Z (GMT). No. of bitstreams: 1 2013_dis_abpinheiro.pdf: 7607654 bytes, checksum: 4e82914ffcf64a0f48a4a21d3945ec4a (MD5) Previous issue date: 2013
Acceleration units free, or GPU (Graphical Processing Units), have been consolidated in recent years for general purpose computing for accelerating critical sections of programs that exhibit high standards of performance and the execution time. GPUs are one of several types of general-purpose computational accelerators that have been built on various platforms for high performance computing, especially also for the MIC (Many Integrated Cores) and FPGA (Field Programmable Gateway Arrays). Despite the emphasis on the research of new parallel algorithms capable of exploiting the massive parallelism offered by GPGPU devices are still incipient initiatives on new programming abstractions that make the simplest description of these algorithms on GPGPUs, without detriment to the effciency. It is still necessary that the programmer has specific knowledge of the peculiarities of the architecture of these devices, as well as programming techniques that are not domain even experienced parallel programmers today. In recent years, NVIDIA, an industry that has dominated the evolution of architectural GPGPU devices, launched the Kepler architecture, including extensions to support Hyper-Q and Dynamic Parallelism (DP), which offer new opportunities for expression patterns of parallel programming on such devices. This paper aims at proposing new programming abstractions over a parallel object-oriented language based on Java, am expressing parallel computations heterogeneous type multicore / manycore, where the GPU device is shared by a set of parallel threads running in host processor, on a higher level of abstraction compared to existing alternatives, but still offering the programmer full control over the use of device capabilities. The design of this proposed language abstractions, hereinafter called Fusion, part of the expressiveness offered by Kepler architecture.
Unidades de aceleração gráca, ou GPU (Graphical Processing Units ), tem se consolidado nos últimos anos para computação de propósito geral, para aceleração de trechos críticos de programas que apresentam requisitos severos de desempenho quanto ao tempo de execução. GPUs constituem um dentre vários tipos de aceleradores computacionais de propósito geral que tem sido incorporados em várias plataformas de computação de alto desempenho, com destaque também para as MIC (Many Integrated Cores ) e FPGA (Field Programmable Gateway Arrays ). A despeito da ênfase nas pesquisas de novos algoritmos paralelos capazes de explorar o paralelismo massivo oferecido por dispositivos GPGPU, ainda são incipientes as iniciativas sobre novas abstrações de programação que tornem mais simples a descrição desses algoritmos sobre GPGPUs, sem detrimento à efciência. Ainda é necessário que o programador possua conhecimento específico sobre as peculiaridades da arquitetura desses dispositivos, assim como técnicas de programação que não são do domínio mesmo de programadores paralelos experientes na atualidade. Nos últimos anos, a NVIDIA, indústria que tem dominado a evolução arquitetural dos dispositivos GPGPU, lançou a arquitetura Kepler, incluindo o suporte às extensões Hyper-Q e Dynamic Parallelism (DP), as quais oferecem novas oportunidades de expressão de padrões de programação paralela sobre esses dispositivos. Esta dissertação tem por objetivo a proposta de novas abstrações de programação paralela sobre uma linguagem orientada a objetos baseada em Java, a m de expressar computações paralelas heterogêneas do tipo multicore/manycore, onde o dispositivo GPU é compartilhado por um conjunto de threads paralelas que executam no processador hospedeiro, em um nível de abstração mais elevado comparado às alternativas existentes, porém ainda oferecendo ao programador total controle sobre o uso dos recursos do dispositivo. O projeto das abstrações dessa linguagem proposta, doravante chamada Fusion, parte da expressividade oferecida pela arquitetura Kepler.
APA, Harvard, Vancouver, ISO, and other styles
13

Taniguchi, Denis. "Aplicação de técnicas de computação paralela para simulação de fluidos com métodos de partículas explícitos." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-16122014-155443/.

Full text
Abstract:
O MPS é um método lagrangeano sem malha para simulação de fluidos, que teve origem para estudos de fluxo incompressíveis com superfície livre. Ele possui diversas vantagens se comparado a métodos convencionais baseados no uso de malha, podendo-se citar como principais a facilidade de representação de interfaces e geometrias complexas, assim como a ausência do termo de convecção nas equações algébricas. Este trabalho foca na aplicação de métodos de computação paralela para simulações de escoamento utilizando a variante explícita do método MPS, denominado E-MPS. O objetivo é a diminuição do tempo de processamento das simulações, e o aumento da quantidade de partículas, que possibilita a simulação de casos cada vez mais complexos, e o real emprego do método para solução de problemas de engenharia. O método proposto consiste de dois níveis de paralelismo: um através de uma decomposição de domínio espacial sobre uma arquitetura de memória distribuída, e outra pelo uso de processamento paralelo em uma arquitetura com memória compartilhada, podendo ser pelo uso de dispositivos Graphics Processing Unit (GPU), ou pelo uso de processadores multicore. Os métodos de decomposição de domínio espacial tratados neste trabalho são o estático, ou não adaptativo, o Orthogonal Recursive Bisection (ORB), o ortogonal e uma nova proposta chamada cell transfer. Dentre os métodos já existentes, o ortogonal se mostrou mais atrativo devido à sua simplicidade, conseguindo manter um melhor nível de balanceamento do que o estático no caso estudado. O novo método cell transfer tenta superar as limitações geométricas dos outros métodos citados, ao levar em consideração a natureza do fluxo. Uma das grandes contribuições deste trabalho é um novo método genérico de comunicação entre subdomínios, que evita a reordenação das partículas, e serve para todos os métodos de decomposição investigadas neste trabalho.
MPS is a meshless lagrangian method for computational fluid dynamics that was created to study incompressible free surface flows and has many advantages compared to traditional mesh based methods, such as the ability to represent complex geometries, interface problems, and the absence of the advection term in the algebraic equations. This work focus on the use of parallel computing methods for fluid dynamic simulation, and more specifically, on the explicit variant of the MPS method, namely E-MPS, to decrease the amount of processing needed to perform a simulation and increase the number of particles, which enables the simulation of real and complex engineering problems. The proposed method is composed of two levels of parallelism: a distributed memory parallelism based on spatial domain decomposition, and a shared memory parallelism, using either GPU or multicore CPUs, for fast computation of each subdomain. Static non-adaptive, ORB, orthogonal, and cell transfer spatial decomposition methods are subject of investigations in this work, the latter being originally proposed by this work to overcome the drawbacks found in most of the methods found in the literature. Among the already proposed methods the more attractive was the orthogonal, due to its simplicity, and capability of maintaining a good load balance in the test case. The new cell transfer method was proposed to overcome the geometrical limitations found in all the above methods, by considering the flux while balancing the load among subdomains. One of the main contributions of this work is a new method for the communication of subdomains, which avoids additional sorting steps, and proved to be generic for all the decomposition methods investigated.
APA, Harvard, Vancouver, ISO, and other styles
14

Siqueira, Marcos Queija de. "Análise estrutural por partição de domínio em ambiente de computação paralela." Universidade Federal do Rio de Janeiro, 1989. http://hdl.handle.net/11422/3916.

Full text
Abstract:
Submitted by Fatima Fonseca (fatima.fonseca@sibi.ufrj.br) on 2018-05-04T18:18:24Z No. of bitstreams: 1 169388.pdf: 1574564 bytes, checksum: 118006892574d54077e02a4aaa19576c (MD5)
Made available in DSpace on 2018-05-04T18:18:24Z (GMT). No. of bitstreams: 1 169388.pdf: 1574564 bytes, checksum: 118006892574d54077e02a4aaa19576c (MD5) Previous issue date: 1989-06
O objetivo deste trabalho é estudar a adequação de uma análise estrutural por partição de domínio em computadores de arquitetura paralela. Para a partição automática do domínio é apresentado um algoritmo que opera como um pré-processador. A análise estrutural por subestruras foi implementada no sistema multiprocessador A.C.P. (Advanced Computer Program), e através de métodos de avaliação de performance analisou-se o desempenho do sistema submetido a situações diversas.
ln this work, the suitability of a domain decomposition technique for structural analysis in parallel computers is studied. An algorithim for automatic domain decomposition is presented, and it is embedded as a preprocessor in a computer program for finite element analysis. The whole solution procedure was implemented in the A.C.P. (Advanced Computer Program) multiprocessor system, where the performance was evaluated solving a number of examples.
APA, Harvard, Vancouver, ISO, and other styles
15

Silva, Jorge Luiz e. "Processamento a fluxo de dados tolerante a falhas em um computador paralelo." [s.n.], 1992. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261155.

Full text
Abstract:
Orientadores: Shusaburo Motoyama, Claudio Kirner
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica
Made available in DSpace on 2018-07-17T11:53:47Z (GMT). No. of bitstreams: 1 Silva_JorgeLuize_D.pdf: 9332250 bytes, checksum: 7333ab47e718273c0c4a589b6727c50a (MD5) Previous issue date: 1992
Resumo: Este trabalho teve como objetivo analisar e desenvolver Programação a Fluxo de Dados Tolerante a Falhas em um computador paralelo estruturado recursivamente (CPER). O CPER é uma máquina paralela que possui uma estrutura básica constituída de N Elementos de Processamento (EP), interligados através de um barramento paralelo de alta velocidade, correspondendo ao barramento nível 1. Várias destas estruturas básicas interligadas através de um outro barramento constitui a estrutura do barramento nível 2. O uso recursivo desta mesma regra irá compor a estrutura hierárquica do CPER, que permite expansão, flexibilidade e alto grau de Tolerância a Falhas. Entretanto esta arquitetura pode não ser eficiente, se não utilizarmos conceitos de programação paralela. Propusemos então a Programação a Fluxo de Dados na estrutura hierárquica do CPER. Inicialmente apresentamos o hardware do CPER, e suas estruturas de alto desempenho. Em seguida, mostramos como o CPER opera para executar programas a fluxo de dados de forma dinâmica e mostramos também uma solução de software para garantir Tolerância a Falhas na programação a fluxo de Dados. Finalmente apresentamos um simulador (FDsim), e uma análise estocástica, que tiveram como objetivo mostrar viabilidade e eficiência da máquina paralela proposta
Abstract: In this work is analyzed the fault tolerant data flow processing in a computer based on hierarchical parallel buses. In this architecture, a set of N processors, each one called processing element (PE), are interconnected to a bus constituting a basic structure or cluster. The set of the buses of these basic structures correspond to the parallel buses leveI 1. Several basic structures of level 1 are interconnected to a bus constituting a cluster for the parallel buses leveI 2. The same idea can be recursively used to get parallel buses leveI M. This computer architecture based on hierarchical parallel buses permits the expansion flexibility and is highly fault tolerant computer. However, this architecture may not be efficient. If it is not utilized parallel programming concept. In this work we proposed the data flow processing for the execution of the programs in hierarchical parallel buses machine. First of alI, it is proposed hardware solution to get high throughput for inter-clusters and inter-Ievels communications in hierarchical parallel buses machine. FOllowing, it is discussed how the parallel buses computer can work as a dynamic data flow machine and it is proposed software solution to get fault tolerant processing. Finally, a software simulation is carried out to show the feasibility and efficiency of proposed parallel buses machine
Doutorado
Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
16

Costa, Filho José Tarcisio. "Proposta para computação assíncrona paralela e distribuida de estruturas especiais de jogos dinâmicos." [s.n.], 1992. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260379.

Full text
Abstract:
Orientador : Celso Pascoli Bottura
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica
Made available in DSpace on 2018-08-17T06:32:39Z (GMT). No. of bitstreams: 1 CostaFilho_JoseTarcisio_D.pdf: 11412677 bytes, checksum: cbe4c9ca6c7a461ef41e5bff9934bfbd (MD5) Previous issue date: 1992
Resumo: Sistemas reais de grande porte constituídos de subsistemas interconectados fisicamente e distribuídos espacialmente, frequentemente envolvem a descentralização do con trole entre vários agentes de decisão com objetivos diferentes e comumente conflitantes. Quando mais de um agente de decisão, AD, está envolvido, as teorias de jogos dinâmicos e de sistemas hierárquicos devem ser consideradas. Neste sentido, o jogo dinâmico, visto como uma tarefa organizacional, pode ser mapeado sobre um rede de computadores onde cada agente de decisão é associado a um computador. Para a computação paralela e distribui da de jogos dinâmicos esta tese trata de alguns aspectos importantes. Primeiramente, a proposta de um jogo distribuído assíncrono onde a distribuição dos agentes de decisão sobre a rede de computadores permite o acoplamento algoritmo/ hal'dware. Para isto, o conceito de jogo de Stackelberg é estendido para incluir jogos multiníveis onde os agentes são divididos em dois grupos: um grupo de agentes líderes (múltiplos coordenadores) e um grupo de agentes seguidores (controladores locais), e cada AD pode ou não estar cooperando dentro de seu grupo. Neste sentido, propusemos uma metodologia de otimização distribui da heterárquica que envolve esquemas de decomposições espacial e temporal com distribuiçâo da coordenaçâo, baseada em estratégias em malha aberta de Stackelberg, de Nash, de Pareto e de Equipe. Em segundo lugar, propomos formas de implementaçâo dos algoritmos de decisâo propostos sobre arquiteturas de computação paralela, vetorial e distribuida, com os objetivos de melhorar o desempenho computacional e de obter decisões on-line através da exploração dos graus de paralelismo e de vetorização nos algoritmos para a obtençâo de decisões individuais e da computação distribuida do sistema de múltiplos agentes. Em terceiro lugar, desenvolvemos uma ferramenta de software de suporte para múltiplas decisões distribui das sobre uma rede de estações de trabalho UNIX
Abstract: Reallarge scale systems consisting of physically interconnected subsystems dis ributed in space, frequently involve a decentralization of control among several decision makers with different and usually conflicting als hen more than one decision maker, D M, is involved, dynamic games theory and hierarchical approaches ould be consid ered. ln this sense, the dynamic game viewed as an organizational task can be mapped onto a computeI' network where each local decision is associated to a computeI'. For the parallel and distributed computation of dynamic games. this thesis studies some important aspects. Firstly, the proposal of an ynchronous distributed game where the distribuition of the decision makers over the computeI' network allows the matching algorithm/hardware. For doing this, the Stackelberg concept is idened to include multilevel games where the D.M sare assumed to be divided into t o groups: a group of leaders (multiple coordinators) and a group of followers (local controlers), and every DM may or may not be cooperating within his own group. ln this sense e propose an heterarchical distributed optimization methodology that inyolves temporal and spatial decomposition schemes with coordination distribution based on open-Ioop Stackelberg, Nash, Pareto and Team strategies. Secondly, we propose implementation forms for the proposed de cision algorithms on the parallel, vectorial and distributed computeI' architectures, with the objectives of computational rformance imprO ement and of on-line decision making through the algorithms parallelism and vectorizati_n degrees exploration for the individual decisions achievement and through the decision makers distributed computation. Thirdly, a distributed multidecision making suport soft are over a workstation network was developed
Doutorado
Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
17

MORAES, Sérgio Ricardo dos Santos. "Computação paralela em cluster de GPU aplicado a problema da engenharia nuclear." reponame:Repositório Institucional do IEN, 2012. http://hdl.handle.net/ien/538.

Full text
Abstract:
Submitted by Almir Azevedo (barbio1313@gmail.com) on 2013-12-09T12:17:20Z No. of bitstreams: 1 dissertacao_mestrado_ien_2012_01.pdf: 1805099 bytes, checksum: c22681117de84a4db428c8b495af3eab (MD5)
Made available in DSpace on 2013-12-09T12:17:20Z (GMT). No. of bitstreams: 1 dissertacao_mestrado_ien_2012_01.pdf: 1805099 bytes, checksum: c22681117de84a4db428c8b495af3eab (MD5) Previous issue date: 2012
A computação em cluster tem sido amplamente utilizada como uma alternativa de relativo baixo custo para processamento paralelo em aplicações científicas. Com a utilização do padrão de interface de troca de mensagens (MPI, do inglês Message-Passing Interface), o desenvolvimento tornou-se ainda mais acessível e difundido na comunidade científica. Uma tendência mais recente é a utilização de Unidades de Processamento Gráfico (GPU, do inglês Graphic Processing Unit), que são poderosos coprocessadores capazes de realizar centenas de instruções ao mesmo tempo, podendo chegar a uma capacidade de processamento centenas de vezes a de uma CPU. Entretanto, um microcomputador convencional não abriga, em geral, mais de duas GPUs. Portanto, propõe-se neste trabalho o desenvolvimento e avaliação de uma abordagem paralela híbrida de baixo custo na solução de um problema típico da engenharia nuclear. A ideia é utilizar a tecnologia de paralelismo em clusters (MPI) em conjunto com a de programação de GPUs (CUDA, do inglês Compute Unified Device Architecture) no desenvolvimento de um sistema para simulação do transporte de nêutrons, através de uma blindagem por meio do Método Monte Carlo. Utilizando a estrutura física de cluster composto de quatro computadores com processadores quad-core e 2 GPUs cada, foram desenvolvidos programas utilizando as tecnologias MPI e CUDA. Experimentos empregando diversas configurações, desde 1 até 8 GPUs, foram executados e comparados entre si, bem como com o programa sequencial (não paralelo). Observou-se uma redução do tempo de processamento da ordem de 2.000 vezes quando se comparada a versão paralela de 8 GPUs com a versão sequencial. Os resultados aqui apresentados são discutidos e analisados com o objetivo de destacar ganhos e possíveis limitações da abordagem proposta.
Cluster computing has been widely used as a low cost alternative for parallel processing in scientific applications. With the use of Message-Passing Interface (MPI) protocol development became even more accessible and widespread in the scientific community. A more recent trend is the use of Graphic Processing Unit (GPU), which is a powerful co-processor able to perform hundreds of instructions in parallel, reaching a capacity of hundreds of times the processing of a CPU. However, a standard PC does not allow, in general, more than two GPUs. Hence, it is proposed in this work development and evaluation of a hybrid low cost parallel approach to the solution to a nuclear engineering typical problem. The idea is to use clusters parallelism technology (MPI) together with GPU programming techniques (CUDA – Compute Unified Device Architeture) to simulate neutron transport through a slab using Monte Carlo method. By using a cluster comprised by four quad-core computers with 2 GPU each, it has been developed programs using MPI and CUDA technologies. Experiments, applying different configurations, from 1 to 8 GPUs has been performed and results were compared with the sequential (non-parallel) version. A speed up of about 2.000 times has been observed when comparing the 8- GPU with the sequential version. Results here presented are discussed and analysed with the objective of outlining gains and possible limitations of the proposed approah.
APA, Harvard, Vancouver, ISO, and other styles
18

Araújo, Aletéia Patrícia Favacho de. "DPWP - Uma nova Abordagem para o Escalonamento Dinâmico em Computação Paralela Virtual." Universidade de São Paulo, 1999. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-05032018-160952/.

Full text
Abstract:
A computação distribuída sobre redes de estações de trabalho tem sido adotada como uma plataforma alternativa para a execução de aplicações paralelas. Essas redes não apresentam apenas uma boa relação custo/benefício, mas também fornecem um ambiente computacional de propósito geral, o qual pode ser usado tanto por aplicações paralelas quanto por aplicações não paralelas. Nesses ambientes multiusuários ocorre uma grande variação da carga de trabalho manipulada por cada usuário trazendo sérios problemas para o desempenho global do sistema. Dentro desse contexto, este trabalho descreve detalhadamente a implementação da DPWP, um algoritmo de escalonamento cuja principal finalidade é implantar balanceamento de cargas sobre uma rede de estações de trabalho heterogênea, para aplicações paralelas com grande quantidade de processamento. Os estudos preliminares realizados sobre os testes desenvolvidos serviram, acima de tudo, para validar e avaliar o desempenho da DPWP. Os resultados obtidos demonstram que o algoritmo tem um comportamento seguro e que as aplicações paralelas executadas, tendo a DPWP como algoritmo de escalonamento, apresentaram um excelente resultado, levando a um aumento considerável em seu desempenho final.
Distributed computing on workstation networks has been considered as an alternative platform for parallel applications. These workstation networks are not only cheaper, but also provide a general-purpose computing environment that is typically shared by both parallel and non-parallel application developers and users. Such a computing environment, where the use of resources varies as applications consume and release resources, brings important scheduling problems for global performance system. Thus, this work presents the implementation of the DPWP, a process scheduling policy aiming at balancing the computing load on a network of heterogeneous workstations, for parallel computing applications, that have more processing and less communication. Preliminary studies were developed in order to validate and to evaluate the performance reached by using the DPWP. The results showed that the scheduling policy behaves stable and the parallel applications reached excellent overall performance.
APA, Harvard, Vancouver, ISO, and other styles
19

Sales, Juliano Efson Norberto. "Coordenação e reconfiguração dinâmica de componentes em uma plataforma de computação paralela." reponame:Repositório Institucional da UFC, 2012. http://www.repositorio.ufc.br/handle/riufc/18454.

Full text
Abstract:
SALES, Juliano Efson Norberto. Coordenação e reconfiguração dinâmica de componentes em uma plataforma de computação paralela. 2012. 144 f. Dissertação (Mestrado em ciência da computação)- Universidade Federal do Ceará, Fortaleza-CE, 2012.
Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-07-11T17:31:37Z No. of bitstreams: 1 2012_dis_jensales.pdf: 3112116 bytes, checksum: e6dad36307eb52f19a718046ca764535 (MD5)
Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2016-07-18T15:42:23Z (GMT) No. of bitstreams: 1 2012_dis_jensales.pdf: 3112116 bytes, checksum: e6dad36307eb52f19a718046ca764535 (MD5)
Made available in DSpace on 2016-07-18T15:42:23Z (GMT). No. of bitstreams: 1 2012_dis_jensales.pdf: 3112116 bytes, checksum: e6dad36307eb52f19a718046ca764535 (MD5) Previous issue date: 2012
Long running applications are very common in High Performance Computing (HPC) domains. During the execution of this kind of application, some improvements or corrections can be identified and applied without making invalid the data that has been processed. In these cases, the ability to make changes in a parallel program during execution is considered useful. Dynamic reconfiguration is the term used to describe this technique, which can be implemented using different alternatives, like architecture description languages (ADL). An ADL allows a the specification of a software based on exogenous conectors to combine and define data types and protocols for orchestrating the interaction between components. This research has the goal of designing an ADL and implementing a configuration interpretation environment for the HPE component-based parallel computing platform. The main purpose of this language is to provide the ability to specify exogenous connectors and support dynamic reconfiguration. Case studies evaluate the performance of the component interpretation developed by the ADL, as well as validate the actions of dynamic reconfiguration. The results are an evidence that the overhead in the interpretation process for realistic problem instances is acceptable, in such a way that, when used wisely, the connectors can be used even in production scenarios. In some cases, the interpretation weight can be disregarded. The reconfiguration experiments are also deemed satisfactory, making the simplicity of the mechanism the major draw of the solution.
Nos domínios da Computação de Alto Desempenho (CAD), são comuns aplicações com tempo de execução de longa duração. Durante a execução de uma aplicação dessa natureza, podem ser identificadas melhorias ou correções nos algoritmos em execução que não invalidam o processamento previamente realizado. Neste cenário, a capacidade de realizar modificações em tempo de execução se mostra de grande utilidade. A esta técnica chamamos reconfiguração dinâmica, a qual, dentre outros meios discutidos ao longo do trabalho, pode ser implementada a partir do uso de linguagens de propósito específico como as linguagens de descrição de arquitetura (ADL). Uma ADL permite a especificação de um sistema de software a partir da construção de conectores exógenos com a função de combinar e definir os formatos de dados e protocolos nas interações de componentes. Este trabalho de pesquisa tem como objeto o projeto de uma ADL e a implementação de um ambiente de interpretação de configuração para a plataforma de componentes paralelos HPE (Hash Programming Environment). Essa linguagem tem como principal propósito oferecer a capacidade de especificar conectores exógenos e suporte à reconfiguração dinâmica. Estudos de caso avaliam o desempenho da interpretação dos componentes desenvolvidos pela ADL, como também validam as operações de reconfiguração dinâmica. Os resultados mostram sobrecarga considerada aceitável no processo de interpretação, para instâncias realísticas de problemas, de forma que, quando utilizado com prudência, os conectores podem ser utilizados até mesmo em cenários de produção. Em alguns casos, o peso da interpretação chega a ser desprezível. Os ensaios de reconfiguração também se mostram satisfatórios para os requisitos apresentados, sendo um dos principais diferencias da solução, a simplicidade de uso do mecanismo.
APA, Harvard, Vancouver, ISO, and other styles
20

Mendes, Celso Luiz. "Arquitetura paralela para processamento de imagens." Instituto Tecnológico de Aeronáutica, 1988. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=1502.

Full text
Abstract:
O trabalho consiste na concepção de um sistema com arquitetura maciçamente paralela para processamento de imagens. Este sistema deverá funcionar como processador auxiliar de um microcomputador do tipo IBM-PC e irá operar no modo SIMD, com uma matriz de 48x48 processadores GAPP. É feito, inicialmente, um estudo de máquinas paralelas já construídas para processar imagens. Em seguida, é descrito o componente a ser utilizado no sistema (GAPP). São analisadas algumas operações típicas em imagens, buscando-se identificar as características necessárias para o sistema. Após esta análise, é apresentada a arquitetura do sistema paralelo, com um estudo quantitativo da influência da entrada/saída de dados no desempenho global. A seguir, é descrito o ambiente de programação desenvolvido, incluindo um simulador da estrutura paralela, e são indicadas formas de abordagem para a programação em alto nível. ao final, são apresentados exemplos de aplicação, seguidos de comentários sobre a implementação e das conclusões.
APA, Harvard, Vancouver, ISO, and other styles
21

Souza, Paulo Sergio Lopes de. "AMIGO: Uma contribuição para a convergência na área de escalonamento de processos." Universidade de São Paulo, 2000. http://www.teses.usp.br/teses/disponiveis/76/76132/tde-25032014-152613/.

Full text
Abstract:
Este trabalho propõe e descreve em detalhes o projeto do AMIGO (DynAMical FlexIble SchedulinG EnvirOnment), uma nova ferramenta de software capaz de viabilizar a união de diferentes algoritmos de escalonamento, de uma maneira completamente transparente ao usuário. O AMIGO é capaz de flexibilizar o escalonamento (em tempo de execução da aplicação) desde a sua configuração até a sua efetiva aplicação. Além da flexibilidade dinâmica e da transparência, o AMIGO também é modular: o seu projeto está dividido em módulos que, entre outras vantagens, facilitam sua execução em diferentes plataformas. Este trabalho também contribui apresentando uma análise crítica da literatura da área, apontando divergências e propondo pontos de convergência importantes. Assim, o levantamento bibliográfico apresentado atua como um material introdutório precioso para que os pesquisadores iniciantes formem um contexto geral sobre a área e, desse modo, aprofundem mais rapidamente seus estudos em outros trabalhos mais específicos. A avaliação de desempenho feita com o AMIGO demonstra que é possível a obtenção de ganhos de desempenho expressivos, com total transparência para o usuário final. Unindo-se desempenho, flexibilidade e transparência, espera-se contribuir para a redução da lacuna existente entre teoria e prática na área de escalonamento de processos
This thesis proposes and describes in details the design of the AMIGO (DynAMical FlexIble SchedulinG EnvirOnment), a novel software tool that makes possible the union of different scheduling algorithms, in a way completely transparent to the user. The AMIGO is able to make flexible the scheduling activity (at run-time), covering all the steps from its configuration up to its effective application. Besides the dynamic flexibility and transparency, AMIGO is also modular: it is split into modules that, among other advantages, facilitate its execution on different platforms. This work also contributes by presenting a critical analysis of the process-scheduling literature, pointing out the existing divergences and proposing important convergence points. Thus, the literature survey presented acts as a precious introductory material, which is able, on one hand, to give to the beginners a broad view of the process-scheduling area and, on the other hand, to facilitate the development of deeper studies in a quicker fashion when more specific works are needed. The performance evaluation of the AMIGO shows that is possible to have expressive performance gains, while having total user transparency. Joining flexibility and transparency it is hoped to contribute for the reduction of the existing gap between theory and practice in the scheduling process area
APA, Harvard, Vancouver, ISO, and other styles
22

Wottrich, Rodolfo Guilherme 1990. "Loop parallelization in the cloud using OpenMP and MapReduce." [s.n.], 2014. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275500.

Full text
Abstract:
Orientadores: Guido Costa Souza de Araújo, Rodolfo Jardim de Azevedo
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-24T12:44:05Z (GMT). No. of bitstreams: 1 Wottrich_RodolfoGuilherme_M.pdf: 2132128 bytes, checksum: b8ac1197909b6cdaf96b95d6097649f3 (MD5) Previous issue date: 2014
Resumo: A busca por paralelismo sempre foi um importante objetivo no projeto de sistemas computacionais, conduzida principalmente pelo constante interesse na redução de tempos de execução de aplicações. Programação paralela é uma área de pesquisa ativa, na qual o interesse tem crescido devido à emergência de arquiteturas multicore. Por outro lado, aproveitar as grandes capacidades de computação e armazenamento da nuvem e suas características desejáveis de flexibilidade e escalabilidade oferece várias oportunidades interessantes para abordar problemas de pesquisa relevantes em computação científica. Infelizmente, em muitos casos a implementação de aplicações na nuvem demanda conhecimento específico de interfaces de programação paralela e APIs, o que pode se tornar um fardo na programação de aplicações complexas. Para superar tais limitações, neste trabalho propomos OpenMR, um modelo de execução baseado na sintaxe e nos princípios da API OpenMP que facilita a tarefa de programar sistemas distribuídos (isto é, clusters locais ou a nuvem remota). Especificamente, este trabalho aborda o problema de executar a paralelização de laços, usando OpenMR, em um ambiente distribuído, através do mapeamento de iterações do laço para nós MapReduce. Assim, a interface de programação para a nuvem se torna a própria linguagem, livrando o desenvolvedor da tarefa de se preocupar com detalhes da distribuição de cargas de trabalho e dados. Para avaliar a validade da proposta, modificamos benchmarks da suite SPEC OMP2012 para se encaixarem no modelo proposto, desenvolvemos outros toy benchmarks que são I/O-bound e executamo-os em duas configurações: (a) um cluster de computadores disponível localmente através de uma LAN padrão; e (b) clusters disponíveis remotamente através dos serviços Amazon AWS. Comparamos os resultados com a execução utilizando OpenMP em uma arquitetura SMP e mostramos que a técnica de paralelização proposta é factível e demonstra boa escalabilidade
Abstract: The pursuit of parallelism has always been an important goal in the design of computer systems, driven mainly by the constant interest in reducing program execution time. Parallel programming is an active research area, which has grown in interest due to the emergence of multicore architectures. On the other hand, harnessing the large computing and storage capabilities of the cloud and its desirable flexibility and scaling features offers a number of interesting opportunities to address some relevant research problems in scientific computing. Unfortunately, in many cases the implementation of applications on the cloud demands specific knowledge of parallel programming interfaces and APIs, which may become a burden when programming complex applications. To overcome such limitations, in this work we propose OpenMR, an execution model based on the syntax and principles of the OpenMP API which eases the task of programming distributed systems (i.e. local clusters or remote cloud). Specifically, this work addresses the problem of performing loop parallelization, using OpenMR, in a distributed environment, through the mapping of loop iterations to MapReduce nodes. By doing so, the cloud programming interface becomes the programming language itself, freeing the developer from the task of worrying about the details of distributing workload and data. To assess the validity of the proposal, we modified benchmarks from the SPEC OMP2012 suite to fit the proposed model, developed other I/O-bound toy benchmarks and executed them in two settings: (a) a computer cluster locally available through a standard LAN; and (b) clusters remotely available through the Amazon AWS services. We compare the results to the execution using OpenMP in an SMP architecture and show that the proposed parallelization technique is feasible and demonstrates good scalability
Mestrado
Ciência da Computação
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
23

Abreu, Cristian Cosmoski Rangel de. "Computação paralela para reduzir o tempo de resposta da mineração de dados agrícolas." UNIVERSIDADE ESTADUAL DE PONTA GROSSA, 2013. http://tede2.uepg.br/jspui/handle/prefix/162.

Full text
Abstract:
Made available in DSpace on 2017-07-21T14:19:37Z (GMT). No. of bitstreams: 1 Cristian Abreu.pdf: 2219271 bytes, checksum: 3d770700a8027fff9a36f6287c8c4e54 (MD5) Previous issue date: 2013-04-30
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
The objective of this study was investigate the use of parallel computing to reduce the response time of data mining in agriculture. For this purpose, a tool, called Fast Weka been defined and implemented. This tool allows running data mining algorithms and explore parallelism in multi-core computers with the use of threads and distributed systems employing peer-to-peer networks. The exploration of parallelism occurs through the data parallelism inherent to the process of cross-validation (folds). The tool was evaluated through experiments using artificial neural networks data mining algorithms applied to a data set of forest cover types. The multi-thread computing and computing on peer-to-peer networks allowed to reduce the response time of data mining activities. The best results were achieved when employed a multiple number of threads or pairs in the number of folds of cross validation. It was observed and efficiency of 87% when used 4 threads to 24 folds and 86% efficiency also in peer-to-peer networks using 24 folds with 11 pairs.
O objetivo deste trabalho foi investigar a utilização da computação paralela para reduzir o tempo de resposta da mineração de dados na agricultura. Para esse fim, uma ferramenta, chamada Fast Weka foi definida e implementada. Essa ferramenta permite executar algoritmos de mineração de dados e explorar o paralelismo em computadores multi-núcleos com uso de threads em sistemas distribuídos empregando redes peer-to-peer. A exploração do paralelismo ocorre por meio do paralelismo de dados inerente ao processo de validação cruzada (folds). A ferramenta foi avaliada por meio de experimentos de mineração de dados utilizando algoritmos de redes neurais artificiais aplicados em um conjunto de dados de tipos de coberturas florestais. A computação multi-thread e a computação em redes peer-to-peer permitiram reduzir o tempo de resposta das atividades de mineração de dados. Os melhores resultados foram obtidos quando empregados um número múltiplo de threads ou pares em relação ao número de folds da validação cruzada. Observou-se uma eficiência de 87% quando utilizadas 4 threads para 24 folds e 86% de eficiência, também, com 2 folds utilizando redes peer-to-peer co 11 pares.
APA, Harvard, Vancouver, ISO, and other styles
24

Lucchese, Fabiano de Oliveira. "Um mecanismo para distribuição de carga em ambientes virtuais de computação maciçamente paralela." [s.n.], 2002. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259517.

Full text
Abstract:
Orientador: Marco Aurelio Amaral Henriques
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-03T15:57:16Z (GMT). No. of bitstreams: 1 Lucchese_FabianodeOliveira_M.pdf: 663870 bytes, checksum: d6b61bc66cae9f3f1ca14e89e2122a95 (MD5) Previous issue date: 2002
Mestrado
APA, Harvard, Vancouver, ISO, and other styles
25

Rezende, Cenez Araújo de. "Um arcabouço baseado em componentes para computação paralela de larga escala sobre grafos." reponame:Repositório Institucional da UFC, 2017. http://www.repositorio.ufc.br/handle/riufc/26086.

Full text
Abstract:
REZENDE, Cenez Araújo de. Um arcabouço baseado em componentes para computação paralela de larga escala sobre grafos. 2017. 170 f. Tese (Doutorado em Ciência da Computação)-Universidade Federal do Ceará, Fortaleza, 2017.
Submitted by Jonatas Martins (jonatasmartins@lia.ufc.br) on 2017-09-26T11:26:26Z No. of bitstreams: 1 2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5)
Approved for entry into archive by Rocilda Sales (rocilda@ufc.br) on 2017-09-26T12:43:31Z (GMT) No. of bitstreams: 1 2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5)
Made available in DSpace on 2017-09-26T12:43:31Z (GMT). No. of bitstreams: 1 2017_tese_carezende.pdf: 3113868 bytes, checksum: 730860f5d4afc3f76981695e2d925c7c (MD5) Previous issue date: 2017
Faced with the increasing growth of data production to be processed by computer systems, a result of the current technological context and emerging applications of both industrial and scientific interest, researchers and companies have been looking for solutions to leverage large-scale data processing and analysis capacity. In addition to the large volume, many of these data must be processed by high-complexity algorithms, highlighting the inherent difficulties of problems in large graphs (BigGraph), often used to model information from large databases. Although with limitations in graph processing, the MapReduce model has motivated the construction of several high-performance frameworks, in order to meet the demand for efficient large-scale general purpose systems. Such a context has led to the proposal of more specialized solutions, such as Pregel and GAS (Gather, Apply, Scatter), as well as MapReduce extensions to deal with graph processing. However, frameworks that implement these models still have limitations, such as multi-platform constraints and general propose programming models for graphs. In this work, we show how component-oriented parallel programming can deal with MapReduce and conventional Pregel constraints. For that, we have employed HPC shelf, a component-based cloud computing platform for HPC services. On top of this platform, we introduce Gust, a flexible, extensible and adaptable BigGraph framework based on MapReduce. Besides the gains in software architecture, due to the use of a component-oriented approach, we have obtained competitive performance results compared to the state-of-the-art through an experimental study, using estatistical methods to increase confidence.
Diante do progressivo crescimento da produção de dados a serem processados por sistemas de computação, produto do contexto tecnológico vigente e de aplicações emergentes tanto de interesse industrial quanto científico, têm-se buscado soluções para alavancar a capacidade de processamento e análise de dados em larga escala. Além de volumosos, estão propícios a serem processados por algoritmos de alta complexidade, destacando as dificuldades inerentes a problemas em grafos grandes (BigGraph), frequentemente usados para modelar informações de grandes bases de dados. O modelo MapReduce, embora com limitações nesse domínio, abriu o caminho para a construção de vários arcabouços de alto desempenho, buscando atender à demanda por eficiente processamento de larga escala com propósito geral. Isso motivou o surgimento de soluções mais especializadas, voltadas a grafos, tais como os modelos Pregel e GAS (Gather, Apply, Scatter), bem como extensões do próprio MapReduce. Contudo, arcabouços que implementam esses modelos possuem ainda limitações, como restrições a multiplataformas e modelos mais gerais de programação. Neste trabalho, mostramos como a programação paralela orientada a componentes pode lidar com as limitações MapReduce e de modelos convencionais Pregel. Isso é feito usando a HPC Shelf, uma plataforma de computação em nuvem baseada em componentes para serviços HPC. Visando essa plataforma, apresentamos o Gust, um arcabouço BigGraph flexível, extensível e adaptável baseado em MapReduce. Através de estudo experimental, os resultados têm sido competitivos com o estado da arte, tanto em desempenho com na engenharia de software paralelo, com base em interesses funcionais e não funcionais.
APA, Harvard, Vancouver, ISO, and other styles
26

Valdevino, Pedro Miguel dos Santos. "Optimização de uma aplicação paralela para simulações de dinâmica molecular." Master's thesis, Faculdade de Ciências e Tecnologia, 2011. http://hdl.handle.net/10362/6256.

Full text
Abstract:
Dissertação para obtenção do Grau de Mestre em Engenharia Informática
Hoje em dia é possível encontrar pacotes de software em código aberto para resolução de problemas computacionalmente exigentes (HPC) que podem ser instalados com alguma simplicidade, até por utilizadores não-informáticos. Os desenvolvedores desses pacotes privilegiam,como seria de esperar, a portabilidade do seu software em detrimento de aspectos tais como "ter uma interface utilizador muito cuidada" ou "obter o máximo desempenho". É neste último aspecto que focamos a nossa atenção: propomo-nos desenvolver uma metodologia simples que permita obter ganhos de desempenho satisfatórios em aplicações para as quais o código fonte está disponível, mas é de grande complexidade, não está documentado, não sendo, por isso, possível e/ou desejável modi cá-lo. O presente trabalho é o primeiro passo para veri car a viabilidade de tal propósito; exploram-se as possibilidades de optimização em três dimensões: arquitectura computacional,rede de interligação e software. Como \Caso de Estudo" aplicacional adopta-se o AMBER, um pacote de aplicações de Dinâmica Molecular, não deixando contudo de ensaiar uma outra aplicação similar, o NAMD. Exploram-se as três arquitecturas computacionais representativas do estado-da-arte dos sistemas ao alcance de uma pequena/média instituição de C&T: um cluster, um servidor cc-NUMA e, apenas para uma rápida comparação com as restantes, uma plataforma GPGPU.
APA, Harvard, Vancouver, ISO, and other styles
27

Simioni, Bruno [UNESP]. "Plataforma de simulação computacional paralela com base nos conceitos de relógios lógicos e tempo virtual." Universidade Estadual Paulista (UNESP), 2012. http://hdl.handle.net/11449/98683.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:29:40Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-03-01Bitstream added on 2014-06-13T20:48:23Z : No. of bitstreams: 1 simioni_b_me_sjrp.pdf: 1373183 bytes, checksum: 323d29627a0cf869ab10a743c7c473c9 (MD5)
Este trabalho apresenta a plataforma de simulação computacional de eventos Darfia, arquitetada através do emprego de memória distribuída e compartilhada (DSM) utilizando o framework Terracotta DSO, com o objetivo de facilitar a construção, manutenção e análise dessa abordagem de espaço de endereçamento local e distribuído. A plataforma de simulação foi desenvolvida utilizando-se de conceitos de tempo virtual e relógios lógicos propostos por Lamport, e foi implementada na linguagem de programação comercial, de quarta geração, Java, sendo configurável através de documentos portáveis. Este trabalho também apresenta uma introdução de estudos para simulações baseadas na web, oferecendo uma interface web para a plataforma de simulação, construída com tecnologias oferecidas pelo HTML5, proporcionando a utilização da plataforma de simulação também pela web
This document presents the work related to a simulation platform event driven, Darfia, engineered through the use of distributed and shared memory (DSM) using the framework Terracotta DSO, in order to facilitate the construction, maintenance and analysis of this kind of approach to the local and distributed address space. The simulation platform was developed using the concepts of virtual time and logical clocks proposed by Lamport, and was implemented in the programming business, fourth generation, Java, and is configurable via portable documents. This work also provides an introduction to simulation studies of web-based, offering a web interface for the simulation platform, built with technologies offered by HTML5, providing the use of simulation platform also for the web
APA, Harvard, Vancouver, ISO, and other styles
28

Simioni, Bruno. "Plataforma de simulação computacional paralela com base nos conceitos de relógios lógicos e tempo virtual /." São José do Rio Preto : [s.n.], 2012. http://hdl.handle.net/11449/98683.

Full text
Abstract:
Orientador: Renata Spolon Lobato
Banca: Marcos Antonio Cavenaghi
Banca: Ronaldo Augusto Lara Gonçalves
Resumo: Este trabalho apresenta a plataforma de simulação computacional de eventos Darfia, arquitetada através do emprego de memória distribuída e compartilhada (DSM) utilizando o framework Terracotta DSO, com o objetivo de facilitar a construção, manutenção e análise dessa abordagem de espaço de endereçamento local e distribuído. A plataforma de simulação foi desenvolvida utilizando-se de conceitos de tempo virtual e relógios lógicos propostos por Lamport, e foi implementada na linguagem de programação comercial, de quarta geração, Java, sendo configurável através de documentos portáveis. Este trabalho também apresenta uma introdução de estudos para simulações baseadas na web, oferecendo uma interface web para a plataforma de simulação, construída com tecnologias oferecidas pelo HTML5, proporcionando a utilização da plataforma de simulação também pela web
Abstract: This document presents the work related to a simulation platform event driven, Darfia, engineered through the use of distributed and shared memory (DSM) using the framework Terracotta DSO, in order to facilitate the construction, maintenance and analysis of this kind of approach to the local and distributed address space. The simulation platform was developed using the concepts of virtual time and logical clocks proposed by Lamport, and was implemented in the programming business, fourth generation, Java, and is configurable via portable documents. This work also provides an introduction to simulation studies of web-based, offering a web interface for the simulation platform, built with technologies offered by HTML5, providing the use of simulation platform also for the web
Mestre
APA, Harvard, Vancouver, ISO, and other styles
29

Santos, Carlos Henrique da Silva. "Computação bio-inspirada e paralela para a analise de estruturas metamateriais em microondas e fotonica." [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260809.

Full text
Abstract:
Orientador: Hugo Enrique Hernandez Figueroa
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação
Made available in DSpace on 2018-08-15T19:32:10Z (GMT). No. of bitstreams: 1 Santos_CarlosHenriquedaSilva_D.pdf: 6145760 bytes, checksum: b129064af29e8b7052b13e0b422b299c (MD5) Previous issue date: 2010
Resumo: Esse trabalho tem por objetivo desenvolver algoritmos bio-inspirados (Algoritmo Genético, Estratégia Evolutiva e Sistema Imunológico Artificial) eficientes (tempo de processamento e convergência), e flexíveis (multi-plataforma), para a otimização de dispositivos eletromagnéticos nos domínios da frequência e do tempo. Além disso, para satisfazer a demanda computacional requerida nessas otimizações, foram implementadas versões paralelas dos algoritmos bio-inspirados e do método das diferenças finitas no domínio tempo em três dimensões (FDTD 3D) para serem executados em cluster de computadores. A eficiência e flexibilidade dos algoritmos desenvolvidos foram confirmadas através da aplicação criteriosa de testes de desempenho disponíveis na literatura. Isto permitiu a proposta e simulação de novos e complexos dispositivos eletromagnéticos baseados em estruturas metamateriais
Abstract: The objectives of this work are to develop efficient (runtime and convergence) and flexible (multiplatform) bio-inspired algorithms (Genetic Algorithm, Evolution Strategy and Artificial Immune System), for the optimization of electromagnetic devices either in frequency and time domain. In addition, to satisfy the computational requirements for these optimizations a parallel version of these bio-inspired algorithms and a three-dimensional finite difference time domain (3D FDTD) were developed capable to be processed in cluster computers. The successful performance of these parallel resources was confirmed by their careful assessment through key tests available in the specialized literature. This permitted the proposal and simulation of novel and complex electromagnetic devices based on metamaterial structures
Doutorado
Telecomunicações e Telemática
Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
30

Oliveira, Aredis Sebastião de. "Make distribuido." [s.n.], 1997. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276111.

Full text
Abstract:
Orientador: Rogerio Drummond Burnier Pessoa de Mello Filho
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica
Made available in DSpace on 2018-07-23T12:49:47Z (GMT). No. of bitstreams: 1 Oliveira_AredisSebastiaode_M.pdf: 3427641 bytes, checksum: 37bbd69debac907793af9a3c65ed42a3 (MD5) Previous issue date: 1997
Resumo: Este trabalho apresenta o projeto e a implementação de um Make Distribuído (MakeD) baseado na conhecida ferramenta make. A aplicação cliente/selVidor MakeD permite usar uma rede de computadores como um re~urso computacional único para minimizar o tempo gasto no processo de make durante o desenvolvimento de projetos de médio e grande porte. Num ambiente de desenvolvimento típico uma estação cliente apresenta um padrão de uso de CPU com curtos períodos de intensa utilização e longos períodos de inatividade ou baixa utilização. Dessa forma, utilizar os clientes como servidores de CPU e usar a ferramenta MakeD para distribuir as tarefas de compilações entre eles melhora o uso da capacidade de processamento disponível na rede, contribuindo para balancear a utilização dos recursos. A implementação do MakeD combina o mecanismo de RPC com recursos de multithreading para explorar a distribuição de tarefas na rede e a multi-tarefa em cada sistema. Os resultados de testes comparativos entre MakeD, GNU Make e outro make distribuído (Dmake) demonstram a eficiência dos métodos empregados. O trabalho também discute alguns aspectos de transformação de aplicações centralizadas em distribuídas e propõe um selVidor de make distribuído multi-usuário como extensão para o MakeD
Abstract: This work presents the design and implementation of a Distributed Make (MakeD) utility. The MakeD c1ient/server application allows using a network as a single computing resource to reduce compilation time in the development of medium and large projects. In a typical development environment, client workstations presents relatively short periods of high CPU load followed by long periods of low or zero utilization. MakeD uses ordinary c1ients as CPU servers in order to distribute tasks, thus making a network's id1e processor capacity available and balancing resource use. MakeD uses RPC and multithreading to achieve distributed processing in the network and multitasking within each node. The results of comparative tests show performance gains relative to GNU Make and a similar distributed make (Dmake). This work also discusses some aspects of transforming centralized applications into distributed ones and proposes a multi-user distributed Make Server as a future evolution
Mestrado
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
31

Moretti, Rafael Henrique [UNESP]. "Análise do efeito de entropia em computação quântica: simulações em ambiente paralelo." Universidade Estadual Paulista (UNESP), 2015. http://hdl.handle.net/11449/127766.

Full text
Abstract:
Made available in DSpace on 2015-09-17T15:25:29Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-02-27. Added 1 bitstream(s) on 2015-09-17T15:48:46Z : No. of bitstreams: 1 000846680_20160701.pdf: 68569 bytes, checksum: 3d6e053b24d4ca9caa9a50165bb615cd (MD5) Bitstreams deleted on 2016-06-15T18:56:30Z: 000846680_20160701_sub.pdf, 000846680_sub.pdf,. Added 1 bitstream(s) on 2016-06-15T18:57:10Z : No. of bitstreams: 1 000846680_20160701.pdf: 169837 bytes, checksum: c2078ccda666da39cc5ae2f7a2313e77 (MD5) Bitstreams deleted on 2016-07-01T13:02:16Z: 000846680_20160701.pdf,. Added 1 bitstream(s) on 2016-07-01T13:03:15Z : No. of bitstreams: 1 000846680.pdf: 1186537 bytes, checksum: ab98f46152afe327512cb3dbd41ac088 (MD5)
O crescente desenvolvimento tecnológico tem trazido a humanidade grandes benefícios, nas mais diversas áreas. De modo a dar continuidade a esse desenvolvimento, novas frentes de pesquisas vêm surgindo, em busca do domínio dessas tecnologias emergentes. Os limites físicos da computação clássica, baseada nos fenômenos eletromagnéticos, estão sendo alcançados e a computação quântica surge como uma possível solução para esses limites, bem como para apresentar um novo panorama para a computação, devido ao seu grande potencial. A fim de buscar um maior entendimento dos fenômenos que envolvem a computação quântica em uma transmissão de dados, em específico o fenômeno do emaranhamento, no presente trabalho apresenta-se um levantamento teórico sobre mecânica quântica, informação, computação e entropias quânticas, bem como computação paralela e MPI, propondo-se uma simulação com implementação em ambiente paralelo sobre o efeito da entropia de emaranhamento dos fótons em uma transmissão de dados. Além disso, realiza-se a comparação com a implementação em um ambiente de um único processador
The increasing technological development has brought great bene ts to humanity, in several areas. In order to continue this development, new research areas are emerging to reach new technologies. The physical limits of classical computing, based on electromagnetic phenomena are being achieved and quantum computing emerges as a possible solution to these limits, as well as to introduce a new scenario for computing, due to its great potential. In order to get a better understanding of phenomena involving quantum computing in a data transmission, in particular the phenomenon of entanglement, this work presents a theoretical quantum mechanics, information, computing and quantum entropies, as well as parallel computing and MPI, proposing a simulation with implementation in parallel environment on the e ect of the entropy of entanglement of photons in data transmission and comparison with implementation in a single processor environment
APA, Harvard, Vancouver, ISO, and other styles
32

Moretti, Rafael Henrique. "Análise do efeito de entropia em computação quântica : simulações em ambiente paralelo /." São José do Rio Preto, 2015. http://hdl.handle.net/11449/127766.

Full text
Abstract:
Orientador: Geraldo Francisco Donegá Zafalon
Coorientador: Manoel Ferreira Borges Neto
Banca: Mário Luiz Tronco
Banca: Wladimir Seixas
Resumo: O crescente desenvolvimento tecnológico tem trazido a humanidade grandes benefícios, nas mais diversas áreas. De modo a dar continuidade a esse desenvolvimento, novas frentes de pesquisas vêm surgindo, em busca do domínio dessas tecnologias emergentes. Os limites físicos da computação clássica, baseada nos fenômenos eletromagnéticos, estão sendo alcançados e a computação quântica surge como uma possível solução para esses limites, bem como para apresentar um novo panorama para a computação, devido ao seu grande potencial. A fim de buscar um maior entendimento dos fenômenos que envolvem a computação quântica em uma transmissão de dados, em específico o fenômeno do emaranhamento, no presente trabalho apresenta-se um levantamento teórico sobre mecânica quântica, informação, computação e entropias quânticas, bem como computação paralela e MPI, propondo-se uma simulação com implementação em ambiente paralelo sobre o efeito da entropia de emaranhamento dos fótons em uma transmissão de dados. Além disso, realiza-se a comparação com a implementação em um ambiente de um único processador
Abstract: The increasing technological development has brought great bene ts to humanity, in several areas. In order to continue this development, new research areas are emerging to reach new technologies. The physical limits of classical computing, based on electromagnetic phenomena are being achieved and quantum computing emerges as a possible solution to these limits, as well as to introduce a new scenario for computing, due to its great potential. In order to get a better understanding of phenomena involving quantum computing in a data transmission, in particular the phenomenon of entanglement, this work presents a theoretical quantum mechanics, information, computing and quantum entropies, as well as parallel computing and MPI, proposing a simulation with implementation in parallel environment on the e ect of the entropy of entanglement of photons in data transmission and comparison with implementation in a single processor environment
Mestre
APA, Harvard, Vancouver, ISO, and other styles
33

Zafalon, Geraldo Francisco Donega [UNESP]. "Algoritmos de alinhamento múltiplo e técnicas de otimização para esses algoritmos utilizando Ant Colony." Universidade Estadual Paulista (UNESP), 2009. http://hdl.handle.net/11449/89350.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:24:01Z (GMT). No. of bitstreams: 0 Previous issue date: 2009-04-30Bitstream added on 2014-06-13T19:10:03Z : No. of bitstreams: 1 zafalon_gfd_me_sjrp.pdf: 915240 bytes, checksum: 39a35a2fec9d70947eb907760544f707 (MD5)
A biologia, como uma ciência bastante desenvolvida, foi dividida em diversas areas, dentre elas, a genética. Esta area passou a crescer em importância nos ultimos cinquenta anos devido aos in umeros benefícios que ela pode trazer, principalmente, aos seres humanos. Como a gen etica passou a apresentar problemas com grande complexidade de resolução estratégias computacionais foram agregadas a ela, surgindo assim a bioinform atica. A bioinformática desenvolveu-se de forma bastante signi cativa nos ultimos anos e esse desenvolvimento vem se acentuando a cada dia, devido ao aumento da complexidade dos problemas genômicos propostos pelos biólogos. Assim, os cientistas da computação têm se empenhado no desenvolvimento de novas técnicas computacionais para os biólogos, principalmente no que diz respeito as estrat egias para alinhamentos m ultiplos de sequências. Quando as sequências estão alinhadas, os biólogos podem realizar mais inferências sobre elas, principalmente no reconhecimento de padrões que e uma outra area interessante da bioinformática. Atrav es do reconhecimento de padrãoes, os bi ologos podem identicar pontos de alta signi cância (hot spots) entre as sequências e, consequentemente, pesquisar curas para doençass, melhoramentos genéticos na agricultura, entre outras possibilidades. Este trabalho traz o desenvolvimento e a comparação entre duas técnicas computacionais para o alinhamento m ultiplo de sequências. Uma e baseada na técnica de alinhamento múltiplo de sequências progressivas pura e a outra, e uma técnica de alinhamento múltiplo de sequências otimizada a partir da heurística de colônia de formigas. Ambas as técnicas adotam em algumas de suas fases estratégias de paralelismo, focando na redu c~ao do tempo de execução dos algoritmos. Os testes de desempenho e qualidade dos alinhamentos que foram conduzidos com as duas estrat egias...
Biology as an enough developed science was divided in some areas, and genetics is one of them. This area has improved its relevance in last fty years due to the several bene ts that it can mainly bring to the humans. As genetics starts to show problems with hard resolution complexity, computational strategies were aggregated to it, leading to the start of the bioinformatics. The bioinformatics has been developed in a signi cant way in the last years and this development is accentuating everyday due to the increase of the complexity of the genomic problems proposed by biologists. Thus, the computer scientists have committed in the development of new computational techniques to the biologists, mainly related to the strategies to multiple sequence alignments. When the sequences are aligned, the biologists can do more inferences about them mainly in the pattern recognition that is another interesting area of the bioinformatics. Through the pattern recognition, the biologists can nd hot spots among the sequences and consequently contribute for the cure of diseases, genetics improvements in the agriculture and many other possibilities. This work brings the development and the comparison between two computational techniques for the multiple sequence alignments. One is based on the pure progressive multiple sequence alignment technique and the other one is an optimized multiple sequence alignment technique based on the ant colony heuristics. Both techniques take on some of its stages of parallel strategies, focusing on reducing the execution time of algorithms. Performance and quality tests of the alignments were conducted with both strategies and showed that the optimized approach presents better results when it is compared with the pure progressive approach. Biology as an enough developed science was divided in some areas, and genetics is one of them. This area has improved... (Complete abstract click electronic access below)
APA, Harvard, Vancouver, ISO, and other styles
34

Masuero, Joao Ricardo. "Computação paralela na análise de problemas de engenharia utilizando o Método dos Elementos Finitos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2009. http://hdl.handle.net/10183/16874.

Full text
Abstract:
O objetivo deste trabalho é estudar algoritmos paralelos para a solução de problemas de Mecânica dos Sólidos, Mecânica dos Fluídos e Interação Fluido-Estrutura empregando o Método dos Elementos Finitos para uso em configurações de memória distribuída e compartilhada. Dois processos para o particionamento da estrutura de dados entre os processadores e divisão de tarefas foram desenvolvidos baseados na aplicação do método de particionamento em faixas e do método da bissecção coordenada recursiva não sobre a geometria da malha mas sim diretamente sobre o sistema de equações, através de reordenações nodais para minimização da largura da banda. Para ordenar a comunicação entre os processadores, foi desenvolvido um algoritmo simples e genérico baseado em uma ordenação circular e alternada que permite a organização eficiente dos processos mesmo em cenários nos quais cada processador precisa trocar dados com todos os demais. Os algoritmos selecionados foram todos do tipo iterativo, por sua adequabilidade ao paralelismo de memória distribuída. Foram desenvolvidos códigos paralelos para o Método dos Gradientes Conjugados utilizado em problemas de Mecânica dos Sólidos, para o esquema explícito de Taylor-Galerkin com um passo e iterações utilizado na simulação de escoamentos compressíveis em regime transônico e supersônico, para o esquema explícito de Taylor- Galerkin com 2 passos para simulação de escoamentos incompressíveis em regime subsônico e para interação fluído-estrutura usando o esquema explícito de dois passos para o fluído e o método implícito de Newmark no contexto do método de estabilização α-Generalizado para a estrutura, com acoplamento particionado. Numerosas configurações foram testadas com problemas tridimensionais utilizando elementos tetraédricos e hexaédricos em clusters temporários e permanentes, homogêneos e heterogêneos, com diferentes tamanhos de problemas, diferentes números de computadores e diferentes velocidades de rede.
Analysis and development of distributed memory parallel algorithms for the solution of Solid Mechanics, Fluid Mechanics and Fluid-Structure Interaction problems using the Finite Element Method is the main goal of this work. Two process for mesh partitioning and task division were developed, based in the Stripwise Partitioning and the Recursive Coordinate Bisection Methods, but applied not over the mesh geometry but over the resultant system of equations through a nodal ordering algorithm for system bandwidth minimization. To schedule the communication tasks in scenarios where each processor must exchange data with all others in the cluster, a simple and generic algorithm based in a circular an alternate ordering was developed. The algorithms selected to be parallelized were of iterative types due to their suitability for distributed memory parallelism. Parallel codes were developed for the Conjugate Gradient Method ( for Solid Mechanics analysis), for the explicit one-step scheme of Taylor-Galerkin method (for transonic and supersonic compressible flow analysis), for the two-step explicit scheme of Taylor-Galerkin method (for subsonic incompressible flow analysis) and for a Fluid-Structure Interaction algorithm using a coupling model based on a partitioned scheme. Explicit two-step scheme of Taylor-Galerkin were employed for the fluid and the implicit Newmark algorithm for the structure. Several configurations were tested for three-dimensional problems using tetrahedral and hexahedral elements in uniform and nonuniform clusters and grids, with several sizes of meshes, numbers of computers and network speeds.
APA, Harvard, Vancouver, ISO, and other styles
35

de, Oliveira Mattos Giorgia. "Aspectos de desempenho da computação paralela em Clusters e Grids para processamento de imagens." Universidade Federal de Pernambuco, 2008. https://repositorio.ufpe.br/handle/123456789/4963.

Full text
Abstract:
Made available in DSpace on 2014-06-12T17:35:12Z (GMT). No. of bitstreams: 2 arquivo5391_1.pdf: 5090704 bytes, checksum: 8579bb353f3397d7c9f8d6e90e505f32 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008
O processo de digitalização de documentos de maneira automática geralmente resulta em imagens com características indesejáveis como orientação errada, inclinação incorreta das linhas do texto e até mesmo a presença de ruídos causados pelo estado de conservação, integridade física e presença ou ausência de poeira no documento e partes do scanner. O simples processamento de cada imagem é efetuado em poucos segundos, a sua transcrição ou busca de palavras-chave para indexação necessita vários segundos de processamento. O lote produzido por um único scanner de linha de produção pode levar dias para ser filtrado, dependendo da capacidade de processamento do computador utilizado. Faz-se necessário distribuir tal tarefa para que o processamento das imagens acompanhe a taxa de digitalização. Esta tese analisa a viabilidade da computação paralela em cluster e grades para o processamento de grandes quantidades de imagens de documentos digitalizados. Diferentes cenários de configuração de computadores e de distribuição de tarefas foram analisados, sob o ponto de vista do processamento das tarefas e do tráfego de rede gerado durante o processamento
APA, Harvard, Vancouver, ISO, and other styles
36

Souza, Thiago Alexandre Domingues de. "Uma solução paralela de agrupamento de dados em GPU /." São José do Rio Preto, 2017. http://hdl.handle.net/11449/150916.

Full text
Abstract:
Orientador: Aleardo Manacero Junior
Banca: Alexandro José Baldassin
Banca: Paulo Sérgio Lopes de Souza
Resumo: A indústria de tecnologia da informação tem permitido uma explosão de dados coletados nos últimos anos. Isso ocorreu, entre outros fatores, pela expansão do acesso à rede por meio de uma infinidade de equipamentos. Uma análise detalhada dos dados armazenados pode, por exemplo, extrair informações valiosas sobre o comportamento dos indivíduos, permitindo uma relação personalizada de acordo com os interesses dos usuários. Essa tarefa pode ser feita usando algoritmos de agrupamento de dados. Porém, esse é um processo que requer grande esforço computacional tanto pela ordem de complexidade dos algoritmos existentes como pelos crescentes volumes processados. Nesse contexto, execuções sequenciais não são viáveis e sua paralelização é o caminho natural. Isso exige remodelar algoritmos para explorar o potencial de plataformas massivamente paralelas, de acordo com as particularidades da arquitetura alvo. Neste trabalho se propõe uma implementação paralela do algoritmo Fuzzy Minimals para GPU, como uma solução de alto desempenho e baixo custo para contornar dificuldades frequentes no agrupamento de dados. Com o objetivo de avaliar o desempenho de nossa solução, também desenvolvemos versões paralelas em MPI e OpenMP. Nossos experimentos mostram que a solução para GPU alcança resultados expressivos com um baixo custo, mantendo uma precisão significativa
Abstract: IT industry has witnessed an explosion of data collected for the past few years. This took place, among other factors, due to the expansion of network access through several devices. For example, a detailed analysis of the stored data can extract some valuable information about human behaviors, allowing a customized experience that matches the interests of users . This task can be performed by clustering algorithms. However, this is a time-consuming process due to the asymptotic complexity of existing algorithms and the increasing volumes of data processed. In this context, sequential executions are not feasible and their parallelization is the natural path. This requires redesigning algorithms to take advantage of massively parallel platforms according to the particularities of targeted architectures. In this paper, it is proposed a novel parallel implementation of the Fuzzy Minimals algorithm on GPU, as a high-performance lowcost solution for common clustering issues. In order to evaluate the performance of our implementation, we have also designed parallel versions using MPI and OpenMP. Our experiments show that our parallel solution on GPU can achieve a high performance at a low cost, preserving a significant accuracy
Mestre
APA, Harvard, Vancouver, ISO, and other styles
37

Longhin, Gustavo Camargo. "Implementação paralela do metodo de resolução frontal de sistemas de equações." [s.n.], 2001. http://repositorio.unicamp.br/jspui/handle/REPOSIP/257956.

Full text
Abstract:
Orientador: Philippe Remy Bernard Devloo
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Civil
Made available in DSpace on 2018-08-02T02:48:48Z (GMT). No. of bitstreams: 1 Longhin_GustavoCamargo_M.pdf: 6501443 bytes, checksum: c3b310f91b0c026c56f80bf6bc4c6fba (MD5) Previous issue date: 2001
Resumo: Para obtenção da solução do sistema de equações, geralmente elabora-se um código que armazena a matriz dos coeficientes na memória RAM. Em seguida inicia-se o processo de decomposição desta matriz. A matriz é formada pela contribuição de cada elemento do domínio aos graus de liberdade do problema. Quanto maior o problema, maior o tamanho desta matriz e consequentemente mais memória RAM será necessária para seu armazenamento. Portanto, um procedimento de montagem anterior à decomposição pode ser inviabilizado devido ao tamanho da matriz. Com esta motivação, Bruce Irons desenvolve no início da década de 70, um método de resolução que não exige uma montagem inicial da matriz de rigidez global de equações. Neste método é definida uma estrutura onde uma equação totalmente adicionada é imediatamente decomposta e armazenada num dispositivo independente. A matriz que recebe as equações totalmente adicionadas é denominada matriz frontal e com isso o método também é denominado método frontal. Sobre a estrutura frontal são aplicadas técnicas de optimização por paralelismo. São utilizados equipamentos com memória compartilhada e portanto, utilizão-se as bibliotecas oriundas da especificação posix (pthread no ambiente GNU & Linux) para desenvolvimento multi-threading. São apresentados resultados comparando o método frontal com outros métodos bem como as comparações entre os métodos seriais e os paralelos. Aplica-se um tratamento orientado a objetos para desenvolvimento dos solvers. Nota-se com a orientação a objetos um excelente grau de modularidade, documentação, extendibilidade e manutenção no código elaborado. A utilização de UML (Unified Modeling Language) é também de grande valia no desenvolvimento/planejamento do projeto
Abstract: Obtaining the solution of a system of linear equations, generally results in a code elaboration which stores the matrix coeficients in the RAM memory and afterwards, some decomposition processes starts. The matrix is assembled summing up the contributions of each element from the domain to the problem's degrees of freedom. The bigger the problem, the larger the assembled matrix, therefore a higher requirement regarding the RAM memory capacity. From this, a procedure which does not assemble the matrix of coeficients prior to its decomposition would be more interesting. With that motivation, Bruce Irons developed in the beggining of the seventies a procedure which does not require an initial assembly of the global stiffness matrix. In this method a structure is defined where a totally added equation is immediatelly decomposed and the decomposition results are stored in an independent storage device. The matrix which receives the equations contribution was called frontal matrix and so was the method. On that frontal structure parallel optimization techniques are applied. Shared memory equipments are the hardware basis for the implementation and accordingly, public domain multithreading libraries based on the posix specification are used (pthread under GNU & Linux) for the multi-threading development. Results are shown comparing standart methods against the frontal solver as well as serial codes against parallel ones. Object oriented techniques are applied for the solvers development and planning. As a result, excelent degrees of modularity, extendibiIity, documentation and management are observed. The Unified Modelling Language (UML) utilization as a helpping tool for object oriented development was also very important
Mestrado
Estruturas
Mestre em Engenharia Civil
APA, Harvard, Vancouver, ISO, and other styles
38

Nascimento, Júnior Orlando Saraiva 1981. "Técnicas de computação paralela aplicadas ao método das características em sistemas hidráulicos = Parallel computing applied to method of characteristics in hydraulic systems." [s.n.], 2013. http://repositorio.unicamp.br/jspui/handle/REPOSIP/267758.

Full text
Abstract:
Orientadores: Vitor Rafael Coluci, Lubienska Cristina Lucas Jaquiê Ribeiro
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Tecnologia
Made available in DSpace on 2018-08-22T12:49:14Z (GMT). No. of bitstreams: 1 NascimentoJunior_OrlandoSaraiva_M.pdf: 5339800 bytes, checksum: f37d5c4041d5404f5f45d33c5af054c5 (MD5) Previous issue date: 2013
Resumo: Uma instalação hidráulica é um conjunto de dispositivos hidromecânicos e tubos com a função de transportar um fluido. O controle do escoamento deste fluido ocorre por meio de manobras nos dispositivos hidromecânicos. Uma investigação sobre o impacto das manobras destes dispositivos em uma instalação hidráulica pode evitar danos físicos ao sistema (como rompimento de tubos, por exemplo). Uma das formas de se investigar o efeito destas manobras é por meio da simulação. A simulação permite estudar um sistema hidráulico, que após uma manobra hidráulica sai de uma situação contínua (regime permanente inicial), entra em um estado transitório (regime transiente) para posteriormente entrar em uma nova situação contínua (regime permanente final). No regime de transiente hidráulico são formadas ondas de sobrepressão e subpressão internas na tubulação e que podem levar a danos. Um dos métodos mais aceitos para simulações de transiente hidráulico é o método das características, que permite transformar as equações diferenciais parciais que descrevem o fenômeno em um conjunto de equações diferenciais ordinárias. Dependendo do tamanho do sistema hidráulico (número e comprimento de tubos, número de dispositivos eletromecânicos, etc), o custo computacional pode ser elevado para se obter as informações sobre o comportamento do transiente. Neste trabalho aplicamos técnicas de computação paralela em placas de vídeos para processamento de propósito geral (GPU) e em multi-núcleos (OpenMP) para acelerar os cálculos do transiente hidráulico. Utilizamos um sistema hidráulico composto por um reservatório, uma válvula e um tubo e determinamos o ganho de desempenho em função do tamanho do tubo do sistema. A técnica OpenMP forneceu ganhos computacionais de até 3.3× enquanto a técnica envolvendo GPUs forneceu ganhos de 17×. Dessa forma, placas gráficas se mostraram muito interessantes para acelerar simulações de transientes hidráulicos com o método das características
Abstract: A hydraulic system is a set of hydromechanical devices and tubes designed to transport fluids through controlled operations. Investigating the impact of these operations on hydraulic systems can avoid physical damage to its parts (such as breakage of pipes, for example). One way to investigate these impacts is through computational simulations. The simulations allow to study a hydraulic system during initial and final steady states (after some device operation, for instance), and the transient state between them. During the hydraulic transient state, high and low pressure waves are formed in the tubes and are the main cause of tube damages. One of the most accepted methods for transient hydraulic simulations is the method of characteristics, which allows to transform the partial differential equations that describe the phenomenon in a set of ordinary differential equations. Depending on the size of the hydraulic system (number and length of tubes, number of electromechanical devices, etc), the computational cost to obtain information about the behavior of the transient can be large. In this work, we apply techniques of parallel computing involving video cards for general purpose processing (GPU) and multi-cores (OpenMP) to accelerate hydraulic transient calculations. We simulated a hydraulic system consisting of a reservoir, a valve and a pipe to determine the performance speedup as a function of the size of the pipe. The OpenMP technique provided computational speedup up to 3.3× whereas the GPU technique provided speedup of 17×. Therefore, our results indicated that GPUs are very interesting to accelerate hydraulic transients simulations using the method of characteristics
Mestrado
Tecnologia e Inovação
Mestre em Tecnologia
APA, Harvard, Vancouver, ISO, and other styles
39

SOUZA, Daniel Leal. "Otimização por multi-enxame evolucionário de partículas clássico e quântico competitivo sob a arquitetura paralela CUDA aplicado em problemas de engenharia." Universidade Federal do Pará, 2014. http://repositorio.ufpa.br/jspui/handle/2011/9008.

Full text
Abstract:
Submitted by Hellen Luz (hellencrisluz@gmail.com) on 2017-07-26T19:13:46Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_OtimizacaoMultiEnxame.pdf: 21921599 bytes, checksum: 6cbd45a74833514b23e7604d298c5978 (MD5)
Approved for entry into archive by Irvana Coutinho (irvana@ufpa.br) on 2017-08-21T13:29:15Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_OtimizacaoMultiEnxame.pdf: 21921599 bytes, checksum: 6cbd45a74833514b23e7604d298c5978 (MD5)
Made available in DSpace on 2017-08-21T13:29:15Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_OtimizacaoMultiEnxame.pdf: 21921599 bytes, checksum: 6cbd45a74833514b23e7604d298c5978 (MD5) Previous issue date: 2014-05-23
FAPESPA - Fundação Amazônia de Amparo a Estudos e Pesquisas
Este trabalho apresenta o desenvolvimento de um conjunto de metaheurística híbridas, baseadas na utilização das estratégias evolutivas em conjunto com os algoritmos de otimização por enxame de partículas clássica e quântica sob um ambiente multi-enxame com topologia mestre-escravos. Tais algoritmos são denominados Competitive Evolutionary Multi-Swarm Optimization (CEMSO) 1 e Competitive Quantum-Behaviour Evolutionary Multi-Swarm Optimization (CQEMSO) 2. Para efeito de comparação e validação dos resultados, são utilizados quatro problemas de engenharia presentes em diversas publicações científicas: Projeto de Viga de Aço (WBD); Peso da Tensão/Compressão sobre Mola (MWTCS); Projeto de Redutor de Velocidade (SRD); Projeto de Vaso de Pressão (DPV). Em relação a implementação, os algoritmos foram desenvolvidos sob a arquitetura CUDA, a qual proporciona um ambiente de computação paralela massiva que viabiliza uma distribuição de dados mais adequada em relação a organização dos enxames, além de contribuir para a diminuição significativa do tempo de processamento. Com a aplicação das estratégias evolutivas nos algoritmos PSO e QPSO, bem como os mecanismos de condições de contorno propostos, as soluções descritas neste documento oferecem diversas vantagens, onde se pode destacar melhorias na capacidade de busca, aumento na taxa de convergência e alto grau de paralelismo. Tais fatos são confirmados através dos dados obtidos (i.e. Tempo de execução, melhores soluções obtidas, média e variância de resultados) pelos algoritmos CEMSO e CQEMSO em relação as versões multi-enxame dos algorimos PSO (COMSO), EPSO (COEMSO) e COQMSO (QPSO), todos implementados e submetidos a análise de desempenho através dos experimentos com problemas de engenharia.
This paper presents the development of a set of hybrid metaheuristic based on the use of evolutionary strategies in conjunction with classical and quantum multi-swarm optimization with master-slave approach. These algorithms are named Competitive Evolutionary Multi-Swarm Optimization (CEMSO) and Competitive Quantum-Behaviour Evolutionary Multi-Swarm Optimization (CQEMSO). For comparison and validation of the results, four engineering problems encountered in many publications scientific are used: Welded Beam Design (WBD); Minimization of the Weight of a Tension/ Compression Spring (MWTCS); Speed Reducer Design (SRD); Design of a Pressure Vessel (DPV). The algorithms were developed under the CUDA architecture, which provides a massive parallel computing environment that enables a more appropriate data allocation regarding the organization of swarms, as well as contributing to the significant decrease in processing time. With the application of evolutionary strategies in the PSO and QPSO algorithms, as well as the proposed boundary conditions, the solutions described in this document offer several advantages. We can highlight improvements in the ability to search, increasing the convergence rate and high degree of parallelism. These facts are confirmed by the data obtained (i.e. Execution time, best solutions obtained, mean and variance of results) by CQEMSO and CQEMSO algorithms when compared to those obtained from multi-swarm approach for PSO (COMSO), EPSO (COEMSO) and QPSO (COQMSO). All of these algorithms were implemented and subjected to performance analysis through experiments with engineering problems described above.
APA, Harvard, Vancouver, ISO, and other styles
40

Pinho, Eduardo Gurgel. "Uma Linguagem de Programação Paralela Orientada a Objetos para Arquiteturas Distribuídas." reponame:Repositório Institucional da UFC, 2012. http://www.repositorio.ufc.br/handle/riufc/17845.

Full text
Abstract:
PINHO, Eduardo Gurgel. Uma Linguagem de Programação Paralela Orientada a Objetos para Arquiteturas Distribuídas. 2012. 71 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2012.
Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-21T19:17:42Z No. of bitstreams: 1 2012_dis_egpinho.pdf: 1247267 bytes, checksum: b2db45af231441771b82531797f8c819 (MD5)
Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-21T19:19:30Z (GMT) No. of bitstreams: 1 2012_dis_egpinho.pdf: 1247267 bytes, checksum: b2db45af231441771b82531797f8c819 (MD5)
Made available in DSpace on 2016-06-21T19:19:30Z (GMT). No. of bitstreams: 1 2012_dis_egpinho.pdf: 1247267 bytes, checksum: b2db45af231441771b82531797f8c819 (MD5) Previous issue date: 2012
In object-oriented programming (OOP) languages, the ability to encapsulate software concerns of the dominant decomposition in objects is the key to reaching high modularity and loss of complexity in large scale designs. However, distributed-memory parallelism tends to break modularity, encapsulation, and functional independence of objects, since parallel computations cannot be encapsulated in individual objects, which reside in a single address space. For reconciling object-orientation and distributed-memory parallelism, this work introduces OOPP (Object-Oriented Parallel Programming), a style of OOP where objects are distributed by default. As an extension of C++, a widespread language in HPC, the PObC++ language has been designed and protoyped, incorporating the ideas of OOPP
Em programação orientadas a objetos (POO) , a habilidade de encapsular interesses de software da dominante decomposição em objetos é a chave para alcançar alto nível de modularidade e diminuição de complexidade em projetos de larga escala. Entretanto, o paralelismo de memória distribuída tende a quebrar modularidade, encapsulamento e a independência de objetos, uma vez que as computações paralelas não podem ser encapsuladas em objetos individuais, os quais residem em um espaço de endereçamento único. Para reconciliar orientação a objetos e paralelismo em memória distribuída, esse trabalho introduz a PPOO (Programação Paralela Orientada a Objetos), um estilo de POO onde objetos são distribuídos por padrão. Como uma estensão do C++, uma linguagem consolidada em CAD, a linguagem PObC++ foi projetada e prototipada, incorporando as ideias da PPOO.
APA, Harvard, Vancouver, ISO, and other styles
41

Rezende, Cenez Araújo de. "Avaliação de Desempenho de uma Plataforma de Componentes Paralelos." reponame:Repositório Institucional da UFC, 2011. http://www.repositorio.ufc.br/handle/riufc/17658.

Full text
Abstract:
REZENDE, Cenez Araújo de. Avaliação de Desempenho de uma Plataforma de Componentes Paralelos. 2011. 149 f. : Dissertação (mestrado) - Universidade Federal do Ceará, Centro de Ciências, Departamento de Computação, Fortaleza-CE, 2011.
Submitted by guaracy araujo (guaraa3355@gmail.com) on 2016-06-14T17:45:49Z No. of bitstreams: 1 2011_dis_carezende.pdf: 2377491 bytes, checksum: b262a08dab641ffaa0637237fb5c2a0f (MD5)
Approved for entry into archive by guaracy araujo (guaraa3355@gmail.com) on 2016-06-14T17:46:36Z (GMT) No. of bitstreams: 1 2011_dis_carezende.pdf: 2377491 bytes, checksum: b262a08dab641ffaa0637237fb5c2a0f (MD5)
Made available in DSpace on 2016-06-14T17:46:36Z (GMT). No. of bitstreams: 1 2011_dis_carezende.pdf: 2377491 bytes, checksum: b262a08dab641ffaa0637237fb5c2a0f (MD5) Previous issue date: 2011
In order to deal with programming-in-the-large requirements in emerging applications of High Performance Computing (HPC), it is still necessary the development of new software development tools for reconciling high level of abstraction, expressiveness and high performance. The technologies behind CBHPC (Component-Based High Performance Computing) target these requirements, looking for reuse of software parts, interoperability across execution platforms, high development productivity and easy maintenance. However, to reconcile high level of abstraction, high performance and high expressiveness for parallel programming models and patterns when building HPC applications is not trivial. For this reason, most of the current technologies fail in this context, since they adopt the traditional process-oriented perspective in the architecture of parallel programs. The HPE platform (Hash Programming Environment) sits on top of the Hash component model to support general forms of parallelism, by combining high expressiveness with high level of abstraction. The Hash component model proposes a concern-oriented perspective to parallel programming, in alternative to the traditional process-oriented approach. In this context, this dissertation is about the efficacy and efficiency of HPE for HPC applications, also validating some of its parallel programming techniques based on components. For that, a set of programs from NPB (NAS Parallel Benchmarks), a widely disseminated collection of benchmarks for evaluating the performance of parallel computing platforms, written in Fortran, C and Java, have been refactored into components aimed at the HPE platform. In such refactoring, the original structure of the benchmarks has been preserved, with minimal changes in the code that declare and initialize data structures, as well as those that describe computations and communication patterns. Using the component-based versions of the benchmarks, a systematic performance evaluation has been performed for quantifying the overheads caused strictly by the component-based structure.
Reduzir a complexidade do software e permitir o desenvolvimento em larga escala de aplicações voltados à Computação de Alto Desempenho (CAD) tem exigido o desenvolvimento de ferramentas com potencial capacidade de abstração na construção de sistemas. As tecnologias que envolvem o desenvolvimento de componentes procuram alcançar esses requisitos, buscando oferecer suporte a reuso, interoperabilidade, produtividade e maior flexibilidade de manutenção e desenvolvimento de aplicações de alto desempenho. No entanto, conciliar alto poder de abstração com alto poder de expressividade na construção de componentes de aplicações não é algo trivial, o que as atuais tecnologias não têm conseguido solucionar, uma vez que adotam as tradicionais formas de paralelismo por processos. Diante disso, a plataforma HPE (Hash Programming Environment), baseada no modelo de componentes Hash, tem buscado suportar formas mais gerais de paralelismo, conciliando expressividade com alto poder de abstração, uma vez que o modelo Hash é baseado em interesses de software e não em processo, como é feito tradicionalmente. Nesse contexto, esta dissertação busca explorar os recursos do HPE, certificando-se de sua viabilidade no contexto de aplicações de alto desempenho e validando suas técnicas de programação paralela baseadas em componentes. Isso tem resultado em um processo de construção de aplicações científicas sob a abordagem de componentes, tendo como base o conjunto de aplicativos NPB (Nas Parallel Benchmarks), o qual passa por um processo rigoroso de conversão para ser suportado pelo HPE. No processo de conversão e refatoração em componentes, busca-se conservar as estruturas originais do NPB, sem alterações significativas nos códigos que declaram e inicializam as estruturas de dados, bem como os que descrevem computações, topologia de processos e comunicação entre os processos. Para validação da plataforma, uma avaliação sistemática de desempenho é feita, tendo como princípio isolar e mensurar o peso ou o efeito da refatoração do NPB em componentes do modelo Hash.
APA, Harvard, Vancouver, ISO, and other styles
42

Carvalho, Camilo Alves. "Modelagem Paralela em C+CUDA de Sistema Neural de Visão Estereoscópica." Universidade Federal do Espírito Santo, 2009. http://repositorio.ufes.br/handle/10/6381.

Full text
Abstract:
Made available in DSpace on 2016-12-23T14:33:40Z (GMT). No. of bitstreams: 1 camilodissertacao 1.pdf: 1333302 bytes, checksum: 388e76b982d3fcda211a4b13f3a4c813 (MD5) Previous issue date: 2009-08-31
The images formed on our retinae are bidimensional; however, from them our brain is capable of synthesizing a 3D representation with color, shape and depth information about the objects in the surrounding environment. For that, after choosing a point in 3D space, our eyes verge to this point and, at the same time, the visual system is fed back with the eyes position information, interpreting it as the distance of this point to the observer. Depth perception around the vergence point is obtained using visual disparity, i.e., the difference between the positions in the retinae of the two projections of a given point in 3D space caused by the horizontal separation of the eyes. Most of the depth perception processing is done in the visual cortex, mainly in the primary (V1) and medial temporal (MT) areas. In this work, we developed a parallel implementation in C+CUDA of model, built at UFES, of the neural architecture of the V1 and MT cortices that uses as building blocks previous models of cortical cells and log-polar mapping. A sequential implementation of this model can create tridimensional representations of the external world using stereoscopic image pairs obtained from a pair of fronto-parallel cameras. Our C+CUDA parallel implementation is almost 60 times faster and allows real-time 3D reconstruction.
As imagens projetadas em nossas retinas são bidimensionais; entretanto, a partir delas, o nosso cérebro é capaz de sintetizar uma representação 3D com a cor, forma e informações de profundidade sobre os objetos ao redor no ambiente. Para isso, após a escolha de um ponto no espaço 3D, os nossos olhos vergem em direção a este ponto e, ao mesmo tempo, o sistema visual é realimentado com informações sobre o posicionamento dos olhos, interpretando-as como a distância deste ponto ao observador. A percepção de profundidade ao redor do ponto de vergência é obtida utilizando-se a disparidade entre as imagens direita e esquerda, ou seja, a diferença entre as posições, nas retinas, das duas projeções de um determinado ponto no espaço 3D causada pela separação horizontal dos olhos. A maior parte do processamento da percepção da profundidade é feita no córtex visual, principalmente na área primária (V1) e temporal medial (MT). Neste trabalho, foi desenvolvida uma implementação em C+CUDA de um modelo, criado na UFES, da arquitetura neural dos córtices V1 e MT que usa como base modelos anteriores de células corticais e mapeamento log-polar. A implementação seqüencial deste modelo é capaz de construir uma representação tridimensional do mundo externo por meio de pares de imagens estereoscópicas obtidas a partir de um par de câmeras fronto-paralelas. Nossa implementação paralela em C+CUDA é quase 60 vezes mais rápida que a seqüencial e permite a reconstrução 3D em tempo real.
APA, Harvard, Vancouver, ISO, and other styles
43

Lima, Rafael Sene de. "Desenvolvimento e implementação de malhas adaptativas bloco-estruturadas para computação paralela em mecânica dos fluidos." Universidade Federal de Uberlândia, 2012. https://repositorio.ufu.br/handle/123456789/14727.

Full text
Abstract:
The numerical simulation of fluid flow involving complex geometries is greatly limited by the required spatial grid resolution. These flows often contain small regions with complex motions, while the remaining flow is relatively smooth. Adaptive mesh refinement (AMR) enables the spatial grid to be refined in local regions that require finer grids to resolve the flow. This work describes an approach to parallelization of a structured adaptive mesh refinement (SAMR) algorithm. This type of methodology is based on locally refined grids superimposed on coarser grids to achieve the desired resolution in numerical simulations. Parallel implementations of SAMR methods offer the potential for accurate simulations of high complexity fluid flows. However, they present interesting challenges in dynamic resource allocation, data-distribution and load-balancing. The overall efficiency of parallel SAMR applications is limited by the ability to partition the underlying grid hierarchies at run-time to expose all inherent parallelism, minimize communication and synchronization overheads, and balance load. The methodology is based on a message passing interface model (MPI) using the recursive coordinate bisection (RCB) for domain partition. For this work, a semi-implicit projection method has been implemented to solve the incompressible Navier Stokes equations. All numerical implementations are an extension of a sequential Fortran 90 code, called "AMR3D", developed in the work of Nós (2007) .The efficiency and robustness of the applied methodology are verified via convergence analysis using the method of manufactured solutions. Validations were performed by simulating an incompressible jet flow and a lid driven cavity flow.
A simulação numérica de escoamentos envolvendo geometrias complexas é fortemente limitada pela resolução da malha espacial. Na grande maioria dos escoamentos, há pequenas regiões do domínio onde o fluido se movimenta de forma complexa gerando gradientes elevados, enquanto que no restante do domínio o escoamento é relativamente calmo". O Refinamento Adaptativo de Malhas (Adaptive Mesh Refinement - AMR), possibilita que o refinamento da malha espacial seja mais apurado em regiões especificas, enquanto que nas demais regiões o refinamento pode ser mais grosseiro. O presente trabalho consiste no desenvolvimento de uma metodologia de paralelização para a solução das equações de Navier-Stokes em malhas adaptativas bloco-estruturadas (Structured Adaptive Mesh Refinement - SAMR) utilizando a interface MPI (Message Passing Interface) e o método de bisseção por coordenadas RCB (Recursive Coordinate Bisection) para o balanço de carga. Implementações de métodos SAMR em processamento paralelo oferecem a possibilidade de simulações precisas de escoamentos de elevada complexidade. No entanto, apresentam desafios interessantes quanto à dinamicidade na alocação e distribuição dos dados e no balanceamento de carga. Cabe ressaltar que a é ciência total das aplicações envolvendo métodos SAMR em processamento paralelo é fortemente dependente da qualidade do particionamento dinâmico de domínio, efetuado em tempo de execução, para que se garanta os menores custos de comunicação e sincronização possíveis, além de uma boa distribuição da carga computacional. Neste trabalho, utilizou-se o esquema semi-implícito proposto por Ceniceros et al. (2010) para avanço temporal. Todas as implementações foram efetuadas como uma extensão do código AMR3D", proposto por Nós (2007). A é ciência e a robustez do método proposto são verificadas por meio do método das soluções manufaturadas. As validações foram feitas por meio da simulação do escoamento em uma cavidade com tampa deslizante e de um jato incompressível.
Doutor em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
44

Martins, Fábio Rodrigues. "Simulação do sistema imunológico humano por meio de modelagem multiagente paralela." Universidade Federal de Viçosa, 2015. http://www.locus.ufv.br/handle/123456789/7580.

Full text
Abstract:
Submitted by Marco Antônio de Ramos Chagas (mchagas@ufv.br) on 2016-04-29T08:54:54Z No. of bitstreams: 1 texto completo.pdf: 2586171 bytes, checksum: 35bda2aae8a23a13663ca9387bd0044b (MD5)
Made available in DSpace on 2016-04-29T08:54:54Z (GMT). No. of bitstreams: 1 texto completo.pdf: 2586171 bytes, checksum: 35bda2aae8a23a13663ca9387bd0044b (MD5) Previous issue date: 2015-12-04
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Este trabalho apresenta uma proposta de modelagem do sistema imunológico (SI) humano. Mais especificamente, propõe a modelagem do SI por meio de sistema multiagente paralelo. O ser humano é exposto a uma quantidade imensurável de agentes não-próprios no decorrer de um dia. O fato de não sermos afetados pe- los mesmos se deve ao SI, uma vez que atua para manter a homeostase (equilíbrio orgânico). Então, estudar o comportamento deste sistema é fundamental, já que de- scobertas nesta área impactam na vida de todas as pessoas. Uma forma de investigar o comportamento do SI é por meio de simulações computacionais (experimentação in-silico). Mas, como o SI é grande e complexo, demanda muito processamento. Esta característica impõe algumas restrições para estas simulações, já que até o momento uma geração de frameworks que estava disponível, no mercado, eram os ABMS (do inglês Agent-basead mod-eling and simulation), que são indicados para testes mais simples. Por este motivo, neste trabalho foi utilizado o framework Flame que se enquadra na geração HPC (do inglês High Performance Computing). Este framework é usado para programação paralela com alto poder computacional. No entanto, para agilizar ainda mais o resultado dos experimentos, em uma parte do modelo, foi utilizada a programação para placa gráfica (GPU). A comparação entre a implementação deste trabalho e de outro SI artificial - o AutoSimmune aponta que a abordagem multiagente paralelo é superior aos ABMS antigos.
The research presented this dissertation deals with the human immune system (IS) simulation. More specifically, about modeling the IS by parallel multi-agent systems. Human beings are exposed to an immeasurable number of threatening microorgan- isms everyday. The fact of not being affected by these same is due to the IS, since it operates to maintain homeostasis (organic balance). Thus the study this system behavior is essential, as discoveries in this area may have impact on the lives of all people. One way to investigate the IS behavior is by means of computer simulations (experiment in-silico). But as the IS is very large and complex it requires a lot of computing power.The emergence of agent oriented systems has provided an alterna- tive approach to address many complex problems similar to the immune system, that requires distributed behavior, local decisions, and emerging global behavior from the interactions of their basic elements. However, despite providing a suitable tool for modeling complex distributed systems, implementations of multi-agent systems are limited by the available hardware architecture. A recent possibility to circumvent this problem is the use of graphics cards to implement such systems. Nevertheless, these devices reach the optimal performance when agents have homogeneous and simple behavior, which might not be the case of many problems. Systems such as simulators of the immune system, in addition to having a large number of agents with complex behavior, those agents communicate massively, indirectly, through dissemination of various substances in their environment. Diffusion of substances is something easily simulated in modern current graphics cards, but the problem is to provide the results of those simulations to thousands (or millions) of agents simultaneously. Therefore in this study we used the Flame framework. This frame- work is used for parallel programming with self computational power. However, to further expedite the result of the experiment, in a part of the model program was used for the graphic card. The comparison between the implementation of this work and another immune system points out that the parallel multi-agent approach is superior to the sequential implementation.
APA, Harvard, Vancouver, ISO, and other styles
45

Silva, Saulo Henrique Cabral. "TerraME HPA : uma arquitetura de alto desempenho para simulação paralela de modelos ambientais." reponame:Repositório Institucional da UFOP, 2014. http://www.repositorio.ufop.br/handle/123456789/5664.

Full text
Abstract:
Programa de Pós-Graduação em Ciência da Computação. Departamento de Ciência da Computação, Instituto de Ciências Exatas e Biológicas, Universidade Federal de Ouro Preto.
Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2015-10-13T21:48:07Z No. of bitstreams: 1 DISSERTAÇÃO_TerraMEHPAArquitetura.pdf: 2229605 bytes, checksum: 6a19970777783ab27d9d0b5e71017f05 (MD5)
Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2015-10-15T16:03:22Z (GMT) No. of bitstreams: 1 DISSERTAÇÃO_TerraMEHPAArquitetura.pdf: 2229605 bytes, checksum: 6a19970777783ab27d9d0b5e71017f05 (MD5)
Made available in DSpace on 2015-10-15T16:03:22Z (GMT). No. of bitstreams: 1 DISSERTAÇÃO_TerraMEHPAArquitetura.pdf: 2229605 bytes, checksum: 6a19970777783ab27d9d0b5e71017f05 (MD5) Previous issue date: 2014
O contínuo aumento da complexidade dos modelos ambientais pode demandar o uso de múltiplos paradigmas de modelagem para descrever as interações entre sociedade e natureza. Além disto, o crescente volume de dados e de cálculos utilizados nestes modelos exige que as simulações tirem máximo proveito do paralelismo de hardware existente em arquiteturas multiprocessador e multicomputador. Neste contexto, este trabalho apresenta e avalia uma abordagem para o desenvolvimento e simulação de modelos ambientais concorrentes e baseados em múltiplos paradigmas. O objetivo principal é gerar simulações escaláveis e o objetivo secundário é produzir modelos concorrentes flexíveis. Isto é, modelos que possam ser facilmente verificados e evoluídos. A abordagem proposta consiste na tradução automatizada do código anotado do modelo sequencial em um código paralelo passível de ser executado por uma máquina virtual, cujo modelo de concorrência e mecanismo para balanceamento de carga independam dos paradigmas de modelagem utilizados. Para implementar esta abordagem, a plataforma de modelagem e simulação ambiental TerraME foi estendida de duas formas, dando origem a plataforma TerraME HPA (High Perfomance Architecture). Primeiro, a ela foi adicionada um pré-processador que traduz o código anotado dos modelos em programas concorrentes na linguagem de programação Lua. Depois, o interpretador Lua originalmente distribuído com o TerraME foi substituído pelo interpretador MOOM, também desenvolvido neste trabalho. O MOOM utiliza o mecanismo de bag-of-tasks para executar funções Lua em paralelo. Desta forma, ele reduz o nível de concorrência programado pelos modeladores e distribui a carga de trabalho das simulações entre os processadores disponíveis em hardware. Finalmente, vários benchmarks selecionados na literatura foram utilizados para avaliar o desempenho e a escalabilidade de diferentes plataformas de programação concorrente na linguagem Lua (ALua, Lane, Luaproc e MOOM) e de diferentes plataformas destinadas ao desenvolvimento simulações ambientais de alto desempenho: TerraME HPA, Repast HPC e D-MASON versões 1.5 e 2.1. Os resultados evidenciam que, quando comparados aos trabalhos correlatos, o interpretador MOOM e a plataforma TerraME HPA apresentaram uma escalabilidade muito boa em todos os cenários avaliados. As aplicações Lua resultantes desta abordagem são flexíveis, pois ao ignorar as anotações, os interpretadores permitem que elas sejam verificadas e evoluídas sequencialmente. ________________________________________________________________________________________________________________
ABSTRACT: The continuous increase in the complexity of environmental models can require the use of multiple modeling paradigms to describe the interactions between society and nature. Moreover, the growing volume of data and calculations used in these models requires that the simulations take full advantage of existing hardware parallelism on multiprocessor and multicomputer architectures. In this context, this paper presents and evaluates an approach to the development and simulation of concurrent environmental models based on multiple paradigms. The main objective is to generate scalable simulations and the secondary objective is to produce flexible concurrent models. That is, models which can be easily verified and extended. The proposed approach consists in performing the automated translation of the annotated code from the sequential model into a parallel code that can be executed by a virtual machine, which concurrency model and mechanism for load balancing are independent of the modeling paradigms used in the models. To implement this approach, the modeling and simulation platform TerraME was extended in two ways, giving rise to the TerraME HPA (High Perfomance Architecture) platform. First, it was added a pre-processor that translates the annotated codes into concurrent programs on the Lua programming language. Then, the Lua interpreter originally distributed with TerraME was replaced by the interpreter MOOM, also developed in this work. The MOOM uses the bag-of-tasks mechanism to run Lua functions in parallel. Thus, it reduces the level of concurrency programmed by modelers and distributes the simulation workload among the processors available in hardware. Finally, a number of benchmarks selected from literature were used to evaluate the performance and scalability of different platforms for concurrent programming in Lua (ALUA, Lane, Luaproc, and MOOM) and of different platforms for the development of high performance environmental simulations: TerraME HPA, Repast HPC and D-MASON versions 1.5 and 2.1. The results show that, when compared to related work, the interpreter MOOM and the platform TerraME HPA presents very good scalability in all evaluated scenario. The Lua applications resulting from this approach are flexible, because ignoring the annotations inserted in their codes, interpreters allow them to be verified and evolved sequentially.
APA, Harvard, Vancouver, ISO, and other styles
46

Zafalon, Geraldo Francisco Donegá. "Aplicação de estratégias híbridas em algoritmos de alinhamento múltiplo de sequências para ambientes de computação paralela e distribuída." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-28082015-120515/.

Full text
Abstract:
A Bioinformática tem se desenvolvido de forma intensa nos últimos anos. A necessidade de se processar os grandes conjuntos de sequências, sejam de nucleotídeos ou de aminoácidos, tem estimulado o desenvolvimento de diversas técnicas algorítmicas, de modo a tratar este problema de maneira factível. Os algoritmos de alinhamento de alinhamento múltiplo de sequências assumiram um papel primordial, tornando a execução de alinhamentos de conjuntos com mais de duas sequencias uma tarefa viável computacionalmente. No entanto, com o aumento vertiginoso tanto da quantidade de sequencias em um determinado conjunto, quanto do comprimento dessas sequencias, a utilização desses algoritmos de alinhamento múltiplo, sem o acoplamento de novas estratégias, tornou-se algo impraticável. Consequentemente, a computação de alto desempenho despontou como um dos recursos a serem utilizados, através da paralelização de diversas estratégias para sua execução em grandes sistemas computacionais. Além disso, com a contínua expansão dos conjuntos de sequências, outras estratégias de otimização passaram a ser agregadas aos algoritmos de alinhamento múltiplo paralelos. Com isso, o desenvolvimento de ferramentas para alinhamento múltiplo de sequencias baseadas em abordagens híbridas destaca-se, atualmente, como a solução com melhor aceitação. Assim, no presente trabalho, pode-se verificar o desenvolvimento de uma estratégia híbrida para os algoritmos de alinhamento múltiplo progressivos, cuja utilização e amplamente difundida, em Bioinformática. Nesta abordagem, conjugou-se a paralelização e o particionamento dos conjuntos de sequências, na fase de construção da matriz de pontuação, e a otimização das fases de construção da árvore filogenética e de alinhamento múltiplo, através dos algoritmos de colônia de formigas e simulated annealling paralelo, respectivamente.
Bioinformatics has been developed in a fast way in the last years. The need for processing large sequences sets, either nucleotides or aminoacids, has stimulated the development of many algorithmic techniques, to solve this problem in a feasible way. Multiple sequence alignment algorithms have played an important role, because with the reduced computational complexity provided by them, it is possible to perform alignments with more than two sequences. However, with the fast growing of the amount and length of sequences in a set, the use of multiple alignment algorithms without new optimization strategies became almost impossible. Therefore, high performance computing has emerged as one of the features being used, through the parallelization of many strategies for execution in large computational systems. Moreover, with the continued expansion of sequences sets, other optimization strategies have been coupled with parallel multiple sequence alignments. Thus, the development of multiple sequences alignment tools based on hybrid strategies has been considered the solution with the best results. In this work, we present the development of a hybrid strategy to progressive multiple sequence alignment, where its using is widespread in Bioinformatics. In this approach, we have aggregated the parallelization and the partitioning of sequences sets in the score matrix calculation stage, and the optimization of the stages of the phylogenetic tree reconstruction and multiple alignment through ant colony and parallel simulated annealing algorithms, respectively.
APA, Harvard, Vancouver, ISO, and other styles
47

CARVALHO, C. A. ""Modelagem Paralela em C+CUDA de Sistema Neural de Visão Estereoscópica"." Universidade Federal do Espírito Santo, 2009. http://repositorio.ufes.br/handle/10/4208.

Full text
Abstract:
Made available in DSpace on 2016-08-29T15:33:09Z (GMT). No. of bitstreams: 1 tese_2809_.pdf: 2366315 bytes, checksum: 58149b82c1db73f2e15308dca84634dc (MD5) Previous issue date: 2009-08-31
"Os sistemas biológicos que viabilizam os sentidos dos seres vivos, especialmente dos seres humanos, tem sido objeto de estudo desde a antiguidade. O advento da computação, a partir do século XX, propiciou ferramentas para que tais sistemas pudessem ser simulados, desde que compreendidos. Vários pesquisadores tem trabalhado no sentido de elaborar modelos cada vez mais próximos dos sistemas naturais, e sua reprodução em ambientes naturais ou computacionais simulados permite a verificação de sua eficácia. A visão, um dos mais poderosos sentidos humanos, é um dos mais investigados devido, principalmente, ao grande número de aplicações de sistemas de visão artificial. Sua modelagem tem avançado com velocidade, mas sua eficiência esbarra, muitas vezes, na disponibilidade de recursos computacionais para o processamento, uma vez que o cérebro possui bilhões de neurônios envolvidos na viabilização do sentido da visão. Neste trabalho foram investigados mecanismos de paralelização do código de modelo matemático-computacional, desenvolvido na UFES em trabalho anterior, da arquitetura neural humana envolvida com a percepção da profundidade (reconstrução do ambiente 3D externo internamente ao computador) por meio da visão estéreo. Durante a investigação, foi identificada a oportunidade do uso de C+CUDA (Compute Unified Device Architecture) para o desenvolvimento de versão paralela do modelo original de percepção da profundidade por meio da visão estéreo. A nova versão C+CUDA do modelo roda em GPUs (Graphics Processing Units) e, no ambiente de desenvolvimento utilizado, alcançou desempenho 57,4 vezes superior à versão seqüencial original. Speedups desta magnitude demonstram os benefícios da computação paralela e de alto desempenho e a importância que a nova tecnologia de GPUs tem no cenário atual com o aumento de desempenho obtido, a aplicação que rodava em 16,9 segundos (uma reconstrução 3D) passou a rodar em 0,27 segundos, o que viabiliza aplicações de tempo real em robótica, por exemplo."
APA, Harvard, Vancouver, ISO, and other styles
48

Couto, Luiz Felipe Marchetti do. "Arquitetura de computação paralela para resolução de problemas de dinâmica dos fluidos e interação fluido-estrutura." Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/3/3144/tde-21062017-113038/.

Full text
Abstract:
Um dos grandes desafios da engenharia atualmente é viabilizar soluções computacionais que reduzam o tempo de processamento e forneçam respostas ainda mais precisas. Frequentemente surgem propostas com as mais diversas abordagens que exploram novas formas de resolver tais problemas ou tentam, ainda, melhorar as soluções existentes. Uma das áreas que se dedica a propor tais melhorias é a computação paralela e de alto desempenho - HPC (High Performance Computing). Técnicas que otimizem o tempo de processamento, algoritmos mais eficientes e computadores mais rápidos abrem novos horizontes possibilitando realizar tarefas que antes eram inviáveis ou levariam muito tempo para serem concluídas. Neste projeto propõe-se a implementação computacional de uma arquitetura de computação paralela com o intuito de resolver, de forma mais eficiente, em comparação com a arquitetura sequencial, problemas de Dinâmica dos Fluidos e Interação Fluido-Estrutura e que também seja possível estender esta arquitetura para a resolução de outros problemas relacionados com o Método dos Elementos Finitos. O objetivo deste trabalho é desenvolver um algoritmo computacional eficiente em linguagem de programação científica C++ e CUDA - de propriedade da NVIDIAr - tendo como base trabalhos anteriores desenvolvidos no LMC (Laboratório de Mecânica Computacional) e, posteriormente, com a arquitetura desenvolvida, executar e investigar problemas de Dinâmica dos Fluidos e Interação Fluido-Estrutura (aplicando o método dos Elementos Finitos com Fronteiras Imersas e a solução direta do sistema de equações lineares com PARDISO) com o auxílio dos computadores do LMC. Uma análise de sensibilidade para cada problema é realizada de forma a encontrar a melhor combinação entre o número de elementos da malha de elementos finitos e o speedup, e posteriormente é feita uma análise comparativa de desempenho entre a arquitetura paralela a sequencial. Com uma única GPU conseguiu-se uma considerável redução no tempo para o assembly das matrizes globais e no tempo total da simulação.
One of the biggest challenges of engineering is enable computational solutions that reduce processing time and provide more accurate numerical solutions. Proposals with several approaches that explore new ways of solving such problems or improve existing solutions emerge. One of the biggest areas dedicated to propose such improvements is the parallel and high performance computing. Techniques that improve the processing time, more efficient algorithms and faster computers open up new horizons allowing to perform tasks that were previously unfeasible or would take too long to complete. We can point out, among several areas of interest, Fluid Dynamics and Interaction Fluid-Structure. In this work it is developed a parallel computing architecture in order to solve numerical problems more efficiently, compared to sequential architecture (e.g. Fluid Dynamics and Fluid-Structure Interaction problems) and it is also possible to extend this architecture to solve different problems (e.g. Structural problems). The objective is to develop an efficient computational algorithm in scientific programming language C ++, based on previous work carried out in Computational Mechanics Laboratory (CML) at Polytechnic School at University of São Paulo, and later with the developed architecture, execute and investigate Fluid Dynamics and Fluid-Structure Interaction problems with the aid of CML computers. A sensitivity analysis is executed for different problems in order to assess the best combination of elements quantity and speedup, and then a perfomance comparison. Using only one GPU, we could get a 10 times speedup compared to a sequential software, using the Finite Element with Immersed Boundary Method and a direct solver (PARDISO).
APA, Harvard, Vancouver, ISO, and other styles
49

Stutz, Dalmo. "Estratégias de computação paralela para a restauração de imagens com o funcional de regularização de Tikhonov." Universidade do Estado do Rio de Janeiro, 2009. http://www.bdtd.uerj.br/tde_busca/arquivo.php?codArquivo=1246.

Full text
Abstract:
A Microscopia de Força Atômica é uma técnica que permite a aquisição de imagens em escalas nanométricas da superfície de quase todo tipo de material. Nessa escala, porém, as imagens podem apresentar uma relação sinal/ruído pobre, causado por efeitos degenerativos em sua qualidade. Para recuperar essas imagens ou minimizar os efeitos da degradação, técnicas de restauração de imagens são empregadas. Nas últimas décadas, diversas técnicas têm sido desenvolvidas e aplicadas com essa finalidade. Dentre elas, uma técnica de restauração, descrita aqui nesta tese, baseada na minimização de um funcional de Tikhonov com termos de regularização a um parâmetro, tem sido usada há alguns anos com resultados bastante satisfatórios no tratamento de imagens obtidas com o Microscópio de Força Atômica. O uso dessa técnica, entretanto, exige um grande esforço computacional que resulta em um tempo de execução elevado quando o programa que implementa o algoritmo de restauração é processado serialmente. Além disso, à medida que os equipamentos eletrônicos aumentam as suas capacidades, as imagens obtidas por esses equipamentos aumentam de resolução, assim como o esforço computacional e o tempo gasto para analisá-las e restaurálas. Assim, com o passar do tempo, o aumento da velocidade de processamento e do desempenho do programa de restauração tem-se tornado um problema cada vez mais crítico. Com o intuito de obter uma velocidade maior de processamento, nesta tese é descrita uma estratégia de implementação do algoritmo de restauração que faz uso de técnicas de computação paralela para se desenvolver uma nova versão paralela do programa de restauração. Os resultados obtidos com essa nova versão do programa mostram que a estratégia paralela adotada reduziu os tempos de execução e produziu bons desempenhos computacionais quando comparado com outras implementações feitas do mesmo algoritmo. Além disso, a nova estratégia apresenta níveis de desempenho maiores à medida que as resoluções das imagens restauradas aumentam, possibilitando a restauração de imagens maiores num tempo proporcionalmente mais curto.
APA, Harvard, Vancouver, ISO, and other styles
50

Gurgel, Sáskya Thereza Alves. "Análise de técnicas de implementação paralela para treinamento de redes neurais em GPU." Universidade Federal da Paraí­ba, 2014. http://tede.biblioteca.ufpb.br:8080/handle/tede/6117.

Full text
Abstract:
Made available in DSpace on 2015-05-14T12:36:46Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 3331001 bytes, checksum: ea8e995295d4e5afdb8c4ddea63e5358 (MD5) Previous issue date: 2014-01-31
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
With the increase of data volume and the latent necessity of turn them into knowledge and information, arises the need to develop techniques able to perform the data analysis in a timely and efficient manner. Neural networks promotes an data analysis that is able to classify and predict information. However, the natural model of parallel computing proposed by neural networks, requires techniques of implementation with high processing power. The evolution of parallel hardware provides an environment with ever growing computational power. The GPU is a hardware that is able to process parallel implementations in a efficient way and at low cost. Therefore, this paper provides a technique of parallel implementation of neural networks with GPU processing and seeks to achieve an comparative analysis between different implementation techniques found in literature and the technique proposed in this paper.
Com a crescente expansão do volume de dados disponíveis e a latente necessidade de transformá-los em conhecimento e informação, faz-se necessário o desenvolvimento de técnicas capazes de realizar a análise destes dados em tempo hábil e de uma maneira eficiente. Redes Neurais promovem uma análise de dados capaz de classificá-los, como também, predizem informações sobre estes. Entretanto, Redes Neurais propõem um modelo natural de computação paralela que requer técnicas de implementação com alto poder de processamento. A crescente evolução do hardware paralelo oferece ambientes com poder computacional cada vez mais robusto. A GPU classifica-se como hardware capaz de processar implementações paralelas de uma maneira eficiente e a um custo em constante redução. Sendo assim, é apresentada uma técnica de implementação paralela de Redes Neurais com processamento em GPU. Este realiza uma análise comparativa entre diferentes técnicas de implementação encontradas na literatura e a técnica proposta neste trabalho.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography