Siga este link para ver outros tipos de publicações sobre o tema: Algoritmo EM.

Teses / dissertações sobre o tema "Algoritmo EM"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Algoritmo EM".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

SILVA, JUNIOR Joaquim Alberto Leite da. "Estudo da parametrização do algoritmo híbrido baseado no algoritmo cultural com algoritmo genético em uma abordagem multipopulacional". Universidade Federal do Pará, 2015. http://repositorio.ufpa.br/jspui/handle/2011/7671.

Texto completo da fonte
Resumo:
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-02-01T18:52:10Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_EstudoParametrizacaoAlgoritmo.pdf: 3111483 bytes, checksum: ec493e124af4e9aebd3b8c11812222e9 (MD5)
Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-02-14T14:12:24Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_EstudoParametrizacaoAlgoritmo.pdf: 3111483 bytes, checksum: ec493e124af4e9aebd3b8c11812222e9 (MD5)
Made available in DSpace on 2017-02-14T14:12:24Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_EstudoParametrizacaoAlgoritmo.pdf: 3111483 bytes, checksum: ec493e124af4e9aebd3b8c11812222e9 (MD5) Previous issue date: 2015-10-01
FAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonas
A finalidade deste trabalho é analisar a aplicação de um algoritmo cultural híbrido, com população gerada pelo algoritmo genético, de característica multipopulacional, ou ainda, mais precisamente, desenvolver uma parametrização do algoritmo híbrido baseado no algoritmo cultural com algoritmo genético para o problema da mochila multidimensional. Tem-se como objetivo encontrar os melhores parâmetros do algoritmo cultural híbrido, com modelo de ilhas (característica multipopulacional), aplicado ao problema de otimização combinatório denominado de “Mochila Multidimensional”. São executados vários experimentos para efetuar uma avaliação em relação ao desempenho desses mecanismos híbridos com outros algoritmos disponíveis na literatura.
The purpose of this paper is to analyze the application of a hybrid cultural algorithm with population generated by multipopulation feature of the genetic algorithm, or, more specifically, to develop a parameter of the hybrid algorithm based on cultural algorithm with genetic algorithm for multidimensional knapsack problem in areas of computer science and computational intelligence. The aim of this work is to find the best parameters for hybrid cultural algorithm and over genetic algorithm, with model of islands (multipopulation characteristic) applied to combinatorial optimization problem called “Multidimensional Knapsack“. Several experiments are performed to make an assessment regarding of these mechanisms hybrids with other algorithms available in the literature.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Barreto, Tarcisio da Silva. "Análise de taxa média de bloqueio em conexões por algoritmos de caminhos mínimos: algoritmo de Yen e algoritmo genético". Universidade Federal Rural do Semi-Árido, 2014. http://bdtd.ufersa.edu.br:80/tede/handle/tede/526.

Texto completo da fonte
Resumo:
Made available in DSpace on 2016-08-31T13:33:41Z (GMT). No. of bitstreams: 1 TarcisioSB_DISSERT.pdf: 1571314 bytes, checksum: 86e8646fa8da6455187767e219181490 (MD5) Previous issue date: 2014-12-15
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Studies on connections lock in computer networks have been gaining prominence in recent research focused on computational communication and technology. Several researchers have used various methods in order to identify and minimize the blocking rate that prevent a connection is established. This paper presents a blocking rate analysis in connections of shortest paths algorithms. They have on the performance of a transparent optical network. Two algorithms will be used to perform the analysis and simulations, the Genetic Algorithm (AG) and the algorithm Yen (AY). The Genetic Algorithm is based on Computational Intelligence (CI) and the Yen algorithm is based on the principle of finding and identifying the K shortest paths. Numerical simulations performed on different network scenarios show that the greater the number of connections, the higher the blocking rate in the connections. This study will help to identify which algorithm behaves better in the specific cases described in this work
Os estudos sobre bloqueio de conexões em redes de computadores vêm ganhando destaque em recentes pesquisas voltadas à comunicação computacional e tecnologia. Vários pesquisadores têm utilizado diversos métodos buscando identificar e minimizar ao máximo a taxa média de bloqueio que impedem que uma conexão seja estabelecida. Este trabalho apresenta uma análise de taxa média de bloqueio em conexões por algoritmos de caminhos mínimos. Têm sobre o desempenho de uma rede ótica transparente. Serão utilizados dois algoritmos para realizar a análise e as simulações, o Algoritmo Genético (AG) e o Algoritmo de Yen (AY). O Algoritmo Genético fundamentado por Inteligência Computacional (IC) e o Algoritmo de Yen baseado no princípio de encontrar e identificar os K menores caminhos. Simulações numéricas realizadas em diferentes cenários da rede mostram que, quanto maior o número de conexões, maior será a taxa média de bloqueio nas conexões. Através desse estudo será possível identificar qual algoritmo se comporta melhor para os casos específicos descritos nesse trabalho
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Haeser, Gabriel. "Algoritmo duas fases em otimização global". [s.n.], 1996. http://repositorio.unicamp.br/jspui/handle/REPOSIP/305937.

Texto completo da fonte
Resumo:
Orientador: Marcia A. Gomes Ruggiero
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica
Made available in DSpace on 2018-08-05T23:37:23Z (GMT). No. of bitstreams: 1 Haeser_Gabriel_M.pdf: 906525 bytes, checksum: ea7e3eb42abe6b8b451f99c4c63a3da4 (MD5) Previous issue date: 1996
Resumo: Neste trabalho estudamos a teoria de algumas heurísticas para otimização global, e também a generalização do algoritmo genético de Aarts, Eiben e van Hee. Propomos um algoritmo para otimização global de problemas canalizados e diferenciáveis utilizando simulated annealing e o solver local GENCAN. Experimentos numéricos com o problema OVO ( Order- Value Optimization) são apresentados, e também com 28 problemas clássicos da literatura. Para problemas de otimização com restrições, apontamos idéias de como utilizar solvers locais e heurísticas globais em busca de bons algoritmos para otimização global, e propomos um algoritmo baseado em simulated annealing com solver local ALGENCAN
Abstract: In this work we study the theory behind some classical heuristics for global optimization, and a generalization of genetic algorithms from Aarts, Eiben and van Hee. We propose an algorithm for global optimization of box-constrained differentiable problems, using simulated annealing and the local solver GENCAN. Numerical experiments are presented for the OVO problem (Order-Value Optimization) and 28 classical problems. For general nonlinear programming problems, we mention some ideas of how to use local solvers and global heuristics towards good algorithms for global optimization, we also propose an algorithm based on simulated annealing with local solver ALGENCAN
Mestrado
Otimização
Mestre em Matemática Aplicada
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Silva, Odilon Novaes [UNESP]. "Programação de horários usando um algoritmo de busca em vizinhança variável". Universidade Estadual Paulista (UNESP), 2013. http://hdl.handle.net/11449/87170.

Texto completo da fonte
Resumo:
Made available in DSpace on 2014-06-11T19:22:34Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-12-20Bitstream added on 2014-06-13T20:29:05Z : No. of bitstreams: 1 000750866.pdf: 4302130 bytes, checksum: efac3d1d795a3f0286001041f918cb45 (MD5)
Por se tratar de uma tarefa complexa, as instituições passaram a recorrer a diversas metaheurísticas no intuito de resolver um problema árduo e complexo que é a elaboração de grade horária. No Brasil, com o advento do desenvolvimento da microinformática a partir da década de 90, do século XX, esse problema foi tratado com o uso de ferramentas de programação linear e métodos matemáticos baseados em otimização clássica. Posteriormente, passou a ser executado pelas universidades públicas e privadas a partir de propostas computacionais, desenvolvidas para a resolução desse tipo de problema, usando técnicas fundamentadas no uso de metaheurísticas. O presente trabalho visa projetar e implementar computacionalmente um algoritmo tipo VNS (do inglês Variable Neighborhood Search) para resolver o problema de programação de horários em ambientes universitários; realizar uma análise teórica e experimental do desempenho do algoritmo VNS e discutir a aplicação desse algoritmo na otimização de outros problemas da família de problemas do tipo timetabling. Para isso foi desenvolvido um algoritmo de busca em vizinhança variável para resolver um tipo de problema da família timetabling em ambientes universitários.
Building of timetables is a hard work to accomplish due to its complexity, so that institutions started to make use of several Metaheuristics for solving timetabling problems. In Brazil, the development of Computer Science from the Nineties, within the late 20th century, allowed to handle this kind of problem with Linear Programming Tools and Mathematical Methods based upon Classical Optimization Techniques. Afterwards, the same task was carried out by private and public universities using computational proposals based upon Metaheuristics. The aim of this work is to project and implement VNS algorithm computationally to solve timetabling problems in university environments; to provide a theoretical and experimental analysis of the VNS algorithm performance and discuss its application in order to optimize any other type of timetabling family problems. Thus, an algorithm of variable neighborhood search was developed for solving problems of timetabling family in university environments.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Silva, Odilon Novaes. "Programação de horários usando um algoritmo de busca em vizinhança variável /". Ilha Solteira, 2013. http://hdl.handle.net/11449/87170.

Texto completo da fonte
Resumo:
Orientador: Rubén Augusto Romero Lázaro
Banca: Marina Lavorato de Oliveira
Banca: Carlos Roberto Mendonca Rocha
Resumo: Por se tratar de uma tarefa complexa, as instituições passaram a recorrer a diversas metaheurísticas no intuito de resolver um problema árduo e complexo que é a elaboração de grade horária. No Brasil, com o advento do desenvolvimento da microinformática a partir da década de 90, do século XX, esse problema foi tratado com o uso de ferramentas de programação linear e métodos matemáticos baseados em otimização clássica. Posteriormente, passou a ser executado pelas universidades públicas e privadas a partir de propostas computacionais, desenvolvidas para a resolução desse tipo de problema, usando técnicas fundamentadas no uso de metaheurísticas. O presente trabalho visa projetar e implementar computacionalmente um algoritmo tipo VNS (do inglês Variable Neighborhood Search) para resolver o problema de programação de horários em ambientes universitários; realizar uma análise teórica e experimental do desempenho do algoritmo VNS e discutir a aplicação desse algoritmo na otimização de outros problemas da família de problemas do tipo timetabling. Para isso foi desenvolvido um algoritmo de busca em vizinhança variável para resolver um tipo de problema da família timetabling em ambientes universitários.
Abstract: Building of timetables is a hard work to accomplish due to its complexity, so that institutions started to make use of several Metaheuristics for solving timetabling problems. In Brazil, the development of Computer Science from the Nineties, within the late 20th century, allowed to handle this kind of problem with Linear Programming Tools and Mathematical Methods based upon Classical Optimization Techniques. Afterwards, the same task was carried out by private and public universities using computational proposals based upon Metaheuristics. The aim of this work is to project and implement VNS algorithm computationally to solve timetabling problems in university environments; to provide a theoretical and experimental analysis of the VNS algorithm performance and discuss its application in order to optimize any other type of timetabling family problems. Thus, an algorithm of variable neighborhood search was developed for solving problems of timetabling family in university environments.
Mestre
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Nogueira, Aleksandro Costa. "ALGORITMO RECURSIVO BASEADO EM UMA FUNÇÃO NÃO QUADRÁTICA USANDO KERNEL". Universidade Federal do Maranhão, 2014. http://tedebc.ufma.br:8080/jspui/handle/tede/509.

Texto completo da fonte
Resumo:
Made available in DSpace on 2016-08-17T14:53:26Z (GMT). No. of bitstreams: 1 Dissertacao Aleksandro Costa.pdf: 1706153 bytes, checksum: 8d61027896dbab484303f78ed17b9b70 (MD5) Previous issue date: 2014-02-28
FUNDAÇÃO DE AMPARO À PESQUISA E AO DESENVOLVIMENTO CIENTIFICO E TECNOLÓGICO DO MARANHÃO
This work has the objective to develop an analytical model that makes prediction of the behavior of the algorithm as a function of the design parameters (step adaptation, kernel function and its parameters).We use a non-quadratic function based on kernel, performing a nonlinear transformation of the input space filtering applied on line. Was developed and implemented in the system for adaptive filtering based on Kernel, which provides an analysis of the behavior of KRLS algorithm as well as its properties of convergence. It applies a kernel function in the cost function from the non-recursive quadratic function of an even power, which minimizes the error, defined as the expectation of the cumulative cost of actions taken along a sequence of steps. It appears that this approach allows the determination of the parameters of the problem with greater reliability and robustness and lower cost compared with traditional algorithms (RLS, KRLS, RNQ) .
Este trabalho tem como objetivo desenvolver um modelo analítico que faça a previsão do comportamento do algoritmo RLS como uma função dos parâmetros de projeto (passo de adaptação, função kernel e seus parâmetros). Utiliza-se uma função não quadrática baseado em kernel, realizando uma transformação não linear do espaço de entrada aplicada à filtragem. Foi desenvolvido e implementado na redução de ruídos para a filtragem adaptativa baseada em Kernel, que fornece uma análise do comportamento do algoritmo KRLS, bem como de suas propriedades de convergência. Aplica-se uma função kernel na função de custo a partir da função recursiva não quadrática de quarta potência, que minimiza o erro, definido como a expectativa do custo cumulativo de ações tomadas ao longo de uma sequência de passos. Verifica-se que essa abordagem possibilita a determinação dos parâmetros do problema com uma maior confiabilidade e robustez e o menor custo, quando comparado com algoritmos tradicionais (RLS, KRLS, RNQ).
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

GOUVÊA, JÚNIOR Maury Meirelles. "Algoritmo evolucionário adaptativo em problemas multimodais dinâmicos". Universidade Federal de Pernambuco, 2009. https://repositorio.ufpe.br/handle/123456789/1688.

Texto completo da fonte
Resumo:
Made available in DSpace on 2014-06-12T15:51:52Z (GMT). No. of bitstreams: 2 arquivo2941_1.pdf: 3552776 bytes, checksum: 6651915523db744871d183f17c632edc (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2009
Conselho Nacional de Desenvolvimento Científico e Tecnológico
Os algoritmos evolucionários são métodos de otimização e busca global baseados em populações. Como nas populações biológicas, um algoritmo evolucionário perde diversidade, ao longo de gerações, restringindo a busca em uma região restrita do espaço de soluções e prejudicando a busca global. Em ambientes complexos, multimodais e dinâmicos, a perda de diversidade torna-se um problema ainda mais crítico, pois a busca deve ser abrangente e o algoritmo se adaptar o mais rápido possível. Um algoritmo evolucionário possui parâmetros cujos valores influenciam tanto o resultado do processo quanto a diversidade da população. Esta tese apresenta dois novos métodos de controle de parâmetros de algoritmos evolucionários, o controle adaptativo e o controle da função de distribuição de probabilidade. O objetivo desses métodos é controlar a diversidade da população de acordo com funções pré-determinadas. O processo evolucionário é, portanto, tratado como um problema de controle, cujos parâmetros do algoritmo evolucionário são as entradas de controle e a diversidade da população é a saída do processo. No método de controle adaptativo, a estratégia de controle é baseada no sistema adaptativo por modelo de referência, onde uma diversidade de referência é utilizada como modelo de comportamento para a diversidade do processo evolucionário. O segundo método tem como objetivo manter a função de distribuição de probabilidade da diversidade da população próxima de uma distribuição determinada. Assim, a distribuição da população no espaço de soluções é também indiretamente controlada. Para esse método manter um controle de baixo custo computacional, utiliza-se uma rede neural B-spline para modelar o processo evolucionário. Em problemas de controle, é necessário conhecer o modelo do processo para se elaborar uma estratégia de controle. Assim, foi proposto um novo modelo de dinâmica de populações que descreve o comportamento da frequência gênica e da diversidade de populações. Baseado nesse modelo, o processo evolucionário é formalizado matematicamente. Portanto, o método de controle adaptativo proposto utiliza esse modelo de dinâmica de populações na estratégia de controle. Os dois métodos de controle de diversidade propostos foram validados em estudos de casos. Todos os problemas utilizados tiveram características multimodais e dinâmicas, com comportamentos que variaram de uniforme, pequenas e grandes variações, a caótica. Os desempenhos dos métodos propostos foram comparadas com um algoritmo genético padrão e outros seis algoritmos evolucionários adaptativos
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Lemes, Cristiano Inácio. "Algoritmos anytime baseados em instâncias para classificação em fluxo de dados". Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-02092016-134752/.

Texto completo da fonte
Resumo:
Aprendizado em fluxo de dados é uma área de pesquisa importante e que vem crescendo nos últimos tempos. Em muitas aplicações reais os dados são gerados em uma sequência temporal potencialmente infinita. O processamento em fluxo possui como principal característica a necessidade por respostas que atendam restrições severas de tempo e memória. Por exemplo, um classificador aplicado a um fluxo de dados deve prover uma resposta a um determinado evento antes que o próximo evento ocorra. Caso isso não ocorra, alguns eventos do fluxo podem ficar sem classificação. Muitos fluxos geram eventos em uma taxa de chegada com grande variabilidade, ou seja, o intervalo de tempo de ocorrência entre dois eventos sucessivos pode variar muito. Para que um sistema de aprendizado obtenha sucesso na aquisição de conhecimento é preciso que ele apresente duas características principais: (i) ser capaz de prover uma classificação para um novo exemplo em tempo hábil e (ii) ser capaz de adaptar o modelo de classificação de maneira a tratar mudanças de conceito, uma vez que os dados podem não apresentar uma distribuição estacionária. Algoritmos de aprendizado de máquina em lote não possuem essas propriedades, pois assumem que as distribuições são estacionárias e não estão preparados para atender restrições de memória e processamento. Para atender essas necessidades, esses algoritmos devem ser adaptados ao contexto de fluxo de dados. Uma possível adaptação é tornar o algoritmo de classificação anytime. Algoritmos anytime são capazes de serem interrompidos e prover uma resposta (classificação) aproximada a qualquer instante. Outra adaptação é tornar o algoritmo incremental, de maneira que seu modelo possa ser atualizado para novos exemplos do fluxo de dados. Neste trabalho é realizada a investigação de dois métodos capazes de realizar o aprendizado em um fluxo de dados. O primeiro é baseado no algoritmo k-vizinhos mais próximo anytime estado-da-arte, onde foi proposto um novo método de desempate para ser utilizado neste algoritmo. Os experimentos mostraram uma melhora consistente no desempenho deste algoritmo em várias bases de dados de benchmark. O segundo método proposto possui as características dos algoritmos anytime e é capaz de tratar a mudança de conceito nos dados. Este método foi chamado de Algoritmo Anytime Incremental e possui duas versões, uma baseado no algoritmo Space Saving e outra em uma Janela Deslizante. Os experimentos mostraram que em cada fluxo cada versão deste método proposto possui suas vantagens e desvantagens. Mas no geral, comparado com outros métodos baselines, ambas as versões apresentaram melhor desempenho.
Data stream learning is a very important research field that has received much attention from the scientific community. In many real-world applications, data is generated as potentially infinite temporal sequences. The main characteristic of stream processing is to provide answers observing stringent restrictions of time and memory. For example, a data stream classifier must provide an answer for each event before the next one arrives. If this does not occur, some events from the data stream may be left unclassified. Many streams generate events with highly variable output rate, i.e. the time interval between two consecutive events may vary greatly. For a learning system to be successful, two properties must be satisfied: (i) it must be able to provide a classification for a new example in a short time and (ii) it must be able to adapt the classification model to treat concept change, since the data may not follow a stationary distribution. Batch machine learning algorithms do not satisfy those properties because they assume that the distribution is stationary and they are not prepared to operate with severe memory and processing constraints. To satisfy these requirements, these algorithms must be adapted to the data stream context. One possible adaptation is to turn the algorithm into an anytime classifier. Anytime algorithms may be interrupted and still provide an approximated answer (classification) at any time. Another adaptation is to turn the algorithm into an incremental classifier so that its model may be updated with new examples from the data stream. In this work, it is performed an evaluation of two approaches for data stream learning. The first one is based on a state-of-the-art k-nearest neighbor anytime classifier. A new tiebreak approach is proposed to be used with this algorithm. Experiments show consistently better results in the performance of this algorithm in many benchmark data sets. The second proposed approach is to adapt the anytime algorithm for concept change. This approach was called Incremental Anytime Algorithm, and it was designed with two versions. One version is based on the Space Saving algorithm and the other is based in a Sliding Window. Experiments show that both versions are significantly better than baseline approaches.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Assis, Raul Caram de. "Inferência em modelos de mistura via algoritmo EM estocástico modificado". Universidade Federal de São Carlos, 2017. https://repositorio.ufscar.br/handle/ufscar/9047.

Texto completo da fonte
Resumo:
Submitted by Ronildo Prado (ronisp@ufscar.br) on 2017-08-22T14:32:30Z No. of bitstreams: 1 DissRCA.pdf: 1727058 bytes, checksum: 78d5444e767bf066e768b88a3a9ab535 (MD5)
Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-22T14:32:38Z (GMT) No. of bitstreams: 1 DissRCA.pdf: 1727058 bytes, checksum: 78d5444e767bf066e768b88a3a9ab535 (MD5)
Approved for entry into archive by Ronildo Prado (ronisp@ufscar.br) on 2017-08-22T14:32:44Z (GMT) No. of bitstreams: 1 DissRCA.pdf: 1727058 bytes, checksum: 78d5444e767bf066e768b88a3a9ab535 (MD5)
Made available in DSpace on 2017-08-22T14:32:50Z (GMT). No. of bitstreams: 1 DissRCA.pdf: 1727058 bytes, checksum: 78d5444e767bf066e768b88a3a9ab535 (MD5) Previous issue date: 2017-06-02
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
We present the topics and theory of Mixture Models in a context of maximum likelihood and Bayesian inferece. We approach clustering methods in both contexts, with emphasis on the stochastic EM algorithm and the Dirichlet Process Mixture Model. We propose a new method, a modified stochastic EM algorithm, which can be used to estimate the parameters of a mixture model and the number of components.
Apresentamos o tópico e a teoria de Modelos de Mistura de Distribuições, revendo aspectos teóricos e interpretações de tais misturas. Desenvolvemos a teoria dos modelos nos contextos de máxima verossimilhança e de inferência bayesiana. Abordamos métodos de agrupamento já existentes em ambos os contextos, com ênfase em dois métodos, o algoritmo EM estocástico no contexto de máxima verossimilhança e o Modelo de Mistura com Processos de Dirichlet no contexto bayesiano. Propomos um novo método, uma modificação do algoritmo EM Estocástico, que pode ser utilizado para estimar os parâmetros de uma mistura de componentes enquanto permite soluções com número distinto de grupos.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Vilhena, Vieira Lopes Roberta. "Um algoritmo genético baseado em tipos abstratos de dados e sua especificação em Z". Universidade Federal de Pernambuco, 2003. https://repositorio.ufpe.br/handle/123456789/1882.

Texto completo da fonte
Resumo:
Made available in DSpace on 2014-06-12T15:52:55Z (GMT). No. of bitstreams: 2 arquivo4815_1.pdf: 1089029 bytes, checksum: fa191598ead39fa665ced50606baeb3e (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2003
Este trabalho apresenta ummodelo de algoritmo genético baseado emtipos abstratos de dados, denominado de GAADT, no qual o cromossomo é representado por um tipo estratificado em dois níveis de percepção (gene e base), em contra ponto aos demais modelos. A adaptação do cromossomo é comprometida com a relevância das informações codificadas nele. A estratégia de busca do GAADT é altamente objetiva, devido à utilização, como critério de preservação dos cromossomos na população seguinte, de uma função baseada na dinâmica adaptativa da população. A presença explícita do ambiente na funcionalidade do GAADT confere a este algoritmo a capacidade de tratar problemas com alto grau de dinamicidade, como está explorado na aplicação do sistema de monitoramento de sinais vitais de pacientes em unidades de tratamento intensivo de um hospital. Um esboço de uma teoria de processos evolutivos é desenvolvido para descrever a convergência do GAADT, independente da natureza do problema, da representação adotada para o cromossomo, e da população inicial considerada. A aplicação do GAADT a um problema requer a definição dos elementos do ambiente específicos para o problema em foco, os quais devem atender as propriedades estabelecidas na definição do ambiente. A prova de que as definições dos elementos do ambiente, para um dado problema, satisfazem as propriedades exigidas, e que o GAADT quando instanciado para estes elementos satisfaz as propriedades de corretude e aplicabilidade são feitas com o formalismo Z, conferindo assim ao GAADT um rigor matemático. Um estudo comparativo entre a convergência do GAADT com outros modelos é apresentado. As experiências avaliadas neste estudo indicam que o GAADT apresenta maior velocidade de convergência. Por fim, são feitas algumas considerações relevantes sobre o GAADT e sugeridas algumas questões interessantes para trabalhos futuros
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

SOUZA, Daniel Cardoso de. "Algoritmo de particionamento aplicado a sistemas dinamicamente reconfiguráveis em telecomunicações". Universidade Federal de Campina Grande, 2006. http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/1280.

Texto completo da fonte
Resumo:
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-07-27T17:11:09Z No. of bitstreams: 1 DANIEL CARDOSO DE SOUZA - TESE PPGEE 2006..pdf: 1923363 bytes, checksum: e0aa0e758bff14f247b303ddfe8d8f33 (MD5)
Made available in DSpace on 2018-07-27T17:11:09Z (GMT). No. of bitstreams: 1 DANIEL CARDOSO DE SOUZA - TESE PPGEE 2006..pdf: 1923363 bytes, checksum: e0aa0e758bff14f247b303ddfe8d8f33 (MD5) Previous issue date: 2006-12
Capes
Este trabalho tem como objetivo propor um algoritmo de particionamento hardware/software otimizado. Trabalha-se com a hipótese de que algumas características específicas de certos algoritmos já publicados possam ser combinadas vantajosamente, levando ao aprimoramento de um algoritmo de particionamento de base, e conseqüentemente dos sistemas heterogêneos gerados por ele. O conjunto de otimizações propostas para serem realizadas nesse novo algoritmo consiste de: generalização das arquiteturas-alvo candidatas com a inclusão de FPGA’s para o particionamento, consideração precisa dos custos e potências das funções mapeadas em hardware, agendamento de sistemas com hardware reconfigurável dinamicamente, e consideração de múltiplas alternativas de implementação de um nó de aplicação em um mesmo processador. Essas otimizações são implementadas em sucessivas versões do algoritmo de particionamento proposto, que são testadas com duas aplicações de processamento de sinais. Os resultados do particionamento demonstram o efeito de cada otimização na qualidade do sistema heterogêneo obtido.
This work’s goal is to propose an optimized hardware/software partitioning algorithm. We work on the hypothesis that some specific features of certain published algorithms can be advantageously combined for the improvement of a base partitioning algorithm, and of its generated heterogeneous systems. The set of optimizations proposed for the achievement of this new algorithm encompass: generalization of candidate target architectures with the inclusion of FPGA’s for the partitioning, precise consideration of functions’ implementation costs and power consumptions in hardware, manipulation of systems with dynamically reconfigurable hardware, and consideration of multiple implementation alternatives for an application node in a given processor. These optimizations are implemented in successive versions of the proposed partitioning algorithm, which are tested with two signal processing applications. The partitioning results demonstrate the effect of each optimization on the achieved heterogeneous system quality.
Resumé: Cette thèse a pour but de proposer un algorithme de partitionnement matériel/logiciel optimisé. On travaille sur l’hypothèse de que quelques caractéristiques spécifiques à certains algorithmes déjà publiés puissent être combinées de façon avantageuse, menant à l’amélioration d’un algorithme de partitionnement de base et, par conséquence, des systèmes hétérogènes générés par cet algorithme. L’ensemble d’optimisations proposées pour être réalisées dans ce nouvel algorithme consiste en: généralisation des architecturescible candidates avec l’ajout de FPGA’s pour le partitionnement, considération précise des coûts et puissances des fonctions allouées en matériel, ordonnancement de systèmes au matériel dynamiquement reconfigurable, et prise en compte de plusieurs alternatives d’implémentation d’un noeud d’application dans un même processeur. Ces optimisations sont implémentées en versions successives de l’algorithme de partitionnement proposé, lesquelles sont testées avec deux applications de traitement du signal. Les résultats du partitionnement démontrent l’effet de chaque optimisation sur la qualité du système hétérogène obtenu.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

SILVA, Cristiane Cristina Sousa da. "ALGORITMO RECURSIVO BASEADO EM UMA FUNÇÃO NÃO LINEAR DO ERRO". Universidade Federal do Maranhão, 2009. http://tedebc.ufma.br:8080/jspui/handle/tede/1905.

Texto completo da fonte
Resumo:
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-09-05T13:28:55Z No. of bitstreams: 1 Cristiane Sousa.pdf: 1146877 bytes, checksum: 1ad12b0de7d3ec703fd7018518eaf404 (MD5)
Made available in DSpace on 2017-09-05T13:28:55Z (GMT). No. of bitstreams: 1 Cristiane Sousa.pdf: 1146877 bytes, checksum: 1ad12b0de7d3ec703fd7018518eaf404 (MD5) Previous issue date: 2009-02-13
CAPES
Many of the adaptive filters are based on the Mean Squared Error (Mean Square Error - MSE). The development of these filters guarantees us to recover only second-order information of the signals to be filtered, ie not can fully recover information from Gaussian signals. However, the natural or artificial signals are not necessarily Gaussian. In this way, the use of high order statistics as a way of extracting more information of signals, has been shown to be of great value in adaptive systems [7] [8] [9]. In this work, we present the development of an adaptive algorithm based on nonlinear functions inspired by the deduction of the Recursive Lest algorithm Square (RLS) [1]. Such development is based on the use of high order to obtain more information on the signals involved in the process, with the goal of improving the performance of an adaptive filter. We will call this new nonlinear recursive algorithm - RNL. We deduce equations, based on a nonlinear function, to obtain convergence criteria. We also study covariance of the steady-state weight vector and we determine equations that calculate the mismatch and the learning time of the adaptive process of the RNL algorithm. We present the non - linear recursive algorithm, which uses the function "n = MP j = 1 nP i = 1nnnii [ei] 2jo, where M and n are positive integers. Were made simulations with this algorithm to validate the presented theory and study the convergence behavior of the RNL algorithm. The result showed that the RNL algorithm has a rapid convergence for the same mismatch when compared with the RLS algorithm.
Muitos dos flltros adaptativos s~ao baseados no método do Erro quadrático médio (Mean Square Error - MSE). O desenvolvimento desses flltros nos garante recuperar apenas informações de segunda ordem dos sinais a serem flltrados, ou seja, não consegue recuperar totalmente informações de sinais Gaussianos. No entanto, os sinais naturais ou artiflciais não são necessariamente gaussianos. Desta forma, a utilização de estatística de alta ordem, como uma forma de extrair mais informações dos sinais, tem se demonstrado de grande valia em sistemas adaptativos [7][8][9]. Neste trabalho, nós apresentamos o desenvolvimento de um algoritmo adaptativo baseado em funções não lineares inspirado na dedução do algoritmo Recursive Lest Square (RLS) [1]. Tal desenvolvimento baseia-se na utilização de estatísticas de alta ordem para a obtenção de mais informações dos sinais envolvidos no processo, com o objetivo de melhorar a performance de um flltro adaptativo. Chamaremos esse novo algoritmo de Recursivo não Linear - RNL. Deduzimos equações, baseadas em uma função não linear, para a obtenção de critérios que garantam a convergência. Também fazemos um estudo da covariância do vetor peso em regime estacionário e determinamos equações que calculem o desajuste e o tempo de aprendizagem do processo adaptativo do algoritmo RNL. Apresentamos o algoritmo n~ao linear recursivo, que utiliza como critério a função "n = MP j=1 nP i =1n‚n¡i [ei]2jo, sendo M e n inteiros positivos. Foram feitas simulações com este algoritmo para validar a teoria apresentada e estudamos o comportamento da convergência do algoritmo RNL. O resultado mostrou que o algoritmo RNL possui uma rápida convergência para o mesmo desajuste quando comparado com o algoritmo RLS.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Andrade, Ludmila Santos de. "Algoritmo para alvenaria estrutural em um sistema BIM". reponame:Repositório Institucional da UnB, 2017. http://repositorio.unb.br/handle/10482/24278.

Texto completo da fonte
Resumo:
Tese (doutorado)—Universidade de Brasília, Faculdade de Arquitetura e Urbanismo, Programa de Pós-Graduação, 2017.
Submitted by Raiane Silva (raianesilva@bce.unb.br) on 2017-07-17T16:48:59Z No. of bitstreams: 1 2017_LudmilaSantosdeAndrade.pdf: 11392579 bytes, checksum: 31cb266c0c8edc80100d2365c4313445 (MD5)
Approved for entry into archive by Raquel Viana (raquelviana@bce.unb.br) on 2017-08-24T21:21:21Z (GMT) No. of bitstreams: 1 2017_LudmilaSantosdeAndrade.pdf: 11392579 bytes, checksum: 31cb266c0c8edc80100d2365c4313445 (MD5)
Made available in DSpace on 2017-08-24T21:21:21Z (GMT). No. of bitstreams: 1 2017_LudmilaSantosdeAndrade.pdf: 11392579 bytes, checksum: 31cb266c0c8edc80100d2365c4313445 (MD5) Previous issue date: 2017-08-24
Os sistemas BIM (Building Information Modeling) foram concebidos em outros países, dificultando a sua implementação ao cenário nacional. A problemática de nosso estudo é no sentido de informações adequadas de materiais nas unidades utilizadas pela construção civil no país. Nossa hipótese é que tal lacuna pode ser suprida com a criação de um algoritmo dentro do sistema BIM para solucionar a problemática. No método de investigação adotado, houve um recorte restringindo a investigação ao componente construtivo parede estrutural. A Caixa Econômica Federal desde 2002, a partir do documento “Alvenaria Estrutural – Materiais, Execução da Estrutura e Controle Tecnológico” (da Diretoria de Parcerias e Apoio ao Desenvolvimento Urbano) vem largamente ampliado o uso desse sistema construtivo construções das casas populares esse tipo construtivo, em especial por possibilitar, uma redução nos custos de produção das unidades habitacionais. (SABBATINI, 2003). Destaca, a seguir, os principais procedimentos desta tese: a) a escolha de uma família de sistema de paredes; b) a criação de camadas de informação que serão acrescentadas; c) o cálculo da proporção dos quantitativos específicos dos materiais de acordo com a Tabela de Composições de Preços para Orçamentos (TCPO); e, por último, d) a geração dos quantitativos nas unidades de compra do mercado nacional. No sentido de demonstrar que a hipótese é promissora, utilizou o Visual Programming Dynamo para testar o algoritmo dentro do sistema BIM escolhido, Autodesk Revit. Os testes da funcionalidade do algoritmo foram executados por meio de dois modelos de edificações, modelados apenas para esse fim. Desta forma, se verificou a validade da hipótese de que é possível produzir automaticamente no sistema BIM os quantitativos nas unidades utilizadas pelo mercado nacional.
The BIM (Building Information Modeling) were designed in other countries, making its implementation at the national scenario. The problem of our study is to appropriate information of materials in the units used by the construction industry in the country. Our hypothesis is that this gap can be filled with the creation of an algorithm within the BIM systems to resolve the problem. In the method of investigation adopted, there was a clip by restricting the investigation to the constructive component structural wall. Caixa Econômica Federal since 2002, from the document "Structural masonry materials, implementation of the structure and Technological Control" (the Board of partnerships and support for Urban Development) has been largely expanded the use of this constructive system of popular houses such constructive, in particular by enabling a reduction in production costs of housing units. (SABBATINI, 2003) Then the main procedures of this thesis: (a) the choice of a family system of walls; b) the creation of layers of information that will be added; c) the calculation of the proportion of specific quantitative limits of materials according to the table of compositions of prices for Budgets (PO); and, finally, d) the generation of quantitative limits on units of purchase of the national market. In order to demonstrate that the hypothesis is promising, we used the Visual Programming Dynamo to test the algorithm within the system chosen BIM, Autodesk Revit. The test the functionality of the algorithm was executed by means of two models of buildings modeled for this purpose only. In this way, you can check the validity of the hypothesis that it is possible to automatically produce the system BIM the quantitative data on units used by the domestic market.
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Neto, Raul Liberato de Lacerda. "Receptores MIMO baseados em algoritmo de decomposiÃÃo PARAFAC". Universidade Federal do CearÃ, 2005. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=2032.

Texto completo da fonte
Resumo:
Programa AlÃan de bolsas de estudo de alto nÃvel destinado à AmÃrica Latina
Este trabalho tem como objetivo a aplicaÃÃo da anÃlise tensorial para o tratamento de sinais no domÃnio de comunicaÃÃes sem fio. Utilizando a decomposiÃÃo tensorial conhecida como PARAFAC (decomposiÃÃo por fatores paralelos), um receptor à modelado para um sistema de comunicaÃÃo sem fio que utiliza uma estrutura MIMO na qual cada antena transmissora possui um cÃdigo de espalhamento particular, baseado na tÃcnica de mÃltiplo acesso por divisÃo de cÃdigo (CDMA). Nesse trabalho sÃo analisadas duas estruturas receptoras baseadas na decomposiÃÃo PARAFAC. A primeira à baseada no conhecimento da matriz de cÃdigos de espalhamento e a segunda à baseada no conhecimento da matriz de seqÃÃncia de treinamento. Duas famÃlias de cÃdigos sÃo consideradas: cÃdigos de Hadamard-Walsh e cÃdigos de Hadamard-Walsh truncados. Como resultado, foi observado que os receptores propostos apresentaram rÃpida convergÃncia e foram capazes de eliminar todas as ambigÃidades, inclusive aquelas que sÃo intrÃnsecas à decomposiÃÃo PARAFAC, que foram observadas em outros trabalhos. Resultados de simulaÃÃo sÃo apresentados para comparar o desempenho das duas estruturas receptoras em diversas configuraÃÃes do sistema de comunicaÃÃo, revelando o impacto dos parÃmetros do sistema (nÃmero de antenas transmissoras, nÃmero de antenas receptoras, tamanho do cÃdigo e relaÃÃo sinal-ruÃdo).
This work deals with the application of multi-way analysis to the context of signal processing for wireless communications. A tensor decomposition known as PARAFAC (PARAllel FACtors) is considered in the design of multiple-input multiple-output (MIMO) receiver for a wireless communication system with Spread Spectrum codes. We propose two supervised PARAFAC-based receiver structures for joint symbol and channel estimation. The first one is based on the knowledge of the spreading codes and the second on the knowledge of a training sequence per transmit antenna. Two code structures are considered, which are Hadamard-Wash (HW) and Truncated Hadamard-Walsh (THW). The main advantages of the proposed PARAFAC receivers is on the fact that they exhibit fast convergence and eliminate all ambiguities inherent to the PARAFAC model. Simulation results are provided to compare the performances of the two receivers for several systems configurations, revealing the impact of the number of transmit antennas, number of receiver antennas, code length and signal to noise ratio in their performances.
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Santos, Eduardo Toledo. "Avaliação do algoritmo de "ray tracing" em multicomputadores". Universidade de São Paulo, 1994. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-31032004-123720/.

Texto completo da fonte
Resumo:
A Computação Gráfica, área em franco desenvolvimento, têm caminhado em busca da geração, cada vez mais rápida, de imagens mais realísticas. Os algoritmos que permitem a síntese de imagens realísticas demandam alto poder computacional, fazendo com que a geração deste tipo de imagem, de forma rápida, requeira o uso de computadores paralelos. Hoje, a técnica que permite gerar as imagens mais realísticas é o "ray tracing" . Os multicomputadores, por sua vez, são a arquitetura de computadores paralelos mais promissora na busca do desempenho computacional necessário às aplicações modernas. Esta dissertação aborda o problema da implementação do algoritmo de "ray tracing" em multicomputadores. A paralelização desta técnica para uso em computadores paralelos de memória distribuída pode ser feita de muitas formas diferentes, sempre envolvendo um compromisso entre a velocidade de processamento e a memória utilizada. Neste trabalho conceitua-se este problema e introduz-se ferramentas para a avaliação de soluções que levam em consideração a eficiência de processamento e a redundância no uso de memória. Também é apresentada uma nova taxonomia que, além de permitir a classificação de propostas para implementações de "ray tracing" paralelo, orienta a procura de novas soluções para este problema. O desempenho das soluções em cada classe desta taxonomia é avaliado qualitativamente. Por fim, são sugeridas novas alternativas de paralelização do algoritmo de "ray tracing" em multicomputadores.
Computer Graphics is headed today towards the synthesis of more realistic images, in less time. The algorithms used for realistic image synthesis demand high computer power, so that the synthesis of this kind of image, in short periods of time, requires the use of parallel computers. Nowadays, the technique that yields the most realistic images is ray tracing. On its turn, multicomputers are the most promising parallel architecture for reaching the performance needed in modern applications. This dissertation is on the problem of implementing the ray tracing algorithm on multicomputers. The parallelization of this technique on distributed memory parallel computers can take several forms, always involving a compromise between speed and memory. In this work, this problem is conceptualized and tools for evaluation of solutions that account for efficiency and redundancy, are introduced. It is also presented a new taxonomy that can be used for both the classification of parallel ray tracing proposals and for driving the search of new solutions to this problem. The performances of entries in each class of the taxonomy are qualitatively assessed. New alternatives for parallelizing the ray tracing algorithm on multicomputers, are suggested.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

SAAD, Maurício Wurthmann. "Implementação do algoritmo AES em hardware reconfigurável - FPGA". reponame:Repositório Institucional da UNIFEI, 2010. http://repositorio.unifei.edu.br/xmlui/handle/123456789/1423.

Texto completo da fonte
Resumo:
Submitted by Lizziane Tejo Mendonça (lizziane@unifei.edu.br) on 2018-06-28T14:24:18Z No. of bitstreams: 1 dissertacao_0038054.pdf: 2525359 bytes, checksum: c6fed731e6f80afeebc60db196b2714d (MD5)
Made available in DSpace on 2018-06-28T14:24:18Z (GMT). No. of bitstreams: 1 dissertacao_0038054.pdf: 2525359 bytes, checksum: c6fed731e6f80afeebc60db196b2714d (MD5) Previous issue date: 2010-12
Neste projeto de pesquisa realizou-se a implementação do algoritmo criptográfico AES em hardware reconfigurável, utilizando-se da linguagem de programação VHDL. Inicialmente, o modelo VHDL de todas as funções constituintes foram desenvolvidas e posteriormente sintetizadas no componente EP2C20F484C7 da família Cyclone II da Altera. A seguir o algoritmo de criptografia AES, tendo uma chave de 128 bits, foi implementado e validado via simulação. Como última etapa de desenvolvimento foram gerados códigos parametrizados que possibilitam ao usuário definir se o modelo criptográfico irá operar com chaves de 128, 192 ou 256 bits.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Maluenda, Yasmín Romina Montenegro. "Propriedades do algoritmo LMS operando em precisão finita". Florianópolis, SC, 2005. http://repositorio.ufsc.br/handle/123456789/102587.

Texto completo da fonte
Resumo:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Elétrica.
Made available in DSpace on 2013-07-16T01:21:34Z (GMT). No. of bitstreams: 1 223146.pdf: 1281408 bytes, checksum: d858fbd30878f7f429dc25a4af5c65e8 (MD5)
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Pereira, Filho João Bosco A. "Um algoritmo de filtragem colaborativa baseado em SVD". reponame:Repositório Institucional da UFSC, 2012. http://repositorio.ufsc.br/xmlui/handle/123456789/94342.

Texto completo da fonte
Resumo:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-graduação em Ciência da Computação, Florianópolis, 2010
Made available in DSpace on 2012-10-25T08:55:33Z (GMT). No. of bitstreams: 1 286638.pdf: 551379 bytes, checksum: e816c4734203fde09171e8dbaf05ced4 (MD5)
A presente dissertação tem como objetivo contribuir com a pesquisa na área de sistemas de recomendaçãao e propõe um algoritmo de ?ltragem colaborativa baseado em Decomposição por Valor Singular (SVD) que modela o per?l de um grande grupo de usuários, com o intuito de fazer recomendações personalizadas a eles. Tal algoritmo utiliza técnicas normalmente utilizadas no treinamento de redes neurais arti?cais, técnicas de estatística e de álgebra linear para processar as recomendações. É proposta uma maneira inteligente de se inicializar o modelo do algoritmo, que acaba por acelerar a convergência do treinamento e melhora a e?cácia do mesmo. As experimentações foram realizadas no contexto do concurso Net?ix Prize, que disponibiliza uma grande base de dados e uma metodologia de avaliação dos resultados. Tais experimentações realizadas e uma análise comparativa com outro algoritmo demonstram que o algoritmo proposto retorna resultados mais precisos, apesar de ser mais lento. Além disso, o algoritmo também foi experimentado em conjunto com este outro algoritmo e as recomendações geradas por esta combinação se mostraram ainda mais precisas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Crocomo, Márcio Kassouf. "Um algoritmo evolutivo para aprendizado on-line em jogos eletrônicos". Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-09052008-160236/.

Texto completo da fonte
Resumo:
Este trabalho verifica a possibilidade de se aplicar Algoritmos Evolutivos no aprendizado on-line de jogos. Alguns autores concordam que Algoritmos Evolutivos não são aplicáveis na prática para se atingir o objetivo em questão. É com a intenção de contestar a veracidade desta afirmação que foi desenvolvido o presente trabalho. Para atingir o objetivo proposto, foi desenvolvido um jogo de computador, no qual o algoritmo de aprendizado gera estratégias inteligentes e adaptativas para os caracteres não controlados pelo jogador através de um algoritmo evolutivo. Desta forma, a função do algoritmo evolutivo é fazer com que a estratégia utilizada pelo computador se adapte à estratégia utilizada pelo usuário a cada vez que joga. É apresentada uma revisão bibliográfica a respeito de Computação Evolutiva e as técnicas utilizadas para implementar comportamentos inteligentes para os caracteres controlados por computador nos jogos atuais, esclarecendo suas vantagens, desvantagens e algumas possíveis aplicações. São também explicados o jogo e os algoritmos implementados, assim como os experimentos realizados e seus resultados. Por fim, é feita uma comparação do algoritmo evolutivo final com uma outra técnica de adaptação, chamada Dynamic Scripting. Assim, este trabalho oferece contribuições para o campo de Computação Evolutiva e Inteligência Artificial aplicada a jogos
The goal of this work is to verify if it is possible to apply Evolutionary Algorithms to online learning in computer games. Some authors agree that evolutionary algorithms do not work properly in that case. With the objective of contesting this affirmation, this work was performed. To accomplish the goal of this work, a computer game was developed, in which the learning algorithm must create intelligent and adaptive strategies to control the non-player characters using an evolutionary algorithm. Therefore, the aim of the evolutionary algorithm is to adapt the strategy used by the computer according to the player\'s actions during the game. A review on Evolutionary Computation and the techniques used to produce intelligent behaviors for the computer controlled characters in modern game is presented, exposing the advantages, the problems and some applications of each technique. The proposed game is also explained, together with the implemented algorithms, the experiments and the obtained results. Finally, it is presented a comparison between the implemented algorithm and the Dynamic Script technique. Thus, this work offers contributions to the fields of Evolutionary Computation and Artificial Intelligence applied to games
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Pastor, Eduardo Tommy López. "Algoritmo de RWA com considerações de sobrevivência baseado em Heurística-Algoritmo Genético para Redes IP/WDM". reponame:Repositório Institucional da UnB, 2007. http://repositorio.unb.br/handle/10482/1264.

Texto completo da fonte
Resumo:
Tese (doutorado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2007.
Submitted by Luis Felipe Souza (luis_felas@globo.com) on 2008-12-05T15:43:28Z No. of bitstreams: 1 Tese_2007_EduardoLopezPastor.pdf: 4602149 bytes, checksum: 89c155982fbadd7bf934bdd5711fa9f4 (MD5)
Approved for entry into archive by Georgia Fernandes(georgia@bce.unb.br) on 2009-02-17T17:53:24Z (GMT) No. of bitstreams: 1 Tese_2007_EduardoLopezPastor.pdf: 4602149 bytes, checksum: 89c155982fbadd7bf934bdd5711fa9f4 (MD5)
Made available in DSpace on 2009-02-17T17:53:24Z (GMT). No. of bitstreams: 1 Tese_2007_EduardoLopezPastor.pdf: 4602149 bytes, checksum: 89c155982fbadd7bf934bdd5711fa9f4 (MD5)
Esta Tese descreve a criação, o desenvolvimento e a aplicação de um novo algoritmo híbrido heurístico-GA (HGA) para a otimização dos mecanismos de Alocação de Rota e Comprimento de onda (RWA) dinâmico visando sobrevivência (S-DRWA), orientado à reserva de capacidade baseado em compartilhamento de rotas de proteção e aplicado em redes de transporte IP sobre WDM. Nesta operação conjunta, heurísticas fazem a seleção dos melhores caminhos de trabalho com seus respectivos caminhos backup e o Algoritmo Genético faz o aprovisionamento para o “melhor” par de rotas trabalho/proteção com a alocação do comprimento de onda adequado, estabelecendo assim o caminho requerido. ______________________________________________________________________________________ ABSTRACT
This thesis describes the creation, development and application of a novel hybrid Heuristic-GA algorithm, for the optimization of dynamic routing and wavelength assignment mechanisms with survivability (S-DRWA), guided to the reserve of capacity based on sharing routes protection and applied in IP transport network over WDM. In this joint operation, heuristics make the election of the best routes with their respective backup routes and the Genetic Algorithm makes the “best” provision for pair of routes working/protection with the allocation of the adjusted wavelength, thus establishing the required route.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Costa, Joelma Cristina. "Algoritmo de distribuição e alocação vagões em tempo real". [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259066.

Texto completo da fonte
Resumo:
Orientadores: Fernando Antônio Campos Gomide, Rodrigo Almeida Gonçalves
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação
Made available in DSpace on 2018-08-17T09:24:40Z (GMT). No. of bitstreams: 1 Costa_JoelmaCristina_M.pdf: 12733722 bytes, checksum: 82b5e37be3ff0d4e3be770beb101043b (MD5) Previous issue date: 2010
Resumo: O processo de distribuição e alocação de vagões vazios nas companhias ferroviárias é dinâmico e envolve mecanismos complexos de planejamento. Formalmente, a distribuição de vagões vazios pode ser formulado como um problema de alocação de recursos cuja solução é uma atribuição vagão-demanda. Do mesmo modo, o processo de alocação de vagões também pode ser formulado como um problema de atribuição vagão-trem. Neste caso, o processo de alocação de vagões se inicia depois que as atribuições vagão-demanda são geradas. O algoritmo de alocação atribui vagões aos trens da programação de trens para que sejam transportados até as demandas a que foram atribuídos. A decisão de distribuição e alocação exige do tomador de decisão uma resposta rápida, visto que, os resultados devem ser rapidamente passados para os pátios, para que as manobras de anexação e desanexação sejam executadas antes da chegada dos trens. Este trabalho propõe um algoritmo para resolver o problema de decisão no planejamento de distribuição e alocação de vagões em tempo real. O algoritmo baseia-se em um modelo de fluxo em redes que considera a grade de trens, as rotas e capacidades dos trens e a operação ferroviária. Neste trabalho também foi construído um algoritmo de distribuição nebuloso para considerar informações estratégicas como: confiabilidade dos clientes, previsibilidade no horizonte de tempo e a incerteza na quantidade de vagões pedida pela demanda. Os modelos clássicos existentes na literatura não tem considerado informações estratégicas na distribuição e alocação de vagões apesar destas informações, sempre serem consideradas quando a distribuição é realizada pelos distribuidores. Resultados experimentais mostram que o algoritmo proposto fornece soluções de distribuição e alocação realistas e eficientes, sob o ponto de vista da qualidade da solução e desempenho computacional.
Abstract: The empty car distribution and allocation process of railroads is dynamic and involves complex planning mechanisms. Formally, the empty car distribution problem can be formulated as a resources assignment problem, whose solution is car-demand assignment. Similarly, the empty car assignment problem can also be formulated as car-train assignment problem. In this case, the car assignment process starts after the car-demand attributions are created. The car assignment algorithm assigns cars to trains, in order to move the cars to its final demands. The empty car distribution and assignment problem requires from the decision maker a fast response. Since the results should be quickly propagated to the terminals(yards), in order to perform maneuvers, activities (attach and detach) before trains arrivals. This paper proposes an algorithm to solve a decision problem in the real time car distribution and assignment planning. The algorithm is based in a networks flow model that considers the train scheduling, routes and capacity of trains and railroad operations. This work also includes a fuzzy distribution algorithm to consider information strategic as customer reliability, time horizon predictability and uncertainty in the number of cars required by the demand. The classical models in the literature has not considered strategic information in the distribution and assignment planning, but it is always considered when the distribution planning is made by the distributors. Experimental results has shown that the proposed algorithms provides realistic and efficient solutions under quality of solution and computational performance point of view.
Mestrado
Engenharia de Computação
Mestre em Engenharia Elétrica
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Silva, Wellington Francisco da. "Algoritmo Particle swarm para escalonamento de máquinas virtuais em computação em nuvem /". São José do Rio Preto, 2018. http://hdl.handle.net/11449/180354.

Texto completo da fonte
Resumo:
Orientador: Renata Spolon Lobato
Banca: Rodrigo Guido
Banca: Henrique Dezani
Resumo: A demanda computacional dos últimos anos fez um novo paradigma computacional tornar-se extremamente necessário para suprir a demanda por recursos. A computação em nuvem tem sido muito usada e é realidade em todos setores que demandam uso computacional aliado com segurança e com facilidade de gerenciamento. Data Centers gigantescos foram criados para atender uma demanda cada vez maior. Processamento, memória e armazenamento são entregues a clientes finais que não tem a preocupação com energia, resfriamento, hardware, software, licenças e gerenciamento, pagando apenas pelo que realmente necessita. Considerando que o usuário solicita recursos para executar uma determinada tarefa, faz-se necessária a criação de mecanismos eficientes de alocação de recursos e métricas de cobrança justas. Neste trabalho é feita uma revisão de conceitos de computação em nuvem, virtualização e escalonamento de recursos. São analisados alguns algoritmos de escalonamento. Utiliza o algoritmo particle swarm como base para escalonar máquinas virtuais na classe de infraestrutura como serviço(IaaS). Busca o ambiente que atenda a necessidade de recursos solicitados e o QoS (qualidade de serviço) contratado. Por fim é implementado o algoritmo particle swarm para fazer análise da melhor configuração de parâmetros para atender a demanda de alocação de máquina virtual em computação em nuvem. É considerado para o cálculo a quantidade de CPU, memória e disco. Os resultados mostraram que o algoritmo é eficiente...
Abstract: The computational demand of the last years has made a new computational paradigm become extremely necessary to supply the demand for resources. Cloud computing has been widely used and is a reality in all sectors that demand computational use allied with security and with ease of management. Gigantic data centers were created to meet ever-increasing demand. Processing, memory, and storage are delivered to end customers who do not have the energy, cooling, hardware, software, licensing, and management concerns, paying only for what they really need. Considering that the user requests resources to perform a certain task, it is necessary to create efficient mechanisms of allocation of resources and fair collection metrics. In this work a review of concepts of cloud computing, virtualization and scheduling of resources is made. Some scaling and collection algorithms are analyzed. It uses the particle swarm algorithm as the basis for staging virtual machines in the infrastructure class as a service (IaaS). It seeks the environment that meets the need for requested resources and contracted QoS. Finally, the particle swarm algorithm is implemented to make analysis of the best parameter configuration to meet the demand for virtual machine allocation in cloud computing. The amount of CPU, memory and disk is considered for calculation. The results showed that the algorithm is efficient to be used to stagger virtual machines in cloud computing
Mestre
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Silva, Cristiane Cristina Sousa da. "UM ALGORITMO TIPO RLS BASEADO EM SUPERFÍCIES NÃO QUADRÁTICAS". Universidade Federal do Maranhão, 2013. http://tedebc.ufma.br:8080/jspui/handle/tede/550.

Texto completo da fonte
Resumo:
Made available in DSpace on 2016-08-17T16:54:33Z (GMT). No. of bitstreams: 1 Tese Cristiane Cristina.pdf: 4404224 bytes, checksum: a68e5757bedc2d3d341a5937f100fe1f (MD5) Previous issue date: 2013-07-19
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
In adaptive filtering many adaptive filter are based on the mean square error method (MSE). These filters were developed to improve convergence spedd with a lower misadjustment. The least mean square (LMS) and the recursive least square (RLS) algorithms have been the hallmark of adaptive filtering. In this work we develop adaptive algorithms based on the even powers of the error inspired in the recursive lest square (RLS) algorithm. Namely recursive nom quadratic (RNQ) algorithm. The ideas is based on Widrow s least mean square fourth (LMF) algorithm. Fisrt we derive equations based on a singal even power of the error in order to obtain criterions that guarantee convergence. We also determine equations that measure the misadjustment and the time constant of the adaptive process of the RNQ algorithm. We work also, toward making the algorithm less sensitive to the size of the error in na alternative direction, by proposing a cost function which is a sum of the even powers of the error. This second approach bring the error explicitly to the RLS algorithm formulation by proposing a new cost function that preserves the measnsquare-error (MSE) solution, but allows for the exploitation of higher order moments of the error to speedup the converge of the algorithm. The main goal this work is to create form first principles (new cost functions ) a mechanism to include instantaneous error information in the RLS algorithm, make it track better, and allow for the design of the forgetting factor. As we will see the key aspecto of our approach is to include the error in the Kalman gain that effectively controls the speed of adaptation of the RLS algorithm.
Em filtragem adaptativa, vários filtros são baseados no método do erro quadrático médio (do inglês, MSE- mean squared error ) e muitos desses foram desenvolvidos para obter uma convergência rápida com um menos desajuste. Os algoritmos mínimos quadrático médio (do inglês, LMS- least mean square ) e mínimos quadrados recursivos (do inglês, RLS- recursive least square ) foram um marco em filtragem adaptativa. Nesse trabalho apresentamos o desenvolvimento de uma família de algoritmos adaptativos baseados nas potências pares do erro, inspirado na dedução do algoritmo RLS padrão. Chamaremos esses novos algoritmos de recursivo não-quadrático (RNQ). A ideia básica é baseada na função de custo apresentada por Widrow no algoritmo mínimo quarto médio ( do inglês, LMF least mean square fourth). Inicialmente derivamos equações baseados em uma potência par do erro para obter critérios que garantam a convergência. Determinamos também, equações que definem o desajuste e o tempo de aprendizagem do processo de adaptação do algoritmo RNQ baseado em potência para arbitrária. Trabalhamos também, no sentido de tornar o algoritmo menos sensível ao tamanho do erro numa direção alternativa, propondo uma função de custo baseado na soma das potências pares do erro. Essa segunda abordagem torna explícito o papel do erro na formulação do RLS ao propor uma nova função de custo que preserve a solução MSE, mas permite a utilização dos momentos de alta ordem do erro para aumentar a velocidade de convergência do algoritmo. O principal objetivo do nosso trabalho é criar a partir dos primeiros princípios (novas funções de custo) um mecanismo para incluir informações de erro instantâneo no algoritmo RLS e torná-lo um seguidor melhor. Assim, o aspecto-chave dessa nova abordagem é incluir o erro no ganho de Kalman que controla efetivamente a velocidade de adaptação do algoritmo de RLS.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

LI, Audeliano Wolian. "Algoritmo Híbrido Auto-adaptativo para Localização em Robótica Móvel". reponame:Repositório Institucional da UNIFEI, 2016. http://repositorio.unifei.edu.br:8080/xmlui/handle/123456789/533.

Texto completo da fonte
Resumo:
Submitted by repositorio repositorio (repositorio@unifei.edu.br) on 2016-08-25T18:51:30Z No. of bitstreams: 1 dissertacao_li_2016.pdf: 13886667 bytes, checksum: 1da31d11ef7f6f091d4d7c3a9bb4869b (MD5)
Made available in DSpace on 2016-08-25T18:51:30Z (GMT). No. of bitstreams: 1 dissertacao_li_2016.pdf: 13886667 bytes, checksum: 1da31d11ef7f6f091d4d7c3a9bb4869b (MD5) Previous issue date: 2016-07
A localização em robótica móvel tem como objetivo fornecer a posição e orientação do robô a cada instante e de forma precisa para que aplicações de alto nível possam ser executadas corretamente, além de resolver os problemas de localização local, global e sequestro do robô. Algoritmos mais completos são capazes de resolver estes três problemas sem exigir um alto custo computacional, sendo a maioria métodos que utilizam mais de uma técnica de localização, caracterizados como algoritmos híbridos. A proposta deste trabalho é apresentar uma nova abordagem de localização robótica baseada em filtro de partículas capaz de solucionar os três problemas da localização, que seja robusto e de baixo custo computacional. Diferentemente de outras técnicas híbridas que utilizam dois métodos distintos de localização, este algoritmo utiliza duas técnicas baseadas em filtro de partículas, o Kullback-Leibler Distance - KLD e o Self-Adaptative Monte Carlo Localization - SAMCL. Todos os testes foram executados em ambientes reais com o auxílio do framework ROS e os resultados experimentais demonstraram melhorias em todas as situações em relação às técnicas executadas individualmente.
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Albini, Luiz Carlos Pessoa. "Um algoritmo baseado em comparações para diagnóstico distribuído hierárquico". reponame:Repositório Institucional da UFPR, 2010. http://hdl.handle.net/1884/24710.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Paladini, Cleide Regina Lentz. "Um algoritmo para minimizar erros em modelos lineares instaveis". reponame:Repositório Institucional da UFSC, 1985. http://repositorio.ufsc.br/xmlui/handle/123456789/75235.

Texto completo da fonte
Resumo:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro de Ciencias Fisicas e Matematicas
Made available in DSpace on 2012-10-15T23:24:23Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T15:13:01Z : No. of bitstreams: 1 101489.pdf: 3157232 bytes, checksum: 674de463b85e578a837edfa2cdf5cfbc (MD5)
Este trabalho apresenta um algorítmo alternativo para resolver modelos básicos de programação linear, que apresentam instabilidade numérica quando são efetuadas operações com as matrizes que os compõem, objetivando minimizar os erros gerados por tais operações. Para tanto, utiliza-se a decomposição de matrizes em valores singulares e sua aplicação no cálculo da inversa de uma matriz. Mostram-se resultados de várias aplicações, onde podem ser vistas as vantagens do algorítmo quando comparado com o simplex usual.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Cunha, Raimundo Ricardo Matos da. "Um algoritmo de minimização de sobras em corte unidimensional /". reponame:Repositório Institucional da UFSC, 1998. http://repositorio.ufsc.br/xmlui/handle/123456789/77749.

Texto completo da fonte
Resumo:
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico.
Made available in DSpace on 2012-10-17T07:09:18Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T23:52:51Z : No. of bitstreams: 1 137854.pdf: 22803410 bytes, checksum: 3fabc4000c129f3c548e070528be3583 (MD5)
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Negri, Marco Antônio Silva. "Caminhos em um grafo e o algoritmo de Dijkstra". reponame:Repositório Institucional da UFSC, 2017. https://repositorio.ufsc.br/xmlui/handle/123456789/183409.

Texto completo da fonte
Resumo:
Dissertação (mestrado profissional) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas, Programa de Pós-Graduação em Matemática, Florianópolis, 2017.
Made available in DSpace on 2018-02-13T03:09:45Z (GMT). No. of bitstreams: 1 349816.pdf: 1651899 bytes, checksum: 9dc7a5c2aff28a0457dfc5d52fe8e2af (MD5) Previous issue date: 2017
Este trabalho tem por objetivo apresentar um pouco da Teoria de Grafos para, com isto, termos uma fundamentação teórica que mostrará a viabilidade da aplicação no Ensino Médio, em destaque o Algoritmo de Dijkstra, onde o educando poderá modelar situações problemas num grafo, para obtenção do caminho mais curto. Este algoritmo tem uma vasta aplicação em diversas áreas do conhecimento, em especial na área de tecnologia, como por exemplo, em redes de comunicação. Proporcionando assim, uma oportunidade única de aplicações em problemas reais, atuais e do interesse do educando. Não só estudamos a questão do caminho mais curto, mas também consideramos o problema da conexidade em grafos e a existência de caminhos disjuntos, demonstrando o famoso teorema de Menger. Por exemplo, no caso de uma rede de comunicação é interessante saber qual é o ponto vulnerável do sistema e verificar a existência de um caminho alternativo, caso um destes pontos venha a falhar, uma aplicação imediata do Teorema de Menger.
Abstract : We give a brief presentation of Graph Theory in a way that a student without any knowledge in graphs can learn the basic definitions, examples and properties and can apply these in a real life situation. In particular, we study the Dijkstra algorithm, where the student can apply this algorithm to find the shortest path between nodes in a graph. This algorithm has a lot of real life applications, especially in technology such as paths in a network communication. This gives a unique opportunity of solving current real problems. Not only we study the problem of finding the shortest path, we also consider the problem of connectedness in a graph and the existence of different paths which do not intersect, proving the famous Menger's Theorem. For instance, in the case of a network communication, it is interesting to know the problem points where the system is vulnerable and of one these points fail, one can try to verify the existence of an alternative path, an immediate application of Menger's Theorem.
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Teixeira, Thiago Santos Faria Xavier. "Paralelização do algoritmo de migração sísmica em plataformas heterogêneas". Universidade Federal de Minas Gerais, 2010. http://hdl.handle.net/1843/SLSS-8B2HMZ.

Texto completo da fonte
Resumo:
Oil is one of the most important and strategic energy resources in the world. The increasing oil demand and price now support its production where it was previously unfeasible. The most common strategy to nd potential reserves is through seismic methods, among which the Kirchho seismic migration is one of the most popular strategies. However, it is computationally intensive and improving its performance has been researched in several works, often through their parallelization.On the other hand, we are witnessing the emergence of novel parallel computing architectures where each processing node is organized as a hierarchy of several heterogeneous processors that may be multi-core or many-core, such as Graphical Processing Units (GPUs), used as a consequence of their computing power. Such architectures are becoming commonplace and represent a challenge with respect to design computationally ecient programs. In this thesis, we discuss the parallelization of the Kirchho seismic migration algorithm for execution on the aforementioned heterogeneous environment. We proposeand evaluate parallel implementations that use eciently the available processors. We exploited the trade os among three parallelism opportunities, namely asynchrony, data parallelism and task parallelism, by designing, implementing and evaluating various possible congurations. We also devised and implemented a ner grain dynamicscheduling for the devices, supporting executions that present higher eciency. The experiments showed an acceleration of 87 times compared to execution on a single CPU core. This was due to CPU and the GPU ecient use through the approaches presented.
O petróleo é um dos recursos energéticos mais importantes e estratégicos no mundo. A demanda e o preço do barril crescentes viabilizam a produção de óleo e gás em áreas outrora inviáveis. A estratégia mais utilizada para encontrar possíveis reservas éatravés dos métodos sísmicos, entre os quais a migração sísmica de Kirchho é uma das mais populares. Entretanto, ela é computacionalmente intensiva e, por isso, melhorar o seu desempenho tem sido o foco de vários trabalhos, frequentemente através da suaparalelização. Por outro lado, estamos observando o aparecimento de novas arquiteturas de computação paralela onde cada nó de processamento é organizado como uma hierarquia de vários processadores heterogêneos que podem ser multi-core ou many-core, como as placas grácas (GPUs), empregadas em razão do seu poder de processamento. A despeito da sua popularidade, essas arquiteturas representam um desao em termos de projetar programas ecientes computacionalmente. Nesse trabalho, discutimos a paralelização do algoritmo da migração sísmica de Kirchho para um ambiente heterogêneo distribuído composto de CPUs multinúcleo e GPUs. Propomos e avaliamos implementações paralelas que utilizam ecientemente os processadores disponíveis. Exploramos os compromissos entre três dimensões de paralelismo, nominalmente assincronia, paralelismo de dados e paralelismo de tarefas,projetando, implementando e avaliando várias congurações possíveis. Nós também projetamos e implementamos um escalonamento dinâmico de grão mais no para os dispositivos, possibilitando execuções mais ecientes. Os experimentos apresentaram uma aceleração de até 87 vezes com relação à execução em um único núcleo CPU. Esse resultado é decorrente da utilização eciente das CPUs e da GPU através das estratégias apresentadas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Alves, Julio Cesar. "Algoritmo para localização em redes de sensores sem fio". Universidade Federal de Minas Gerais, 2011. http://hdl.handle.net/1843/SLSS-8JAPGZ.

Texto completo da fonte
Resumo:
The knowledge of the geographical location of sensor nodes in Wireless Sensor Networks is an essential feature, because the information collected by a node is only significant if we know the node's location. The Wireless Sensor Network Localization Problem is defined as determine the location off all sensor nodes in a network without need the use infrastructure, such as GPSs, for them. Among the various existing approaches to the problem, this work addresses the problem based on the existence of anchors (some network nodes that know their positions) and estimates distance between the other nodes of the network and among these nodes and anchors. The problem is NP-Hard, therefore we designed a heuristic for it.This thesis proposes a specific heuristic to the problem, using a centralized approach based on trilaterations and intersections between two circles. The control of these methods through the process of choosing reference nodes, the order of choice for the reference nodes, and the fault tolerance control make it possible to find solutions better than are usually found by algorithms based on these methods. Experiments carried out compared the proposed algorithm with other four algorithms. We analyzed several sets of instances by varying the network size, the number of anchor nodes, the radio range and the noise factor. The results show that the proposed algorithm is competitive, achieving the best results in several of the instances tested, evenwhen noise is considered.
O conhecimento da localização geográfica dos nós sensores nas Redes de Sensores Sem Fio é uma característica essencial, pois a informação coletada por um nó da rede só é realmente significativa se for conhecida a localização do mesmo. O problema de Localização em Redes de Sensores Sem Fio consiste em encontrar a posição para os nós sensores de uma rede sem a necessidade de instalar qualquer infraestrutura, como GPSs por exemplo, para todos eles. Dentre as diversas abordagens existentes, o presente trabalho trata do problema baseando-se na existência de âncoras (alguns nós da rede que possuem posição correta conhecida) e nas estimativas de distância entre os demais nós da rede e entre esses nós e os âncoras. O problema é NP-Difícil, o que mostra a viabilidade de se utilizar uma heurística para o mesmo.O presente trabalho propõe uma heurística específica para o problema, utilizando-se abordagem centralizada e baseada nos métodosde trilateração e interseção entre dois círculos. A forma de controle do uso desses métodos através do processo de escolhados nós de referência, da ordem de escolha dos nós, e do controle de tolerância de erros permitem que se encontre soluçõesmelhores do que geralmente são encontradas por algoritmos baseados nesses métodos. Foram realizados experimentos comparandoo algoritmo proposto com os algoritmos publicados por outros quatro autores. Foram analisados diversos conjuntos de instâncias, variando-se o tamanho da rede, a quantidade de nós âncoras, o alcance de rádio e o fator de ruído. Os experimentos realizados mostram que o algoritmo proposto é competitivo, alcançando melhores resultados em várias das instâncias testadas, inclusive na presença de ruído.
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Campos, Alexandre Amantea. "Um Algoritmo de Detecção de Falhas em Sistemas Multivariados". Universidade Federal de Minas Gerais, 2011. http://hdl.handle.net/1843/BUOS-8EXJ7Y.

Texto completo da fonte
Resumo:
This paper presents a new methodology for system design and fault detection in multivariate plants, statistical quality control and reduction of variables techniques were employed. The technique allows the proper handling of joint variables and reducing the number of variables with the least possible loss of information. The results were evaluated through a faults simulator of a DC drive system. New techniques were developed such as: Effective methods of control chart project; new architectures for efficient implementation of variable reduction, optimizing the plant model.
Este trabalho apresenta uma nova metodologia para projeto de sistemas de detecção de falhas em plantas multivariadas. Foram empregadas técnicas de controle estatístico da qualidade e redução de variáveis. A técnica permite a manipulação adequada de variáveis conjuntas e redução do número de variáveis com a menor perda de informação possível. Os resultados foram avaliados por intermédio de um simulador de falhas em um sistema de acionamento de corrente contínua. Foram desenvolvidas novas técnicas tais como: Métodos eficazes de projeto com carta de controle; Arquiteturas eficientes para aplicação de redução de variáveis com redução do modelo da planta.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Gusmão, Andréia Cristina dos Santos. "Um algoritmo paralelo para ciclos Hamiltonianos em grafos Kneser". reponame:Repositório Institucional da UFABC, 2013.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Camargo, Victor Claudio Bento de. "Um algoritmo evolutivo para o problema de dimensionamento de lotes em fundições de mercado". Universidade de São Paulo, 2009. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-15052009-150552/.

Texto completo da fonte
Resumo:
Segundo uma pesquisa recente realizada junto ao setor de fundições, uma importante preocupação do setor é melhorar seu planejamento de produção. Um plano de produção em uma fundição envolve duas etapas interdependentes: a determinação das ligas a serem fundidas e dos lotes que serão produzidos. Neste trabalho, estudamos o problema de dimensionamento de lotes para fundições de pequeno porte, cujo objetivo é determinar um plano de produção de mínimo custo. Como sugerido na literatura, a heurística proposta trata as etapas do problema de forma hierárquica: inicialmente são definidas as ligas e, posteriormente, os lotes que são produzidos a partir delas. Para a solução do problema, propomos um algoritmo genético que explora um conjunto de possibilidades para a determinação das ligas e utiliza uma heurística baseada em relaxação lagrangiana para determinação dos itens a serem produzidos. Além disso, uma abordagem para o mesmo problema é proposta utilizando o problema da mochila para determinar os itens a serem produzidos. Bons resultados foram obtidos pelos métodos propostos
According to a recent research made by the foundry sector, one of the most concern of the industry is to improve its production planning. A foundry production plan involves two independent stages: the determination of alloys to be merged and the lots that will be produced. In this work, we studied the lot-sizing problem for small foundries, whose purpose is to determine a plan of minimum production cost. As suggested in the literature, the heuristic proposed addresses the problem stages in a hierarchical way: rst we dene the alloys and, subsequently, the lots that are produced from them. We propose a genetic algorithm that explores some possible sets of alloys produced and uses a Lagrangian heuristic to determine the items to be produced. Also, we propose one approach to the same problem that uses the knapsack problem to determine the items to be produced. Good results were obtained by the methods proposed
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Andrade, Carlos Eduardo de 1981. "Um algoritmo exato para o problema de empacotamento bidimensional em faixas". [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/276270.

Texto completo da fonte
Resumo:
Orientador: Flavio Keidi Miyazawa
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-07T08:02:12Z (GMT). No. of bitstreams: 1 Andrade_CarlosEduardode_M.pdf: 1512396 bytes, checksum: aac3459428d8f61b130828587f727265 (MD5) Previous issue date: 2006
Resumo: Problemas de corte e empacotamento aparecem freqüentemente na indústria e comércio, e sua solução de forma otimizada pode trazer grandes ganhos em diversos setores.Um problema muito comum, notadamente no setor têxtil e do papel, é o corte de um rolo ou faixa de um determinado material para obtenção de itens menores, onde temos por objetivo utilizar a menor extensão do rolo/faixa possível. Este problema, conhecido como Problema de Empacotamento Bidimensional em Faixas (PEBF), é tido como um problema de otimização combinatória de difícil resolução. Neste trabalho, apresentamos um algoritmo exato para o PEBF restrito a cortes de dois estágios (PEBF2). O algoritmo usa a técnica de branch-and-price, que utiliza, por sua vez, heurísticas baseadas em algoritmos aproximados para a obtenção de limitantes superiores. O algoritmo se mostrou eficaz na obtenção de soluções para instâncias de pequeno e médio porte
Abstract: Cutting and packing problems are common problems that occur in many industry and business process. Their optimized resolution leads to great profits in several sectors. A common problem, that occur in textil and paper industries, is to cut a strip of some material to obtain several small items, using the minimum length of material. This problem, known by Two Dimensional Strip Packing Problem (2SP), is a hard combinatorial optimization problem. In this work, we present an exact algorithm to 2SP, restricted to two staged cuts (known by Two Dimensional Level Strip Packing, 2LSP). The algorithm uses the branch-and-price technique, and heuristics based on approximation algorithms to obtain upper bounds. The algorithm obtained optimal or almost optimal for small and moderate sized instances
Mestrado
Mestre em Ciência da Computação
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Oliveira, Daniela Cabral de [UNESP]. "Localização de danos em estruturas isotrópicas com a utilização de aprendizado de máquina". Universidade Estadual Paulista (UNESP), 2017. http://hdl.handle.net/11449/151259.

Texto completo da fonte
Resumo:
Submitted by DANIELA CABRAL DE OLIVEIRA null (danielacaboliveira@gmail.com) on 2017-07-31T18:25:34Z No. of bitstreams: 1 Dissertacao.pdf: 4071736 bytes, checksum: 8334dda6779551cc88a5687ed7937bb3 (MD5)
Approved for entry into archive by Luiz Galeffi (luizgaleffi@gmail.com) on 2017-08-03T16:52:18Z (GMT) No. of bitstreams: 1 oliveira_dc_me_ilha.pdf: 4071736 bytes, checksum: 8334dda6779551cc88a5687ed7937bb3 (MD5)
Made available in DSpace on 2017-08-03T16:52:18Z (GMT). No. of bitstreams: 1 oliveira_dc_me_ilha.pdf: 4071736 bytes, checksum: 8334dda6779551cc88a5687ed7937bb3 (MD5) Previous issue date: 2017-06-28
Este trabalho introduz uma nova metodologia de Monitoramento da Integridade de Estruturas (SHM, do inglês Structural Health Monitoring) utilizando algoritmos de aprendizado de máquina não-supervisionado para localização e detecção de dano. A abordagem foi testada em material isotrópico (placa de alumínio). Os dados experimentais foram cedidos por Rosa (2016). O banco de dados disponibilizado é abrangente e inclui medidas em diversas situações. Os transdutores piezelétricos foram colados na placa de alumínio com dimensões de 500 x 500 x 2mm, que atuam como sensores e atuadores ao mesmo tempo. Para manipulação dos dados foram analisados os sinais definindo o primeiro pacote do sinal (first packet), considerando apenas o intervalo de tempo igual ao tempo da força de excitação. Neste caso, na há interferência dos sinais refletidos nas bordas da estrutura. Os sinais são obtidos na situação sem dano (baseline) e, posteriormente nas diversas situações de dano. Como método de avaliação do quanto o dano interfere em cada caminho, foram implementadas as seguintes métricas: pico máximo, valor médio quadrático (RMSD), correlação entre os sinais, normas H2 e H∞ entre os sinais baseline e sinais com dano. Logo após o cálculo das métricas para as diversas situações de dano, foi implementado o algoritmo de aprendizado de máquina não-supervisionado K-Means no matlab e também testado no toolbox Weka. No algoritmo K-Means há a necessidade da pré-determinação do número de clusters e isto pode dificultar sua utilização nas situações reais. Então, fez se necessário a implementação de um algoritmo de aprendizado de máquina não-supervisionado que utiliza propagação de afinidades, onde a determinação do número de clusters é definida pela matriz de similaridades. O algoritmo de propagação de afinidades foi desenvolvido para todas as métricas separadamente para cada dano.
This paper introduces a new Structural Health Monitoring (SHM) methodology using unsupervised machine learning algorithms for locating and detecting damage. The approach was tested with isotropic material in an aluminum plate. Experimental data were provided by Rosa (2016). This provided database is open and includes measures in a variety of situations. The piezoelectric transducers were bonded to the aluminum plate with dimensions 500 x 500 x 2mm, and act as sensors and actuators simultaneously. In order to manipulate the data, signals defining the first packet were analyzed. It considers strictly the time interval equal to excitation force length. In this case, there is no interference of reflected signals in the structure boundaries. Signals are gathered at undamaged situation (baseline) and at several damage situations. As an evaluating method of how damage interferes in each path, it was implemented the following metrics: maximum peak, root-mean-square deviation (RMSD), correlation between signals, H2 and H∞ norms regarding baseline and damaged signals. The metrics were computed for numerous damage situations. The data were evaluated in an unsupervised K-Means machine learning algorithm implemented in matlab and also tested in Weka toolbox. However, the K-Means algorithm requires the specification of the number of clusters and it is a problem for practical applications. Therefore, an implementation of an unsupervised machine learning algorithm, which uses affinity propagation was made. In this case, the determination of the number of clusters is defined by the data similarity matrix. The affinity propagation algorithm was developed for all metrics separately for each damage.
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Jorge, Carlos Antônio Campos. "Algoritmo evolutivo multi-objetivo de tabelas para seleção de variáveis em calibração multivariada". Universidade Federal de Goiás, 2014. http://repositorio.bc.ufg.br/tede/handle/tede/3813.

Texto completo da fonte
Resumo:
Submitted by Marlene Santos (marlene.bc.ufg@gmail.com) on 2014-12-16T20:28:04Z No. of bitstreams: 2 Dissertação - Carlos Antônio Campos Jorge - 2014.pdf: 703425 bytes, checksum: 664e77c2f8e857788e0128256d76d4b7 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2014-12-22T10:40:49Z (GMT) No. of bitstreams: 2 Dissertação - Carlos Antônio Campos Jorge - 2014.pdf: 703425 bytes, checksum: 664e77c2f8e857788e0128256d76d4b7 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Made available in DSpace on 2014-12-22T10:40:49Z (GMT). No. of bitstreams: 2 Dissertação - Carlos Antônio Campos Jorge - 2014.pdf: 703425 bytes, checksum: 664e77c2f8e857788e0128256d76d4b7 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-04-08
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
This work proposes the use of a multi-objective evolutionary algorithm that makes use of subsets stored in a data structure called table in which the best individuals from each objective considered are preserved. This approach is compared in this work with the traditional mono-objective evolutionary algorithm (GA), classical algorithms (PLS and SPA) and another classic multi-objective algorithm (NSGA-II). As a case study, a multivariate calibration problem is presented which involves the prediction of protein concentration in samples of whole wheat from the spectrophotometric measurements. The results showed that the proposed formulation has a smaller prediction error when compared to the mono-objective formulation and with a lower number of variables. Finally,astudyofnoisesensitivityobtainedbythemulti-objectiveformulationshoweda better resultwhen compared tothe other classical algorithmforvariable selection.
Este trabalho propõe o uso de algoritmo multi-objetivo evolutivo que faz uso de subconjuntos armazenados em uma estrutura de dados chamada tabela em que os melhores indivíduos de cada objetivo são preservadas. Esta abordagem é comparada neste trabalho com o algoritmo evolutivo tradicional mono-objetivo e outros algoritmos clássicos (MONO-GA-MLR, PLS, APS-MLR) e com o algoritmo multi-objetivo clássico NSGAII-MLR.Comoestudodecaso,oproblemadecalibraçãomultivariadaenvolveaprevisão daconcentraçãodeproteínasemamostrasdetrigoapartirdasmediçõesespectrofotométricas. Os resultados mostraram que a formulação proposta seleciona um número menor de variáveis e apresenta um erro de predição menor quando comparada com o algoritmo evolutivo mono-objetivo. Quando comparado com os algoritmos clássicos PLS e APSMLR e com o algoritmo multi-objetivo clássico NSGA-II-MLR, o algoritmo proposto apresenta um erro de predição menor, porém com um número maior de variáveis selecionadas. Finalmente, um estudo de sensibilidade à ruído foi realizado. A solução obtida pela formulação proposta apresentou melhores resultados quando comparado com o algoritmo mono-objetivo e NSGA-II-MLR e desempenho similar à solução obtida com o SPA-MLR.
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Silva, Sávio Roberto Amorim Aragão. "Um algoritmo de decisão de Handover baseado em QoS e autonomia energética". Universidade Federal de Sergipe, 2015. https://ri.ufs.br/handle/riufs/3342.

Texto completo da fonte
Resumo:
A key step in the handover process corresponds to the decision phase in which the mobile device selects the candidate network that it will be attached to. The criterion generally used in the decision step is the signal strength of the available network. In addition to the signal power, other criteria also need to be explored in heterogeneous environments for taking handover decision, since the network technologies differ in the types of services, protocols, quality standards, frequency bands and monetary costs. This paper proposes a handover decision algorithm based on cost function that takes into account both the received signal power, some quality of service criteria such as packet loss rate, delay and jitter, as well as the energy consumption of network interface of the mobile station. In order to evaluate the performance of the algorithm were considered two scenarios, one in which the battery of device mobile is sufficiently charged and another where it meets the low load. Simulations in NS-2 were performed in an environment compound by the Wi-Fi and WiMAX networks. The results showed that the proposed algorithm helped to reduce the number of wrong handovers decisions, so that there was no deterioration in the quality of service that would affect the performance of the network in which the mobile device is currently connected.
Uma etapa fundamental no processo de handover corresponde à fase de decisão, na qual é selecionada a rede candidata para a qual o dispositivo móvel irá se transferir. O critério normalmente utilizado na etapa de decisão é a potência de sinal da rede que se encontra disponível. Além da potência de sinal, outros critérios também necessitam ser explorados em ambientes heterogêneos para a tomada de decisão de handover, uma vez que as tecnologias de rede divergem quanto aos tipos de serviços, protocolos, níveis de qualidade, faixas de frequência e custos monetários. Este trabalho propõe um algoritmo de decisão de handover baseado em função de custo que leva em consideração, além da potência de sinal recebida, alguns critérios de Qualidade de Serviço, tais como taxa de perda de pacotes, atraso e jitter, bem como o consumo de energia da interface de rede da estação móvel. A fim de avaliar o desempenho do algoritmo foram considerados dois cenários, um no qual a bateria do terminal móvel está com carga suficiente e outro onde a mesma se encontra com a carga baixa, sendo realizadas simulações no NS-2 em um ambiente composto pelas redes Wi-Fi e WiMAX. Os resultados obtidos mostraram que o algoritmo proposto contribuiu para reduzir o número de decisões erradas de handovers, de modo que não houvesse uma degradação da Qualidade de Serviço que viesse a afetar o desempenho da rede na qual o terminal móvel se encontra conectado.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Sptiz, Viviane de Moraes. "Construção de um algoritmo baseado em evidências para o banho no leito em pacientes com Síndrome Coronariana Aguda". Universidade Federal Fluminense, 2017. https://app.uff.br/riuff/handle/1/5903.

Texto completo da fonte
Resumo:
Submitted by Fabiana Gonçalves Pinto (benf@ndc.uff.br) on 2018-03-06T16:41:53Z No. of bitstreams: 1 Viviane de Moraes Sptiz.pdf: 2589490 bytes, checksum: d0198dcb329c6b60384507e96166a773 (MD5)
Made available in DSpace on 2018-03-06T16:41:53Z (GMT). No. of bitstreams: 1 Viviane de Moraes Sptiz.pdf: 2589490 bytes, checksum: d0198dcb329c6b60384507e96166a773 (MD5) Previous issue date: 2017
Mestrado Profissional em Enfermagem Assistencial
Não há na literatura científica descrição de algoritmo que direcione o enfermeiro para a prática de banho em pacientes com síndrome coronariana aguda (SCA). Dessa forma, a busca por melhores práticas norteou esta pesquisa, que assumiu como objeto de estudo o efeito do banho no leito sobre as repercussões oxi-hemodinâmica nos pacientes com SCA. Objetivos: Geral: Construir um algoritmo para sistematização das etapas do banho no leito tradicional no paciente adulto internado com SCA. Específico: descrever, com base na busca por evidências científicas, o padrão oxi-hemodinâmico de pacientes críticos durante o banho no leito e as principais práticas assistenciais em saúde guiadas por algoritmo; descrever, com base nos resultados do projeto integrado, os efeitos oxi-hemodinâmicos do controle hidrotérmico em pacientes com SCA durante o banho no leito e; adaptar a descrição do banho no leito geral proposto por Potter e Perry ao contexto do paciente com SCA. Método: Pesquisa descritiva operacionalizada em quatro etapas: análise das evidências encontradas na literatura científica sobre os efeitos do banho no leito e algoritmos norteadores da assistência em saúde, resultados de um projeto integrado, adaptação de um protocolo de banho no leito e construção do algoritmo. Resultados: Foram selecionadas três publicações sobre banho no leito e dezenove publicações sobre a utilização de algoritmos para a tomada de decisão. As principais alterações hemodinâmicas descritas na literatura foram aumento da frequência cardíaca (FC) e da pressão arterial diastólica (PAs) diminuição da saturação periférica de oxigênio (SpO2). Relacionado ao projeto integrado, houve incremento estatisticamente significante no consumo de oxigênio miocárdico (MVO2), quando o banho foi realizado com temperatura a 40ºC no paciente taquicárdico e no banho sem constância da temperatura da água em pacientes com PAs alta e pressão alterial média da normalidade. Quanto ao uso de algoritmos, a maioria dos estudos demonstrou ferramentas úteis para nortear as decisões clínicas. O algoritmo foi construído a partir da adaptação das etapas de banho e indicando o banho a 40ºC para o paciente com PAs ≥ 140mmHg e banho sem manipulação da temperatura da água para paciente com FC > 100bpm. Sua utilização poderá ser realizada por meio de bundle ou em formato digital. Conclusão: O algoritmo de banho necessita ser validado antes de ser aplicado na prática assistencial. Espera-se que esta ferramenta contribuia para a tomada de decisão profissional, podendo também ser utilizada como ferramenta para o ensino de fundamentos de enfermagem. Faz-se necessário novas pesquisas para aprofundamento do tema e em outras populações
There is no description in the scientific literature of an algorithm that directs nurses to bathing in patients with acute coronary syndrome (ACS). Thus, the search for best practices guided this research, which took as object of study the effect of bathing in the bed on the oxy hemodynamic repercussions in patients with ACS. Objectives: General: To construct an algorithm to systematize the stages of bathing in the traditional bed in the adult patient hospitalized with ACS. Specific: to describe, based on the search for scientific evidences, the oxy-hemodynamic pattern of critically ill patients during bed bath and the main health care practices guided by algorithm; to describe, based on the results of the integrated design, the oxy hemodynamic effects of hydrothermal control in patients with ACS during bathing in bed and; adapt the description of the bath in the general bed proposed by Potter and Perry to the context of the patient with ACS. Method: Descriptive research operationalized in four stages: analysis of the evidence found in the scientific literature on the effects of bathing in the bed and algorithms guiding health care, the results of an integrated project, the adaptation of a bath protocol in bed and the construction of the algorithm. Results: Three publications on bathing in bed and nineteen publications on the use of algorithms for decision making were selected. The main hemodynamic changes described in the literature were increased heart rate (HR) and diastolic blood pressure (BP) decrease in peripheral oxygen saturation (SpO2). In relation to the integrated design, there was a statistically significant increase in the myocardial oxygen consumption (MVO2), when the bath was performed with temperature at 40ºC in the tachycardic patient and in the bath without constancy of the water temperature in patients with high PA and normal mean alteration pressure. Regarding the use of algorithms, most of the studies demonstrated useful tools to guide clinical decisions. The algorithm was constructed from the adaptation of the bath stages and indicated the bath at 40ºC for the patient with PAs ≥ 140mmHg and bath without manipulation of the water temperature for patients with HR> 100bpm. Its use can be done by means of bundle or in digital format. Conclusion: The bath algorithm needs to be validated before being applied in care practice. It is hoped that this tool contributes to professional decision-making and can also be used as a tool for teaching nursing fundamentals. Further research is needed to deepen the subject and in other populations
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Barros, Regiane Silva de 1986. "Despacho de um arranjo hidro-eólico incluso em um sistema coordenado centralmente : modelo híbrido de otimização com meta-heurísticas". [s.n.], 2015. http://repositorio.unicamp.br/jspui/handle/REPOSIP/265765.

Texto completo da fonte
Resumo:
Orientadores: Paulo de Barros Correia, Ieda Geriberto Hidalgo
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica
Made available in DSpace on 2018-08-28T12:05:23Z (GMT). No. of bitstreams: 1 Barros_RegianeSilvade_D.pdf: 4190585 bytes, checksum: c320645bbd13fd28d572f5b9751d4ff7 (MD5) Previous issue date: 2015
Resumo: Este trabalho propõe um modelo de despacho ótimo no horizonte diário de operação, que permite coordenar a operação entre uma usina eólica e uma usina hidrelétrica. Nessa abordagem, a usina eólica é despachada em primeira instância. Para suprir eventuais saídas forçadas que possam ocorrer na geração eólica, aloca-se um valor de reserva girante incremental na usina hidrelétrica usando o conceito de Value at Risk como métrica de risco da geração eólica. O modelo é formulado como um problema multiobjetivo que busca maximizar a geração de energia e minimizar o número de partidas e paradas da usina hidrelétrica. O acoplamento hidráulico é considerado através da meta diária de defluência da usina. O problema é solucionado em duas etapas. A primeira resolve 24 problemas estáticos, que representam o despacho horário da usina hidrelétrica, separadamente. Essa etapa emprega o Algoritmo Genético para otimizar a operação da usina em termos da geração de energia elétrica. A segunda etapa soluciona o problema dinâmico, ou seja, o despacho diário da usina. A natureza do problema dinâmico, correspondendo à obtenção de caminhos mínimos eficientes em termos de partidas e paradas, sugeriu o uso da técnica de Otimização por Colônia de Formigas. As restrições de reserva girante, meta de defluência, atendimento do contrato de demanda e limites operacionais das usinas são plenamente satisfeitas. A diferença entre os montantes de energia produzidos e contratados é liquidada no mercado de curto prazo e valorada ao preço de liquidação das diferenças. O modelo se mostrou adequado em termos de tempo computacional e em relação à qualidade das soluções obtidas
Abstract: This work proposes an optimal dispatch model in the daily horizon, which coordinates the operation of a wind farm and a hydroelectric plant. In this approach the wind farm is dispatched first. In order to provide eventual faults that may occur in the wind farm generation, an incremental spinning reserve is allocated in the hydroelectric plant using the concept of Value at Risk. The model is formulated as a multiobjective problem which seeks to maximize the energy generation and to minimize the number of start-ups and shut-downs of the hydroelectric plant. The plant¿s hydraulic coupling is considered through the daily released flow goal. The model is solved in two stages, the first one solves, separately, 24 static problems that represents the hourly dispatch of the hydroelectric plant. This stage employs Genetic Algorithm to optimize the operation of the hydroelectric plant in terms of electric energy generation. The second stage considers the dynamic problem, which is the plant¿s daily dispatch. The nature of the dynamic problem, which implies in obtaining efficient shortest paths in terms of start-ups and shut-downs, suggests the use of the Ant Colony Optimization. The spinning reserve, the released flow goal, the demand contract and the generating unit¿s operational limits are fully satisfied. The difference between the energy amounts produced and contracted are liquidated in the spot market and it is valuated with the settlement differences price. Regarding computational costs and solutions quality, the model suitability is shown
Doutorado
Planejamento de Sistemas Energeticos
Doutora em Planejamento de Sistemas Energéticos
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Lerner, Maíne Alessandra. "Algoritmo para predição de risco de epidemia de phakopsora pachyrhizi em soja". Universidade Federal de Santa Maria, 2016. http://repositorio.ufsm.br/handle/1/5165.

Texto completo da fonte
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
The control of asian soybean rust depends on the application of fungicides at the right time. The use of forecasting systems is an important tool in the decision-making process. This work aims to estimate a prediction algorithm that generates risk levels of Phakopsora pachyrhizi infection based on rainfall, minimum temperature, sowing date, growth stage of the crop and local, aimed at applying fungicides products at the correct time. Four experiments were conducted in the experimental area of Phytus Institute, Itaara city, central region of Rio Grande do Sul, in the crop 2014/2015. Each experiment corresponded to a different sowing date and consisted of treatments: control (T1) without fungicide application; application as recommended in the algorithm to be assessed (T2), application of the scheduled program in days after emergence (DAE) (T3), based on growth stage of the crop (T4), application as recommended in the algorithm with seven days delay (T5), application of the scheduled program in days after emergence with seven days delay (T6) and application based on growth stage of the crop with seven days delay (T7). To evaluate the effect of treatments were determined to AUCPD, rate of progress, productivity, weight of a thousand grains, and correlations between the dependent and independent variables related to the first pustule and disease severity. The positioning defined by the use of the algorithm did not provide superiority over AUCPD variable rate of progress, productivity and weight of a thousand grains, compared to other treatments in none of the experiments. Asian rust occurred at different growth stages of soybean and the use of sowing dates may indirectly measure the pressure of inoculum of this pathogen. The seven-day period is not consistent for the calculation of the meteorological variables that precede the disease. Temperature was not relevant to explain the epidemic and its use in the algorithm not justified. Rainfall had decisive influence on the epidemic and the more periods of rain occurred, the higher were the severity levels.
O controle da ferrugem asiática da soja é dependente da aplicação de fungicidas no momento correto. O uso de sistemas de previsão é uma ferramenta importante no processo de tomada de decisão. O objetivo deste trabalho foi aferir um algoritmo de previsão que gera níveis de risco de infecção de Phakopsora pachyrhizi baseado em precipitação, temperatura mínima, época de semeadura, estádio fenológico da cultura e local, visando a aplicação de produtos fungicidas na época correta. Foram conduzidos quatro experimentos na área experimental do Instituto Phytus, município de Itaara, região central do Rio Grande do Sul, na safra 2014/2015. Cada experimento correspondeu a uma época de semeadura diferente e foi constituído dos tratamentos: testemunha (T1) sem aplicação de fungicida; aplicação de acordo com o recomendado no algoritmo a ser aferido (T2), aplicação do programa calendarizado em dias após a emergência (DAE)(T3), programa baseado nos estádios da soja (T4), aplicação com sete dias de atraso do recomendado pelo algoritmo (T5), aplicação calendarizada com sete dias de atraso (T6) e aplicação baseada em estádio fenológico com sete dias de atraso (T7). Para avaliar o efeito dos tratamentos, foram determinados a AACPD, taxa de progresso, produtividade, massa de mil grãos, e correlações entre as variáveis dependentes e independentes relacionadas a primeira pústula e a severidade da doença. O posicionamento definido pelo uso do algoritmo não propiciou superioridade sobre as variáveis AACPD, taxa de progresso, produtividade e peso de mil grãos, em relação aos demais tratamentos em nenhum dos experimentos. A ferrugem asiática ocorreu em diferentes estádios fenológicos da soja e o uso de épocas de semeadura pode medir indiretamente a pressão do inóculo deste patógeno. O período de sete dias não é consistente para cálculo das variáveis meteorológicas que precedem a doença. Temperatura não foi relevante para explicar a epidemia e seu uso no algoritmo não se justificou. A precipitação apresentou influência decisiva na epidemia e quanto mais períodos de chuva ocorreram, maiores foram os níveis de severidade.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Pereira, Elder Gon?alves. "O problema do Hiker Dice em tabuleiro compacto: um estudo algor?tmico". Universidade Federal do Rio Grande do Norte, 2014. http://repositorio.ufrn.br:8080/jspui/handle/123456789/18104.

Texto completo da fonte
Resumo:
Made available in DSpace on 2014-12-17T15:48:10Z (GMT). No. of bitstreams: 1 ElderGP_DISSERT.pdf: 2430148 bytes, checksum: e80c00c94f59463e3fe65b2466f0f400 (MD5) Previous issue date: 2014-03-21
Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior
The Hiker Dice was a game recently proposed in a software designed by Mara Kuzmich and Leonardo Goldbarg. In the game a dice is responsible for building a trail on an n x m board. As the dice waits upon a cell on the board, it prints the side that touches the surface. The game shows the Hamiltonian Path Problem Simple Maximum Hiker Dice (Hidi-CHS) in trays Compact Nth , this problem is then characterized by looking for a Hamiltonian Path that maximize the sum of marked sides on the board. The research now related, models the problem through Graphs, and proposes two classes of solution algorithms. The first class, belonging to the exact algorithms, is formed by a backtracking algorithm planed with a return through logical rules and limiting the best found solution. The second class of algorithms is composed by metaheuristics type Evolutionary Computing, Local Ramdomized search and GRASP (Greed Randomized Adaptative Search). Three specific operators for the algorithms were created as follows: restructuring, recombination with two solutions and random greedy constructive.The exact algorithm was teste on 4x4 to 8x8 boards exhausting the possibility of higher computational treatment of cases due to the explosion in processing time. The heuristics algorithms were tested on 5x5 to 14x14 boards. According to the applied methodology for evaluation, the results acheived by the heuristics algorithms suggests a better performance for the GRASP algorithm
O Hiker Dice foi um jogo proposto recentemente em um software projetado por Mara Kuzmich e Leonardo Goldbarg. No jogo um dado ? respons?vel pela constru??o de uma trilha sobre um tabuleiro n x m. O dado ao visitar uma c?lula do tabuleiro imprime (marca) a face que entra em contato com a superf?cie. O jogo apresenta o Problema do Caminho Hamiltoniano Simples M?ximo Hiker Dice (CHS-HiDi) em Tabuleiros Compactos de ordem N , esse problema ? ent?o caracterizado por buscar um caminho hamiltoniano que maximize a soma dos faces do dado marcados no tabuleiro. A pesquisa presentemente relatada, modela o problema atrav?s de Grafos, e prop?e duas classes de algoritmos de solu??o. A primeira classe, pertencente aos algoritmos exatos, ? constitu?da por um algoritmo em backtracking aparelhado com um retorno realizado atrav?s de regras l?gicas e limite da melhor solu??o encontrada. A segunda classe de algoritmos ? constitu?da por metaheur?sticas do tipo Computa??o Evolucion?ria, Busca Local Aleatorizada e GRASP (Greed Randomized Adaptative Search). Para os algoritmos foram criados tr?s operadores espec?ficos da seguinte forma: de reestrutura??o, de recombina??o com duas solu??es e construtivo guloso aleat?rio. O algoritmo exato foi testado em tabuleiros 4x4 a 8x8 esgotando a possibilidade de tratamento computacional dos casos maiores em virtude da explos?o em tempo de processamento. Os algoritmos heur?sticos foram testados nos tabuleiros 5x5 at? 14x14. Segundo a metodologia de avalia??o utilizada, os resultados encontrados pelos algoritmos heur?sticos sugere um melhor potencial de desempenho para o algoritmo GRASP
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Teodoro, Felipe Gustavo Silva. "Seleção de características para reconhecimento biométrico baseado em sinais de eletrocardiograma". Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/100/100131/tde-19122016-003653/.

Texto completo da fonte
Resumo:
O campo da Biometria abarca uma grande variedade de tecnologias usadas para identificar e verificar a identidade de uma pessoa por meio da mensuração e análise de vários aspectos físicos e/ou comportamentais do ser humano. Diversas modalidades biométricas têm sido propostas para reconhecimento de pessoas, como impressões digitais, íris, face e voz. Estas modalidades biométricas possuem características distintas em termos de desempenho, mensurabilidade e aceitabilidade. Uma questão a ser considerada com a aplicação de sistemas biométricos em mundo real é sua robustez a ataques por circunvenção, repetição e ofuscação. Esses ataques estão se tornando cada vez mais frequentes e questionamentos estão sendo levantados a respeito dos níveis de segurança que esta tecnologia pode oferecer. Recentemente, sinais biomédicos, como eletrocardiograma (ECG), eletroencefalograma (EEG) e eletromiograma (EMG) têm sido estudados para uso em problemas envolvendo reconhecimento biométrico. A formação do sinal do ECG é uma função da anatomia estrutural e funcional do coração e dos seus tecidos circundantes. Portanto, o ECG de um indivíduo exibe padrão cardíaco único e não pode ser facilmente forjado ou duplicado, o que tem motivado a sua utilização em sistemas de identificação. Entretanto, a quantidade de características que podem ser extraídas destes sinais é muito grande. A seleção de característica tem se tornado o foco de muitas pesquisas em áreas em que bases de dados formadas por dezenas ou centenas de milhares de características estão disponíveis. Seleção de característica ajuda na compreensão dos dados, reduzindo o custo computacional, reduzindo o efeito da maldição da dimensionalidade e melhorando o desempenho do preditor. O foco da seleção de característica é selecionar um subconjunto de característica a partir dos dados de entrada, que pode descrever de forma eficiente os dados de entrada ao mesmo tempo reduzir os efeitos de ruídos ou características irrelevantes e ainda proporcionar bons resultados de predição. O objetivo desta dissertação é analisar o impacto de algumas técnicas de seleção de característica tais como, Busca Gulosa, Seleção \\textit, Algoritmo Genético, Algoritmo Memético, Otimização por Enxame de Partículas sobre o desempenho alcançado pelos sistemas biométricos baseado em ECG. Os classificadores utilizados foram $k$-Vizinhos mais Próximos, Máquinas de Vetores Suporte, Floresta de Caminhos Ótimos e classificador baseado em distância mínima. Os resultados demonstram que existe um subconjunto de características extraídas do sinal de ECG capaz de fornecer altas taxas de reconhecimento
The field of biometrics includes a variety of technologies used to identify and verify the identity of a person by measuring and analyzing various physical and/or behavioral aspects of the human being. Several biometric modalities have been proposed for recognition of people, such as fingerprints, iris, face and speech. These biometric modalities have distinct characteristics in terms of performance, measurability and acceptability. One issue to be considered with the application of biometric systems in real world is its robustness to attacks by circumvention, spoof and obfuscation. These attacks are becoming more frequent and more questions are being raised about the levels of security that this technology can offer. Recently, biomedical signals, as electrocardiogram (ECG), electroencephalogram (EEG) and electromyogram (EMG) have been studied for use in problems involving biometric recognition. The ECG signal formation is a function of structural and functional anatomy of the heart and its surrounding tissues. Therefore, the ECG of an individual exhibits unique cardiac pattern and cannot be easily forged or duplicated, that have motivated its use in various identification systems. However, the amount of features that can be extracted from this signal is very large. The feature selection has become the focus of much research in areas where databases formed by tens or hundreds of thousands of features are available. Feature Selection helps in understanding data, reducing computation requirement, reducing the effect of curse of dimensionality and improving the predictor performance. The focus of feature selection is to select a subset of features from the input which can efficiently describe the input data while reducing effects from noise or irrelevant features and still provide good prediction results. The aim of this dissertation is to analyze the impact of some feature selection techniques, such as, greedy search, Backward Selection, Genetic Algorithm, Memetic Algorithm, Particle Swarm Optimization on the performance achieved by biometric systems based on ECG. The classifiers used were $k$-Nearest Neighbors, Support Vector Machines, Optimum-Path Forest and minimum distance classifier. The results demonstrate that there is a subset of features extracted from the ECG signal capable of providing high recognition rates
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Ribeiro, Lucas de Almeida. "Algoritmo evolutivo multi-objetivo em tabelas para seleção de variáveis em classificação multivariada". Universidade Federal de Goiás, 2014. http://repositorio.bc.ufg.br/tede/handle/tede/4405.

Texto completo da fonte
Resumo:
Submitted by Luanna Matias (lua_matias@yahoo.com.br) on 2015-04-01T14:19:27Z No. of bitstreams: 2 Dissertação - Lucas de Almeida Ribeiro - 2014.pdf: 6237054 bytes, checksum: 085446421b01a7e7b9174daf3da9b192 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Approved for entry into archive by Luanna Matias (lua_matias@yahoo.com.br) on 2015-04-01T15:19:35Z (GMT) No. of bitstreams: 2 Dissertação - Lucas de Almeida Ribeiro - 2014.pdf: 6237054 bytes, checksum: 085446421b01a7e7b9174daf3da9b192 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5)
Made available in DSpace on 2015-04-01T15:19:35Z (GMT). No. of bitstreams: 2 Dissertação - Lucas de Almeida Ribeiro - 2014.pdf: 6237054 bytes, checksum: 085446421b01a7e7b9174daf3da9b192 (MD5) license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Previous issue date: 2014-10-29
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
This work proposes the use of multi-objective evolutionary algorithm on tables (AEMT) for variable selection in classification problems, using linear discriminant analysis. The proposed algorithm aims to find minimal subsets of the original variables, robust classifiers that model without significant loss in classification ability. The results of the classifiers modeled by the solutions found by this algorithm are compared in this work to those found by mono-objective formulations (such as PLS, APS and own implementations of a Simple Genetic Algorithm) and multi-objective formulations (such as the simple genetic algorithm multi -objective - MULTI-GA - and the NSGA II). As a case study, the algorithm was applied in the selection of spectral variables for classification by linear discriminant analysis (LDA) of samples of biodiesel / diesel. The results showed that the evolutionary formulations are solutions with a smaller number of variables (on average) and a better error rate (average) and compared to the PLS APS. The formulation of the AEMT proposal with the fitness functions: medium risk classification, number of selected variables and number of correlated variables in the model, found solutions with a lower average errors found by the NSGA II and the MULTI-GA, and also a smaller number of variables compared to the multi-GA. Regarding the sensitivity to noise the solution found by AEMT was less sensitive than other formulations compared, showing that the AEMT is more robust classifiers. Finally shows the separation regions of classes, based on the dispersion of samples, depending on the selected one of the solutions AEMT, it is noted that it is possible to determine variables of regions split from the selected variables.
Este trabalho propõe o uso do algoritmo evolutivo multi-objetivo em tabelas (AEMT) para a seleção de variáveis em problemas de classificação, por meio de análise discriminante linear. O algoritmo proposto busca encontrar subconjuntos mínimos, das variáveis originais, que modelem classificadores robustos, sem perda significativa na capacidade de classificação. Os resultados dos classificadores modelados pelas soluções encontradas por este algoritmo são comparadas, neste trabalho, às encontradas por formulações mono-objetivo (como o PLS, o APS e implementações próprias de um Algoritmo Genético Simples) e formulações multi-objetivos (como algoritmo genético multi-objetivo simples - MULTI-GA - e o NSGA II). Como estudo de caso, o algoritmo foi aplicado na seleção de variáveis espectrais, para a classificação por análise discriminante linear (LDA - Linear Discriminant Analysis), de amostras de biodiesel/diesel. Os resultados obtidos mostraram que as formulações evolutivas encontram soluções com um menor número de variáveis (em média) e uma melhor taxa de erros (média) se comparadas ao PLS e o APS. A formulação do AEMT proposta com as funções de aptidão: risco médio de classificação, número de variáveis selecionadas e quantidade de variáveis correlacionadas presentes no modelo, encontrou soluções com uma média de erros inferior as encontradas pelo NSGA II e pelo MULTI-GA, e também uma menor quantidade de variáveis se comparado ao MULTI-GA. Em relação à sensibilidade a ruídos a solução encontrada pelo AEMT se mostrou menos sensível que as outras formulações comparadas, mostrando assim que o AEMT encontra classificadores mais robustos. Por fim, são apresentadas as regiões de separação das classes, com base na dispersão das amostras, em função das variáveis selecionadas por uma das soluções do AEMT, nota-se que é possível determinar regiões de separação a partir das variáveis selecionadas.
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Nascimento, Andréia Vieira do. "Detecção de faces humanas em imagens digitais: um algoritmo baseado em lógica nebulosa". Universidade de São Paulo, 2005. http://www.teses.usp.br/teses/disponiveis/18/18133/tde-19052017-150435/.

Texto completo da fonte
Resumo:
Este trabalho tem como objetivo desenvolver uma metodologia baseada em lógica nebulosa, (KLIR ; YUAN, 1995) para detectar faces humanas em imagens digitais. Considerando que pessoas conseguem reconhecer facilmente as faces humanas, este trabalho prevê a pesquisa da informação relativa a esse reconhecimento utilizando os resultados obtidos, em um esquema \"fuzzy\", para identificação de faces humanas em imagens digitais. É proposto então um algoritmo que classifique automaticamente as regiões de uma imagem em faces humanas ou não. O conhecimento para a construção da base de regras foi obtido através de informações das pessoas por meio de uma pesquisa de campo onde as respostas foram numericamente armazenadas para a geração da classificação nebulosa. Foram gerados desenhos line-draw que de uma maneira global representam as faces humanas. Esses desenhos foram apresentados às pessoas entrevistadas que forneceram subsídios para a montagem das regras \"fuzzy\". O algoritmo foi capaz de a partir daí, identificar faces humanas em imagens digitalizadas. Imagens simples contendo uma face frontal foram submetidas a um algoritmo e ao passarem por processamento (extração de bordas, erosão, binarização, etc...) perderam características, tornando difícil sua identificação. O algoritmo \"fuzzy\" foi capaz de atribuir um grau de pertinência à imagem dentro do conjunto de faces humanas frontais. A lógica nebulosa possui história recente, porém, desde cedo, demonstra sua versatilidade, principalmente por traduzir modelos não lineares ou imprecisos, os quais não apresentam convergência através de modelagem matemática convencional.
The present master dissertation aims to develop a methodology based on fuzzy pattern (KLIR; YUAN, 1995) to detect human faces in digital images. Considering that people are easily able to recognize human faces, this study foresees the research of the relative information to this recognition using the acquire results, in a \"fuzzy\" scheme, for the identification of human faces in digital images. It\'s proposed an algorithm which automatically classifies or not the regions of an image in human faces. It is based on the information acquired from people by means of a field research where the answers are stored numerically for the creation of the fuzzy classification. Drawings line-draw were created to represent human faces and were presented to the people interviewed to furnish information for the creation of the fuzzy rules. After that the algorithm was able to identify human faces in digitalized images. The algorithm utilizes simple images containing a frontal face, which lose their characteristics when they are processed (edges extration, erosion, binary image, etc...) and make their identification difficult. The fuzzy algorithm is also able to classify the images within the set of frontal human faces. The fuzzy logic has a recent history, however, it has always demonstrated its versatility, mainly regarding the translation of non-linear or inexact models which do not present conventional mathematical convergence through modeling.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Gulo, Carlos Alex Sander Juvêncio [UNESP]. "Técnicas de paralelização em GPGPU aplicadas em algoritmo para remoção de ruído multiplicativo". Universidade Estadual Paulista (UNESP), 2012. http://hdl.handle.net/11449/89336.

Texto completo da fonte
Resumo:
Made available in DSpace on 2014-06-11T19:24:00Z (GMT). No. of bitstreams: 0 Previous issue date: 2012-10-17Bitstream added on 2014-06-13T20:30:51Z : No. of bitstreams: 1 gulo_casj_me_sjrp.pdf: 1004896 bytes, checksum: d189543ceda76e9ee5b4a62ae7aaaffa (MD5)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
A evolução constante na velocidade de cálculos dos processadores tem sido uma grande aliada no desenvolvimento de áreas da Ciência que exigem processamento de alto desempenho. Associados aos recursos computacionais faz-se necessário o emprego de técnicas de computação paralela no intuito de explorar ao máximo a capacidade de processamento da arquitetura escolhida, bem como, reduzir o tempo de espera no processamento. No entanto, o custo financeiro para aquisição deste tipo dehardwarenão é muito baixo, implicando na busca de alternativas para sua utilização. As arquiteturas de processadores multicoree General Purpose Computing on Graphics Processing Unit(GPGPU), tornam-se opções de baixo custo, pois são projeta-das para oferecer infraestrutura para o processamento de alto desempenho e atender aplicações de tempo real. Com o aperfeiçoamento das tecnologias multicomputador, multiprocessador e GPGPU, a paralelização de técnicas de processamento de imagem tem obtido destaque por vi-abilizar a redução do tempo de processamento de métodos complexos aplicados em imagem de alta resolução. Neste trabalho, é apresentado o estudo e uma abordagem de paralelização em GPGPU, utilizando a arquitetura CUDA, do método de suavização de imagem baseado num modelo variacional, proposto por Jin e Yang (2011), e sua aplicação em imagens com al-tas resoluções. Os resultados obtidos nos experimentos, permitiram obter um speedupde até quinze vezes no tempo de processamento de imagens, comparando o algoritmo sequencial e o algoritmo otimizado paralelizado em CUDA, o que pode viabilizar sua utilização em diversas aplicações de tempo real
Supported by processors evolution, high performance computing have contributed to develop-ment in several scientific research areas which require advanced computations, such as image processing, augmented reality, and others. To fully exploit high performance computing availa-ble in these resources and to decrease processing time, is necessary apply parallel computing. However, those resources are expensive, which implies the search for alternatives ways to use it. The multicore processors architecture andGeneral Purpose Computing on Graphics Proces-sing Unit(GPGPU) become a low cost options, as they were designed to provide infrastructure for high performance computing and attend real-time applications.With the improvements gai-ned in technologies related to multicomputer, multiprocessor and, more recently, to GPGPUs, the parallelization of computational image processing techniques has gained extraordinary pro-minence. This parallelization is crucial for the use of such techniques in applications that have strong demands in terms of processing time, so that even more complex computational algo-rithms can be used, as well as their use on images of higher resolution. In this research, the parallelization in GPGPU of a recent image smoothing method based on a variation model is described and discussed. This method was proposed by Jin and Yang (2011) and is in-demand due to its computation time, and its use with high resolution images. The results obtained are very promising, revealing a speedup about fifteen times in terms of computational speed
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Gulo, Carlos Alex Sander Juvêncio. "Técnicas de paralelização em GPGPU aplicadas em algoritmo para remoção de ruído multiplicativo /". São José do Rio Preto : [s.n.], 2012. http://hdl.handle.net/11449/89336.

Texto completo da fonte
Resumo:
Orientador: Antonio Carlos Sementille
Banca: José Remo Ferreira Brega
Banca: Edgard A. Lamounier Junior
Resumo: A evolução constante na velocidade de cálculos dos processadores tem sido uma grande aliada no desenvolvimento de áreas da Ciência que exigem processamento de alto desempenho. Associados aos recursos computacionais faz-se necessário o emprego de técnicas de computação paralela no intuito de explorar ao máximo a capacidade de processamento da arquitetura escolhida, bem como, reduzir o tempo de espera no processamento. No entanto, o custo financeiro para aquisição deste tipo dehardwarenão é muito baixo, implicando na busca de alternativas para sua utilização. As arquiteturas de processadores multicoree General Purpose Computing on Graphics Processing Unit(GPGPU), tornam-se opções de baixo custo, pois são projeta-das para oferecer infraestrutura para o processamento de alto desempenho e atender aplicações de tempo real. Com o aperfeiçoamento das tecnologias multicomputador, multiprocessador e GPGPU, a paralelização de técnicas de processamento de imagem tem obtido destaque por vi-abilizar a redução do tempo de processamento de métodos complexos aplicados em imagem de alta resolução. Neste trabalho, é apresentado o estudo e uma abordagem de paralelização em GPGPU, utilizando a arquitetura CUDA, do método de suavização de imagem baseado num modelo variacional, proposto por Jin e Yang (2011), e sua aplicação em imagens com al-tas resoluções. Os resultados obtidos nos experimentos, permitiram obter um speedupde até quinze vezes no tempo de processamento de imagens, comparando o algoritmo sequencial e o algoritmo otimizado paralelizado em CUDA, o que pode viabilizar sua utilização em diversas aplicações de tempo real
Abstract: Supported by processors evolution, high performance computing have contributed to develop-ment in several scientific research areas which require advanced computations, such as image processing, augmented reality, and others. To fully exploit high performance computing availa-ble in these resources and to decrease processing time, is necessary apply parallel computing. However, those resources are expensive, which implies the search for alternatives ways to use it. The multicore processors architecture andGeneral Purpose Computing on Graphics Proces-sing Unit(GPGPU) become a low cost options, as they were designed to provide infrastructure for high performance computing and attend real-time applications.With the improvements gai-ned in technologies related to multicomputer, multiprocessor and, more recently, to GPGPUs, the parallelization of computational image processing techniques has gained extraordinary pro-minence. This parallelization is crucial for the use of such techniques in applications that have strong demands in terms of processing time, so that even more complex computational algo-rithms can be used, as well as their use on images of higher resolution. In this research, the parallelization in GPGPU of a recent image smoothing method based on a variation model is described and discussed. This method was proposed by Jin and Yang (2011) and is in-demand due to its computation time, and its use with high resolution images. The results obtained are very promising, revealing a speedup about fifteen times in terms of computational speed
Mestre
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Santos, Fernando dos. "eXtreme-Ants : algoritmo inspirado em formigas para alocação de tarefas em extreme teams". reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2009. http://hdl.handle.net/10183/17041.

Texto completo da fonte
Resumo:
Sistemas multiagente são construídos para atingir objetivos complexos e abrangentes, que estão além da capacidade de um único agente. Estes objetivos podem ser representados através de tarefas, que devem ser realizadas pelos agentes de forma a otimizar o desempenho do sistema. Em muitos ambientes reais, a escala do problema envolve tanto uma grande quantidade de agentes, quanto uma grande quantidade de tarefas. Além disto, os agentes devem lidar com informações incompletas, realizando tarefas em tempo hábil. O termo extreme teams foi introduzido na literatura para designar as seguintes quatro características da alocação de tarefas: oa ambientes são dinâmicos; os agentes podem realizar múltiplas tarefas; os agentes podem possuir funcionalidades sobrepostas; e podem existir interrelacionamentos entre tarefas, impondo, por exemplo, necessidade de realização simultânea. Abordagens existentes na literatura tratam, efetivamente, apenas as três primeiras características de extreme teams. Esta dissertação apresenta um algoritmo para alocação de tarefas, chamado eXtreme-Ants, que trata todas as quatro características de extreme teams. O algoritmo é inspirado no sucesso ecológico dos insetos sociais, e utiliza as metáforas de divisão de trabalho e recrutamento para transporte cooperativo. A metáfora de divisão de trabalho proporciona decisões rápidas e eficientes, atendendo as três primeiras características de extreme teams. O recrutamento permite formar grupos de agentes comprometidos com a realização simultânea de tarefas que exigem esforço conjunto, atendendo a quarta característica: inter-relacionamentos entre tarefas. Com isto, concretiza-se de fato o conceito completo de extreme teams. Experimentos foram realizados em dois ambientes distintos: um simulador independente de domínio e o simulador RoboCup Rescue. Os resultados obtidos demonstraram que a eficiência do eXtreme-Ants é balanceada com relação ao desempenho, quantidade de comunicação e esforço computacional.
Multiagent systems aim at achieving complex and broad goals, which are beyond the capability of a single agent. These goals can be represented by tasks, which must be performed by the agents in order to optimize the performance of the system. In many real-world environments, the scale of problems involves both a large number of agents and a large number of tasks. Besides, the agents must reason with incomplete and uncertain information, in a timely fashion. The expression extreme teams was introduced in the literature to describe the following four characteristics regarding task allocation: dynamic environments; agents may perform multiple tasks; agents can have overlapping functionality; and inter-task constraints (such as simultaneous execution requirements) may be present. Existing approaches effectively deal with just the three first characteristics of extreme teams. This dissertation presents an algorithm for allocating tasks to agents, called eXtreme- Ants, which deals with all the four characteristics of extreme teams. The algorithm is inspired in the ecological success of social insects, and uses the metaphors of division of labor and recruitment for cooperative transport. The metaphor provides fast and efficient decision-making, complying to the first three characteristics. The recruitment ensures the formation of groups of agents committed to the simultaneous execution of tasks that require joint efforts, complying to the fourth characteristic: inter-task constraints. Thus, the full concept of extreme teams is indeed realized. Experiments were performed in two distict environments: a domain independent simulator, and the RoboCup Rescue simulator. The results shown that eXtreme-Ants achieves a balanced efficiency regarding performance, communication, and computational effort.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Carraro, Luiz Antonio. "Algoritmo de seleção clonal para a minimização de rearranjos em operações de pilhas de contêineres". Universidade Presbiteriana Mackenzie, 2012. http://tede.mackenzie.br/jspui/handle/tede/1425.

Texto completo da fonte
Resumo:
Made available in DSpace on 2016-03-15T19:37:43Z (GMT). No. of bitstreams: 1 Luiz Antonio Carraro.pdf: 1226702 bytes, checksum: 3cef29694a4e26f233b0aae16da69cf0 (MD5) Previous issue date: 2012-02-16
Universidade Presbiteriana Mackenzie
A container is a broadly used solution for the cargo storage to be transported between ports, playing a central role in international trade. Consequently, ships grew in size in order to maximize their container transportation capacity in each trip. Due to increasing demand, container terminals face the challenges of increasing their service capacity and optimizing the loading and unloading time of ships. Optimization problems, such as these, often present features that make it impossible to obtain closed analytical solutions, requiring iterative search procedures in high-dimensional spaces, or subject to a combinatorial explosion of possible solutions. This dissertation presents the proposal of a novel meta-heuristic based on the Clonal Selection Algorithm, named MRC, to minimize the number of reshuffles in operations involving piles of containers. The performance of the proposed model was evaluated through simulations and results comparison with those obtained by algorithms from the literature under the same test conditions. The results obtained show that MRC is competitive in terms of minimizing the need of reshuffles, besides presenting a reduced processing time compared with models of similar performance.
A utilização de contêineres é uma solução amplamente adotada para o armazenamento da carga a ser transportada entre portos, tornando-se de grande importância no comércio internacional e, consequentemente, navios cresceram de tamanho com o objetivo de transportar a maior quantidade possível de contêineres em cada viagem. Devido à crescente demanda, terminais de contêineres enfrentam os desafios de aumentar a sua capacidade de atendimento e otimizar os tempos de carregamento e descarregamento de navios. Problemas de otimização como estes geralmente apresentam características que inviabilizam a obtenção de soluções analíticas fechadas, requerendo processos iterativos de busca em espaços de dimensão muitas vezes elevada, ou ainda sujeitos a explosão combinatória de possíveis soluções. Esta dissertação apresenta a proposta de uma meta-heurística bioinspirada baseada no Algoritmo de Seleção Clonal para a minimização de rearranjos em operações que envolvem pilhas de contêineres, denominado MRC. O desempenho do algoritmo foi avaliado por meio de simulações e comparação dos resultados com os obtidos por algoritmos da literatura sob as mesmas condições de teste. Os resultados obtidos permitem concluir que o MRC possui resultados competitivos em termos de minimização de rearranjos, além de apresentar um tempo de processamento reduzido quando comparado aos modelos tradicionalmente empregados na solução desse tipo de problema.
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Paiva, Jônatas Lopes de. "Um algoritmo genético híbrido para supressão de ruídos em imagens". Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-11042016-105926/.

Texto completo da fonte
Resumo:
Imagens digitais são utilizadas para diversas finalidades, variando de uma simples foto com os amigos até a identificação de doenças em exames médicos. Por mais que as tecnologias de captura de imagens tenham evoluído, toda imagem adquirida digitalmente possui um ruído intrínseco a ela que normalmente é adquirido durante os processo de captura ou transmissão da imagem. O grande desafio neste tipo de problema consiste em recuperar a imagem perdendo o mínimo possível de características importantes da imagem, como cantos, bordas e texturas. Este trabalho propõe uma abordagem baseada em um Algoritmo Genético Híbrido (AGH) para lidar com este tipo de problema. O AGH combina um algoritmo genético com alguns dos melhores métodos de supressão de ruídos em imagens encontrados na literatura, utilizando-os como operadores de busca local. O AGH foi testado em imagens normalmente utilizadas como benchmark corrompidas com um ruído branco aditivo Gaussiano (N; 0), com diversos níveis de desvio padrão para o ruído. Seus resultados, medidos pelas métricas PSNR e SSIM, são comparados com os resultados obtidos por diferentes métodos. O AGH também foi testado para recuperar imagens SAR (Synthetic Aperture Radar), corrompidas com um ruído Speckle multiplicativo, e também teve seus resultados comparados com métodos especializados em recuperar imagens SAR. Através dessa abordagem híbrida, o AGH foi capaz de obter resultados competitivos em ambos os tipos de testes, chegando inclusive a obter melhores resultados em diversos casos em relação aos métodos da literatura.
Digital images are used for many purposes, ranging from a simple picture with friends to the identification of diseases in medical exams. Even though the technology for acquiring pictures has been evolving, every image digitally acquired has a noise intrinsic to it that is normally gotten during the processes of transmission or capture of the image. A big challenge in this kind of problem consists in recovering the image while losing the minimum amount of important features of the image, such as corners, borders and textures. This work proposes an approach based on a Hybrid Genetic Algorithm (HGA) to deal with this kind of problem. The HGA combines a genetic algorithm with some of the best image denoising methods found in literature, using them as local search operators. The HGA was tested on benchmark images corrupted with an additive white Gaussian noise (N;0) with many levels of standard deviation for the noise. The HGAs results, which were measured by the PSNR and SSIM metrics, were compared to the results obtained by different methods. The HGA was also tested to recover SAR (Synthetic Aperture Radar) images that were corrupted by a multiplicative Speckle noise and had its results compared against the results by other methods specialized in recovering with SAR images. Through this hybrid approach, the HGA was able to obtain results competitive in both types of tests, even being able to obtain the best results in many cases, when compared to the other methods found in the literature.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Herrera, Claudia Natalia Lara. "Algoritmo de tomografia por impedância elétrica baseado em Simulated Annealing". Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/3/3152/tde-28012008-172456/.

Texto completo da fonte
Resumo:
A Tomografia por Impedância Elétrica (TIE) é uma técnica não invasiva usada para produzir imagens que representam a distribuição de resistividade, ou condutividade, de uma seção transversal dentro de um domínio, por vezes o tórax humano, a partir do conhecimento de medidas elétricas feitas através de eletrodos distribuídos na sua fronteira. Correntes injetam-se e medem-se voltagens ou vice-versa. Distribuição de variação de resistividade ou distribuição de valor absoluto de resistividade podem ser estimadas, gerando algoritmos ditos de diferenças ou absolutos. O presente trabalho avalia o desempenho de um algoritmo probabilístico baseado no método Simulated Annealing (SA) para obter distribuições absolutas de resistividade em duas dimensões (2D). O SA difere dos métodos tradicionais de busca, tem a capacidade de escapar de mínimos locais graças ao emprego do critério de Metropolis para a aceitação dos novos pontos no espaço de busca e não precisa da avaliação de derivadas da função objetivo. O algoritmo desenvolvido soluciona o problema inverso da TIE ao resolver iterativamente um problema direto, utilizando distribuições de resistividade obtidas por sorteio aleatório. O sorteio é realizado pelo algoritmo de Metropolis. Na ausência de regularizações, assume-se que a imagem sorteada que minimiza a diferença entre as voltagens medidas na fronteira do domínio e as calculadas é a que mais se aproxima da distribuição de resistividade real. Neste sentido, a imagem final maximiza a verossemelhança. Este trabalho contribui com o desenvolvimento de algoritmos para estimação de imagem aplicados para monitorar a ventilação mecânica dos pulmões. Uma vez que se pretende resolver um problema inverso, não-linear e mal-posto é necessário introduzir informação a priori, na forma de restrições do espaço solução ou de regularizações. São realizados ensaios com dados simulados por meio de um fantoma numérico, dados de bancada experimental e dados provenientes de um tórax humano. Os resultados mostram que a localização, o tamanho e a resistividade do objeto estão dentro da precisão da TIE obtida por métodos clássicos, mas o esforço computacional é grande. Verificam-se, assim, as vantagens e a viabilidade do algoritmo proposto.
The Electrical Impedance Tomography (EIT) is a non-invasive technique used to produce images that represent the cross-sectional electrical resistivity distribution, or conductivity, within a domain, for instance the human thorax, from electrical measurements made through electrodes distributed on its boundary. Currents are injected and voltages measured, or vice-versa. Distributions of resistivity variations or distributions of absolute resistivity can be estimated, producing difference or absolute algorithms. The present work develops and evaluates the performance of a probabilistic algorithm based on the Simulated Annealing method (SA) to obtain absolute resistivity distributions in two dimensions (2D). The SA differs from the traditional search methods, no evaluation of objective function derivatives is required and it is possible to escape from local minima through the use of the Metropolis criterion for acceptance of new points in the search space. The developed algorithm solves the inverse problem of EIT by solving iteratively a direct problem, using random resistivity distributions. The random search is accomplished by the Metropolis algorithm. In the absence of regularizations, it is assumed that the resistivity distribution, an image, that minimizes the difference between the measured electrical potentials on the boundary and computed electrical potentials is the closest to the real resistivity distribution. In this sense, the algorithm maximizes the likelihood. This work contributes to the development of image estimation algorithms applied to lung monitoring, for instance, during mechanical ventilation. To solve this non-linear ill-posed inverse problem it is necessary to introduce prior information in the form of restrictions of the solution space or regularization techniques. The tests are carried out using simulated data obtained from a numerical phantom, an experimental phantom and human thorax data. The results show that the localization of an object, the size of an object and the resistivity of an object are within the accuracy of EIT obtained by classical methods, but the computational effort is large. The advantages and feasibility of the proposed algorithm were investigated.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia