To see the other types of publications on this topic, follow the link: Proposed algorithm.

Dissertations / Theses on the topic 'Proposed algorithm'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Proposed algorithm.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kollberg, Simon. "Proposed scheduling algorithm for deployment of fail-safe cloud services." Thesis, Umeå universitet, Institutionen för datavetenskap, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-92838.

Full text
Abstract:
The cloud is a fairly new concept in computer science, altough almost everyone has been or is in contact with it on a regular basis. As more and more systems and applications are migrating from the desktop and into the cloud, keeping a high availability in cloud services is becoming increasingly important. Seeing that the cloud users are dependant on the cloud services being online and accessable via the Internet, creating fault tolerant cloud systems is key to keeping the cloud stable and trustworthy. This thesis researches different aspects of the cloud infrastructure such as virtualization which detaches the services from the physical hardware, scheduling algorithms that decides the mapping of virtual machines onto physical machines and fault tolerance in the context of availability in the cloud. It then proposes a new scheduling algorithm with the purpose of deploying virtual machines in a way that active-passive replication can be sustained.
APA, Harvard, Vancouver, ISO, and other styles
2

Spaizman, Daniel. "Grid-Scale Energy Storage: A Proposed Control Algorithm for Sodium Sulfur Batteries." DigitalCommons@CalPoly, 2014. https://digitalcommons.calpoly.edu/theses/1279.

Full text
Abstract:
With carbon dioxide levels in our atmosphere reaching record highs and 2020 quickly approaching, California is expected to pave the way for the United States in terms of replacing fossil fuel generation facilities with various renewable energy power plants. It is well documented that the inherent variability and limited duty cycle of renewables has hindered their growth. Energy storage technologies represent the bridge that can help us cross the divide from where we stand to where we must stand in the next 6 years. Utility companies value services such as peak shaving, voltage support, and frequency regulation, all of which energy storage technologies can provide. Commercial and residential clients’ of the utility will begin to install their own storage systems once properly incentivized. In this paper, a control algorithm for Sodium Sulfur batteries is proposed with hopes that the aforementioned services will be provided to the utilities while system owners realize profit.
APA, Harvard, Vancouver, ISO, and other styles
3

Montgomerie-Neilson, Gustav. "Selecting the Worst-Case Portfolio : A proposed pre-trade risk validation algorithm of SPAN." Thesis, KTH, Matematisk statistik, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-102696.

Full text
Abstract:
Abstract This thesis outlines a possible pre-trade risk validation algorithm for portfolios of commodities futures and options. A method is proposed that, given an order book of unmatched orders, determines the particular order selection, or portfolio, with the maximum margin requirement, as calculated by the risk analysis methodology SPAN. The method consists of a selection algorithm, where all orders in the order book are either included or discarded according to a specified criterion. The selection criterion approach reduces the problem from exponential to linear time complexity, complying with pre-trade risk validation requirements. Further, three different selection criteria are proposed and evaluated by accuracy and time performance. Simulations indicate that one of the criteria has considerable accuracy in determining the worst-case portfolio in linear time, without relying on approximations of the orders it includes. This makes it a particularly suitable candidate for pre-trade risk validation.
APA, Harvard, Vancouver, ISO, and other styles
4

Tice, Peter. "Mineralogy of Eudialyte Group Minerals From the East Hill Suite Of the Mont Saint-Hilaire Alkaline Plutonic Complex, Including an Alternative Site-Assignment Algorithm & A Proposed Classification System." ScholarWorks@UNO, 2009. http://scholarworks.uno.edu/td/965.

Full text
Abstract:
The twenty approved members of the eudialyte group are complex zirconosilicates, primarily with general formula N15M(1)6M(2)3M(3)M(4)Z3[Si24O72]O4X2. An algorithm was created to address the inherent recalculation difficulties in the absence of single-crystal X-ray data and was an overall improvement over previous schemes. Eudialyte group minerals were analyzed from the East Hill Suite of the Mont Saint-Hilaire alkaline complex. Recalculations revealed previously undocumented eudialyte-group compositions and degrees of chemical zonation. These data suggest that late-stage melt heterogeneity in alkaline systems is far more pronounced than previously thought. All analyses exhibited a negative neodymium anomaly in chondrite-normalized data. This supports data from other investigators that point to a preintrusion fractionation event in the underlying mantle. Potassium content of the eudialyte group minerals from the East Hill Suite was restricted to a narrow range, as was that of analyses from numerous other localities, suggesting some internal control on potassium content in eudialyte group minerals.
APA, Harvard, Vancouver, ISO, and other styles
5

Rousset, Xavier. "La tarification dynamique, l'utile et le juste Seasonal factors and marketing mix: Literature survey and proposed guidelines An analytical framework for retailer price and advertising decisions for products with temperature-sensitive demand The impact of outdoor temperature on pricing and advertising policies for weather-sensitive products Tarification dynamique en ligne et éthicalité perçue par le consommateur : synthèse et voies de recherche Designing algorithmic dynamic pricing from an ethical perspective Are consumers vulnerable to algorithmic dynamic pricing? An empirical investigation." Thesis, Sorbonne Paris Cité, 2019. http://www.theses.fr/2019USPCB039.

Full text
Abstract:
Cette thèse regroupe différents travaux de recherche sur la tarification dynamique. L'objectif de la thèse, située à l'interface des sciences économiques, des sciences de gestion et des sciences politiques, est double : d'une part, étudier les déterminants et les conditions d'utilisation de la tarification dynamique au niveau de la firme dans une perspective de maximation de ses profits et, d'autre part, de montrer comment, à un niveau collectif, la prise en compte des questions éthiques dans l'étude de la tarification dynamique permet de mieux en comprendre la portée. Nos contributions, à la fois théoriques et empiriques, sont présentées en deux parties. La partie 1, axée sur l'efficacité économique (point de vue de l'utile), regroupe des questionnements sur les considérations de maximation du bénéfice liées à la tarification dynamique. A partir de l'étude de produits dits météo-sensibles dans les canaux de distribution physique, nous présentons une revue de littérature qui introduit l'adaptation dynamique du prix à des facteurs influençant la demande et nous proposons un modèle théorique d'adaptation dynamique du prix dans le temps suivant la température. Nous complétons cette approche théorique, par une étude empirique qui approfondit comment la tarification, exercée de manière dynamique du point de vue de la firme en réaction à des facteurs extérieurs, lui permet de maximiser ses intérêts. La partie 2 regroupe des travaux sur les considérations éthiques liées à la tarification dynamique (point de vue du juste). En se focalisant sur les canaux de distribution en ligne, nous discutons, sur un plan théorique, les incidences possibles de la tarification dynamique sur la perception éthique par le consommateur, en mettant en évidence les éventuels risques d'injustice ou de vulnérabilité que cette stratégie de fixation du prix soulève. D'un point de vue empirique, nous approfondissons l'analyse des déterminants de la perception éthique de la tarification dynamique en ligne par le consommateur, notamment en fonction des conditions de son paramétrage, ainsi que les dimensions de vulnérabilité qui préoccupent les consommateurs. La conclusion de la thèse regroupe des pistes de recherche futures portant sur l'approfondissement de la mesure de l'éthique perçue, sur les potentialités de l'hybridation de la science économique avec l'éthique sur un sujet comme celui de la tarification dynamique et sur les considérations que nous avons entrevues sur le lien entre la tarification dynamique et la révélation de la valeur d'échange (point de vue du vrai)<br>This PhD thesis brings together different research projects on dynamic pricing. The objective of the thesis, located at the interface of economics, management sciences and political sciences, is twofold: first, to study the determinants and conditions of use of dynamic pricing at the level of firm in a perspective of maximizing its profits and, on the other hand, to show how, at a collective level, the consideration of ethical issues in the study of dynamic pricing allows a better understanding of its scope. Our contributions, both theoretical and empirical, are presented in two parts. Part 1 focuses on economic efficiency (point of view of the useful), and asks questions about the maximization of profit considerations related to dynamic pricing. From the study of so-called weather-sensitive products in the physical distribution channels, we present a literature review that introduces the dynamic adaptation of the price to factors influencing the demand and we propose a theoretical model of dynamic adaptation of the price in time following the temperature. We complete this theoretical approach with an empirical study that examines how pricing, exercised dynamically from the firm's point of view in response to external factors, allows it to maximize its interests. Part 2 brings together work on ethical considerations related to dynamic pricing (the point of view of the right). Focusing on online distribution channels, we discuss, on a theoretical level, the potential impact of dynamic pricing on consumers' ethical perception, highlighting potential risks of unfairness or vulnerability that price fixing raises. From an empirical point of view, we thoroughly analyse the determinants of the ethical perception of online dynamic pricing by the consumer, in particular according to the conditions of its setting, as well as the dimensions of vulnerability that concern consumers.The conclusion of the thesis brings together future lines of research on the deepening of the measurement of perceived ethics, on the potentialities of the hybridization of economic science with ethics on a subject such as dynamic pricing and on the considerations we have seen on the link between dynamic pricing and the revelation of exchange value (point of view of the true)
APA, Harvard, Vancouver, ISO, and other styles
6

Correa, Leonardo de Lima. "Uma proposta de algoritmo memético baseado em conhecimento para o problema de predição de estruturas 3-D de proteínas." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2017. http://hdl.handle.net/10183/156640.

Full text
Abstract:
Algoritmos meméticos são meta-heurísticas evolutivas voltadas intrinsecamente à exploração e incorporação de conhecimentos relacionados ao problema em estudo. Nesta dissertação, foi proposto um algoritmo memético multi populacional baseado em conhecimento para lidar com o problema de predição de estruturas tridimensionais de proteínas voltado à modelagem de estruturas livres de similaridades conformacionais com estruturas de proteínas determinadas experimentalmente. O algoritmo em questão, foi estruturado em duas etapas principais de processamento: (i) amostragem e inicialização de soluções; e (ii) otimização dos modelos estruturais provenientes da etapa anterior. A etapa I objetiva a geração e classificação de diversas soluções, a partir da estratégia Lista de Probabilidades Angulares, buscando a definição de diferentes grupos estruturais e a criação de melhores estruturas a serem incorporadas à meta-heurística como soluções iniciais das multi populações. A segunda etapa consiste no processo de otimização das estruturas oriundas da etapa I, realizado por meio da aplicação do algoritmo memético de otimização, o qual é fundamentado na organização da população de indivíduos em uma estrutura em árvore, onde cada nodo pode ser interpretado como uma subpopulação independente, que ao longo do processo interage com outros nodos por meio de operações de busca global voltadas a características do problema, visando o compartilhamento de informações, a diversificação da população de indivíduos, e a exploração mais eficaz do espaço de busca multimodal do problema O algoritmo engloba ainda uma implementação do algoritmo colônia artificial de abelhas, com o propósito de ser utilizado como uma técnica de busca local a ser aplicada em cada nodo da árvore. O algoritmo proposto foi testado em um conjunto de 24 sequências de aminoácidos, assim como comparado a dois métodos de referência na área de predição de estruturas tridimensionais de proteínas, Rosetta e QUARK. Os resultados obtidos mostraram a capacidade do método em predizer estruturas tridimensionais de proteínas com conformações similares a estruturas determinadas experimentalmente, em termos das métricas de avaliação estrutural Root-Mean-Square Deviation e Global Distance Total Score Test. Verificou-se que o algoritmo desenvolvido também foi capaz de atingir resultados comparáveis ao Rosetta e ao QUARK, sendo que em alguns casos, os superou. Corroborando assim, a eficácia do método.<br>Memetic algorithms are evolutionary metaheuristics intrinsically concerned with the exploiting and incorporation of all available knowledge about the problem under study. In this dissertation, we present a knowledge-based memetic algorithm to tackle the threedimensional protein structure prediction problem without the explicit use of template experimentally determined structures. The algorithm was divided into two main steps of processing: (i) sampling and initialization of the algorithm solutions; and (ii) optimization of the structural models from the previous stage. The first step aims to generate and classify several structural models for a determined target protein, by the use of the strategy Angle Probability List, aiming the definition of different structural groups and the creation of better structures to initialize the initial individuals of the memetic algorithm. The Angle Probability List takes advantage of structural knowledge stored in the Protein Data Bank in order to reduce the complexity of the conformational search space. The second step of the method consists in the optimization process of the structures generated in the first stage, through the applying of the proposed memetic algorithm, which uses a tree-structured population, where each node can be seen as an independent subpopulation that interacts with others, over global search operations, aiming at information sharing, population diversity, and better exploration of the multimodal search space of the problem The method also encompasses ad-hoc global search operators, whose objective is to increase the exploration capacity of the method turning to the characteristics of the protein structure prediction problem, combined with the Artificial Bee Colony algorithm to be used as a local search technique applied to each node of the tree. The proposed algorithm was tested on a set of 24 amino acid sequences, as well as compared with two reference methods in the protein structure prediction area, Rosetta and QUARK. The results show the ability of the method to predict three-dimensional protein structures with similar foldings to the experimentally determined protein structures, regarding the structural metrics Root-Mean-Square Deviation and Global Distance Total Score Test. We also show that our method was able to reach comparable results to Rosetta and QUARK, and in some cases, it outperformed them, corroborating the effectiveness of our proposal.
APA, Harvard, Vancouver, ISO, and other styles
7

Austad, Haakon Michael. "Parallel Multiple Proposal MCMC Algorithms." Thesis, Norges teknisk-naturvitenskapelige universitet, Institutt for matematiske fag, 2007. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-12857.

Full text
Abstract:
We explore the variance reduction achievable through parallel implementation of multi-proposal MCMC algorithms and use of control variates. Implemented sequentially multi-proposal MCMC algorithms are of limited value, but they are very well suited for parallelization. Further, discarding the rejected states in an MCMC sampler can intuitively be interpreted as a waste of information. This becomes even more true for a multi-proposal algorithm where we discard several states in each iteration. By creating an alternative estimator consisting of a linear combination of the traditional sample mean and zero mean random variables called control variates we can improve on the traditional estimator. We present a setting for the multi-proposal MCMC algorithm and study it in two examples. The first example considers sampling from a simple Gaussian distribution, while for the second we design the framework for a multi-proposal mode jumping algorithm for sampling from a distribution with several separated modes. We find that the variance reduction achieved from our control variate estimator in general increases as the number of proposals in our sampler increase. For our Gaussian example we find that the benefit from parallelization is small, and that little is gained from increasing the number of proposals. The mode jumping example however is very well suited for parallelization and we get a relative variance reduction pr time of roughly 80% with 16 proposals in each iteration.
APA, Harvard, Vancouver, ISO, and other styles
8

Yeh, Chih Lung. "A framework proposal for algorithm animation systems." Thesis, Nelson Mandela Metropolitan University, 2006. http://hdl.handle.net/10948/d1019680.

Full text
Abstract:
The learning and analysis of algorithms and algorithm concepts are challenging to students due to the abstract and conceptual nature of algorithms. Algorithm animation is a form of technological support tool which encourages algorithm comprehension by visualising algorithms in execution. Algorithm animation can potentially be utilised to support students while learning algorithms. Despite widespread acknowledgement for the usefulness of algorithm animation in algorithm courses at tertiary institutions, no recognised framework exists upon which algorithm animation systems can be effectively modelled. This dissertation consequently focuses on the design of an extensible algorithm animation framework to support the generation of interactive algorithm animations. A literature and extant system review forms the basis for the framework design process. The result of the review is a list of requirements for a pedagogically effective algorithm animation system. The proposed framework supports the pedagogic requirements by utilising an independent layer structure to support the generation and display of algorithm animations. The effectiveness of the framework is evaluated through the implementation of a prototype algorithm animation system using sorting algorithms as a case study. This dissertation is successful in proposing a framework to support the development of algorithm animations. The prototype developed will enable the integration of algorithm animations into the Nelson Mandela Metropolitan University’s teaching model, thereby permitting the university to conduct future research relating to the usefulness of algorithm animation in algorithm courses.
APA, Harvard, Vancouver, ISO, and other styles
9

Reiff, Thamara Brassolins. "Programação de computadores: uma proposta para o 9º ano do ensino fundamental." Universidade Federal de Juiz de Fora (UFJF), 2017. https://repositorio.ufjf.br/jspui/handle/ufjf/5845.

Full text
Abstract:
Submitted by Renata Lopes (renatasil82@gmail.com) on 2017-09-29T11:58:27Z No. of bitstreams: 1 thamarabrassolinsreiff.pdf: 1054175 bytes, checksum: 3b7ac80eb048ad4107ca02e8f424a527 (MD5)<br>Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-10-09T19:36:16Z (GMT) No. of bitstreams: 1 thamarabrassolinsreiff.pdf: 1054175 bytes, checksum: 3b7ac80eb048ad4107ca02e8f424a527 (MD5)<br>Made available in DSpace on 2017-10-09T19:36:16Z (GMT). No. of bitstreams: 1 thamarabrassolinsreiff.pdf: 1054175 bytes, checksum: 3b7ac80eb048ad4107ca02e8f424a527 (MD5) Previous issue date: 2017-08-02<br>CAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superior<br>Este trabalho é uma proposta para o ensino de algoritmos de programação para alunos do 9o ano do Ensino Fundamental. Ele apresenta uma breve história da disseminação do ensino de algoritmos, especialmente no Brasil, bem como sua definição e principais formas de representação. Além disso, pensado como um projeto a ser desenvolvido no contraturno e na modalidade extraclasse, este trabalho apresenta um estudo teórico sobre VisuAlg e seus principais comandos e sugere 18 atividades que introduzem gradualmente conceitos básicos para a construção de algoritmos. Cada atividade apresenta um problema matemático que deve ser pensado e estruturado sob a forma de pseudocódigo e escrito diretamente em VisuAlg.<br>This work is a proposal for the teaching of a programming algorithm for 9th grade students. It presents a brief history of the dissemination of algorithm teaching, especially in Brazil, as well as its definition and main forms of representation. In addition, thought as a project to be developed in a after/before school program and in a extra shift modality, this work presents a theoretical study on VisuAlg and its main commands and suggests 18 activities that gradually introduce basic concepts for the construction of algorithms. Each activity presents a mathematical problem that must be thought and structured in the form of pseudocode and written directly in VisuAlg.
APA, Harvard, Vancouver, ISO, and other styles
10

Tricot, Michel. "A propos de quelques applications de la classification automatique." Université Joseph Fourier (Grenoble ; 1971-2015), 1986. http://www.theses.fr/1986GRE10077.

Full text
Abstract:
Ce travail montre trois exemples d'applications originales de la Classification automatique. Un, concerne la gestion de systèmes informatiques, un autre, les micro-circuits, le dernier, les essais thérapeutiques. Une description complète est donnée des algorithmes «pseudo-hiérarchique» utilisée, que nous avons appelés «Algorithmes de percolation généralisés». Finalement, une étude critique de la validité des résultats est proposée
APA, Harvard, Vancouver, ISO, and other styles
11

PIONTKUSKY, FILHO A. J. "Proposta de GPC Auto-Tunning Usando Algoritmo Genético." Universidade Federal do Espírito Santo, 2018. http://repositorio.ufes.br/handle/10/9564.

Full text
Abstract:
Made available in DSpace on 2018-08-02T00:00:41Z (GMT). No. of bitstreams: 1 tese_10896_AdemirDissertacaoV88FINALPDF.pdf: 3572901 bytes, checksum: 73e681205950d37d5521f885acf65cbf (MD5) Previous issue date: 2018-04-04<br>Não disponível.
APA, Harvard, Vancouver, ISO, and other styles
12

Negri, Andrea. "Sviluppo di un algoritmo per la proposta di stoccaggio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/21853/.

Full text
Abstract:
L’obiettivo della tesi è quello di realizzare una nuova versione di un algoritmo per la proposta di stoccaggio, partendo dall’analisi del problema e del suo contesto, per poi passarne alla progettazione e all’implementazione. Viene effettuata un'introduzione al contesto del problema (logiche di magazzino, WMS e stoccaggio), e poi vengono effettuate le fasi di analisi, progettazione e implementazione del codice. Per ogni funzionalità implementata vengono mostrate le User Stories che la descrivono (analisi), lo pseudo-codice scritto (progettazione), e il relativo codice C# (implementazione).
APA, Harvard, Vancouver, ISO, and other styles
13

Ribeiro, Duenas Liliam Terezinha. "Uma proposta de algoritmo assincrono para difusão confiavel atômica." reponame:Repositório Institucional da UFSC, 1992. https://repositorio.ufsc.br/handle/123456789/111735.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Neves, Bruno Silveira. "Proposta de algoritmo de cacheamento para proxies VoD e sua avaliação usando um novo conjunto de métricas." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2015. http://hdl.handle.net/10183/119427.

Full text
Abstract:
Atualmente, o serviço digital conhecido como Vídeo sob Demanda - Video on Demand (VoD) - está em ascensão e costuma requerer uma quantidade significativa de recursos físicos para a sua implementação. Para reduzir os custos de operacionalização desse serviço, uma das alternativas comumente usada é o emprego de proxies que cacheiam as partes mais importantes do acervo, com o objetivo de atender a demanda para esse conteúdo no lugar do servidor primário do sistema VoD. Nesse contexto, para melhorar a eficiência do proxy, propõe-se neste trabalho um novo algoritmo de cacheamento que explora o posicionamento dos clientes ativos para determinar a densidade de clientes dentro de uma janela de tempo existente em frente de cada trecho de vídeo. Ao cachear os trechos de vídeo com maior densidade em frente a eles, o algoritmo é capaz de alcançar um alto desempenho, em termos de taxa de acertos para as requisições recebidas pelo proxy, durante intervalos de alta carga de trabalho. Para avaliar esta abordagem, o novo algoritmo desenvolvido foi comparado com outros de natureza semelhante, fazendo uso tanto de métricas tradicionais, como a taxa de acertos, como também de métricas físicas, como, por exemplo, o uso de recursos de processamento. Os resultados mostram que o novo algoritmo explora melhor a banda de processamento disponível na arquitetura de base do proxy para obter uma taxa de acertos maior em comparação com os algoritmos usados na análise comparativa. Por fim, para dispor das ferramentas necessárias para construir essa análise, produziu-se uma outra contribuição importante nesse trabalho: a implementação de um simulador de proxies VoD que, até onde se sabe, é o primeiro a possibilitar a avaliação do hardware utilizado para implementar essa aplicação.<br>Today, Video on Demand (VoD) is a digital service on the rise that requires a lot of resources for its implementation. To reduce the costs of running this service, one of the commonly used alternatives is using proxies that cache the most important portions of the collection in order to meet the demand for this content in place of the primary server of the VoD system. In this context, to improve the efficiency of proxy, we proposed a novel caching algorithm that explores the positioning of the active clients to determine the density of clients inside a time window existing in front of each video chunk. By caching the video chunks with the greater density in front of them, the algorithm is able to achieve high performance, in terms of the hit ratio for the requests received by the proxy, during periods of high workload. To better evaluate our approach, we compare it with others of similar nature, using both traditional metrics like hit rate, as well as physical metrics, such as the use of processing resources. The results show that the new algorithm exploits the processing bandwidth available in the underlying architecture of the proxy for obtaining a larger hit rate in comparison to the other algorithms used in the comparative analysis. Finally, to dispose of the necessary tools to perform this analysis, we produced another important contribution in this work: the implementation of a VoD proxy simulator that, to the best of our knowledge, is the first one to enable the evaluation of the hardware used to implement this application.
APA, Harvard, Vancouver, ISO, and other styles
15

Santos, Simone Rodrigues dos. "Proposta de reconfiguração estratégica de sistema financeiro no contexto de governança de tecnologia da informação (GTI): o caso de uma indústria do setor plástico." Universidade do Vale do Rio do Sinos, 2009. http://www.repositorio.jesuita.org.br/handle/UNISINOS/2850.

Full text
Abstract:
Made available in DSpace on 2015-03-05T19:14:42Z (GMT). No. of bitstreams: 0 Previous issue date: 23<br>Nenhuma<br>Este estudo desenvolveu uma proposta de reconfiguração estratégica de sistema financeiro no contexto de governança de tecnologia da informação apoiado por algoritmo de lógica difusa compensatória. Este estudo utilizou o método de Design Research em empresa do setor de plástico industrial. A proposta do sistema financeiro foi desenvolvida seguindo as seguintes etapas: 1 – identificação do sistema atual; 2 – identificações de variáveis estratégicas; 3 – quantificação das variáveis estratégicas com o uso de matrizes; 4 – cálculo de importância das variáveis estratégicas através de algoritmo difuso. Esta etapa gerou um ranking de importâncias ou prioridades. Com o ranking foi possível reconfigurar o sistema de Business Intelligence usado na empresa. Após a reconfiguração no contexto da governança da tecnologia de informação foi identificada a necessidade de uma maior evidenciação financeira. Para atender tal necessidade foi usada a linguagem XBRL e validada pelo Controller como satisfatória. Além disso, também f<br>This study developed a proposal for the strategic redesign of a finance system in the context of IT Governance supported by fuzzy logic algorithm. This study used a Design Research method in company of the plastic industrial sector. A new proposal was developed following these stages: 1 – Identification of current system; 2 – Identification of strategic variables; 3 – Quantification of strategic variables using matrixes; 4 – Calculation of the importance of strategic variables using a compensatory fuzzy logic algorithm. This stage created a ranking of importance or priorities. This ranking generated a redesigned system of Business Intelligence now used in the company. After the redesign in the IT context a necessity for financial disclosure was identified. XBRL language was used to do this and was validated by the company’s Controller as satisfactory. The following requisites were also identified: brand/image and costs optimization related to alignment of IT and strategy.
APA, Harvard, Vancouver, ISO, and other styles
16

Nhoncance, Leandro. "A calculadora de celular na sala de aula: uma proposta para a exploração da divisão inexata no ensino médio." Pontifícia Universidade Católica de São Paulo, 2009. https://tede2.pucsp.br/handle/handle/11412.

Full text
Abstract:
Made available in DSpace on 2016-04-27T16:58:57Z (GMT). No. of bitstreams: 1 Leandro Nhoncance.pdf: 1122912 bytes, checksum: 1f1ae715e54b357ac747e3a2fecf691b (MD5) Previous issue date: 2009-10-05<br>The theme of this research arose during observations made in the classroom, and also after attending classes in TIC ( Information and Communication Technology) in the course for Professional Master s Degree at the Pontifícia Universidade Católica if São Paulo. The aim of the work is to relate mathematics classes with the technology presente in the daily lives of our students. It proposes a sequence of activities which would help and lead tothe pupils obtaining the natural rest of an inexact division with the calculator. The euclidian division is a procedure that makes it easier for pupils to find the natural rest working with the calculator of their mobile phones. In this research we performed a study with a group of fifteen pupils in the senior high school of a state school. We worked with diagnosis an intervention. The data collected were analyzed in the light of some presppositions of Didactic Engineering, and while the activities were being carried out, we realized that the difficulties of some students in regard to the operation of division, especially and to obtain the natural rest, appeared when they had to work with the calculator with natural numbers. However, these difficulties were decreased with the sequence of activities proposed. This work contributed to the students learning and showed that the calculator is a worthy ally in the educational process in addition to recovering some concepts about division of natural numbers. It taught the pupils to work with the calculator in the universe of natural numbers and to obtain the rest in an operation of inexact division<br>A proposta desta pesquisa surgiu durante várias observações feitas em sala de aula e; também, após cursar a disciplina de TIC (Tecnologia da Informação e Comunicação) no curso de Mestrado Profissional da Pontifícia Universidade Católica de São Paulo. Este trabalho visou a interagir as aulas de Matemática com a tecnologia presente no cotidiano de nossos alunos. Propôs uma seqüência de atividades que levasse e auxiliasse os alunos a obterem o resto natural em uma divisão inexata com a calculadora. A divisão euclidiana foi um procedimento que facilitou encontrarem o resto natural, trabalhando com a calculadora do celular. Nesta pesquisa, realizou-se um estudo com um grupo de 15 alunos da 3ª série do Ensino Médio de uma escola pública estadual. Trabalhou-se de uma maneira diagnóstica e interventiva. Os dados coletados foram analisados sob alguns pressupostos da Engenharia Didática, e durante a realização das atividades, verificou-se que as dificuldades de alguns alunos em relação à operação da divisão, principalmente na obtenção do resto natural, surgiram quando os alunos tiveram que trabalhar com a calculadora no universo dos números naturais. Porém foram minimizadas com a seqüência de atividades propostas. Este trabalho contribuiu com a aprendizagem dos alunos, mostrou que a calculadora é uma forte aliada no processo educativo, além de ter recuperado alguns conceitos sobre divisão de números naturais. Ensinou aos alunos trabalharem com a calculadora no universo dos números naturais na obtenção do resto, em uma operação de divisão inexata
APA, Harvard, Vancouver, ISO, and other styles
17

Mazoco, Bruna Marques. "Proposta de um algoritmo GPC adaptativo com baixo custo computacional." reponame:Repositório Institucional da UFES, 2015. http://repositorio.ufes.br/handle/10/1423.

Full text
Abstract:
Submitted by Maykon Nascimento (maykon.albani@hotmail.com) on 2015-05-05T19:26:18Z No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação Bruna Marques Mazoco.pdf: 9349623 bytes, checksum: 1c587f964b09141cb5a55b40bbf3a544 (MD5)<br>Approved for entry into archive by Elizabete Silva (elizabete.silva@ufes.br) on 2015-07-31T18:48:04Z (GMT) No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação Bruna Marques Mazoco.pdf: 9349623 bytes, checksum: 1c587f964b09141cb5a55b40bbf3a544 (MD5)<br>Made available in DSpace on 2015-07-31T18:48:04Z (GMT). No. of bitstreams: 2 license_rdf: 23148 bytes, checksum: 9da0b6dfac957114c6a7714714b86306 (MD5) Dissertação Bruna Marques Mazoco.pdf: 9349623 bytes, checksum: 1c587f964b09141cb5a55b40bbf3a544 (MD5) Previous issue date: 2015-05-04<br>Esta dissertação propõe um algoritmo do Controlador Preditivo Generalizado (GPC) com horizonte de controle igual a um para ser aplicado em plantas industriais com modelos variantes no tempo, simples o su ficiente para ser implementado em Controlador Lógico Programável (PLC). A solução explícita do controlador é obtida em função dos parâmetros do modelo e dos parâmetros de sintonia do GPC (horizonte nal de predição hp e o fator de supressão do sinal de controle ), além das entradas e saídas presentes e passadas. A sintonia do fator de supressão e do horizonte de previsão GPC é feita através do lugar das raízes da equação característica do sistema em malha fechada, sempre que os parâmetros do modelo da planta industrial (estável ou instável em malha aberta) forem modificados.<br>This dissertation proposes a new formulation of the Generalized Predictive Control (GPC) algorithm to be applied in industrial plants with time-varying models. The unitary control horizon premisse alows it to be simple enough to be implemented in a Programmable Logic Controller (PLC). The explicit solution of the control increment is obtained from the parameters of the model and the GPC tuning parameters (prediction horizon hp and supression weight ), in addition to past and present inputs and outputs. Supression weight tuning is done by Root Locus technique, constructed from the system closed loop characteristic polynomium, everytime the model parameters of the industrial plant (stable or not in open loop) su er modi fication.
APA, Harvard, Vancouver, ISO, and other styles
18

MAZOCO, B. M. "Proposta de um Algoritmo GPC Adaptativo Com Baixo Custo Computacional." Universidade Federal do Espírito Santo, 2015. http://repositorio.ufes.br/handle/10/9650.

Full text
Abstract:
Made available in DSpace on 2018-08-02T00:01:06Z (GMT). No. of bitstreams: 1 tese_6877_DISSERTAÇÃO BRUNA MARQUES MAZOCO20160405-153940.pdf: 8392075 bytes, checksum: 02fc79d19a63b6e7ca93076308ef94fe (MD5) Previous issue date: 2015-02-10<br>Esta dissertação propõe um algoritmo do Controlador Preditivo Generalizado (GPC) com horizonte de controle igual a um para ser aplicado em plantas industriais com modelos variantes no tempo, simples o suciente para ser implementado em PLC. A solução explícita do controlador é obtida em função dos parâmetros do modelo e dos parâmetros de sintonia do GPC (horizonte nal de predição hp e o fator de supressão do sinal de controle &#955;), além das entradas e saídas presentes e passadas. A sintonia do fator de supressão do horizonte de previsão GPC é feita através do Lugar das Raízes da equação caracterstíca do sistema em malha fechada, sempre que os parâmetros do modelo da planta industrial (estável ou não em malha aberta) forem modicados.
APA, Harvard, Vancouver, ISO, and other styles
19

Zeizinger, Lukáš. "Optimalizační algoritmus pro příhradové ocelové konstrukce." Doctoral thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2021. http://www.nusl.cz/ntk/nusl-433630.

Full text
Abstract:
The work deals with the optimization of trusses construction building and transport machinery. The goal was to create an algorithm that can design an optimized design. The simulation took place on two experiments involving 52 sets of different entries, which are processed in detail into graphs. One-dimensional target mass or price function is used as part of optimization, but there is also an incorporated multidimensional purpose function. The finite element variation method for the beam system is used for the strength calculation of the truss structure and the genetic algorithm is used for optimization. At the end of the work, specific steps are formulated that lead to the most appropriate algorithm settings.
APA, Harvard, Vancouver, ISO, and other styles
20

Zhang, Zhenxiang. "A propos de quelques conjectures sur des suites de nombres entiers." Limoges, 1993. http://www.theses.fr/1993LIMO0224.

Full text
Abstract:
Le travail est compose de deux parties sur deux sujets independants. Il est base sur six papiers publies dans quatre journaux internationaux mathematiques. La premiere partie est consacree a une conjecture d'erdos sur des suites primitives, qui estime la somme des inverses de produits d'un element et de son logarithme. Nous obtenons des resultas partiels qui supportent la conjecture. Aussi nous obtenons une borne superieure raisonnable pour la somme. L'idee principale dans cette partie est de grouper les elements des suites donnees selon leur plus petit facteur premier et ensuite d'utiliser un argument inductif. Dans la deuxieme partie on etudie deux conjectures qui concernent des suites de sidon. L'une d'entre elles est celle de levine qui estime la somme des inverses des elements d'une suite de sidon. Nous infirmons cette conjecture en donnant une suite de sidon dont la somme des inverses est plus grande que celle de la suite de mian-chowla. L'autre est une conjecture (500 dollars pour une preuve ou un contre-exemple) d'erdos-turan qui estime le cardinal d'une suite maximale de sidon selectionnee a partir d'un intervalle donne d'entiers. Nous obtenons un algorithme pour trouver des suites de sidon denses. Ici l'idee principale est d'etudier les familles de suites de sidon denses construites en utilisant des suites des differences de bose-chowla au lieu de prendre une seule suite. Une recherche directe sur un ordinateur suggere que la conjecture d'erdos-turan va probablement echouer
APA, Harvard, Vancouver, ISO, and other styles
21

Milanez, Ana Paula. "Proposta de um algoritmo a operação e reconfiguração de empresas virtuais." [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/265630.

Full text
Abstract:
Orientador: Antonio Batocchio<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica<br>Made available in DSpace on 2018-08-14T09:28:36Z (GMT). No. of bitstreams: 1 Milanez_AnaPaula_M.pdf: 2339517 bytes, checksum: f1d11308199307d6a2023d3c36f582fd (MD5) Previous issue date: 2009<br>Resumo: Hoje, as empresas atuam em mercados em permanente mudança. Para atender as novas exigências, as empresas devem buscar flexibilidade e agilidade, ou seja, devem ser capazes de se reconfigurar rapidamente a fim de atender as necessidades do consumidor final de maneira efetiva, com produtos de alto valor agregado e baixo custo. A proposta do modelo organizacional de Empresa Virtual (EV) fornece às empresas as características necessárias para competir no mercado e ir de encontro às necessidades dos clientes. A Empresa Virtual é definida como uma aliança temporária de empresas que se unem para dividir suas habilidades, competências essenciais e recursos para melhor atender uma oportunidade de negócio, sendo a cooperação entre as empresas suportada por tecnologia da informação (CAMARFNHA-MATOS e AFSARMANESH, 2005). Devido à natureza autônoma e heterogênea dos membros da EV, a manufatura do produto é realizada por empresas com formas de produção e tecnologias distintas. Isso causa problemas relacionados à qualidade dos produtos/serviços oferecidos; ao ritmo da produção; às antecipações ou atrasos da produção em relação ao tempo previamente planejado; etc., acarretando em prejuízos e até no não cumprimento dos objetivos da EV. Diante deste contexto, este trabalho propõe uma metodologia de análise que auxilie na tomada de decisão frente a problemas logísticos relacionados ao tempo de produção, buscando soluções que garantam o sucesso de operação da EV.<br>Abstract: Today, companies operate in markets in permanent change. In order to meet the new requirements of these markets, they must search flexibility and agility, i.e., they should be able to reconfigure quickly to attend the needs of the end consumer in an effective way, with high value added and low cost products. The purpose of the Virtual Enterprise (VE) organizational model provides the companies with the necessary characteristics to compete in the market and to meet the needs of clients. The Virtual Enterprise is defined as a temporary alliance of companies that come together to share their skills, essential competences and resources in order to better respond to a business opportunity, being this cooperation supported by information technology (CAMARINHA-MATOS and AFSARMANESH, 2005). Due to the heterogeneous and independent nature of the virtual enterprise members, the product manufacturing is made by companies with different ways of production and technologies. This causes problems related to the quality of the offered products / services; the production rate; the advances or delays in the production in relation to the previously scheduled time; etc., resulting in losses and even in noncompliance with the objectives of the virtual enterprise. In this context, this work proposes a methodology of analysis, which aids the decision making in logistical problems related to the production time, seeking solutions to ensure success in the operation of the virtual enterprise.<br>Mestrado<br>Materiais e Processos de Fabricação<br>Mestre em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
22

Gambarra, Lucas Lucena. "Proposta de implementação em hardware para o algoritmo non-local means." Universidade Federal da Paraí­ba, 2012. http://tede.biblioteca.ufpb.br:8080/handle/tede/6069.

Full text
Abstract:
Made available in DSpace on 2015-05-14T12:36:33Z (GMT). No. of bitstreams: 1 Arquivototal.pdf: 8166722 bytes, checksum: dce897544fda4a4b57abafaa66d843be (MD5) Previous issue date: 2012-08-13<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior<br>A digital image is a representation of a two-dimensional image using binary numbers coded to allow its storage, transfer, printing, reproduction and its processingby electronic means. It is formed by a set of points defined by numerical values(grayscale), in which each point represents a pixel. In any grayscale digital image, the measurement of the gray level observed in each pixel is subject to alterations. These alterations, called noise, are due to the random nature of the photons counting process by sensors used for image capture. The noise may be amplified by virtue of some digital corrections, or by image processing software such as tools to increase contrast. Image denoising with the goal to recover or estimate the original image is still one of the most fundamental and widely studied problems related to image processing. In many areas, such as aerospace and medical image analysis, noise removal is a key step to improve the quality of results. Among the alternatives for this purpose, the method proposed by Buades (2005), known as Non-Local Means (NLM), represents the state of the art. Although quite effective for removing noise, the NLM is too slow to be performed in a practical manner. Its high computational complexity is caused by the need of weights calculated for all the image pixels during the filtering of each pixel, resulting in quadratic complexity relative to the number of the image pixels. The weights are obtained by calculating the difference between the neighborhoods corresponding to each pixel. Many applications have timing requirements so that their results are useful. This work proposes a hardware implementation for the Non-Local Means algorithm for image denoising with a lower computation time using pipelines, hardware parallelism and piecewise linear approximation. It is about 290 times faster than the original nonlocal means algorithm, yet produces comparable results in terms of mean-squared error (MSE) and perceptual image quality.<br>Imagem digital é a representação de uma imagem bidimensional usando números binários codificados de modo a permitir seu armazenamento, transferência, impressão ou reprodução, e seu processamento por meios eletrônicos. É formada por um conjunto de pontos definidos por valores numéricos, escala de cinza, no qual cada ponto representa um pixel. Em qualquer imagem digital em nível de cinza, a medição do valor em cada pixel é sujeita a algumas perturbações. Essas perturbações são devidas à natureza aleatória do processo de contagem de fótons nos sensores usados para captura da imagem. O ruído pode ser amplificado por correções digitais ou por qualquer software de processamento de imagem como, por exemplo, as ferramentas que aumentam o contraste. A remoção de ruídos cujo objetivo é recuperar, ou estimar a imagem original, é ainda um dos mais fundamentais e amplamente estudados problemas do processamento de imagem. Em diversas áreas, a remoção de ruídos é uma etapa fundamental para melhorar a qualidade dos resultados. Entre as alternativas com essa finalidade, o método proposto por Buades (2005), conhecido como Non-Local Means (NLM), representa o estado da arte. Embora bastante eficaz quanto à remoção de ruídos, o NLM é muito lento para ser realizado de modo prático. Sua complexidade computacional é alta devido à necessidade de cálculo de pesos para todos os pixels da imagem durante o processo de filtragem de cada pixel, resultando numa complexidade quadrática no número de pixels da imagem. Os pesos são obtidos por meio do cálculo da diferença entre as vizinhanças de pixels correspondentes. Muitas aplicações possuem requisitos de tempo para que seus resultados sejam úteis, e nesse contexto, este trabalho propõe uma implementação em FPGA para o algoritmo Non-local means com o objetivo de obter um baixo tempo de execução usando, para isto: pipelines, paralelismo em hardware e aproximação linear por partes. A implementação proposta é aproximadamente 290 vezes mais rápida que o algoritmo Non-local means em software e apresenta, além disso, resultados semelhantes ao algoritmo original quanto ao erro médio quadrático (MSE) e a qualidade perceptiva de imagem.
APA, Harvard, Vancouver, ISO, and other styles
23

Torquato, Matheus Fernandes. "Proposta de implementa??o paralela de algoritmo gen?tico em FPGA." PROGRAMA DE P?S-GRADUA??O EM ENGENHARIA EL?TRICA E DE COMPUTA??O, 2017. https://repositorio.ufrn.br/jspui/handle/123456789/24729.

Full text
Abstract:
Submitted by Automa??o e Estat?stica (sst@bczm.ufrn.br) on 2018-02-15T11:21:03Z No. of bitstreams: 1 MatheusFernandesTorquato_DISSERT.pdf: 2354339 bytes, checksum: 32d0b6ee431808fccf375481ef94b8a9 (MD5)<br>Approved for entry into archive by Arlan Eloi Leite Silva (eloihistoriador@yahoo.com.br) on 2018-02-16T11:39:52Z (GMT) No. of bitstreams: 1 MatheusFernandesTorquato_DISSERT.pdf: 2354339 bytes, checksum: 32d0b6ee431808fccf375481ef94b8a9 (MD5)<br>Made available in DSpace on 2018-02-16T11:39:52Z (GMT). No. of bitstreams: 1 MatheusFernandesTorquato_DISSERT.pdf: 2354339 bytes, checksum: 32d0b6ee431808fccf375481ef94b8a9 (MD5) Previous issue date: 2017-12-01<br>Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES)<br>Os Algoritmos Gen?ticos (AGs) s?o utilizados para resolver problemas de busca e otimiza??o no qual, uma solu??o ?tima pode ser encontrada utilizando um processo iterativo e transi??es probabil?sticas. Todavia, dependendo do tipo de problema, o tempo para encontrar a solu??o pode ser elevado em m?quinas sequenciais devido ? complexidade computacional do algoritmo gen?tico. Assim, esse trabalho possui como objetivo o desenvolvimento de um prot?tipo associado a uma implementa??o paralela de um algoritmo gen?tico em FPGA (Field-programmable gate array). O principal objetivo do desenvolvimento dessa arquitetura ? a otimiza??o do tempo de processamento do sistema. Resultados associados com o tempo de processamento e a ?rea ocupada para v?rios tamanhos de popula??o foram analisados. Estudos relativos ? precis?o da resposta do algoritmo gen?tico para o problema de otimiza??o de fun??es com uma e duas vari?veis tamb?m foram analisados para a implementa??o em hardware. Todo projeto foi desenvolvido utilizando a plataforma de desenvolvimento System Generator da Xilinx tendo como FPGA alvo um Virtex-7 xc7vx550t-1ffg1158 FPGA.<br>Genetic Algorithms (GAs) are used to solve search and optimization problems in which an optimal solution can be found using an iterative process and using probabilistic transitions. However, depending on the type of problem, the time required to find a solution can be high in sequential machines due to the computational complexity of genetic algorithm. This work proposes a parallel implementation of a genetic algorithm on fieldprogrammable gate array (FPGA). Optimization of the system?s processing time is the main goal of this project. Results associated with the processing time and area occupancy (in FPGA) for various population size are analyzed. Studies concerning the accuracy of the GA response for the optimization of functions with one and two variables were also analyzed for the hardware implementation. The project was developed using the System Generator software (Xilinx development platform) and the Virtex-7 xc7vx550t-1ffg1158 FPGA.
APA, Harvard, Vancouver, ISO, and other styles
24

Arslan, Selcuk Semra. "Proposal For A Non-dimensional Parametric Interface Design In Architecture: A Biomimetic Approach." Phd thesis, METU, 2009. http://etd.lib.metu.edu.tr/upload/3/12610478/index.pdf.

Full text
Abstract:
Biomimesis, the imitation of animate and inanimate forms in nature to inspire new designs, is term introduced in the 20th century. The concept that there exist models and solutions in nature that may improve and optimize the way mankind lives has been the subject of much discussion. Although biomimesis as a well-defined discipline is a relatively recent concept, modeling nature is as old as mankind itself and can be seen in many different forms in all aspects of life. In the field of architecture there have been several designs created by imitating/modeling or aspiring to forms in nature. Most of the &ldquo<br>end products&rdquo<br>of these processes can be considered as milestones in the history of architecture, with their innovative form, structure, and construction techniques, and have resulted in developments in many fields through the pioneering of new and successful designs. The implementations of the concept of Biomimesis in the field of architecture are mostly observed in the design of forms. In the proposed study, besides those forms, structural behavior and the optimized response to internal and external loads of these forms, together with their geometrical configurations, have been studied to provide a methodology to understand relationships in nature for optimized structures and in the further steps a system design has been aimed. Within the frame work of methodology, in the first part of the study, form/structure groups in animate and inanimate nature are classified and their representative characteristics are discussed. The next part focuses on the &ldquo<br>shell&rdquo<br>, as a case to exemplify the proposed methodology. For this reason, the &ldquo<br>seashell&rdquo<br>form is chosen to explore the forms/structures in architecture. For this purpose, initially the definitions of a shell and its implementations in architecture have been examined and the &ldquo<br>real problem&rdquo<br>has been described: what are the codes in architecture to understand the language of shells in nature and how this knowledge can be translated to man made design. The modeling approaches of the researchers working on the seashells have been examined and parameters developed to generate a mathematical model closer to a real shell. A program has been written to generate the computational model of selected seashell Turitella Terebra as a case. Through a series of abstractions/assumptions first mathematical then computational model of the actual seashell have been obtained to explore the behavioral properties of shells. In the experimental part of the study, 86 shells have been exposed to compression tests, similar boundary conditions and loads have been applied to the computational model in two different FEA software, to compare simulation results with the experimental ones in order to check the precision and efficacy of the computational model. The results have been analyzed and a number of non-dimensional parameters are obtained. It is believed that potential relations in the realm of architecture regarding such non dimensional parameters would be a new era to talk new design methods and to construct optimized structures. Through this perception/thinking/designing/manufacturing method a platform would be formed to discuss the concept of Biomimesis in architecture subjectively.
APA, Harvard, Vancouver, ISO, and other styles
25

Coradine, Luis Claudius. "Filtragem adaptativa em cascata : proposta de estrutura e algoritmo, analise e aplicações." [s.n.], 1993. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260416.

Full text
Abstract:
Orientador: João Marcos Travassos Romano<br>Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-19T07:52:10Z (GMT). No. of bitstreams: 1 Coradine_LuisClaudius_D.pdf: 7635443 bytes, checksum: cd77112aa6fb0605b14de16a267c9fb6 (MD5) Previous issue date: 1993<br>Resumo: A filtragem adaptativa utilizando estruturas na forma em cascata FIR se mostra mais eficaz do que na forma direta (transversal), quando se quer obter os polos de um modelo autoregressivo, estimando-se diretamente os zeros do preditor adaptativo, a partir dos parâmetros desse filtro, pela solução de equações de segundo grau. Este trabalho propõe uma técnica de filtragem adaptativa combinando o uso dos algoritmos dos mínimos quadrados recursivos em conjunto com estruturas na forma em cascata FIR. A abordagem consiste em transladar a original estrutura em cascata para uma configuração direta multidimensional FIR, de modo a atualizar os coeficientes do filtro através de um algoritmo dos mínimos quadrados rápido proposto, FLS-MD. A aplicação do algoritmo em cascata é de extrema importância em situações onde os parâmetros de interesse são os zeros dos filtros, como em predição de voz, detecção de freqüências, etc. Nesse sentido, esse algoritmo é proposto para estimação dos parâmetros LSP (Line Spectrum Pairs), utilizados em análise e modelagem de voz. A partir do estudo das relações entre os parâmetros LSP e a predição linear, chega-se a uma estrutura e mostra-se que o algoritmo multidimensional pode ser usado para adaptar seus coeficientes. Simulações são feitas com sinais de voz digitalizados. Também, no caso de detecção de freqüências, simulações mostram o bom desempenho da técnica proposta. A análise de convergência é feita a partir da relação entre as curvas de erro da estrutura proposta e da estrutura transversal, utilizando a seguir a técnica da equação diferencial associada (ODE)<br>Abstract: Adaptive filtering, using FIR cascade form, is more efficient than the direct (transversal) form when the poles of an autoregressive model are to be obtained, because it directly estimates the adaptive predictor zeros from the filter parameters by the solution of a second degree equation. This work proposes an adaptive filtering technique that combines the recursive least square algorithms and the FIR cascade form structures. The approach consists in translating the original structure in cascade form to a FIR multidimensional direct configuration, in such a way to update the filter coefficients by using the proposed fast least square multidimensional algorithm, FLS-MD. The application of this algorithm is very important in situations where the parameters of interest are the zeros of the filters, as in speech prediction, frequency detection, etc. In this way, this algorithm may be applied to estimate the LSP (Line Spectrum Pairs) parameters, used in speech analysis and speech modeling. From the study of the relation between the LSP parameters and the linear prediction, a structure is reached where the multidimensional algorithm can be used to adapt its coefficients. Simulations are carried out with digital speech signal. In the case of frequency detection, simulations also show a good performance of the proposed technique. The convergence analysis is made from the relation between the error surface of the proposed structure and the transversal structure, using the associated differential equation technique (DDE)<br>Doutorado<br>Doutor em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
26

Padua, Fabiano João L. "Proposta de um algoritmo heuristico adaptativo para RWA em redes fotonicas DWDM." [s.n.], 2001. http://repositorio.unicamp.br/jspui/handle/REPOSIP/261806.

Full text
Abstract:
Orientador : Edson Moschim<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação<br>Made available in DSpace on 2018-07-31T15:17:34Z (GMT). No. of bitstreams: 1 Padua_FabianoJoaoL_M.pdf: 506585 bytes, checksum: 8bd26b8dae1ab8c932d8a24712288887 (MD5) Previous issue date: 2001<br>Mestrado
APA, Harvard, Vancouver, ISO, and other styles
27

Junior, Roberto Borges Kerr. "Proposta e desenvolvimento de um algoritmo de associatividade reconfigurável em memórias cache." Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01102008-135441/.

Full text
Abstract:
A evolução constante dos processadores está aumentando cada vez o overhead dos acessos à memória. Tentando evitar este problema, os desenvolvedores de processadores utilizam diversas técnicas, entre elas, o emprego de memórias cache na hierarquia de memórias dos computadores. As memórias cache, por outro lado, não conseguem suprir totalmente as suas necessidades, sendo interessante alguma técnica que tornasse possível aproveitar melhor a memória cache. Para resolver este problema, autores propõem a utilização de técnicas de computação reconfigurável. Este trabalho analisa um trabalho na área de reconfiguração na associatividade de memórias cache, e propõe melhorias nele para uma melhor utilização de seus recursos, apresentando resultados práticos de simulações realizadas com diversas organizações de cache.<br>With the constant evolution of processors architecture, its getting even bigger the overhead generated with memory access. Trying to avoid this problem, some processors developers are using several techniques to improve the performance, as the use of cache memories. By the otherside, cache memories cannot supply all their needs, thats why its important some new technique that could use better the cache memory. Working on this problem, some authors are using reconfigurable computing to improve the cache memorys performance. This work analyses the reconfiguration of the cache memory associativity algorithm, and propose some improvements on this algorithm to better use its resources, showing some practical results from simulations with several cache organizations.
APA, Harvard, Vancouver, ISO, and other styles
28

Botton, Mariana Rodrigues. "Farmacogenética da varfarina : proposta de um algoritmo para a predição de dose." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2010. http://hdl.handle.net/10183/69701.

Full text
Abstract:
A varfarina é um medicamento da classe dos anticoagulantes orais cumarínicos muito utilizada na profilaxia de doenças tromboembólicas. Existe uma grande variação interindividual na resposta aos cumarínicos, uma vez que a farmacocinética e a farmacodinâmica do medicamento variam de acordo com fatores ambientais e genéticos. As enzimas CYP2C9, responsável pela maior parte da metabolização do fármaco, e VKORC1, alvo dos cumarínicos, estão diretamente envolvidas na farmacocinética e farmacodinâmica da varfarina, respectivamente. A enzima CYP4F2, envolvida na metabolização de vitamina K, atua de forma indireta na farmacodinâmica do medicamento. O fator II é um fator de coagulação dependente de carboxilação, sendo sua funcionalidade dependente da atuação da varfarina. Polimorfismos nestes genes estão relacionados com variação na resposta ao medicamento. Neste trabalho foi investigada a influência dos polimorfismos CYP2C9*2 e CYP2C9*3 no gene CYP2C9, -1639G>A, 1173C>T e 3730G>A no gene VKORC1, 1347C>T no gene CYP4F2 e 494C>T no gene F2 na dose/resposta de varfarina de forma independente, assim como foi elaborado um modelo incluindo fatores genéticos e não-genéticos capazes de predizer a dose de varfarina necessária a cada paciente. Para a realização das análises foram estudados 279 pacientes usuários de varfarina provenientes do Hospital de Clínicas de Porto Alegre com ascendência européia. Todos os SNPs dos genes CYP2C9, VKORC1, CYP4F2 e F2 foram identificados pelo sistema TaqMan de discriminação alélica através de PCR em tempo real. Os alelos CYP2C9*2 (P<0,001) e CYP2C9*3 (P<0,001) do gene CYP2C9, -1639A (P<0,001) e 1173T (P<0,001) do gene VKORC1 e 494T do gene F2 são responsáveis pela necessidade de uma dose menor do anticoagulante. Em contrapartida, os alelos 1347T do gene CYP4F2 e 3730A (P<0,001) do gene VKORC1 são responsáveis pela necessidade de uma dose maior de varfarina. Os valores de P referentes aos polimorfismos nos genes CYP4F2 e F2 referem-se à análise multivariada, após controlar por confundidores, pois na análise univariada estes polimorfismos não apresentaram associação com a dose de varfarina. A partir destes polimorfismos e de algumas variáveis clínicas foi elaborado um algoritmo que consegue explicar 63,3% da variação de dose de varfarina. Este algoritmo incluiu os seguintes fatores: peso, idade, uso de anlodipino, amiodarona, carbamazepina, -bloqueadores, diuréticos de alça e polimorfismos nos genes CYP2C9, VKORC1, CYP4F2 e F2. A média da diferença absoluta entre a dose predita e a dose observada foi de 6,9 mg/semana e a correlação entre as doses predita e observada foi rs=0,77. O modelo sugerido é um dos que apresenta maior coeficiente de determinação entre os descritos na literatura, porém, para que seja possível um futuro uso clínico é necessário que seja validado em uma amostra independente. Mais estudos também são necessários para que se consiga determinar os outros fatores que expliquem os 40% da variação de dose não explicada até o momento.<br>Warfarin is a drug from coumarin anticoagulant class widely used for thromboembolic disease prophylaxis. There is a wide interindividual variation in response to coumarins, since the pharmacokinetics and pharmacodynamics of this drug vary with environmental and genetic factors. The CYP2C9 enzyme, responsible for drug metabolism, and VKORC1, the coumarin target, are directly involved in the pharmacokinetics and pharmacodynamics of warfarin, respectively. The CYP4F2 enzyme, involved in the metabolism of vitamin K, acts indirectly on the pharmacodynamics of the drug. Factor II is a coagulation factor dependent on carboxylation, and its function depends on warfarin action. Polymorphisms in these genes are related to drug variation response. In this study we investigated the influence of the CYP2C9*2 and CYP2C9*3 polymorphisms in CYP2C9 gene, -1639G>A, 1173C>T and 3730G>A in the VKORC1 gene, 1347C>T in the CYP4F2 gene and 494C>T in the F2 gene with warfarin dose/response independently. In addition, a model including genetic and nongenetic factors able to predict warfarin dose needed for each patient was developed. The analysis was performed with 279 patients of European ancestry from the Hospital de Clínicas de Porto Alegre taking warfarin. All SNPs from CYP2C9, VKORC1, CYP4F2 and F2 genes were identified by TaqMan system of allelic discrimination by real-time PCR. The CYP2C9*2 (P <0.001) and CYP2C9*3 (P <0.001) polymorphisms in the CYP2C9 gene, -1639G>A (P <0.001) and 1173C>T (P <0.001) in VKORC1 gene and 494C>T in F2 gene are responsible for lower doses of anticoagulant. In contrast, the SNPs 1347C>T in the CYP4F2 gene and 3730G>A (P <0.001) in VKORC1 gene are responsible for higher doses of warfarin. P values regarding CYP4F2 and F2 polymorphisms refer to multivariate analysis after controlling for confounders, since in the univariate analysis these polymorphisms were not associated with warfarin dose. An algorithm considering these polymorphisms and some clinical variables was developed that explains 63.3% of the variation in warfarin dose. This algorithm included the following factors: body weight, age, use of anlodipine, amiodarone, carbamazepine, -blockers, loop diuretics and polymorphisms in CYP2C9, VKORC1, CYP4F2 and F2 genes. The average absolute difference between the predicted dose and observed dose was 6.9 mg/week and the correlation between the observed and predicted doses was rs=0.77. The model suggested is one with the higher coefficient of determination among those described in the literature, however, for a possible future clinical use it must be validated in an independent sample. More studies are warranted to find other factors that explain the 40% dose variation not explained so far.
APA, Harvard, Vancouver, ISO, and other styles
29

Khajo, Gabriel. "Region Proposal Based Object Detectors Integrated With an Extended Kalman Filter for a Robust Detect-Tracking Algorithm." Thesis, Karlstads universitet, Fakulteten för hälsa, natur- och teknikvetenskap (from 2013), 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kau:diva-72698.

Full text
Abstract:
In this thesis we present a detect-tracking algorithm (see figure 3.1) that combines the detection robustness of static region proposal based object detectors, like the faster region convolutional neural network (R-CNN) and the region-based fully convolutional networks (R-FCN) model, with the tracking prediction strength of extended Kalman filters, by using, what we have called, a translating and non-rigid user input region of interest (RoI-) mapping. This so-called RoI-mapping maps a region, which includes the object that one is interested in tracking, to a featureless three-channeled image. The detection part of our proposed algorithm is then performed on the image that includes only the RoI features (see figure 3.2). After the detection step, our model re-maps the RoI features to the original frame, and translates the RoI to the center of the prediction. If no prediction occurs, our proposed model integrates a temporal dependence through a Kalman filter as a predictor; this filter is continuously corrected when detections do occur. To train the region proposal based object detectors that we integrate into our detect-tracking model, we used TensorFlow®’s object detection api, with a random search hyperparameter tuning, where we fine-tuned, all models from TensorFlow® slim base network classification checkpoints. The trained region proposal based object detectors used the inception V2 base network for the faster R-CNN model and the R-FCN model, while the inception V3 base network only was applied to the faster R-CNN model. This was made to compare the two base networks and their corresponding affects on the detection models. In addition to the deep learning part of this thesis, for the implementation part of our detect-tracking model, like for the extended Kalman filter, we used Python and OpenCV® . The results show that, with a stationary camera reference frame, our proposed detect-tracking algorithm, combined with region proposal based object detectors on images of size 414 × 740 × 3, can detect and track a small object in real-time, like a tennis ball, moving along a horizontal trajectory with an average velocity v ≈ 50 km/h at a distance d = 25 m, with a combined detect-tracking frequency of about 13 to 14 Hz. The largest measured state error between the actual state and the predicted state from the Kalman filter, at the aforementioned horizontal velocity, have been measured to be a maximum of 10-15 pixels, see table 5.1, but in certain frames where many detections occur this error has been shown to be much smaller (3-5 pixels). Additionally, our combined detect-tracking model has also been shown to be able to handle obstacles and two learnable features that overlap, thanks to the integrated extended Kalman filter. Lastly, our detect-tracking model also was applied on a set of infra-red images, where the goal was to detect and track a moving truck moving along a semi-horizontal path. Our results show that a faster R-CNN inception V2 model was able to extract features from a sequence of infra-red frames, and that our proposed RoI-mapping method worked relatively well at detecting only one truck in a short test-sequence (see figure 5.22).
APA, Harvard, Vancouver, ISO, and other styles
30

Prata, Priscila de Almeida. "Proposta de um algoritmo para o problema de roteirização do transporte escolar rural." Universidade Federal de São Carlos, 2009. https://repositorio.ufscar.br/handle/ufscar/4258.

Full text
Abstract:
Made available in DSpace on 2016-06-02T20:00:26Z (GMT). No. of bitstreams: 1 2585.pdf: 1963090 bytes, checksum: ab46d9bf6dfd456cc50c82353bc41ffd (MD5) Previous issue date: 2009-08-06<br>Universidade Federal de Sao Carlos<br>Rural School Transportation is a very important topic but which is scarcely discussed in academic papers, mainly the routing of vehicles for this transport. Its importance is due to the fact that is a constitutional right and results in huge expenses to the municipalities that are responsible for the biggest part of them. Treating this problem manually, like in many Brazilian cities, and considering every one of the system s particularities is a complex task. In this context, the Geographic Information Systems (GIS) constitute a convenient Decision Support Tool, but the algorithms that are incorporated in them are not adequate for treating the problem which results in solutions unviable in practice. On the other hand, some GIS permit the inclusion of new functionalities, by means of programming languages, so that the routines may be adapted to the user s needs. Thus, this research proposes an algorithm for the definition of routes that generates more practical solutions. The algorithm is used by a tool where the users inform the necessary data for the definition of the routes and the outcome is a report and a map with the routes. It is also possible to consult each of the routes individually. The algorithm and the tool were developed in TransCAD using a programming language called GIDDK (Geographic Information System Developer s Kit). In order to analyze the performance of the algorithm, two case studies were developed for Brazilian cities with different characteristics. The results showed that the algorithm and the tool may be used as a Decision Support Tool for the definition of rural school transportation routes.<br>O Transporte Escolar Rural é um assunto muito importante, mas pouco discutido em trabalhos acadêmicos, em especial a roteirização de veículos para este transporte. Sua importância deve-se ao fato de ser um direito constitucional e trazer custos elevados aos municípios que arcam com a maior parte deles. Tratar este problema manualmente como ocorre na maioria dos municípios brasileiros e levando em considerando as particularidades do sistema é uma tarefa complexa. Neste contexto, os Sistemas de Informações Geográficas (SIGs) podem ser uma boa ferramenta de auxílio à decisão mas, em geral, os algoritmos incorporados a eles não são adequados para tratar do problema, resultando em soluções pouco viáveis na prática. Por outro lado, alguns SIGs permitem que novas funcionalidades sejam inseridas através de linguagens de programação para adequar as rotinas às necessidades do usuário. Sendo assim, este trabalho propõe um algoritmo para a definição das rotas a fim de gerar soluções mais viáveis na prática. O algoritmo é utilizado através de uma ferramenta onde o usuário informa os dados necessários para a definição das rotas e obtém como saída um relatório e o desenho das rotas num mapa. É também possível consultar individualmente cada uma das rotas geradas. O algoritmo e a ferramenta foram desenvolvidos no TransCAD utilizando a linguagem de programação GISDK (Geographic Information System Developer s Kit). Para analisar o desempenho do algoritmo, foram realizados dois estudos de caso em cidades brasileiras com características diferentes. Os resultados encontrados mostram que o algoritmo juntamente com a ferramenta pode ser utilizado como um sistema de apoio à decisão para a definição das rotas do transporte escolar rural.
APA, Harvard, Vancouver, ISO, and other styles
31

Martinez, Mayara Hidalgo Magri 1984. "Proposta de algoritmo para triagem e investigação laboratorial da infecção do trato urinário." [s.n.], 2012. http://repositorio.unicamp.br/jspui/handle/REPOSIP/308691.

Full text
Abstract:
Orientadores: Célia Regina Garlipp, Carlos Emilio Levy<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Ciências Médicas<br>Made available in DSpace on 2018-08-21T18:20:39Z (GMT). No. of bitstreams: 1 Martinez_MayaraHidalgoMagri_M.pdf: 2010266 bytes, checksum: 23bb4f89ea7b258a0fd5fe0e20f6cc1f (MD5) Previous issue date: 2012<br>Resumo: Infecção do trato urinário (ITU) é muito comum na prática clínica, acometendo pessoas de ambos os sexos em todas as faixas etárias. Para seu diagnóstico é importante definir rapidamente a presença de bacteriúria e piúria bem como a etiologia da doença através da urocultura. A urocultura é o teste microbiológico mais comum na prática laboratorial, embora seja um procedimento demorado e de custo relativamente elevado. Nosso objetivo foi avaliar a aplicação de um sistema automatizado de análise da urina (LabUMat/UriSed) como método de triagem para a investigação de ITU através da comparação de seus resultados com os das uroculturas. Analisamos amostras de urina de pacientes adultos e crianças de ambos os sexos provenientes de ambulatórios e enfermarias do Hospital de Clínicas da UNICAMP encaminhados às Seções de Líquidos Biológicos e Microbiologia da Divisão de Patologia Clínica para análise físicoquímica, sedimento e urocultura. Foram estabelecidos valores de cortes baseados na comparação dos resultados das uroculturas com os parâmetros urinários: leucócito-esterase, nitrito, leucócitos, bactérias e leveduras, sendo que a positividade de pelo menos um destes parâmetros classificava a amostra para uma triagem positiva para ITU. O estudo foi conduzido em três etapas: Na primeira etapa, a análise de 2126 amostras de urinas permitiu adotar um primeiro valor de corte para os parâmetros analisados: contagem de bactérias >11/campo; contagem de leucócitos >5/campo, presença de leveduras além de nitrito e leucócito-esterase positivos. Esses valores foram comparados com os resultados da urocultura em meio CLED e testados na rotina laboratorial. Em uma segunda etapa, com a finalidade de aprimorar o valor de corte dos parâmetros e aumentar o valor preditivo positivo sem comprometer o valor preditivo negativo, estabeleceu-se um novo valor de corte. Para tanto, foram analisadas 2075 amostras de urinas e com os seguintes valores de corte estabelecidos: contagem de bactérias 'maior ou igual'12,5/campo; contagem de leucócitos >5/campo, presença de leveduras e nitrito bem como leucócito-esterase positivo 'maior ou igual'2+. Esses valores foram comparados com os resultados das uroculturas em meio CLED e testados na rotina laboratorial. A fim de refinar e validar o teste de triagem para urocultura foram analisados, em uma terceira etapa, 1379 amostras de urina. Nesta etapa os valores de corte dos parâmetros foram: contagem de bactérias >12,5/campo, contagem de leucócitos >5/campo, presença de leveduras e leucócito - esterase positivos 'maior ou igual'2+. Nesta etapa as amostras cujos parâmetros urinários avaliados estavam abaixo do valor de corte, foram consideradas negativas para ITU e semeadas em meio CLED. As amostras em que pelo menos um dos parâmetros estudados estava acima do valor de corte, foram consideradas positivas, sendo semeadas em meio Chromagar a fim de se identificar presuntivamente os patógenos. O teste mostrou sensibilidade de 97%, valor preditivo negativo de 99%, valor preditivo positivo de 27%, especificidade de 59% e acurácia de 64%. Em todas as etapas observou-se uma potencial redução de 50% nas semeaduras de uroculturas. Os dados sugerem que o sistema automatizado LabUMat / UriSed é uma boa ferramenta para a triagem de ITU, especialmente se considerarmos os dados clínicos dos pacientes<br>Abstract: Urinary tract infection (UTI) is very common in clinical practice, affecting people of both genders in all age groups. For the laboratory diagnosis of UTI is of great importance the definition of significant bacteriuria and pyuria and a bacterial culture of a urine sample to establish the etiology of the disease. The quantitative urine culture is the commonest microbiology test in Clinical Pathology Laboratory practice, although it is a very time-consuming and expensive procedure. Our aim was to evaluate the performance of the LabUMat with UriSed System as a screening method for the investigation of UTI comparing its results with the outcome of urine culture. We studied urine samples from children and adults of both genders from outpatients and hospitalized patients from Clinical Hospital / UNICAMP referred to Body Fluids and Microbiology Laboratories at Division of Clinical Pathology for physicochemical analysis, sediment observation and urine culture. We established cut-off values based on the comparison of the outcome of urine cultures with urinary parameters: leukocyte esterase, nitrite and quantitative determination of bacteriuria, leukocyturia and presence of yeasts. A positivity of at least one parameter classified the sample as a positive screening of UTI. This study was conducted in three stages: In the first stage, the analysis of 2,126 urine samples allowed to adopt the first cut-off value for the parameters analyzed: quantification of bacteriuria (>11 elements/hpf), quantification of leukocyturia (>5 cells/hpf), presence of yeasts besides nitrite and leukocyte esterase positive. These values were compared with the outcome of uroculture in CLED agar medium culture and tested in the laboratory routine. In the second stage, in order to improve cut-off values of urinary parameters and increase the positive predictive value without compromising the negative predictive value, it was established a new cut-off value. We analyzed 2,075 urine samples with the following established cut-off values: quantification of bacteriuria (> or = 12.5 elements/hpf) and leukocyturia (> 5 cells/hpf), presence of yeasts, nitrite and leukocyte esterase positive (> or = 2+). These values were compared with the outcome of uroculture and tested in the laboratory routine. In order to refine and validate the screening test for uroculture were analyzed, in a third stage, 1,379 urine samples. In this stage the cutoff values of the parameters were: quantification of bacteriuria (>12.5 elements/hpf) and leukocyturia (> 5 cells/hpf), presence of yeasts and leukocyte esterase positive (> or = 2+). In this stage the urinary samples whose evaluated parameters were below the cut-off value were considered negative for UTI and were plated in CLED agar medium culture. Samples which at least one of the parameters evaluated was above the cut-off value, were considered positive, and were plated in Chromagar commercial medium, in order to presumptively identify pathogens. The test showed sensitivity of 97%, negative predictive value of 99%, positive predictive value of 27%, specificity of 59% and accuracy of 64%. In all stages we observed a potential 50% reduction in sowing urocultures. The data suggest that the LabUMat with UriSed System is a good tool for screening for UTI, especially if we consider patients' clinical data<br>Mestrado<br>Ciencias Biomedicas<br>Mestra em Ciências Médicas
APA, Harvard, Vancouver, ISO, and other styles
32

Vieira, Junior Leonidas. "Uma proposta de um algoritmo de sincronização de relogios fisicos para ambientes industriais." reponame:Repositório Institucional da UFSC, 1991. https://repositorio.ufsc.br/handle/123456789/111487.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

GUIMARÃES, JÚNIOR Francisco Roberto Farias. "Proposta de um algoritmo para seleção de portfólio por meio de direcionadores de valor." Universidade Federal de Pernambuco, 2013. https://repositorio.ufpe.br/handle/123456789/11031.

Full text
Abstract:
Submitted by Israel Vieira Neto (israel.vieiraneto@ufpe.br) on 2015-03-06T12:35:26Z No. of bitstreams: 2 TESE Francisco Roberto Farias Guimarães Júnior.pdf: 2307437 bytes, checksum: 53e64ebe4f027c884afbeabb754fb4e8 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5)<br>Made available in DSpace on 2015-03-06T12:35:26Z (GMT). No. of bitstreams: 2 TESE Francisco Roberto Farias Guimarães Júnior.pdf: 2307437 bytes, checksum: 53e64ebe4f027c884afbeabb754fb4e8 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-10-30<br>Há mais de 100 anos, pesquisadores da área financeira e de mercado de capitais vêm desenvolvendo teorias complementares que permitem estudar e entender o risco associado ao investimento em ativos de empresas, com o objetivo de maximizar o retorno e minimizar o risco assumido. Na tentativa de identificar variáveis que pudessem auxiliar na seleção de ativos para formar uma carteira com capacidade de gerar valor no longo prazo, vários autores comprovaram que alguns indicadores e alguns múltiplos de mercado eram correlacionados com o retorno dos ativos. Baseada nesta ideia de que existem variáveis capazes de auxiliar a seleção de ativos, esta pesquisa tem o seguinte objetivo: elaborar um modelo que permita a utilização de direcionadores de valor no processo de seleção de ativos para compor uma carteira de ações que apresente um bom desempenho de mercado e que esteja próxima da fronteira eficiente. Os procedimentos metodológicos foram divididos em duas etapas: na primeira etapa, desenvolveu-se um modelo matemático para o processo de seleção de portfólio; na segunda etapa, testou-se este modelo nas bolsas de valores da Argentina, do Brasil, do Chile e do México e compararam-se os resultados obtidos pela carteira formada pelo modelo proposto com os resultados obtidos pelas carteiras formadas pelo modelo de Markowitz e pelas carteiras proxies de mercado de cada uma das bolsas. Como resultado, verificou-se que dos 72 gráficos analisados, o modelo proposto superou o modelo de Markowitz em 23 situações. Comparando-se com as carteiras proxy de mercado, dos 72 gráficos analisados, o modelo proposto superou a carteira de mercado em 20 situações e empatou com a carteira de mercado em 17 situações. Com relação à avaliação do desempenho da carteira por meio do Índice de Sharpe Generalizado, verificou-se que as carteiras formadas pelo modelo proposto obtiveram um desempenho melhor que as carteiras formadas pelo modelo de Markowitz em 17 situações. Para o caso do teste de Wald, verificou-se que, em 27 casos, o módulo do valor do teste ficou dentro do intervalo 0 < W ≤ 0,05 e que em 17 situações o módulo do valor do teste de Wald ficou dentro do intervalo 0,05 < W ≤ 0,10.
APA, Harvard, Vancouver, ISO, and other styles
34

Lacerda, Allysson Steve Mota. "Proposta de um algoritimo evolucionário nebuloso para a solução de problemas de otimização multiobjetivo." Universidade Federal de Minas Gerais, 2010. http://hdl.handle.net/1843/BUDB-8CEJJX.

Full text
Abstract:
Multiobjective Optimization plays a major role in Optimization researches. In such area, evolutionary algorithms have gained special highlight, mainly due to the easiness to handle complex problems and the quality of the solutions found. Based on this, we propose Fuzzy-DE (Fuzzy-based Differential Evolution Algorithm), a new multiobjective evolutionary algorithm that incorporates concepts of Fuzzy Systems and Differential Evolution to handle constrained and unconstrained problems. The main goal is to address a large range of problems without the need to do major changes in its structure, making it very generalist. Moreover, tests showed competitive results and a low computational cost, when compared to other existing methods.<br>Parte significativa das pesquisas em Otimização tem sido feita na linha de Otimização Multiobjetivo, área na qual os algoritmos evolutivos ganharam especial destaque. Isso ocorre, principalmente, devido à facilidade de tais métodos em trabalhar com problemas complexos e à qualidade das soluções encontradas. Baseado nisso, o presente trabalho propõe o Fuzzy-DE (Fuzzy-based Differential Evolution Algorithm), um novo algoritmo evolucionário multiobjetivo que engloba conceitos de Sistemas Nebulosos e Evolução Diferencial para o tratamento de problemas restritos e irrestritos. Seu principal objetivo é poder ser aplicado em problemas diversos sem a necessidade de se realizar grandes modificações em sua estrutura, tornando-o bastante generalista. Além disso, os testes mostraram que seus resultados são bastante competitivos e seu custo computacional baixo, quando comparado a outros métodos existentes.
APA, Harvard, Vancouver, ISO, and other styles
35

Novillo, Parales Francisco Vicente. "Proposal and evaluation of channel assignment algorithms for wireless local area networks with opportunistic spectrum acces capabilities." Doctoral thesis, Universitat Politècnica de Catalunya, 2013. http://hdl.handle.net/10803/119320.

Full text
Abstract:
The growing need for wireless connectivity is pushing the massive adoption and usage of Wireless Local Area Networks (WLANs) based on the IEEE 802.11 standard (Wi-Fi), leading to dense deployments of individual, uncoordinated access points (AP) in highly populated areas. By 2016, over half of the world's Internet traffic is expected to come from WLAN connections, according to the latest Cisco® Visual Networking Index (VNI) Forecast (2011-2016). The proliferation of dense deployments causes high interference levels in the unlicensed bands (i.e. ISM bands) available for WLAN operation, which, ultimately, may result in both an unpredictable degradation in network performance and unfairness among APs. Channel assignment mechanisms are the central tool used nowadays for mitigating the interference problems in the ISM band caused by neighboring APs. However, regardless of the ability of different channel assignment algorithms to improve WLAN performance, the amount of available spectrum in unlicensed bands for WLAN use may still constitute a key limiting factor in high dense deployments. In this context, the exploitation of additional portions of the radio spectrum bands that are assigned to a particular application or service but remain unused or unoccupied at specific locations and times can help to further improve the performance of WLANs networks. This spectrum usage concept is known in the literature as Opportunistic Spectrum Access (OSA), where secondary users are allowed to share the same frequencies used by some primary users whenever these primary services are not disturbed. This thesis work has addressed a novel study for OSA-enabled WLANs in which the possibilities and benefits offered by WLANs using OSA capabilities are discussed and quantified. This thesis provides two main contributions. The first contribution is the development of the formulation and assessment of the spatial availability of a certain spectrum segment within indoor locations in dense urban areas in order for it to be opportunistically reused by WLANs. To this end, the interference conditions between primary and secondary users have been established along with the necessary propagation models accounting for outdoor, indoor and outdoor-to-indoor losses. Considering the service area of a primary system devoted to providing outdoor coverage, the proposed model has been used to compute the percentage of indoor locations where the secondary users can actually reuse the primary frequency band without interfering with the primary system. The second contribution is the proposal, development and evaluation of a set of channel assignment algorithms that allow WLANs to operate on available channels in both unlicensed ISM and OSA-enabled spectrum bands. Unlike the classical schemes for legacy WLANs, the proposed algorithms cope with two distinguishing issues arising in the OSA-enabled WLAN channel assignment problem: channel prioritization and spectrum heterogeneity. To that end, a system model is developed to describe and represent the main components involved in an OSA-enabled WLAN scenario. The model allows setting up a network scenario with primary and secondary systems, determining the list of available primary channels for each WLAN and defining the channel assignment constraints for WLANs. From this basis, the thesis has first formulated the channel assignment problem for OSA-enabled WLANs as a Binary Linear Programming (BLP) problem, which has been optimally solved by means of branch-and bound (BB) algorithms and used as a benchmark. Motivated by the need to have more computationally efficient solutions than that offered by the BB algorithm, a number of centralized and distributed heuristic algorithms have been proposed, encompassing simulated annealing (SA) techniques and the construction of minimum spanning tree (MST) graphs to reduce the level of coupling between neighboring APs. The algorithms have been evaluated under different conditions of AP density and spectrum availability and compared to the optimal solution as well as classical algorithms proposed for legacy WLANs.
APA, Harvard, Vancouver, ISO, and other styles
36

Pires, Danúbia Soares. "PROPOSTA DE CONTROLE NEBULOSO BASEADO EM CRITÉRIO DE ESTABILIDADE ROBUSTA NO DOMÍNIO DO TEMPO DISCRETO VIA ALGORITMO GENÉTICO MULTIOBJETIVO." Universidade Federal do Maranhão, 2013. http://tedebc.ufma.br:8080/jspui/handle/tede/505.

Full text
Abstract:
Made available in DSpace on 2016-08-17T14:53:25Z (GMT). No. of bitstreams: 1 dissertacao Danubia.pdf: 4153198 bytes, checksum: f8dd2d9ab5e8fbfa00744bcff5dce73b (MD5) Previous issue date: 2013-09-30<br>In this master thesis, a robust fuzzy digital PID control methodology based on gain and phase margins specifications, is proposed. A mathematical formulation, based on gain and phase margins specifications, the Takagi-Sugeno fuzzy model of the plant to be controlled, the structure of the digital PID controller and the time delay uncertain system, was developed. From input and output data of the plant, the fuzzy clustering Fuzzy C-Means (FCM) algorithm estimates the antecedent parameters (operation areas ) and the rules number of Takagi-Sugeno fuzzy model. The least squares algorithm provides the consequent parameters linear submodels. A multiobjective genetic strategy is defined to tune the fuzzy digital PID controller parameters, so the gain and phase margins specified to the fuzzy control system are get. An analysis of necessary and sufficient conditions for fuzzy digital PID controller design with robust stability, with the proposal of the two theorems are presented. The digital fuzzy PID controller was implemented on a platform designed for monitoring and control in real time, based on CompactRIO and LabVIEW 9073, National Instruments, of the Laboratory of Computational Intelligence Applied to Technology (ICAT/DEE/IFMA), applying the temperature control of a thermal plant. Experimental results show the efficiency of the proposed methodology, through tracking of the reference and the gain and phase margins keeping closed of the specified ones.<br>Nesta dissertação é proposta uma metodologia para projeto de controle PID digital nebuloso robusto baseado nas especificações das margens de ganho e fase. É desenvolvida uma formulação matemática, baseada nas especificações das margens de ganho e fase, no modelo nebuloso Takagi-Sugeno da planta a ser controlada, na estrutura do controlador PID digital e o atraso de tempo do sistema incerto. A partir dos dados de entrada e saída da planta, o algoritmo de agrupamento nebuloso Fuzzy C-Means (FCM), estima os parâmetros do antecedente (regiões de operação) e o número de regras do modelo nebuloso Takagi-Sugeno. O algoritmo de mínimos quadrados fornece os parâmetros dos submodelos lineares do consequente. Uma estratégia genética multiobjetiva é utilizada para encontrar os parâmetros do controlador PID digital nebuloso, de modo que as margens de ganho e fase especificadas para o sistema de controle nebuloso sejam alcançadas. Uma análise das condições necessárias e suficientes para o projeto do controlador PID digital nebuloso com estabilidade robusta, a partir da proposta de dois teoremas, é apresentada. O controlador PID digital nebuloso projetado foi implementado numa plataforma para supervisão e controle em tempo real, baseada no CompactRIO 9073 e no software LabVIEW, da National Instruments, do Laboratório de Inteligência Computacional Aplicada à Tecnologia (ICAT/DEE/IFMA), com aplicação ao controle de temperatura de uma planta térmica. Resultados experimentais mostram a eficiência da metodologia proposta, uma vez que a trajetória de referência é seguida e as margens de ganho e fase permanecem próximas às especificadas.
APA, Harvard, Vancouver, ISO, and other styles
37

GENISSON, RICHARD. "A propos d'enumeration et de polynomialite sur le probleme sat et les problemes de satisfaction de contraintes." Aix-Marseille 1, 1997. http://www.theses.fr/1997AIX11090.

Full text
Abstract:
Le probleme sat est le probleme de la satisfiabilite d'une formule booleenne mise sous forme normale conjonctive. Il permet de coder et de resoudre de nombreux problemes en informatique et en intelligence artificielle. De nombreux travaux ont ete faits pour trouver des classes de formules pour lesquelles on dispose d'un algorithme polynomial de decision, le cas general etant np-complet. Dans ce memoire, je montre que la majorite de ces classes se ramene a la classe des formules que l'on peut decider en utilisant une procedure enumerative (en particulier la procedure de davis et putnam) en faisant une exploration a profondeur bornee de l'arbre de recherche. En outre, je montre que decider si un ensemble de clauses admet un horn renommage peut egalement etre fait dans ce cadre et ce avec une complexite aussi bonne que celle des nombreux algorithmes dedies a ce probleme. A chaque fois que cela a ete possible, je me suis attache a mettre en parallele les algorithmes que j'ai proposes avec ceux issus du formalisme des problemes de satisfaction de contraintes (csp). Cela passe par une preuve d'equivalence entre la procedure de davis et putnam et le forward checking des csp, mais aussi en montrant que l'exploration a profondeur bornee d'un arbre de recherche permet de retrouver une notion effective de consistance partielle en calcul propositionnel et ainsi les filtrages et classes polynomiales associees
APA, Harvard, Vancouver, ISO, and other styles
38

Logatti, Luis Aldomiro. "Linhas e superficies escondidas : taxonomia e proposta de implementação VLSI de um algoritmo Z-buffer." [s.n.], 1990. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259440.

Full text
Abstract:
Orientador: Leo Pini Magalhães<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica<br>Made available in DSpace on 2018-07-14T00:45:46Z (GMT). No. of bitstreams: 1 Logatti_LuisAldomiro_M.pdf: 5760725 bytes, checksum: 655e075dd12e90ee57f9108a7a0d6876 (MD5) Previous issue date: 1991<br>Resumo: A determinação da visibilidade de objetos é fundamental em síntese de imagens. No início dos anos 60 o primeiro algoritmo de eliminação de linhas foi desenvolvido e, desde Iá, vários algoritmos foram propostos. Este trabalho apresenta uma série de algoritmos de eliminação de linhas e superfícies escondidas, bem como duas classificações segundo os mais importantes artigos nesta área. Uma proposta de implementação do algoritmo Z-buffer em gate-array é o tema principal da dissertação<br>Mestrado<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
39

Martins, Charles James Leite [UNESP]. "Algoritmo da divisão de Euclides : uma nova proposta de ensino de matemática na educação básica." Universidade Estadual Paulista (UNESP), 2015. http://hdl.handle.net/11449/138399.

Full text
Abstract:
Made available in DSpace on 2016-05-17T16:51:07Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-04-09. Added 1 bitstream(s) on 2016-05-17T16:54:38Z : No. of bitstreams: 1 000863310.pdf: 458943 bytes, checksum: 8a83b4d07ce20b3a1728ee48a635d0bc (MD5)<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)<br>O presente trabalho tem o objetivo de propor ao professor de Matemática uma nova maneira de abordar alguns conteúdos na Educação Básica e tratá-los como consequência do Algoritmo da Divisão de Euclides, bem como propormos uma reflexão sobre a postura de sua docência em relação a esse tópico e também em relação a bagagem matemática para o exercício da docência. Por fim, propomos alguns conteúdos estudados em qualquer curso de Aritmética, alguns resultados importantes e exercícios de aplicação<br>This paper aims to propose to the mathematics of teacher a new way to approach some content in Basic Education and treat them as a consequence of Euclid Division Algorithm and propose a re ection on the position of his teaching regarding this topic and also in relation to mathematics luggage to the exercise of teaching . Finally, proposed some content studied in any course of Arithmetic, some important results and practical exercises
APA, Harvard, Vancouver, ISO, and other styles
40

Martins, Charles James Leite. "Algoritmo da divisão de Euclides : uma nova proposta de ensino de matemática na educação básica /." São José do Rio Preto, 2015. http://hdl.handle.net/11449/138399.

Full text
Abstract:
Orientador: Edson Donizete de Carvalho<br>Banca: Inocêncio Fernandes Balieiro Filho<br>Banca: Elen Viviani Pereira Spreafíaco<br>Resumo: O presente trabalho tem o objetivo de propor ao professor de Matemática uma nova maneira de abordar alguns conteúdos na Educação Básica e tratá-los como consequência do Algoritmo da Divisão de Euclides, bem como propormos uma reflexão sobre a postura de sua docência em relação a esse tópico e também em relação a bagagem matemática para o exercício da docência. Por fim, propomos alguns conteúdos estudados em qualquer curso de Aritmética, alguns resultados importantes e exercícios de aplicação<br>Abstract: This paper aims to propose to the mathematics of teacher a new way to approach some content in Basic Education and treat them as a consequence of Euclid Division Algorithm and propose a re ection on the position of his teaching regarding this topic and also in relation to mathematics luggage to the exercise of teaching . Finally, proposed some content studied in any course of Arithmetic, some important results and practical exercises<br>Mestre
APA, Harvard, Vancouver, ISO, and other styles
41

Sandrini, Salomão Westphal. "Proposta de um algoritmo heurístico para obtenção de uma solução para o máximo conjunto independente /." Florianópolis, SC, 1992. http://repositorio.ufsc.br/xmlui/handle/123456789/76826.

Full text
Abstract:
Dissertação (Mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico.<br>Made available in DSpace on 2012-10-16T22:12:42Z (GMT). No. of bitstreams: 0Bitstream added on 2016-01-08T17:34:02Z : No. of bitstreams: 1 138806.pdf: 2193196 bytes, checksum: 2514d856661c8ebb3a9df581d2d6a7d3 (MD5)
APA, Harvard, Vancouver, ISO, and other styles
42

LIMA, Fernanda Maria Maciel de. "PROPOSTA DE CONTROLE NEBULOSO BASEADO EM CRITÉRIO DE ESTABILIDADE ROBUSTA NO DOMÍNIO DO TEMPO CONTÍNUO VIA ALGORITMO GENÉTICO MULTIOBJETIVO." Universidade Federal do Maranhão, 2015. http://tedebc.ufma.br:8080/jspui/handle/tede/1861.

Full text
Abstract:
Submitted by Maria Aparecida (cidazen@gmail.com) on 2017-08-24T11:30:17Z No. of bitstreams: 1 Fernanda Lima.pdf: 9275191 bytes, checksum: 7f56bba066e97503f4da03ab7ab861c9 (MD5)<br>Made available in DSpace on 2017-08-24T11:30:17Z (GMT). No. of bitstreams: 1 Fernanda Lima.pdf: 9275191 bytes, checksum: 7f56bba066e97503f4da03ab7ab861c9 (MD5) Previous issue date: 2015-08-31<br>A fuzzy project Takagi-Sugeno (TS) with robust stability based on the specifications of the gain and phase margins via multi-objective genetic algorithm in continuos time domain is proposed in this master thesis. A Fuzzy C-means (FCM) clustering algorithm is used to estimate the antecedent parameters and rules number of a fuzzy TS model by means of the input and output experimental data of the plant to be controlled, while minimum squares algorithm estimate the consequent parameters. A multi-objective genetic strategy is defined to adjust the parameters of a fuzzy PID controller, so that, the gain and phase margins of the fuzzy control system are close to the specified values. Two theorems are proposed to analyse the necessary and sufficient conditions for the fuzzy PID controller design to ensure the robust stability in the close-loop control. The fuzzy PID controller was simulated in the Simulink environment and compared with lead and delay compensator. Experimental results obtained in a control platform in real time to validation the methodology proposed are presented and compared with fuzzy PID controller obtained by the Ziegler Nichols method. The results demonstrate the effectiveness and practical feasibility of the proposed methodology.<br>Um projeto de controle nebuloso Takagi-Sugeno(TS) com estabilidade robusta baseado nas especificações das margens de ganho e fase via algoritmo genético multiobjetivo no domínio do tempo contínuo é proposto nesta dissertação. Um algoritmo de agrupamento Fuzzy C-Means (FCM) é usado para estimar os parâmetros do antecedente e o número da regras de um modelo nebuloso TS, por meio dos dados experimentais de entrada e de saída da planta a ser controlada, enquanto que o algoritmo de mínimos quadrados estima os parâmetros do consequente. Uma estratégia genética multiobjetiva é definida para ajustar os parâmetros de um controlador PID nebuloso, de modo que, as margens de ganho e fase do sistema de controle nebuloso estejam próximos dos valores especificados. São propostos dois teoremas que analisam as condições necessárias e suficientes para o projeto do controlador PID nebuloso de modo a garantir a estabilidade robusta na malha de controle. O controlador PID nebuloso foi simulado no ambiente Simulink e comparado com compensadores de avanço e de atraso e os resultados analisados. Resultados experimentais obtidos em uma plataforma de controle, em tempo real, para validação da metodologia proposta são apresentados e comparado com controlador PID nebuloso obtido pelo método de Ziegler Nichols. Os resultados obtidos demonstram a eficácia e viabilidade prática da metodologia proposta.
APA, Harvard, Vancouver, ISO, and other styles
43

Lopes, Victor Dias. "Proposta de integração entre tecnologias adaptativas e algoritmos genéticos." Universidade de São Paulo, 2009. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01072009-133614/.

Full text
Abstract:
Este trabalho é um estudo inicial sobre a integração de duas áreas da engenharia da computação, as tecnologias adaptativas e os algoritmos genéticos. Para tanto, foi realizada a aplicação de algoritmos genéticos na inferência de autômatos adaptativos. Várias tácnicas foram estudas e propostas para a implementação do algoritmo, visando µa obtenção de resultados cada vez mais satisfatórios. Ambas as tecnologias, algoritmos genéticos e tecnologia adaptativa, possuem caráter fortemente adaptativo, porém com características bastante diferentes na forma que são implementadas e executadas. As inferências, propostas neste trabalho, foram realizadas com sucesso, de maneira que as técnicas descritas podem ser empregadas em ferramentas de auxílio para projetistas desses tipos de dispositivos. Ferramentas que podem vir a ser úteis devido µa complexidade envolvida no desenvolvimento de um autômato adaptativo. Através desta aplicação dos algoritmos genéticos, observando como os autômatos evoluíram durante a execução dos ensaios realizados, acredita-se que foi obtido um entendimento melhor da estrutura e funcionamento dos autômatos adaptativos e de como essas duas tecnologias, tão importantes, podem ser combinadas.<br>This work is an initial study about the integration of two computing engineering areas, the adaptive technologies and the genetic algorithms. For that, it was per- formed the application of genetic algorithms for the adaptive automata inference. Several techniques were studied and proposed along the algorithm implementation, always seeking for more satisfying results. Both technologies, genetic algorithm and adaptive technology, hold very strong adaptive features, however, with very di®erent characteristics in the way they are implemented and executed. The inferences, proposed in this work, were performed with success, so that the techniques described may be employed in aid tools for designers of such de- vices. Tools that may be useful due to the complexity involved in the development of an adaptive automaton. Through this genetic algorithm application, observing how automata evolved during the algorithm execution, we believe that it was obtained a better under- standing about the adaptive automaton structure and how those two, so impor- tant, technologies can be integrated.
APA, Harvard, Vancouver, ISO, and other styles
44

PONA, Igor Rafael de Oliveira. "Proposta de uma implementação otimizada do algoritmo RTM.3D em OPEN.CL para plataformas baseadas em FPGAs." Universidade Federal de Pernambuco, 2016. https://repositorio.ufpe.br/handle/123456789/25493.

Full text
Abstract:
Submitted by Pedro Barros (pedro.silvabarros@ufpe.br) on 2018-08-03T18:12:26Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Igor Rafael de Oliveira Pona.pdf: 3747265 bytes, checksum: 884fc3c608ac7d133d803b0d0e83080f (MD5)<br>Approved for entry into archive by Alice Araujo (alice.caraujo@ufpe.br) on 2018-08-09T17:44:51Z (GMT) No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Igor Rafael de Oliveira Pona.pdf: 3747265 bytes, checksum: 884fc3c608ac7d133d803b0d0e83080f (MD5)<br>Made available in DSpace on 2018-08-09T17:44:51Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO Igor Rafael de Oliveira Pona.pdf: 3747265 bytes, checksum: 884fc3c608ac7d133d803b0d0e83080f (MD5) Previous issue date: 2016-09-08<br>A demanda por sistemas de alto desempenho cresce junto ao desenvolvimento científico e econômico e dentro das mais diversas áreas, passando por modelagens científicas, inteligência artificial, criptografia, computação em nuvem, etc. A prospecção de petróleo e gás natural faz parte desses sistemas, exigindo o processamento de dados com um volume acima dos Terabytes e ao custo de semanas ou meses de execução, no intuito de procurar bolsões no subsolo; além de sua importância estratégica devido ao pré-sal. Essa procura faz uso da equação acústica de propagação de onda, e apresenta como uma de suas soluções o método de diferenças finitas (MDF) pelo algoritmo de RTM (Reverse Time Migration). Essa solução demanda uma grande quantidade de operações em ponto flutuante, exigindo hardwares com arquiteturas dedicados a essa finalidade como FPGAs e GPGPUs. Neste trabalho fazemos uma análise sobre essas arquiteturas para o algoritmo RTM em OpenCL na sua versão 3D, assim como as possíveis otimizações ao se aproveitar da portabilidade do código em OpenCL de GPGPUs para FPGAs. Avaliamos os recursos utilizados em sínteses feitas pelo SDK OpenCL da Altera para o FPGA Stratix V A7, para em um segundo momento, desenvolver um código que tenta otimizar o uso desses recursos que estão disponíveis no FPGA. E por fim, analisamos os resultados obtidos frente a outras arquiteturas.<br>The high-performance computing systems increase with scientific and economic development through several fields like scientific modeling, artificial intelligence, cryptography, cloud computing, etc. The oil and natural gas extraction is among of these systems, requiring data processing with sizes greater than Terabytes and with the cost of weeks or months of execution time, in order to look for underground reservoir; as well as its strategic importance due to the pre-salt. The oil extraction makes use of acoustic wave equation, and has the finite difference method (FDM) as one of your solutions through the algorithm of RTM (Reverse Time Migration). This solution requires a lot of floating point operations and a hardware with dedicated architecture as FPGAs and GPGPUs. This work we analyze these architectures to implement the RTM 3D algorithm with OpenCL, as well as the possibly of take advantage of code portability of OpenCL for FPGAs GPGPUs. We evaluate the resources used in syntheses made by the OpenCL SDK Altera Stratix V A7 FPGA, and in a second moment, to develop a code that attempts to optimize the use of these resources that are available in the FPGA. Finally, we analyze the results against other architectures.
APA, Harvard, Vancouver, ISO, and other styles
45

Silva, Endrews Sznyder Souza da. "Proposta de um agente para o jogo de dominó de 4 pontas utilizando o algoritmo expectiminimax." Universidade Federal do Amazonas, 2015. http://tede.ufam.edu.br/handle/tede/5010.

Full text
Abstract:
Submitted by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-06-06T19:37:59Z No. of bitstreams: 1 Dissertação - Endrews Sznyder Souza da Silva.pdf: 2926146 bytes, checksum: 1351d4cbe891b8af9ba59b296a41e69c (MD5)<br>Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-06-06T19:38:31Z (GMT) No. of bitstreams: 1 Dissertação - Endrews Sznyder Souza da Silva.pdf: 2926146 bytes, checksum: 1351d4cbe891b8af9ba59b296a41e69c (MD5)<br>Approved for entry into archive by Divisão de Documentação/BC Biblioteca Central (ddbc@ufam.edu.br) on 2016-06-06T19:39:45Z (GMT) No. of bitstreams: 1 Dissertação - Endrews Sznyder Souza da Silva.pdf: 2926146 bytes, checksum: 1351d4cbe891b8af9ba59b296a41e69c (MD5)<br>Made available in DSpace on 2016-06-06T19:39:45Z (GMT). No. of bitstreams: 1 Dissertação - Endrews Sznyder Souza da Silva.pdf: 2926146 bytes, checksum: 1351d4cbe891b8af9ba59b296a41e69c (MD5) Previous issue date: 2015-09-04<br>Não informada<br>Dominoes game is played by millions of people around Brazil and entire world. People usually play this game during family meetings, with friends and in universities. Dominoes game does not have universal version and rules, the way it is played can vary according its region. Although dominoes' version diversity, this game is simple. Dominoes game to is an incomplete information and non-deterministic type. Uncertainty and stochastic characteristic of this game make it difficult to solve by applying artificial intelligence techniques. Thus, this thesis proposes an agent for four-sided dominoes. This dominoes' version is played in Amazonas state. The proposed agent is based on partial expectiminimax algorithm. Partially searching the game tree generates horizon effect, and to reduce it, phase related search will be used in each round phase. Moreover, due to chance events it will be necessary probability modeling to obtain opponent's moves probability values. This thesis proposes eight strategies, which differ from each other in depth search through a round. Each strategy is evaluated against a pair, which uses the basic one and pair with strategy based on genetic algorithm. The best strategy is this work obtained 72,04% of victories in 5000 matches against the basic one, and 58,34% of victories against the strategy based on genetic algorithm.<br>O jogo de dominó é praticado por milhões de pessoas pelo Brasil e no mundo. As pessoas costumam praticar este jogo em reuniões familiares, círculos de amigos e nas universidades. O jogo de dominó não possui uma versão e regras universais, podendo variar de acordo com a região em que é praticado. Apesar de suas diversas variações, este jogo é simples de jogar. O dominó é um jogo de informação incompleta e não determinístico. As incertezas e a característica estocástica o fazem um jogo complexo de solucionar com as metodologias existentes na área de inteligência artificial. Nesse sentido, esta dissertação propõe uma agente para o jogo de dominó de 4 pontas. Esta versão do jogo de dominó é praticada no Amazonas. O agente proposto é baseado no algoritmo de busca expectiminimax com busca parcial. A busca parcial tem como consequência o efeito de horizonte, e para atenuar este efeito será realizada uma busca por fases dentro de uma rodada. Além disso, devido à presença dos eventos de chance nesse jogo será necessária a modelagem probabilística para os mesmos. Neste trabalho foram definidas oito estratégias com profundidades diferentes em cada fase das rodadas. Cada estratégia será testada contra a estratégia básica de jogo e contra o melhor resultado obtido pela estratégia que utiliza algoritmos genéticos. A melhor estratégia deste trabalho obteve 72,04% de vitórias em 5000 partidas, contra a estratégia básica de jogo. Contra a melhor estratégia que utiliza algoritmos genéticos o percentual de vitorias foi de 58,34 %.
APA, Harvard, Vancouver, ISO, and other styles
46

Santana, Fernando Castelo Branco Gonçalves. "Uma proposta de algoritmo de escalonamento baseado em lógica nebulosa para redes LTE (Long Term Evolution)." Universidade Federal do Maranhão, 2016. http://tedebc.ufma.br:8080/jspui/handle/tede/1535.

Full text
Abstract:
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-05-30T19:56:59Z No. of bitstreams: 1 FernandoCasteloBranco.pdf: 834917 bytes, checksum: 637b3f82aba4cce981014b690d89cb95 (MD5)<br>Made available in DSpace on 2017-05-30T19:56:59Z (GMT). No. of bitstreams: 1 FernandoCasteloBranco.pdf: 834917 bytes, checksum: 637b3f82aba4cce981014b690d89cb95 (MD5) Previous issue date: 2016-07-25<br>In recent decades, the increasing use of mobile technologies has motivated the development of new techniques and algorithms to provide high transmission rates in mobile networks. Among them, LTE (Long Term Evolution) technology is one of the most significant standards for fourth generation (4G) mobile telephony. Due to its high data rates, LTE becomes very attractive to several kinds of applications. However, the quality of the transmissions can be severely impacted by the radio resources scheduling process, since it can lead to fluctuations in the delay and in the application data rates. To perform resource allocation in LTE networks, the scheduler uses various parameters estimated from the radio environment. This process can lead to the occurrence of erroneous estimates, which should be mitigated in order to deal with the inaccuracies of the wireless environments. In this context, this master thesis presents a fuzzy-based downlink scheduler for LTE networks, named PAFS (Performance-Aware Fuzzy Scheduler). The results show that the proposed scheduler promotes a suitable allocation of the radio resources, improving the performance of different QoS (Quality of Service) parameters without compromising the fairness among the system users.<br>Nas últimas d´ecadas, o aumento da utilização de tecnologias de comunicações móveis tem motivado o desenvolvimento de novas técnicas e algoritmos capazes de prover altas taxas de transmissão em redes celulares. Entre elas, a tecnologia LTE (Long Term Evolution) é um dos padrões mais significativos para a telefonia móvel de quarta geração (4G). Devido às suas elevadas taxas de dados, o LTE torna-se muito atraente para vários tipos de aplicações. No entanto, a qualidade das transmissões pode ser severamente impactada pelo processo de escalonamento de recursos de rádio, uma vez que pode levar a flutuações no atraso e nas taxas de dados das aplicações. Para executar a alocação de recursos em redes LTE, o escalonador utiliza vários parâmetros estimados a partir do ambiente de rádio. Esse processo pode levar à ocorrência de estimativas erradas, o que deve ser mitigado de forma a lidar com as imprecisões dos ambientes sem fio. Neste contexto, este trabalho apresenta um escalonador de enlace de descida baseado em lógica nebulosa chamado PAFS (Performance-Aware Fuzzy Scheduler ). Os resultados mostram que o escalonador proposto promove uma alocação adequada dos recursos de rádio, melhorando o desempenho de diferentes parâmetros de QoS (Quality of Service – Qualidade de Servi¸co) sem comprometer a justiça entre os usuários do sistema.
APA, Harvard, Vancouver, ISO, and other styles
47

Le?o, Lucas Augusto de Araujo Marques. "Proposta de um algoritmo de roteamento baseado em l?gica difusa para RSSF em ambientes fechados." Pontif?cia Universidade Cat?lica de Campinas, 2015. http://tede.bibliotecadigital.puc-campinas.edu.br:8080/jspui/handle/tede/552.

Full text
Abstract:
Made available in DSpace on 2016-04-04T18:31:42Z (GMT). No. of bitstreams: 1 LUCAS AUGUSTO DE ARAUJO MARQUES LEAO.pdf: 1843994 bytes, checksum: 99d00d63745d6c077be1b0e0f8b0d518 (MD5) Previous issue date: 2015-05-12<br>Wireless Sensor Networks (WNS) have been applied as monitoring solution for building management systems. The sensors are responsible for monitoring environment aspects such as temperature, lighting and energy consumption. However, the sensors are exposed to adverse conditions and frequent environment changes, which can dramatically affect communication and data flow. Thus, this work proposes a routing algorithm based on fuzzy logic to identify the best routes in an indoor wireless sensor network. The evaluated parameters are presented (RSSI, Standard Deviation and Packet Error Rate) along with the cost definition process for each route, the best route identification sequence and the results obtained in simulation and experimentation. The proposed solution mixes WSN routing techniques along with fuzzy logic to characterize and define the link cost. The developed algorithm was faced with a routing solution based on RSSI. The experiments demonstrate that the solution allows the selection of higher quality links, reducing the probability of packet loss in comparison to the algorithm based on RSSI.<br>As Redes de Sensores Sem Fio (RSSF) t?m sido uma solu??o amplamente utilizada no contexto de sistemas de gerenciamento de edifica??es. Os sensores s?o respons?veis por monitorar diversos aspectos do ambiente, como temperatura, ilumina??o e consumo de energia. Entretanto, os sensores est?o expostos a condi??es adversas e mudan?as constantes do ambiente, que podem afetar de maneira definitiva a comunica??o e flu?ncia dos dados. Neste sentido, este trabalho apresenta uma proposta de algoritmo de roteamento baseado em l?gica difusa para identifica??o dos melhores caminhos em uma rede de sensores sem fio indoor. S?o apresentados os par?metros utilizados (RSSI, Desvio Padr?o do RSSI e Taxa de Erro de Pacote) para a defini??o do custo de cada caminho, a sequ?ncia de identifica??o de melhor caminho e os resultados obtidos em simula??o e aplica??o pr?tica. A solu??o proposta agrega t?cnicas de roteamento em RSSF ? utiliza??o de l?gica difusa para caracteriza??o e defini??o dos custos dos enlaces entre os sensores. O algoritmo desenvolvido foi confrontado com uma solu??o de roteamento baseada em RSSI. Os experimentos demonstram que a solu??o permite a sele??o de enlaces de melhor qualidade, reduzindo a probabilidade de perda de pacote em compara??o ao algoritmo baseado apenas em RSSI.
APA, Harvard, Vancouver, ISO, and other styles
48

Lemos, Andre Paim. "Proposta de um algoritmo genérico de detecção de novidades em séries temporais utilizando modelos de previsão." Universidade Federal de Minas Gerais, 2007. http://hdl.handle.net/1843/BUOS-8CYNMV.

Full text
Abstract:
Novelties or anomalies on time series can be seen as unexpected values or a sequence of unexpected values when compared to a dataset considered to be normal. A time series novelty detection algorithm must be capable to classify each point of the time series as normal or novelty. There are many applications to the problem of time series novelty detection including fault detection on dynamic systems, fraud detection on financial systems and physiologic signals monitoring. This work proposes a generic novelty Detection algorithm based on a forecasting model. The algorithm is generic because it does not define the forecasting model to be used. Two algorithm instantiations are proposed, the first one, based on a statistical model and the second one based on a neural model. The algorithm is used to screen obstructive sleep apnea through electrocardiogram monitoring and to detect faults on a dynamic system monitoring some of the system variables. The results achieved on both problems are near to the results found on literature.<br>Novidades ou anomalias em uma serie temporal podem ser vistas como valores ou uma sequência de valores inesperados quando comparados a um conjunto de valores considerados normais. Um algoritmo de detecção de novidades em séries temporais deve ser capaz de classificar cada ponto da série em normal ou novidade. Existem diversas aplicações para o problema de detecção de novidades em séries temporais, como detecção de falhas em sistemas dinâmicos, detecção de fraudes em sistemas financeiros e monitoramento de sinais fisiológicos. Esse trabalho propõe um algoritmo genérico de detecção de novidades em séries temporais baseado em um modelo de previsão. O algoritmo é genérico pois não define qual modelo a ser utilizado. Duas instanciações do algoritmo são apresentadas, a primeira baseada em um modelo de previsão estatístico e a segunda em um modelo neural. O algoritmo foi utilizado para detectar síndrome de apnéia do sono, através do monitoramento de sinais de eletrocardiogramas e para detectar falhas em um sistema dinâmico através do monitoramento de algumas de suas variáveis amostradas ao longo do tempo. Os resultados obtidos, nos dois problemas, quando comparados aos encontrados na literatura, mostram que o algoritmo proposto é uma alternativa bastante promissora.
APA, Harvard, Vancouver, ISO, and other styles
49

Vargas, Elis Tápia. "Uma proposta de relé digital de freqüência baseado em algoritmos genéticos." Universidade de São Paulo, 2005. http://www.teses.usp.br/teses/disponiveis/18/18133/tde-17112006-112206/.

Full text
Abstract:
Este trabalho apresenta um método baseado em algoritmos genéticos – AGs, o qual consiste na estimação dos parâmetros associados as formas de ondas, tais como amplitude, freqüência e ângulo de fase das mesmas, referentes a uma proposição de relé de freqüência. O método proposto é baseado em algoritmos genéticos com representação real, tendo em vista a não necessidade de codificação dos valores logo na entrada do processo. O objetivo do trabalho é apresentar um estudo de uma das várias técnicas da computação evolutiva, conhecida como AG, cuja aplicação é inspirada nos mecanismos da evolução natural das espécies identificado pelo naturalista inglês Charles Darwin. A idéia principal do método é fazer com que os indivíduos da população evoluam ao longo das iterações, chamadas gerações, produzindo soluções cada vez melhores até convergir a uma solução ótima ou aproximadamente ótima. O algoritmo proposto foi testado com dados simulados no software Matlab. Pelos resultados observados têm-se caracterizado a potencialidade desta ferramenta computacional na estimação dos parâmetros desejados.<br>This work presents a method based on genetic algorithm – GAs, which consists on estimation of parameters in waveforms, such as their amplitude, frequency and phase angles, related to the application of a frequency relay. The proposed study is based on the genetic algorithms with real representation, once there is no need to codify the values on the input of the process. The objective of this work is to present one of the several techniques of artificial intelligence, known as genetic algorithm, in which the main application is inspired in mechanisms of natural evolution of the species identified by Charles Darwin. The main idea of this method is to make the individuals from one population, called generation, to evolute, producing better solutions until they converge to an optimal or approximately optimal solution. The proposed algorithm was tested with simulated data from Matlab software. The results observed have characterized the efficiency of this computational tool for the estimation of the desired parameters.
APA, Harvard, Vancouver, ISO, and other styles
50

Ansar, Zeeshan [Verfasser], Waltenegus [Akademischer Betreuer] Dargie, Jochen [Gutachter] Seitz, and Alexander [Gutachter] Schill. "Proposal of a Hybrid Algorithm for Burst Transmission in Wireless Sensor Networks / Zeeshan Ansar ; Gutachter: Jochen Seitz, Alexander Schill ; Betreuer: Waltenegus Dargie." Dresden : Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2018. http://d-nb.info/1226811795/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography