To see the other types of publications on this topic, follow the link: Métodos de filtro.

Dissertations / Theses on the topic 'Métodos de filtro'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Métodos de filtro.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Vale, Davidson Oliveira do 1976, Jaci Carlo Schramm Câmara 1976 Bastos, Henry França 1963 Meier, and Universidade Regional de Blumenau Programa de Pós-Graduação em Engenharia Química. "Análise do escoamento multifásico em filtro prensa." reponame:Biblioteca Digital de Teses e Dissertações FURB, 2018. http://www.bc.furb.br/docs/DS/2018/364489_1_1.pdf.

Full text
Abstract:
Orientador: Jaci Carlo Schramm Câmara.<br>Coorientador: Henry França Meier.<br>Dissertação (Mestrado em Engenharia Química) - Programa de Pós-Graduação em Engenharia Química, Centro de Ciências Tecnológicas, Universidade Regional de Blumenau, Blumenau.
APA, Harvard, Vancouver, ISO, and other styles
2

Silva, Paulo Roberto Araújo da. "Filtro de partículas aperfeiçoado para estimação de postura de robôs móveis." Instituto Tecnológico de Aeronáutica, 2006. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=228.

Full text
Abstract:
Nesta tese é apresentado um Filtro de Partículas Aperfeiçoado para o rastreamento de postura de robôs móveis utilizando odometria e leituras ambientais laser. O método consiste em realizar um predição da postura do robô utilizando o modelo cinemático (odométrico) para, com a postura predita, eliminar o clutter utilizando-se de janelas de validação. Com a Range-Weighted Hough Transform associada a um método de mínimos quadrados, obtêm-se, então, os parâmetros do modelo de observações que,subsequentemente, serão utilizados para atualizar a postura predita. As observações são assimiladas pelo algoritmo de estimação de postura que utiliza um método de amostragem por importância com reamostragem (ISIR) ou filtro de Partículas. O filtro proposto utiliza uma função de importância localmente otimizada e reamostragem de mínima variância para combater a degeneração de partículas, e um passo de movimento MCMC para restaurar a diversidade amostral perdida depois da reamostragem. Os resultados experimentais foram obtidos utilizando-se dados simulados e reais. O desempenho do filtro foi comparado com o filtro Bootstrap e filtro Estendido de Kalman. Para os dados simulados, as curvas de erro quadrático médio foram comparadas ao Limite Inferior de Cramér-Rao Posterior (PCRLB). Para os dados reais um erro médio temporal, baseado em uma trajetória de referência, foi estimado. Adicionalmente, também foram medidos os respectivos tempos de processamento dos algoritmos com diferentes números de partículas. Os resultados mostram que o filtro proposto obteve melhores desempenhos que os filtros Bootstrap e Estendido de Kalman. Mais ainda, devido ao seu bom desempenho com número reduzido de partículas, o filtro de Partículas Aperfeiçoado apresentou um tempo de processamento que possibilita implementação prática em cenários realísticos.
APA, Harvard, Vancouver, ISO, and other styles
3

Lima, Leandro Muniz de. "Filtro de partículas hibridizado com métodos da computação natural para detecção e rastreamento." Universidade Federal do Espírito Santo, 2011. http://repositorio.ufes.br/handle/10/6412.

Full text
Abstract:
Made available in DSpace on 2016-12-23T14:33:46Z (GMT). No. of bitstreams: 1 Capa_ElementosPreTextuais.pdf: 505969 bytes, checksum: a5172516a3ca9c83c7a7dadd232686d6 (MD5) Previous issue date: 2011-08-25<br>Detecção e rastreamento de objetos em sequências de imagens aparece atualmente em várias situações do nosso cotidiano e se destaca pela sua importância em várias áreas como, por exemplo, na área de segurança (monitoramento de objetos ou indivíduos), dentre outros. Um dos métodos comumente utilizado é o Filtro de Partículas (FP), o principal problema do FP é a degeneração, que pode implicar em um rastreamento pior. Nesta dissertação, serão apresentados dois método híbridos baseado no Filtro de Partículas. A hibridização ocorre através da combinação do Filtro de Partículas com um método da computação natural: i) Otimização através de Enxame de Partículas; e ii) Evolução Diferencial. Os métodos propostos foram aplicados para dois estudos de caso: i) para rastreamento de trajetória de um sistema não linear caminhãoreboque, e ii) para detectar e rastrear a face de uma pessoa em uma sequência de imagens. Os resultados obtidos em termos de qualidade de rastreamento indicam um melhor desempenho dos algoritmos hibridizados quando comparados com o Filtro de Partículas padrão<br>Detecting and tracking objects in image sequences currently appears in various situationsof everyday life and stands out for its importance in many areas, for example, in security (monitoringobjects or persons), among others. A commonly used method is the Particle Filter,the main issue of Particle Filter is degeneration, which may imply a worse tracking. In this work, it is presented two hybrid method of Particle Filter. This hybridization occurs combining a Particle Filter and a natural computing: i) Particle Swarm Optimization; and ii) Differential Evolution. That way, aiming to minimize the degeneration problem in Particle Filter, in order to improve the performance of the tracking method. The proposed methods were applied to two case studies: i) for tracking the trajectory of the truck-trailer system, and ii) to detect and track a person s face in an image sequence. The results in terms of tracking quality indicate a better performance of hybridized algorithms when compared with the standard Particle Filter
APA, Harvard, Vancouver, ISO, and other styles
4

LIMA, L. M. "Filtro de partículas hibridizado com métodos da computação natural para detecção e rastreamento." Universidade Federal do Espírito Santo, 2011. http://repositorio.ufes.br/handle/10/4241.

Full text
Abstract:
Made available in DSpace on 2016-08-29T15:33:15Z (GMT). No. of bitstreams: 1 tese_4175_.pdf: 4085098 bytes, checksum: 17bef813b7542525216ed36918007248 (MD5) Previous issue date: 2011-08-25<br>Detecção e rastreamento de objetos em sequências de imagens aparece atualmente em várias situações do nosso cotidiano e se destaca pela sua importância em várias áreas como, por exemplo, na área de segurança (monitoramento de objetos ou indivíduos), dentre outros. Um dos métodos comumente utilizado é o Filtro de Partículas (FP), o principal problema do FP é a degeneração, que pode implicar em um rastreamento pior. Nesta dissertação, serão apresentados dois método híbridos baseado no Filtro de Partículas. A hibridização ocorre através da combinação do Filtro de Partículas com um método da computação natural: i) Otimização através de Enxame de Partículas; e ii) Evolução Diferencial. Os métodos propostos foram aplicados para dois estudos de caso: i) para rastreamento de trajetória de um sistema não linear caminhão-reboque, e ii) para detectar e rastrear a face de uma pessoa em uma sequência de imagens. Os resultados obtidos em termos de qualidade de rastreamento indicam um melhor desempenho dos algoritmos hibridizados quando comparados com o Filtro de Partículas padrão.
APA, Harvard, Vancouver, ISO, and other styles
5

Junior, Hudson Bitencourt. "Métodos de estimaão recursiva, baseados no filtro de Kalman, aplicados a sistemas Não-lineares." Universidade Federal de Minas Gerais, 2003. http://hdl.handle.net/1843/BUOS-8D2G6B.

Full text
Abstract:
Estimação recursiva é uma técnica que processa os dados medidos de um determinado sistema sequencialmente, fornecendo novas estimativas para as variáveis desejadas a cada iteração do algoritmo.Essa técnica pode ser usada para estimar os parâmetros do modelo em identificação de sistemas , ou para estimas as variáveis de estado de sistemas dinâmicos ,procedimento necessário em técnicas de controle moderno quando não é possível medir diretamente todas as variáveis.A estimação de estados pode ser realizada por diversos algoritmos recursivos.Neste trabalho apresenta-se o Filtro de Kalman ,um estimulador recursivo muito eficiente capaz de fornecer estimativas ótimas para os estados de sistemas dinâmicos, a partir de medições corrompidas por ruído.Alem da descrição original do Filtro de Kalman para sistemas lineares, são apresentadas duas abordagens diferentes que permitem que o algoritmo seja aplicado a sistemas não-lineares :o Filtro de Kalman Estendido (EKF) e o Filtro de Kalman Unscented (UKF). Os desempenhos dos dois estudados neste trabalho (EKF e UKF), são comparados durante a aplicação em um sistema real , o circuito de Chua.Os algoritmos são utilizados para estimar as três variáveis de estado desse sistema.O UKF é capaz de propagar a matriz de covariância dos estados sem linearizar as funções do sistema, de forma que as estimativas para os parâmetros e estados são calculadas com mais precisão do que pelo EKF.Além dos resultados,discute-se as dificuldades encontradas durante a implementação.Outra aplicação interessante é a transmissão de informação.Mostra-se que é possível inserir códigos binários em series temporais caóticas por meio de sucessivas variações de um ou mais parâmetros do sistema.A informação pode ser recuperada por estimação conjunta de estados e parâmetros via UKF.
APA, Harvard, Vancouver, ISO, and other styles
6

Luna, Hernandez Angela 1980. "Estimação em pesquisas repetidas empregando o filtro GLS." [s.n.], 2012. http://repositorio.unicamp.br/jspui/handle/REPOSIP/305866.

Full text
Abstract:
Orientadores: Luiz Koodi Hotta, Fernando Antônio da Silva Moura<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica<br>Made available in DSpace on 2018-08-20T15:43:54Z (GMT). No. of bitstreams: 1 LunaHernandez_Angela_M.pdf: 2230052 bytes, checksum: 7cee5005f5f1bd9bbdd565de481db0ad (MD5) Previous issue date: 2012<br>Resumo: A dissertação apresenta o processo de estimação em pesquisas repetidas sob o enfoque de séries temporais, empregando Modelos de Espaço de Estados e o filtro dos mínimos quadrados generalizados ou filtro GLS. Este filtro permite o tratamento de modelos com erros de observação autocorrelacionados de forma mais simples do que utilizando o filtro de Kalman e, além disso, possibilita a modelagem conjunta de várias subpopulações ou domínios sob restrições de benchmark obtidas a partir da mesma pesquisa. Isto não só permite manter a coerência entre as estimativas obtidas pelo método, e estimativas agregadas baseadas no planejamento da amostra, como ajuda na proteção contra possíveis erros de especificação dos modelos. Considerando o caso de amostras com rotação, também é abordado o processo de estimação da estrutura de autocorrelação dos erros amostrais empregando o método dos pseudo-erros. Via simulação, é replicado todo o procedimento de estimação, comparando resultados obtidos empregando os filtros GLS e de Kalman. Adicionalmente, é ilustrada a aplicação do filtro sob restrições de benchmark empregando a série de taxa de desemprego da Pesquisa Mensal de Emprego do IBGE, no período de março de 2002 a fevereiro de 2012<br>Abstract: This work presents the estimation process in repeated surveys using State Space Models and the generalized linear squares filter, GLS filter, under the time series approach. This filter deals with autocorrelated errors in the observation equation, in a simpler way than the well-known Kalman filter. Additionally, it allows for modeling jointly several domains under benchmark constraints obtained from the same survey. The benchmarking not only achieves coherence between the model-based estimates and the corresponding design-based aggregated estimates, but also provides protection against possible model failures. For the scenario of samples with a rotation scheme, the estimation of the autocorrelation structure of observational errors, using the pseudo-errors method, is also addressed. Simulation are used to compare the GLS and Kalman filter estimators. Moreover, the application of GLS filter under benchmark restrictions is illustrated, using the unemployment rate time serie from the Brazilian monthly labor force survey, from March 2002 to February 2012<br>Mestrado<br>Estatistica<br>Mestre em Estatística
APA, Harvard, Vancouver, ISO, and other styles
7

Oliveira, José Igor Santos de. "Medição de múltiplas fases de nível de líquidos usando filtro adaptativo: técnicas, métodos e simulações." Universidade Federal do Maranhão, 2005. http://tedebc.ufma.br:8080/jspui/handle/tede/393.

Full text
Abstract:
Made available in DSpace on 2016-08-17T14:52:59Z (GMT). No. of bitstreams: 1 Jose Igor Santos de Oliveira.pdf: 3257339 bytes, checksum: 08e579c1308bf514ca6256e089894a3b (MD5) Previous issue date: 2005-09-21<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior<br>The level measurement, besides the applications in reservoirs of industrial processes, as in the industries chemical, pharmaceutical, chemical petroleum, of I refine of alumina etc, it is applicable also in reservoirs exposed outdoors, such as dikes, lakes and ponds, dams and other. To measure level in most of the cases has great impact in the people's safety, of the environment, and of the involved process, besides influencing in the quality of the final product. Level in several ways can be measured that space from a simple float to a sophisticated system for time of flight of waves that processes the information that returns after the emission of a sign. System as that can use several types of waves to take the information of the transmission, the most common are microwaves, infrared and the ultrasonic ones. In that work a method is described that is used of the technique of the time of flight with the use of ultrasonic waves in association with the adaptive filtering to determine the location of the levels of the liquids contained in a container of known height. It is made a study of robustness of the method with base in simulations, through the variation of the relationship sign noise and of the sampling tax, in comparison with the results obtained with the use of Hilbert Transform, Fourier Transform and Wavelet Transform, considering the time of processing and the measurement uncertainty.<br>A medição de nível, além das aplicações em reservatórios de processos industriais, como nas indústrias químicas, farmacêuticas, petroquímicas, de refino de alumina etc., é aplicável também em reservatórios expostos ao ar livre, tais como diques, lagos e lagoas, barragens e outros. Medir nível na maioria dos casos tem grande impacto na segurança das pessoas, do meio ambiente, e do processo envolvido, além de influenciar na qualidade do produto final. Pode-se medir nível de diversas formas que vão desde um simples flutuador até um sofisticado sistema por Tempo de Vôo de ondas que processa a informação que retorna na forma de eco refletido após a emissão de um sinal. Um Sistema como esse pode utilizar diversos tipos de ondas para levar a informação da transmissão, as mais comuns são microondas, infravermelhas e as ultra-sônicas. Nesse trabalho descreve-se um método que se utiliza da técnica do Tempo de Vôo com o uso de ondas ultra-sônicas em associação com a filtragem adaptativa para determinar a localização dos níveis dos líquidos contidos em um recipiente de altura conhecida. É feito um estudo de robustez do método com base em simulações, através da variação da relação sinal ruído e da taxa de amostragem. Compara-se com os resultados obtidos com o uso da Transformada de Hilbert, Transformada de Fourier e da Transformada Wavelets, considerando o tempo de processamento e a incerteza na medição.
APA, Harvard, Vancouver, ISO, and other styles
8

SOUZA, Helber Elias Paz de. "Métodos de extração do vetor tensão de sequência positiva na freqüência fundamental." Universidade Federal de Pernambuco, 2008. https://repositorio.ufpe.br/handle/123456789/5257.

Full text
Abstract:
Made available in DSpace on 2014-06-12T17:37:42Z (GMT). No. of bitstreams: 2 arquivo5333_1.pdf: 5975151 bytes, checksum: a0dfbf361d19c89d9fdc6a78bddeeaec (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior<br>Controle orientado pela tensão é uma das técnicas mais usadas para operação e controle de qualquer equipamento conectado à rede elétrica através de um conversor eletrônico CC-CA, tais como, sistemas de geração de energia distribuída, sistemas de energia ininterrupta e filtros ativos. Por isso, a estimação rápida e precisa do ângulo de fase e por vezes da magnitude instantânea do vetor tensão de seqüência positiva na freqüência fundamental de uma rede elétrica é essencial para atingir bons desempenhos no controle daqueles sistemas. Então, o presente trabalho apresenta uma abordagem dos principais métodos de detecção existentes mostrando as virtudes e deficiências dos mesmos. Outrossim, um novo método é concebido nesta dissertação e comparado com os demais. A sua funcionalidade é corroborada por meio de simulações e experimentos. Salienta-se que o enfoque é dado às técnicas empregadas em sistemas elétricos trifásicos
APA, Harvard, Vancouver, ISO, and other styles
9

Silva, Rodrigo Cardoso da. "Filtering and adaptive control for balancing a nanosatellite testbed." reponame:Repositório Institucional da UnB, 2018. http://repositorio.unb.br/handle/10482/34210.

Full text
Abstract:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2018.<br>Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES), Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) e Fundação de Apoio à Pesquisa do Distrito Federal (FAPDF).<br>O Laboratório de Aplicação e Inovação em Ciências Aeroespaciais (LAICA) da Universidade de Brasília (UnB) está desenvolvendo uma plataforma de testes de nanossatélites capaz de simular condições ambientais vistas no espaço, especialmente no que diz respeito ao campo magnético da Terra em órbitas, o movimento rotational livre de atrito e o torque gravitacional baixo. Essa plataforma compreende vários subsistemas, tais como uma mesa com rolamento a ar, na qual nanossatélites são montados para teste de seus subsistemas; uma gaiola de Helmholtz, responsável por simular o campo magnético da Terra presente em vários tipos de órbita, especialmente órbitas de baixa altitude (LOE), que são as mais comuns para nanossatélites; sistemas de atuação, tais como rodas de reação e atuadores magnéticos, usados para estudar estratégias de controle de atitude, e sistemas de determinação de atitude, tais como aqueles baseados em telemetria embarcada ou visão computacional. A mesa com rolamento a ar é a parte responsável por fornecer o movimento livre de atrito com três graus de liberdade rotacionais. Ademais, para fornecer o requisito de torque gravitacional baixo, um método deve ser desenvolvido para balancear a mesa com rolamento a ar. Neste trabalho, foco é dado para a solução desse problema. Vários métodos para balanceamento da plataforma de testes do LAICA são apresentados, especialmente quanto às soluções de filtragem, como aquelas que utilizam o filtro de Kalman e suas variações, e esquemas de controle adaptativo, auxiliados pela teoria de Lyapunov. A performance dos métodos de balanceamento propostos é avaliada por meio de simulações e experimentos.<br>The Laboratory of Application and Innovation in Aerospace Science (LAICA) of the University of Brasília (UnB) is developing a nanosatellite testbed capable of simulating the environment conditions seen in space, specially regarding the Earth magnetic field in orbits, the frictionless rotational movement and the low gravitational torque. This testbed comprises various subsystems, such as an air bearing table, on which nanosatellites are mounted for testing its subsystems; a Helmholtz cage, responsible for simulating the Earth magnetic field present in various kinds of orbit, specially Low Earth Orbits, which is the most common for nanosatellites; actuation systems, such as reaction wheels and magnetorquers, used to study attitude control strategies, and attitude determination systems, such as those based on embedded telemetry or computer vision. The air bearing table is the part responsible for providing the frictionless movement with three rotational degrees of freedom. Also, for providing the low gravitational torque requisite, a method must be developed for balancing the air bearing table. In this work, focus is given for solving this problem. Various methods for balancing the LAICA testbed are presented, specially regarding filtering solutions, such as those using the Kalman Filter and its variations, and adaptive control schemes, aided by the Lyapunov theory. The performance of the proposed balancing methods is evaluated through simulations and experiments.
APA, Harvard, Vancouver, ISO, and other styles
10

Gonzales, Rodrigo Guidoni. "Utilização dos métodos SDRE e filtro de Kalman para o controle de atitude de simuladores de satélites." Instituto Nacional de Pesquisas Espaciais, 2009. http://urlib.net/sid.inpe.br/mtc-m18@80/2009/04.06.12.41.

Full text
Abstract:
Missões espaciais envolvendo procedimentos automáticos de grandes manobras de atitude e controle utilizando novas técnicas de controle não-lineares exigem do Sistema de Controle de Atitude (SCA) alta confiabilidade, bom desempenho e robustez. Neste contexto, a validação experimental de novos equipamentos e/ou técnicas de controle não-linear é o caminho a ser seguido para se aumentar à confiança no projeto antes de sua entrada em serviço. O Departamento de Mecânica Espacial e Controle (DMC) do INPE está construindo um Laboratório de Simulação a fim de fornecer as condições necessárias para implementação e testes de SCA para satélites. A montagem de um simulador de satélites com três graus de liberdade capaz de acomodar vários componentes como sensores, atuadores, computadores e suas respectivas interfaces é um dos principais objetivos deste laboratório. A dinâmica de atitude em três eixos apresenta uma planta altamente não-linear, exigindo no projeto do SCA o emprego de técnicas que considere tais não-linearidades. Portanto, aproximações lineares desta planta e/ou do controlador, na maioria dos casos, não representam corretamente a dinâmica, principalmente quando se realiza manobra de atitude com grandes ângulos. Como resultado, o projeto de controladores com técnicas lineares podem resultar em baixo desempenho, podendo levar o sistema à instabilidade. Neste trabalho utiliza-se o método SDRE (State Dependent Riccati Equation) para o projeto de um SCA para um simulador de satélites com dinâmica não-linear semelhante ao do laboratório da DMC. O SDRE pode ser considerado como a contraparte não-linear do LQR, possuindo suas vantagens e desvantagens. Adicionalmente, aplica-se o método SDRE associado à técnica do Filtro de Kalman a fim de incorporar as não-linearidades existentes em problemas como a presença de ruídos nos processos e nas medidas dos sensores, além da estimação de informações incompletas quanto aos estados do sistema. Um modelo matemático do simulador implementado em Simulink e resultados de simulações são apresentados para demonstrar o bom desempenho e robustez do controlador SDRE juntamente com Filtro de Kalman/SDRE.<br>Space missions involving automatic procedures for big attitude maneuvers and control using new non-linear control techniques require from the satellite Attitude Control System (ACS) reliability, adequate performance and robustness. In that context, experimental validation of new equipment and/or non-linear control techniques through prototypes is the way to increase ACS confidence before launching. The Space Mechanics and Control Division (DMC) of INPE is constructing a Simulation Laboratory to supply the conditions for implementing and testing satellite ACS. The development of a 3DoF simulator that can accommodate various satellites components like sensors, actuators, computers and their respective interface and electronic is an important objective of this Lab. When designing a satellite 3DoF attitude control system, it is necessary to deal with a highly non-linear plant. Linear approximation of the plant and controller is not likely to deliver good performance for large angle maneuvers; therefore a non-linear approach must be considered. This thesis presents the application of State-Dependent Riccati Equation (SDRE) method to design a controller for a 3DoF simulator similar to the DMC one. The SDRE can be considered as the non-linear counterpart of LQR control technique; therefore it has its advantage and disadvantages. In addition, practical applications also have to address problems like presence of noise in process and measurements and incomplete state information; Kalman filter is considered as state observer to address these issues and, in order to incorporate the non-linearities, SDRE method is also applied to filter implementation. A simulink-based model is implemented and a few simulations examples are provided to demonstrate the performance of the SDRE controller with SDRE-based Kalman filter.
APA, Harvard, Vancouver, ISO, and other styles
11

Sallum, Loriz Francisco. "Avaliação da espectroscopia Raman intensificada por superfície em papel filtro e métodos quimiométricos na quantificação de fármacos." Universidade Federal de São Carlos, 2014. https://repositorio.ufscar.br/handle/ufscar/6594.

Full text
Abstract:
Made available in DSpace on 2016-06-02T20:36:52Z (GMT). No. of bitstreams: 1 6175.pdf: 2844128 bytes, checksum: cbd81c1655a6816811213156189c546b (MD5) Previous issue date: 2014-02-21<br>Universidade Federal de Minas Gerais<br>Raman spectroscopy has been widely used for pharmaceutical analysis in recent decades due to advances of this technique, related to the development of electronics, optics and fundamental studies. As a consequence to the advantages of the technique of Raman signal enhancement and rapid data acquisition, SERS has become a useful analytical tool for quantifying active ingredients, detecting interferents, and assist in many other areas. In this work silver nanoparticles were synthesized by Tollens reagent using filter paper as the substrate, pre- treatment of the substrate influences its porosity, reactant concentrations, temperature and time of reaction being checked by fractional factorial design and central composite design, getting the synthesis with the highest enhancement factor in SERS signal. The analysis was performed with a Raman spectrometer with a laser wavelength of 785 nm and the nanoparticles were analyzed by X&#61485;ray diffraction, energy dispersive spectroscopy and scanning electron microscopy. For the calibration models of nicotinamide and acetylsalicylic acid, it was chosen the most intense peak as reference. In summary, the present work investigated the detection and quantification of drugs in question using synthesized substrate. To this end, experimental design aimed at optimizing the synthesis of the substrate for possible quantification of active principles in presence of excipients in commercial products.<br>A espectroscopia Raman tem sido bastante utilizada para análises farmacêuticas nas últimas décadas devido aos avanços desta técnica, relacionados ao desenvolvimento da eletrônica, óptica e estudos fundamentais. Graças às vantagens da técnica de amplificação do sinal Raman e a rápida aquisição dos dados, a SERS tem se tornado uma ferramenta analítica útil para quantificar princípios ativos, detectar interferentes, além de auxiliar em várias outras áreas. Neste projeto foram sintetizadas nanopartículas de prata com Reagente de Tollens utilizando papel filtro como substrato, sendo verificado o pré-tratamento dado ao substrato, influência de sua porosidade, a concentrações dos reagentes, o tempo e a temperatura da reação por planejamento experimental fracionado e planejamento composto central, obtendo a síntese com o maior fator de aumento do sinal SERS. A análise foi feita com um espectrômetro Raman com laser de comprimento de onda de 785 nm e as nanopartículas foram analisadas por difração de raio-X, espectroscopia de energia dispersiva e microscopia eletrônica de varredura. Para os modelos de calibração da nicotinamida e do ácido acetilsalicílico, escolheu-se o pico mais intenso como referência. Em resumo, o presente projeto investigou a detecção e quantificação dos fármacos em questão utilizando o substrato sintetizado. Para tal, foram utilizados planejamento experimental visando otimização da síntese do substrato para possível quantificação de princípios ativos na presença de excipientes em produtos comerciais.
APA, Harvard, Vancouver, ISO, and other styles
12

Brandão, Camille Petruccio Urago. "Adaptação de métodos imunoenzimáticos de diagnóstico da hepatite C para uso com amostras de sangue coletado em papel de filtro." Instituto de Tecnologia em Imunobiológicos, 2011. https://www.arca.fiocruz.br/handle/icict/5916.

Full text
Abstract:
Submitted by Priscila Nascimento (pnascimento@icict.fiocruz.br) on 2012-12-03T16:23:50Z No. of bitstreams: 1 camille-brandao.pdf: 2860228 bytes, checksum: 83c9dbffefc606b192592b1683efd604 (MD5)<br>Made available in DSpace on 2012-12-03T16:23:50Z (GMT). No. of bitstreams: 1 camille-brandao.pdf: 2860228 bytes, checksum: 83c9dbffefc606b192592b1683efd604 (MD5) Previous issue date: 2011<br>Fundação Oswaldo Cruz. Instituto de Tecnologia em Imunobiológicos. Rio de Janeiro, RJ, Brasil.<br>O presente estudo visa à adaptação de ensaios imunoenzimáticos comerciais de diagnóstico da hepatite C para uso em amostras de sangue coletado em papel de filtro (SCPF). Foram coletadas amostras pareadas de soro e SCPF de 411 indivíduos com média de idade de 40 anos, provenientes de banco de sangue e três unidades de saúde. As amostras foram submetidas a dois ensaios imunoenzimáticos (EIEs) para detecção de anticorpos anti-HCV: HCV Ab, Radim (Itália) e ETI-AB-HCVK-4, DiaSorin (Itália); e a dois EIEs para detecção simultânea de antígeno core do HCV e anticorpos anti-HCV, Monolisa TM HCV Ag-Ab ULTRA, Bio-Rad (França) e Murex HCV Ag/Ab Combination, Abbott (África do Sul). A detecção de anti-HCV e simultânea de antígeno e anticorpos anti-HCV em amostras de soro foi feita conforme recomendações dos fabricantes, e em SCPF foram avaliados os parâmetros, tampão de eluição, volumes de amostra, de diluente de amostra e de conjugado, tempo de incubação da amostra e valor do ponto de corte (PC). Após otimização desses parâmetros foram determinados os valores de sensibilidade (S), especificidade (E), concordância (valor de kappa), limite de detecção do teste, valores preditivos positivo (VPP) e negativo (VPN), precisão intraensaio e interensaio. A estabilidade das amostras de SCPF foi avaliada em diferentes condições ambientais (22-26ºC, 2-8°C e -20°C). Como resultado, o tampão PBS/BSA 0,5% foi selecionado para eluição das amostras de SCPF e estabelecido um aumento no volume de amostra para todos os fabricantes. Os tempos de incubação e os volumes de conjugado seguiram a recomendação dos fabricantes. Para o EIE HCV Ab os valores determinados foram S = 97,50%, E = 99,46%, kappa (k)= 0,959, VPP = 64,59% e VPN = 99,97%, para uma prevalência de doença de 1% na população. Para o EIE ETI-AB-HCVK-4, o PC foi estabelecido pela curva ROCe observou-se S = 88,89%, E = 98,89%, k= 0,875, VPP = 44,71% e VPN = 99,89%. O PC do EIE Monolisa TM HCV Ag-Ab ULTRA foi obtido pela curva ROCe verificou-se S = 95,12%, E =100%, k= 0,959, VPP = 100% e VPN = 99,95%. O PC para o EIE Murex HCV Ag/Ab Combinationfoi determinado pela média dos valores de densidade ótica (D.O.) das amostras de SCPF correspondentes àquelas de soro negativas no teste, acrescido de três desvios padrão proporcionando S = 78,05%, E = 99,43%, k= 0,838, VPP = 58,04% e VPN = 99,78%. O limite de detecção mostrou reatividade até a diluição de 1/10.000 para EIE HCV Ab e EIE ETI-AB-HCVK-4 e até 1/1.000 com EIE Monolisa TM HCV Ag-Ab ULTRA e EIE Murex HCV Ag/Ab Combination. Os resultados das amostras de SCPF obtiveram erro total inferior a 17% e as mesmas mantiveram-se estáveis nas diferentes condições de armazenamento por 60 dias. Os resultados obtidosnos EIE HCV ab e EIE Monolisa TM HCV Ag-Ab ULTRA mostraram-se mais concordantes com os observados com as amostras de soro, indicando melhor desempenho desses ensaios em amostras de SCPF.<br>The present study aims at adaptation of commercial enzyme immunoasssays for diagnosis of hepatitis C to be used with dried blood spots (DBS). Paired serum and DBS samples from 411 individuals with mean age of 40 years, were collected at Blood Center and three out patient units. Samples were tested for the detection of anti-HCV antibodies by using two enzyme immunoassays (EIAs): HCV Ab, Radim (Italy) and ETI-AB-HCVK-4, DiaSorin (Italy); and two EIAs for the simultaneous detection of hepatites C virus (HCV) core antigen and anti-HCV antibodies: Monolisa TM HCV Ag-Ab ULTRA, Bio-Rad (France) and Murex HCV Ag/Ab Combination, Abbott (South Africa). Anti-HCV detection and simultaneous detection of HCV core antigen and anti-HCV antibodies in serum sample were perfomed according to the manufacture’s recommendations. In DBS samples parameters such as elution buffer, sample, diluent, and conjugate volumes, incubation period, and cut off (CO) values were evaluated. After optimization of these parameters, values of sensitivity, specificity, inter-rater agreement (kappa value), detection limit, intra- and inter-assay precision were determinated. Stability of DBS samples was investigated in different conditions (22-26ºC, 2-8°C e -20°C). As results, PBS/BSA 0,5% buffer was chosen as elution buffer in DBS samples and an increased volume of the samples in all EIAs was established. Incubation duration and volume of conjugate were in accordance with manufacturer’s recommendations. With EIA HCV Ab values sensitivity of 97,50%, specificity 99,46%, inter-rate agreement 0,959, positive predictive value 64,59%, and negative predictive value (1% of disease prevalence) 99,97% were observed. For the EIA ETI-AB-HCVK-4 best cut-off values were obtained from ROC curve and observed values were sensitivity 88,89%, specificity 98,89%, inter-rate agreement 0,875, positive predictive value 44,71%, and negative predictive value 99,89%. For the EIA Monolisa TM HCV Ag-Ab ULTRA best cut-off values were obtained from ROC curve with sensitivity of 95,12%, specificity 100%, inter-rate agreement 0,959, positive predictive value 100%, and negative predictive value 99,95%. For the EIA Murex HCV Ag/Ab Combination best cut-off values were obtained by calculating the average of optical density of DBS samples correspondent to those with negative results in serum plus three standard deviations, resulting in a sensitivity of 78,05%, specificity of 99,43%, inter-rate agreement of 0,838, positive predictive value of 58,04%, and a negative predictive value of 99,78%. The lower limit of HCV Ab and ETI-AB-HCVK-4 tests in DBS was 1/10.000, and for Monolisa TM HCV Ag-Ab ULTRA and Murex HCV Ag/Ab Combination was 1/1.000. Total error of DBS results was below 17% and all DBS samples maintained stable in all storage conditions for 60 days. Results obtained with EIE HCV Ab and EIA Monolisa TM HCV Ag-Ab ULTRA were found to be more concordant with those observed for serum samples, indicating a better performance of theses assays inDBS samples.
APA, Harvard, Vancouver, ISO, and other styles
13

Gonçalves, Wagner Diego. "Desenvolvimento de métodos numéricos para suavização de sinais e modelagem de ruídos em nanodispositivos." reponame:Repositório Institucional da UFABC, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
14

Santoro, Daniel Monegatto. "Sobre o processo de seleção de subconjuntos de atributos - as abordagens filtro e wrapper." Universidade Federal de São Carlos, 2005. https://repositorio.ufscar.br/handle/ufscar/594.

Full text
Abstract:
Made available in DSpace on 2016-06-02T19:06:20Z (GMT). No. of bitstreams: 1 DissDMS.pdf: 4319162 bytes, checksum: 520f8924dcc0b2471665008a2ea3ec5a (MD5) Previous issue date: 2005-04-28<br>Universidade Federal de Sao Carlos<br>Inductive machine learning methods learn the expression of the concept from a training set. Training sets are, generally, composed by instances described by attributevalue pairs and an associated class. The attribute set used for describing the training instances has a strong impact on the induced concepts. In a machine learning environment, attribute subset selection techniques aim at the identification of the attributes which effectively contribute for establishing the class of an instance. These techniques can be characterized as wrappers (if they are associated with a specific machine learning method) or filter and many of them work in conjunction with a search method (there are also embedded feature selection methods, not very representative). This work approaches the attribute subset selection problem by investigating the performance of two families of wrappers the NN (Nearest Neighbor) and DistAl families and three filter families Relief, Focus and LVF. The many members of the NN family (as well as of the DistAl family) differ among themselves with relation to the search method they use. The work presents and discusses the experiments conducted in many knowledge domains and their results allow a comparative evaluation (as far as accuracy and dimensionality are concerned) among the members of the families.<br>Métodos indutivos de aprendizado de máquina aprendem a expressão do conceito a partir de um conjunto de treinamento. Conjuntos de treinamento são, na maioria das vezes, compostos por instâncias descritas por pares atributo-valor e uma classe associada. O conjunto de atributos usado para descrever as instâncias de treinamento tem um forte impacto na expressão induzida do conceito. As técnicas para a seleção de subconjuntos de atributos no contexto de aprendizado de máquina objetivam identificar os atributos que efetivamente contribuem para a caracterização da classe de uma instância. Essas técnicas podem ser caracterizadas como do tipo wrapper (se estão associadas a um método específico de aprendizado de máquina) ou filtro e muitas delas funcionam articuladas a um método de busca (há ainda o tipo integrado, pouco representativo). Este trabalho aborda o problema de seleção de subconjuntos de atributos por meio da investigação do desempenho de duas famílias de wrappers a família NN (Neareast Neighbor) e a DistAl e de três famílias de filtros Relief, Focus e LVF. Os vários integrantes da família NN (bem como da família DistAl) diferem entre si com relação ao método de busca utilizado. O trabalho apresenta e discute os experimentos realizados em vários domínios de conhecimento e seus resultados permitem uma avaliação comparativa de desempenho (precisão e dimensionalidade) dos elementos das várias famílias avaliadas.
APA, Harvard, Vancouver, ISO, and other styles
15

Castro, Márcia Luciana Aguena. "Super resolução baseada em métodos iterativos de restauração." Universidade Federal de São Carlos, 2013. https://repositorio.ufscar.br/handle/ufscar/285.

Full text
Abstract:
Made available in DSpace on 2016-06-02T19:03:57Z (GMT). No. of bitstreams: 1 5415.pdf: 8638421 bytes, checksum: 0e5c5abf95c786434202fdae3e69dc1e (MD5) Previous issue date: 2013-06-24<br>Financiadora de Estudos e Projetos<br>The resolution enhancement of an image is always desirable, independently of its objective, but mainly if the image has the purpose of visual analysis. The hardware development for increasing the image resolution still has a higher cost than the algorithmic solutions for super-resolution. Like image restoration, super-resolution is also an ill-conditioned inverse problem, and has an infinite number of solutions. This work analyzes the iterative restoration methods (Van Cittert, Tikhonov-Miller and Conjugate Gradiente) which propose solutions for the ill-conditioning problem and compares them with the IBP method (Iterative Back Projection). The analysis of the found similarities is the basis of a generalization, such that other iterative restoration methods can have their properties adapted, as regularization of the ill-conditioning, noise reduction and other degradations and the increase of the convergence rate can be incorporated to the techniques of super-resolution. Two new methods were created as case studies of the proposed generalization: the first one is a super-resolution method for dynamic magnetic resonance imaging (MRI) of the swallowing process, that uses an adaptiveWiener filtering as regularization and a non-rigid registration; and the second one is a pan sharpening method of SPOT satellite bands, that uses sampling based on sensor s characteristics and non-adaptive Wiener filtering.<br>A melhora da resolução de uma imagem é sempre desejada, independentemente de seu objetivo, mas principalmente se destinada a análise visual. O desenvolvimento de hardware para o aumento de resolução de uma imagem em sua captura ainda possui o custo mais elevado do que as soluções algorítmicas de super resolução (SR). Assim como a restauração de imagens, a super resolução também é um problema inverso mal-condicionado e possui infinitas soluções. Este trabalho analisa métodos de restauração iterativos (Van Cittert, Tikhonov-Miller e Gradiente Conjugado) que proponham soluções para o problema do malcondicionamento e os compara com o método IBP (Iterative Back-Projection). A análise das semelhanças encontradas é base para uma generalização de modo que outros métodos iterativos de restauração possam ter suas propriedades adaptadas, tais como regularização do mal-condicionamento, redução do ruído e outras degradações e aumento na taxa de convergência, para que possam ser incorporadas à técnicas de super resolução. Dois novos métodos foram criados como estudo de caso da generalização proposta: o primeiro é um método de super-resolução para imageamento por ressonância magnética (MRI) dinâmico do processo de deglutição, que utiliza uma filtragem de Wiener adaptativa como regularização e registro não-rígido; o segundo é um método de pansharpening das bandas do satélite SPOT, que utiliza amostragem baseada nas características do sensor e filtragem de Wiener não-adaptativa.
APA, Harvard, Vancouver, ISO, and other styles
16

Pacheco, Patrícia Sánez. "Investigação de métodos de assimilação de dados oceanográficos e aplicações com o modelo MOM3 no oceano Atlântico tropical." Laboratório Nacional de Computação Científica, 2006. https://tede.lncc.br/handle/tede/57.

Full text
Abstract:
Made available in DSpace on 2015-03-04T18:50:47Z (GMT). No. of bitstreams: 1 Tese - Patricia Sanez Pacheco.pdf: 5863593 bytes, checksum: 09110174632af5db7c118097a7724e97 (MD5) Previous issue date: 2006-11-16<br>Fundação Carlos Chagas Filho de Amparo a Pesquisa do Estado do Rio de Janeiro<br>In this work, formulations of ocean data assimilation methods and numerical experiments focusing on the tropical Atlantic Ocean are presented. A methodology of correction of salinity, which takes the temperature analysis and a local relation between temperature and salinity, and numerical experiments are also presented. The methods used here were: the Bergthorsson and Döös (B&D) method; the method of Successive Corrections, both with fixed weights; and a version of the Kalman filter based on the Fokker-Plank equation with prognostic weights. The global circulation model MOM version 3 from GFDL/NOAA was used for the realization of experiments with inter-annual and seasonal variabilities. These experiments used observational data from the PIRATA project and from the climatological Levitus Atlas, respectively. The experiments were performed after 15 years of spin up. Several sensitivity experiments were realized to identify the impact of data assimilation on the model results, particularly in relation to: (i) the number of model vertical levels with assimilation, (ii) assimilation of only vertical profiles of temperature; (iii) assimilation of only vertical profiles of salinity; (iv) assimilation of vertical profiles of both temperature and salinity; (v) assimilation of only vertical profiles of temperature but with salinity correction. The results showed that the use of the assimilation methods reduced the model errors in relation to the observational data. The analysis increments by the data assimilation methods heated the surface ocean and cooled the region below the thermocline. The Kalman filter version produced localized corrections around the observational data, while the methods with prescribed weights produced smooth analysis with large-scale impacts. The assimilation of only temperature with the B&D method conducted for 1 year imposed perturbations that caused the degradation of the solution in the second half of the experiment. The assimilation of both temperature and salinity or the assimilation of only temperature with salinity correction produced the best model estimate with respect to observation. For the implementation of an operational ocean data assimilation system with the methods investigated in the present work, it is recommended the use of the B&D method and assimilation of both temperature and salinity.<br>Neste trabalho são apresentadas formulações de métodos de assimilação de dados oceanográficos e experimentos numéricos enfocando o Oceano Atlântico tropical. É apresentada ainda uma metodologia e experimentos de correção da salinidade a partir de análises de temperatura usando uma relaçãolocal entre a temperatura e salinidade. Foi utilizado o método de Bergthorsoon e Döös (B&D), o método de correções sucessivas, ambos com pesos prescritos, e uma versão do filtro de Kalman baseada na equação de Fokker-Planck com pesos prognosticados. Foi empregado o modelo de circulação geral dos oceanos MOM3 do GFDL/NOAA para a realização de experimentos com variabilidade interanual e com variabilidade sazonal usando dados observados do projeto PIRATA e climatologia do Atlas de Levitus, respectivamente. As integrações foram feitas após 15 anos de integração de spin up. Diversos experimentos de sensibilidade foram realizados para identificar o impacto da assimilação de dados na simulação do modelo, particularmente em relação a: (i) número de níveis verticais do modelo com assimilação; (ii) assimilação com perfis verticais de temperatura; (iii) assimilação com perfis verticais de salinidade; (iv) assimilação de ambos perfis verticais de temperatura e salinidade; e (v) assimilação de somente perfis verticais de temperatura mas com correção da salinidade. Os resultados obtidos indicam que os métodos de assimilação reduziram os erros do modelo em relação às observações. Os incrementos da análise produzidos pelos métodos de assimilação aqueceram o oceano superficial e esfriaram a região abaixo da termoclina. A versão do filtro de Kalman produziu correções localizadas ao redor dos pontos de dados observacionais, enquanto os métodos com pesos prescritos produziram análises mais suaves com correções em áreas maiores. A assimilação de somente temperatura com o método de B&D conduzida por 1 ano impôs perturbações que causaram a degradação da qualidade da simulação na segunda metade do experimento. A assimilação de ambos temperatura e salinidade ou somente assimilação de temperatura com correção da salinidade produziram a melhor estimativa do modelo em relação às observações. Para a implementação de um sistema de assimilação de dados oceanográficos operacional com os métodos aqui investigados recomenda-se o uso do método de B&D e assimilação de ambos temperatura e salinidade.
APA, Harvard, Vancouver, ISO, and other styles
17

Peredo, Andrade Oscar Francisco. "Implementación de un Método de Programación Semidefinida Usando Computación Paralela." Tesis, Universidad de Chile, 2010. http://www.repositorio.uchile.cl/handle/2250/103643.

Full text
Abstract:
En el presente trabajo se estudió y rediseñó una implementación existente del algoritmo Filter-SDP, el cual resuelve problemas de programación semidefinida no lineal de la forma: donde f : Rn → R, h : Rn → Rp y G : Rn → Sm son funciones de clase C2 y Sm denota el espacio lineal de las matrices simétricas de m×m dotado del producto interno A·B = . El algoritmo resuelve en cada iteración una aproximación local representada por un problema de programación semidefinida lineal, y adicionalmente se utiliza un esquema de penalización multi-objetivo, en el cual se minimiza la función objetivo y una función de mérito utilizando un filtro. Se estudió la introducción de cálculo paralelo en partes específicas del algoritmo, con el objetivo de disminuir el tiempo de ejecución. Se reimplementó el algoritmo utilizando el lenguaje C y la librería de cálculo paralelo MPI. Esa nueva implementación se comparó con un desarrollo ya existente, realizado sobre la plataforma MATLAB, y se midió su speedup en los problemas más pesados de una batería de tests escogida. Como apoyo al desarrollo del algoritmo, se diseñaron nuevas fases de restauración sobre la plataforma MATLAB, con el objetivo de mejorar la calidad de las soluciones obtenidas. Se diseñaron 4 nuevos métodos para la fase de restauración del algoritmo, cuyas principales áreas de influencia son la restauración inexacta, el diseño de controladores retroalimentados de salida estática y el posicionamiento de polos. Dentro de los resultados obtenidos, se logró visualizar las ventajas de la nueva implementación con respecto al desarrollo ya existente, así como demostrar el beneficio que se obtiene en el speedup para problemas pesados. También se realizó una comparación entre los métodos diseñados para la fase de restauración, con la cual se llegó a conclusiones que pueden abrir nuevas áreas de investigación y trabajo a futuro. Finalmente, se aprendió a utilizar una herramienta de álgebra lineal que funciona sobre ambientes de cálculo paralelo, ScaLAPACK, y se perfeccionó el proceso de desarrollo de software que ya se tenía sobre este tipo de plataformas.
APA, Harvard, Vancouver, ISO, and other styles
18

Coelho, André Arcanjo Júlio da Fonseca. "Optimização da reconstrução de imagem em mamografia por emissão de positrões através de métodos de regularização dos dados." Master's thesis, Faculdade de Ciências e Tecnologia, 2010. http://hdl.handle.net/10362/4833.

Full text
Abstract:
Dissertação apresentada na Faculdade de Ciências e Tecnologia da Universidade Nova de Lisboa para obtenção do Grau de Mestre em Engenharia Biomédica<br>Nos últimos anos, uma nova tecnologia emergiu no âmbito da medicina nuclear, denominada de Mamografia por Emissão de Positrões (PEM). Esta baseia-se nos mesmo princípios físicos da Tomografia por Emissão de Positrões,sendo utilizada na detecção de pequenas estruturas tumorais localizadas na mama, ainda numa fase precoce do seu desenvolvimento. O projecto Clear-PEM, inserido no consórcio português com o mesmo nome, desenvolveu um scanner baseado na tecnologia PEM, onde duas cabeças detectoras rodam em torno da mama, detectando a radiação emitida. Os dados provenientes de um sistema de detecção deste género apresentam um elevado nível de ruído inerente à natureza estocástica da detecção de radiação. Este ruído é amplificado ao longo do processo iterativo de reconstrução de imagem, reflectindo-se nas imagens reconstruídas. Com este trabalho pretende-se minimizar este efeito através da introdução de filtros entre iterações que impeçam a amplificação do ruído ao longo do processo iterativo, e da utilização de algoritmos Bayesianos, os quais permitem incluir informação obtida à priori sobre a natureza dos dados. A avaliação dos métodos de regularização dos dados introduzidos, foi realizada com recurso a imagens obtidas com fantomas e pacientes, através da avaliação de parâmetros quantitativos como o contraste, o ruído e resolução espacial. Paralelamente, realizou-se uma análise no espaço das frequências, utilizando um fantoma cilíndrico. Dos dois métodos de regularização dos dados estudados, o método de filtragem entre iterações apresentou os melhores resultados no que diz respeito ao controlo da amplificação do ruído ao longo da filtragem entre iterações. No entanto, este método fez com que o contraste diminuísse, e a resolução espacial aumentasse, ambos de forma significativa, quando comparados com os resultados obtidos com o método de introdução de informação à priori sobre a natureza dos dados. Os resultados obtidos com o presente projecto, permitiram concluir que o método de filtragem entre iterações deverá ser empregue, utilizando um filtro gaussiano com FWHM=1.0. Quanto ao outro método de regularização estudado, neste deverá utilizar-se um peso do prior igual à unidade (β=1), enquanto que o filtro mediana, característico do prior utilizado (MRP), deverá ser aplicado segundo um kernel de raio igual a um, ou seja, um kernel de tamanho 3x3x3. Estas duas parametrizações, devem ser utilizadas como uma referência à aplicação destes dois métodos de regularização dos dados na reconstrução de imagem, tendo em vista o melhor compromisso entre os vários números de mérito estudadas. No entanto, devem ser realizados estudos futuros, à medida que se verifiquem evoluções na aquisição de dados Clear-PEM.
APA, Harvard, Vancouver, ISO, and other styles
19

Pereira, Marcos Henrique Rios. "Estimativa de provisões de IBNR utilizando espaço de estados e filtro de Kalman: um caso brasileiro." reponame:Repositório Institucional do FGV, 2013. http://hdl.handle.net/10438/11134.

Full text
Abstract:
Submitted by Marcos Pereira (marcoshenriquerios@gmail.com) on 2013-09-18T23:42:13Z No. of bitstreams: 1 Dissertacao_Marcos_Rios_final.pdf: 3400230 bytes, checksum: 55e2f8c2e2c24851639db9e8bda17832 (MD5)<br>Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2013-09-19T15:26:00Z (GMT) No. of bitstreams: 1 Dissertacao_Marcos_Rios_final.pdf: 3400230 bytes, checksum: 55e2f8c2e2c24851639db9e8bda17832 (MD5)<br>Made available in DSpace on 2013-09-19T15:30:35Z (GMT). No. of bitstreams: 1 Dissertacao_Marcos_Rios_final.pdf: 3400230 bytes, checksum: 55e2f8c2e2c24851639db9e8bda17832 (MD5) Previous issue date: 2013-08-27<br>Esta dissertação pretende discutir a provisão de sinistros do tipo IBNR, bem como qual a melhor forma de estimar estas provisões. Para tanto, serão utilizados dados reais de uma grande seguradora Brasileira para um produto de seguro de um ramo Não Vida. Serão utilizados no cálculo o clássico método Chain Ladder e em contrapartida um modelo de Espaço de Estados e Filtro de Kalman, discutindo as flexibilidades, vantagens e desvantagens de se utilizar tal metodologia.<br>This master thesis discusses the claims reserve of the IBNR type, as well as the best way to estimate these provisions. For this purpose will be used the real data from a large Brazilian insurer for an insurance product from a non-life business. Will be used in calculating the classic Chain Ladder method and against this a State Space model and Kalman Filter, discussing the flexibilities, advantages and disadvantages of use such methodology.
APA, Harvard, Vancouver, ISO, and other styles
20

Lucas, Juliana Fenner Ruas. "Obtenção da curva de retenção da água no solo pela câmara de compressão triaxial e pelo papel filtro." Universidade Estadual do Oeste do Parana, 2010. http://tede.unioeste.br:8080/tede/handle/tede/323.

Full text
Abstract:
Made available in DSpace on 2017-05-12T14:48:03Z (GMT). No. of bitstreams: 1 Juliana Fenner Ruas Lucas.pdf: 7353201 bytes, checksum: 171282273d86ea92304991a62a946fc6 (MD5) Previous issue date: 2010-07-13<br>The soil water content is related to the soil matrix ability to retain the water, characterized by the water matric potential. Moisture and matric potential are factors functionally interrelated and represented by the soil-water retention curve. This relationship allows inferring moisture from the matric potential measurement and vice versa, as well as deducing several soil and water in soil properties. The traditional method for determining the retention curve employs the Richards pressure plate apparatus. For practical reasons, the search for alternatives to the Richards apparatus that are financially more accessible and faster is needed. In this regard, this study aimed at evaluating the use of two devices: the triaxial compression chamber and the filter paper. Therefore, soil was initially collected and physical-chemically characterized. Undisturbed soil samples were prepared and tested in the Richards chamber, using pressures of 0, 10, 30, 60, 100, 300, 500, 1,000 and 1,500 kPa. In the triaxial compression chamber test, soil samples were submited to pressures of 0, 10, 30, 60, 100, 300, 500 and 1,000 kPa, and for each pressure, it was measured the volume of drained water and calculated the sample moisture at that pressure. In the filter paper test, it was measured the water matric potential in samples for which moisture levels were established using an appropriated calibration curve. The three tests were repeated five times, resulting in points of pressure versus moisture that were adjusted by the RETC program, using to the model of van Genuchten. It was performed a comparative analysis of the triaxial chamber and the filter paper estimated soil moisture values with the adjusted retention curve obtained by the Richards apparatus. This comparison allowed to verify the applicability of the filter paper method for determining the water retention curve in agricultural soils and the inadequacy of triaxial compression chamber for this purpose.<br>O teor de água no solo está relacionado com a capacidade da matriz do solo em reter a água, caracterizada pelo potencial matricial da água. Umidade e potencial matricial são fatores funcionalmente inter-relacionados e representados pela curva de retenção da água no solo. Esta relação possibilita inferir a umidade a partir da medida do potencial matricial e vice-versa, assim como estimar outras propriedades do solo e da água no solo. O método tradicional para a determinação da curva de retenção emprega a câmara de pressão de Richards. Por questões práticas, a busca por métodos alternativos ao de Richards, financeiramente mais acessíveis e menos morosos, faz-se interessante. Diante disso, desenvolveu-se o presente trabalho com o objetivo de avaliar o uso de dois dispositivos: a câmara de compressão triaxial e o papel filtro. Para tanto, realizou-se inicialmente coleta e caracterização físico-química do solo, preparo de amostras indeformadas e ensaio na câmara de Richards, utilizando pressões de 0, 10, 30, 60, 100, 300, 500, 1000 e 1500 kPa. No ensaio com a câmara de compressão triaxial, submeteu-se amostras de solo às pressões de 0, 10, 30, 60, 100, 300, 500 e 1000 kPa e, para cada pressão, foi mensurado o volume de água drenado, o que permitiu calcular a umidade da amostra àquela pressão. Com o papel filtro, mediu-se o potencial matricial da água em amostras cujas umidades foram previamente estabelecidas, utilizando-se curva de calibração adequada. Os três ensaios foram executados em quintuplicata e resultaram em pontos de pressão versus umidade que foram ajustados pelo programa RETC, usando o modelo de van Genuchten. Realizou-se uma análise comparativa de valores de umidade volumétrica estimados pelo modelo ajustado nos ensaios com a câmara triaxial e o papel filtro com a curva de retenção ajustada obtida pela câmara de Richards. Através dessa comparação, verificou-se a aplicabilidade do método do papel filtro para a determinação da curva de retenção de água em solos agrícolas e inadequação da câmara de compressão triaxial para esta finalidade.
APA, Harvard, Vancouver, ISO, and other styles
21

SOUSA, Fiterlinge Martins de. "Análise teórica de filtros em estruturas EBG e em guias de ondas de cristais fotônicos." Universidade Federal do Pará, 2016. http://repositorio.ufpa.br/jspui/handle/2011/8295.

Full text
Abstract:
Submitted by camilla martins (camillasmmartins@gmail.com) on 2017-04-27T13:05:18Z No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_AnaliseTeoricaFiltros.pdf: 4789588 bytes, checksum: 8e8c2066525cc43ae730dd29a6cdff9d (MD5)<br>Approved for entry into archive by Edisangela Bastos (edisangela@ufpa.br) on 2017-05-04T12:38:55Z (GMT) No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_AnaliseTeoricaFiltros.pdf: 4789588 bytes, checksum: 8e8c2066525cc43ae730dd29a6cdff9d (MD5)<br>Made available in DSpace on 2017-05-04T12:38:55Z (GMT). No. of bitstreams: 2 license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Dissertacao_AnaliseTeoricaFiltros.pdf: 4789588 bytes, checksum: 8e8c2066525cc43ae730dd29a6cdff9d (MD5) Previous issue date: 2016-11-25<br>Este trabalho apresenta simulações de filtros rejeita-faixa de micro-ondas utilizando estruturas Electromagnetic Bandgap (EBG). Na estrutura de filtro são feitos furos no plano terra e posteriormente esses furos terão o seu diâmetro alterado visando melhorar a qualidade da banda de rejeição e a obtenção de duas bandas de rejeição. Em comparação com filtros convencionais, filtros com estruturas EBG tem melhores características de banda de rejeição na faixa de micro-ondas As referidas simulações foram feitas com o software comercial ANSYS HFSS. Uma estrutura de filtro utilizando guias de ondas fotônicos também é modelada e simulada utilizando o software comercial Comsol. Os efeitos dos parâmetros físicos da estrutura em relação as característica de filtragem são estudados em ambos os filtros. Os resultados do procedimento de criação e de simulação são descritos e possíveis aplicações dessas estruturas de filtro são discutidas neste trabalho. A faixa de rejeição particularmente ampla é alcançada pelos circuitos apresentados neste trabalho bem como duas bandas de rejeição.<br>This paper presents simulations of a band-stop filter using microwave Electromagnetic Bandgap structures (EBG). In the filter structure are made holes in the ground plane and these holes will subsequently changed its diameter to improve the rejection band of the quality and obtaining two rejection bands. Compared with conventional filters, filters with EBG structures have better rejection bandwidth characteristics in the microwave band. These simulations were performed with commercial software ANSYS HFSS. A filter structure using photonic waveguides is also modeled and simulated using commercial software Comsol. The effects of the physical parameters of the structure in relation to the filter characteristic are studied in both filters. The results of the creation and simulation procedure are described and possible applications of these filter structures are discussed in this paper. The particularly wide stopband is achieved by the circuits presented in this paper as well as two rejection bands.
APA, Harvard, Vancouver, ISO, and other styles
22

Kim, Joaquim Yuji Usukura. "Degradação de filtros solares selecionados, ureia e desinfecção de água de piscina por fotoeletrocatálise combinada com ozonização." Universidade Estadual Paulista (UNESP), 2018. http://hdl.handle.net/11449/153461.

Full text
Abstract:
Submitted by Joaquim Yuji Usukura Kim null (joaquimusukura@gmail.com) on 2018-04-06T23:09:51Z No. of bitstreams: 1 Degradação de filtros solares selecionados, ureia e desinfecção de água de piscina por fotoeletrocatálise combinada com ozonização.pdf: 3011240 bytes, checksum: 514d3af581ac1ec3ae208bd3a1a4e90a (MD5)<br>Approved for entry into archive by Ana Carolina Gonçalves Bet null (abet@iq.unesp.br) on 2018-04-10T17:50:32Z (GMT) No. of bitstreams: 1 kim_jyu_me_araiq_int.pdf: 2793641 bytes, checksum: daff915d2e2c443df5ecc4472e47d7cd (MD5)<br>Made available in DSpace on 2018-04-10T17:50:32Z (GMT). No. of bitstreams: 1 kim_jyu_me_araiq_int.pdf: 2793641 bytes, checksum: daff915d2e2c443df5ecc4472e47d7cd (MD5) Previous issue date: 2018-03-08<br>Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq)<br>O uso de protetores solares para abrandar os efeitos danosos da radiação solar à pele humana leva à contaminação da água de piscinas, o que pode ser prejudicial à saúde humana e ao ambiente. O presente trabalho investiga uma alternativa para o tratamento de piscinas usando a fotoeletrocatálise combinada à ozonização (FEC+O3). A técnica baseia-se na geração de radicais hidroxila (•OH) que podem mineralizar os compostos orgânicos a CO¬2 e H¬¬2O. Neste trabalho, a 3-benzofenona, substância amplamente utilizada em protetores solares comerciais, foi usada como composto modelo para investigação da eficiência de tratamento por FEC+O3. Monitorou-se também a degradação de ureia e a desinfecção da água usando o fungo Candida parapsilosis. Inicialmente, foram desenvolvidos reatores fotoeletrocatalíticos anulares de bolhas, onde os corantes Amarelo Ácido 1 e Azul de Metileno fora utilizados como modelos de poluentes coloridos. A melhor configuração do reator foi aquela utilizando fotoânodo de nanotubos de TiO2, contra eletrodo de DSA com grande área geométrica, lâmpada UV-B de 36 W, borbulhador de vidro sinterizado e aplicação de 2,0 V no sistema fotoeletrocatalítico. A utilização deste reator promoveu a remoção de 100 % de 3-benzofenona após 20 min de tratamento de solução contendo 30,0 mg L−1 em 0,01 mol L−1 de sulfato de sódio sob irradiação UVB de 36 W, voltagem de 2,0 V e vazão de 3,85 × 10−4 mol min−1 ¬de O¬3. Os resultados indicam que a remoção de carbono orgânico total atinge 90% após 120 min de tratamento. Do mesmo modo, a técnica alcança100% de inativação de 1,0 × 106 UFC mL−1 de Candida parapsilosis após 45 min de tratamento e remoção de mais de 90% de COT após 120 min. Soluções com até 20,0 mg L−1 de ureia não interferem na degradação do filtro solar, sendo que 50% de ureia é removida após 120 min de tratamento nestas condições experimentais. O método foi aplicado com sucesso em águas de piscina fortificadas com 3-BF 10,0 mg L−1 , ureia e Candida parapsilosis observando-se total degradação do filtro solar mesmo quando monitorado por LC-MS/MS, remoção de 90% de COT e total inativação do fungo.<br>The sunscreen used to minimise the harmful effects from solar radiation to the human skin leads to swimming pool water contamination, which can be harmful to human health and to the environment. The present work investigates an alternative for swimming pool treatment using photoelectrocatalysis coupled with ozonation. The technique is based on hydroxil radical generation (•OH) that can mineralize organic compounds to CO2 and H2O. Assays were done in this work with fortified water with benzophenone-3 used as model compound of sunscreens widely used in commercial sun blockers. The method yet monitored the urea degradation and the water disinfection using the fungus Candida parapsilosis. Firstly, photoelectrocatalytic reactors coupled with ozonation process were developed and for this, Yellow Acid 1 and Methylene Blue dye were used as colorful pollutant models. The best reactor configuration was the one using TiO2 nanotubes as photoanode in tube format with holes, auxiliary electrode made of DSA® with high geometric area, 36 W UVB emission lamp, sintered glass bubbler and 2,0 V applied voltage in the photoelectrocatalytic system. The reactor usage shows 100% removal of 3-benzophenone after 20 min treatment of solution containing 30.0 mg L−1 in 0.01 mol L−1 of sodium sulfate under UVB radiation, 2,0 V applied voltage and 3.85x10-4 mol min−1 O3 flow rate. The results indicate the removal of total organic carbon reach 90% after 120 minutes treatment. Likewise, the technique reached 100% of inactivation of 1.0x106 CFU mL−1 of Candida parapsilosis after 45 min treatment and more than 90% TOC removal after 120 min. Urea solutions up to 20.0 mgL−1 did not interfered in sunscreen degradation, and 50% of urea is removed after 120 min treatment in these experimental conditions. The method was successfully applied in swimming pool water fortified with 10.0 mgL−1 of benzophenone-3, urea and Candida parapsilosis, observing sunscreen total degradation even when monitored with LC-MS/MS with lower detection level, 90% TOC removal and fully fungal inactivation.<br>CNPQ: 134074/2016-5.
APA, Harvard, Vancouver, ISO, and other styles
23

Acuña, Ureta David Esteban. "Manejo de incertidumbre ante pérdida parcial o total de datos en algoritmos basados en métodos secuenciales de Monte Carlo y nueva definición de probabilidad de falla en el contexto de monitoreo en línea." Tesis, Universidad de Chile, 2016. http://repositorio.uchile.cl/handle/2250/139825.

Full text
Abstract:
Ingeniero Civil Eléctrico<br>Desde hace algunos años que la disciplina especializada en el diagnóstico de fallas en sistemas y el pronóstico de eventos que pudieran afectar la salud de éstos, denominada Prognostics and Health Management (PHM), ha ido tomando cada vez más fuerza y ha empezado a consolidarse como una nueva área de la ingeniería. Esta disciplina tiene como eje principal la caracterización del estado de salud de los sistemas dinámicos, ya sea a través de enfoques probabilísticos, posibilísticos, o epistémicos, por nombrar algunos; siendo el enfoque probabilístico el adoptado en la presente Tesis. Dado que la mayoría de los sistemas se conciben mediante complejas relaciones que suelen establecerse en base a no linealidades e incertidumbre no necesariamente Gaussiana, el empleo de métodos secuenciales de Monte Carlo -también llamados filtros de partículas- ha tomado gran relevancia para el diagnóstico de la salud de los sistemas. Los filtros de partículas proveen una distribución empírica de probabilidad para los estados del sistema siguiendo un enfoque Bayesiano. Es muy frecuente que en rutinas de estimación, y en especial al usar filtro de partículas, algunas de las mediciones que debiesen proporcionar los sensores se pierdan de manera parcial o total. En el caso de una pérdida parcial, se propone una estrategia basada en la Teoría de Imputaciones Múltiples desarrollada en los años 60' que permite incorporar la incertidumbre que hay al perder solo parte de la información. Por otra parte, cuando se pierde acceso a la totalidad de las mediciones se puede hablar de un problema análogo al de pronóstico. Se propone un algoritmo que recibe como entrada una distribución empírica producto del final de una etapa de estimación basada en filtro de partículas, en la cual se propaga incertidumbre haciendo uso de sigma-points y del ajuste paramétrico de mezclas de Gaussianas para la aproximación de distribuciones de probabilidad. Además de los algoritmos anteriormente mencionados, en esta Tesis se presenta la deducción y demostración de una nueva medida de probabilidad de falla de sistemas en el contexto de monitoreo en línea, la cual modifica el estado-del-arte y abre nuevas ramas de investigación que pueden influir fuertemente en el desarrollo de nuevos sistemas de toma de decisiones. Los desarrollos presentados en esta Tesis abordan principalmente el caso del problema de estimación y pronóstico del Estado-de-Carga de baterías de ion-litio para el análisis y validación de los algoritmos que se proponen dada su relevancia en la autonomía de los dispositivos electrónicos que requieren procesamiento de información en tiempo real; tales como tablets, celulares, vehículos o micro-redes, por nombrar algunos ejemplos.
APA, Harvard, Vancouver, ISO, and other styles
24

Salau, Nina Paula Gonçalves. "Abordagem sistemática para construção e sintonia de estimadores de estados não-lineares." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2009. http://hdl.handle.net/10183/19047.

Full text
Abstract:
Este trabalho apresenta metodologias para a construção e a sintonia de estimadores de estados não-lineares visando aplicações práticas. O funcionamento de um estimador de estados não-linear está calcado em quatro etapas básicas: (a) sintonia; (b) predição; (c) atualização da matriz de covariância de estados; (d) filtragem e suavização dos estados. As principais contribuições deste trabalho para cada uma destas etapas podem ser resumidas como segue: (a) Sintonia. A sintonia adequada da matriz de covariância do ruído de processos é fundamental na aplicação dos estimadores de estado com modelos sujeitos a incertezas paramétricas e estruturais. Sendo assim, foi proposto um novo algoritmo para a sintonia desta matriz que considera dois novos métodos para a determinação da matriz de covariância dos parâmetros. Este algoritmo melhorou significativamente a precisão da estimação dos estados na presença dessas incertezas, com potencialidade para ser usado na atualização de modelos em linha em práticas industriais. (b) Predição. Uma das etapas mais importantes para a aplicação do estimador de estados é a formulação dos modelos usados. Desta forma, foi mostrado como a formulação do modelo a ser usada em um estimador de estados pode impactar na observabilidade do sistema e na sintonia das matrizes de covariância. Também são apresentadas as principais recomendações para formular um bom modelo. (c) Atualização da matriz de covariância dos estados. A robustez numérica das matrizes de covariância dos estados usadas em estimadores de estados sem e com restrições é ilustrada através de dois exemplos da engenharia química que apresentam multiplicidade de soluções. Mostrou-se que a melhor forma de atualizar os estados consiste na resolução de um problema de otimização sujeito a restrições onde as estimativas fisicamente inviáveis dos estados são evitadas. Este também preserva a gaussianidade dos ruídos evitando que estes sejam mal distribuídos. (d) Filtragem e suavização dos estados. Entre as formulações estudadas, observou-se também que a melhor relação entre a acuracidade das estimativas e a viabilidade de aplicação prática é obtida com a formulação do filtro de Kalman estendido sujeita a restrições (denominada Constrained Extended Kalman Filter - CEKF), uma vez que esta demanda menor esforço computacional que a estimação de horizonte móvel, apresentando um desempenho comparável exceto no caso de estimativas ruins da condição inicial dos estados. Como uma solução alternativa eficiente para a estimação de horizonte móvel neste último caso, foi proposto um novo estimador baseado na inclusão de uma estratégia de suavização na formulação do CEKF, referenciado como CEKF & Smoother (CEKF&S).<br>This work presents approaches to building and tuning nonlinear state estimators aiming practical applications. The implementation of a nonlinear state estimator is supported by four basic steps: (a) tuning; (b) forecast; (c) state covariance matrix update; (d) states filtering and smoothing. The main contributions of this work for each one of these stages can be summarized as follows: (a) Tuning. An appropriate choice of the process-noise covariance matrix is crucial in applying state estimators with models subjected to parametric and structural uncertainties. Thus, a new process-noise covariance matrix tuning algorithm is presented in this work which incorporates two new methods for the parameter covariance matrix computation. The algorithm has improved significantly the state estimation accuracy when the presence of such uncertainties, with potential to be applied in on-line model update in industrial practice. (b) Forecast. One of the most important stages in applying state estimators is the used model formulation. In this way, it has been shown that the model formulation to be used in state estimator can impact on the system observability and noisecovariance matrices tuning. In this work it is also presented the main recommendations to formulate an appropriated model. (c) State covariance matrix update. The numerical robustness of the state covariance matrices used in unconstrained and constrained state estimators is illustrated by two chemical engineering examples tending to multiple solutions. It has been shown that the best technique to update the states consists in solving an optimization problem subjected to constraints, since it prevents from physically unfeasible states. It also preserves the noise gaussianity preventing from bad noise distribution. (d) States filtering and smoothing. Among the studied formulations, it was also noticed that the better relationship between performance and practical application is obtained with an extended Kalman filter formulation subjected to constraints (called Constrained Extended Kalman Filter - CEKF) because it requires small computational effort than MHE with comparable performance, except in case of poor guesses of the initial state. As an efficient solution for moving horizon estimation in the last case, it was proposed a new estimator based on the addition of a smoother strategy into the CEKF formulation, referred as CEKF & Smoother (CEKF&S).
APA, Harvard, Vancouver, ISO, and other styles
25

Pacheco, Patrícia Sánez. "research on methods of assimilation of oceanographics data and applications with the model MOM3 in the tropical Atlantic ocean." Laboratório Nacional de Computação Científica, 2006. http://www.lncc.br/tdmc/tde_busca/arquivo.php?codArquivo=127.

Full text
Abstract:
In this work, formulations of ocean data assimilation methods and numerical experiments focusing on the tropical Atlantic Ocean are presented. A methodology of correction of salinity, which takes the temperature analysis and a local relation between temperature and salinity, and numerical experiments are also presented. The methods used here were: the Bergthorsson and Döös (B&D) method; the method of Successive Corrections, both with fixed weights; and a version of the Kalman filter based on the Fokker-Plank equation with prognostic weights. The global circulation model MOM version 3 from GFDL/NOAA was used for the realization of experiments with inter-annual and seasonal variabilities. These experiments used observational data from the PIRATA project and from the climatological Levitus Atlas, respectively. The experiments were performed after 15 years of spin up. Several sensitivity experiments were realized to identify the impact of data assimilation on the model results, particularly in relation to: (i) the number of model vertical levels with assimilation, (ii) assimilation of only vertical profiles of temperature; (iii) assimilation of only vertical profiles of salinity; (iv) assimilation of vertical profiles of both temperature and salinity; (v) assimilation of only vertical profiles of temperature but with salinity correction. The results showed that the use of the assimilation methods reduced the model errors in relation to the observational data. The analysis increments by the data assimilation methods heated the surface ocean and cooled the region below the thermocline. The Kalman filter version produced localized corrections around the observational data, while the methods with prescribed weights produced smooth analysis with large-scale impacts. The assimilation of only temperature with the B&D method conducted for 1 year imposed perturbations that caused the degradation of the solution in the second half of the experiment. The assimilation of both temperature and salinity or the assimilation of only temperature with salinity correction produced the best model estimate with respect to observation. For the implementation of an operational ocean data assimilation system with the methods investigated in the present work, it is recommended the use of the B&D method and assimilation of both temperature and salinity.<br>Neste trabalho são apresentadas formulações de métodos de assimilação de dados oceanográficos e experimentos numéricos enfocando o Oceano Atlântico tropical. É apresentada ainda uma metodologia e experimentos de correção da salinidade a partir de análises de temperatura usando uma relaçãolocal entre a temperatura e salinidade. Foi utilizado o método de Bergthorsoon e Döös (B&D), o método de correções sucessivas, ambos com pesos prescritos, e uma versão do filtro de Kalman baseada na equação de Fokker-Planck com pesos prognosticados. Foi empregado o modelo de circulação geral dos oceanos MOM3 do GFDL/NOAA para a realização de experimentos com variabilidade interanual e com variabilidade sazonal usando dados observados do projeto PIRATA e climatologia do Atlas de Levitus, respectivamente. As integrações foram feitas após 15 anos de integração de spin up. Diversos experimentos de sensibilidade foram realizados para identificar o impacto da assimilação de dados na simulação do modelo, particularmente em relação a: (i) número de níveis verticais do modelo com assimilação; (ii) assimilação com perfis verticais de temperatura; (iii) assimilação com perfis verticais de salinidade; (iv) assimilação de ambos perfis verticais de temperatura e salinidade; e (v) assimilação de somente perfis verticais de temperatura mas com correção da salinidade. Os resultados obtidos indicam que os métodos de assimilação reduziram os erros do modelo em relação às observações. Os incrementos da análise produzidos pelos métodos de assimilação aqueceram o oceano superficial e esfriaram a região abaixo da termoclina. A versão do filtro de Kalman produziu correções localizadas ao redor dos pontos de dados observacionais, enquanto os métodos com pesos prescritos produziram análises mais suaves com correções em áreas maiores. A assimilação de somente temperatura com o método de B&D conduzida por 1 ano impôs perturbações que causaram a degradação da qualidade da simulação na segunda metade do experimento. A assimilação de ambos temperatura e salinidade ou somente assimilação de temperatura com correção da salinidade produziram a melhor estimativa do modelo em relação às observações. Para a implementação de um sistema de assimilação de dados oceanográficos operacional com os métodos aqui investigados recomenda-se o uso do método de B&D e assimilação de ambos temperatura e salinidade.
APA, Harvard, Vancouver, ISO, and other styles
26

Soares, Robson de Miranda. "Membranas suportadas de alumina, obtidas pelo método da sedimentação gravitacional." Universidade de São Paulo, 1998. http://www.teses.usp.br/teses/disponiveis/88/88131/tde-10092008-110844/.

Full text
Abstract:
Este trabalho trata da preparação de membranas suportadas em substratos com alta permeabilidade, alta porosidade e razoável resistência mecânica., pelo método da sedimentação gravitacional. Os substratos foram obtidos através da prensagem de composições contendo poli(metacrilato de metila) e ácido esteárico dissolvidos no dicloro metano e alumina APC-SG (d50 = 3 &#956m ) calcinada a 1600&#176C durante 1h. As partículas de alumina após calcinação são classificadas em peneiras da série Tyler e utilizadas aquelas cuja distribuição se encontravam na faixa granulométrica de 250 a 500 &#956m. Os substratos após a prensagem a 33 MPa são calcinados e sinterizados a 1600&#176C durante 3h e apresentam \"alta resistência mecânica\", taxa de fluxo de 404 m3/m2h , porosidade de 59 % e distribuição de poros nas faixas de 10 a 100 &#956m e de 0.4 a 2.0 &#956m. Devido a grande diferença entre os diâmetros dos poros do substrato e o tamanho das partículas de alumina AKP-50 (d50 = 0.3 &#956m), utilizada para a obtenção da membrana, foi necessário acrescentar uma camada intermediária de alumina APC-SG entre o substrato e a membrana para viabilizar o processo de sedimentação. A camada intermediária foi depositada por sedimentação gravitacional e sinterizada a 1500&#176C durante 1h. A porosidade do substrato/camada intermediária é igual a 56 %, taxa de fluxo de 10 m3/m2h e distribuição de poros estreita na faixa de 0.4 a 2 &#956m. As membranas foram sinterizadas a 100&#176C durante 0.5h e se caracterizam por possuir uma distribuição de poros estreita na faixa de 0.04 a 0.09 &#956m, espessura média de 57 &#956m e taxa de fluxo de 0.4 m3/m2h.<br>This work is concerned with ceramic membrane preparation supported on a ceramic substrate having high permeability, high porosity and reasonable mechanical strength. Membranes were prepared from AKP-50 alumina by the gravitational sedimentation method followed by sintering at 1000&#176C for 0.5 h. Membranes showed a unimodal narrow pore size distribution in the 0.04 to 0.09 range, thickness of 57 &#956m and 0.4 m3/m2h. flow rate. Substrates were prepared by uniaxial compression, at 33 MPa, of alumina PMMA stearic acid powder composites followed by organic burning and final sintering at 1600&#176C for 3h. In order to increase alumina APC-SG grain size distribution to 250- 500 &#956m range, alumina was previously calcined at 1600&#176C for 1h. Substrates show high mechanical strength, 4.0 to 2 m3/m2h flow rate, 60% porosity and pore size distribution in the range of 10-100 &#956m and from 0.4 to 2.0 &#956m. Due to the large difference between the substrate pore diameter and the AKP-50 alumina grain size distribution (d50 = 0.3 &#956m) used in the membrane preparation, it was necessary to add an intermediary APC-SG layer. This layer was prepared also by the gravitational sedimentation method and sintered at 1500&#176C for 1h. The intermediary layer/substrate showed 56% porosity, 10 m3/m2h flow rate and a narrow pore sue distribution in the 0.4-2.0 &#956m range.
APA, Harvard, Vancouver, ISO, and other styles
27

Medina, Merino Rosa Fátima. "Modelos estructurales - series de tiempo: Análisis de la temperatura superficial del Mar Peruano y su influencia en la captura desembarque de anchoveta Caso: Frente a las costas del Callao- 13°S, enero 1959 - junio 2014." Master's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/8692.

Full text
Abstract:
Publicación a texto completo no autorizada por el autor<br>Plantea modelos que expliquen la captura desembarque de anchoveta en función de periodos fríos y cálidos en el Mar Peruano frente a las costas del Callao- 13°S. Con esta finalidad se realiza un estudio estadístico de las características de la temperatura superficial del mar específicamente con los componentes observables y no observables de ésta, que pueden estar asociadas con los eventos conocidos como “El Niño” y “La Niña”. Así se demuestra que la influencia de la temperatura sobre la captura desembarque de anchoveta, se cuantifica ésta asociación para periodicidades variables a corto y largo plazo mediante el uso del espectro cruzado y coherencia espectral. Se desarrollan modelos estructurales para estimar, con ayuda del filtro de Kalman, el comportamiento de la captura desembarque de anchoveta en función de la temperatura superficial del mar. Se propone un modelo estructural mediante la metodología espacio estado que incorpora los conceptos de series de tiempo bivariadas por enfoque espectral.<br>Tesis
APA, Harvard, Vancouver, ISO, and other styles
28

Silva, Marília Gabriela Elias da. "Análise das cotações e transações intradiárias da Petrobrás utilizando dados irregularmente espaçados." reponame:Repositório Institucional do FGV, 2014. http://hdl.handle.net/10438/12034.

Full text
Abstract:
Submitted by Marília Gabriela Elias da Silva (marilia.gabriela.es@gmail.com) on 2014-09-18T19:07:04Z No. of bitstreams: 1 Marilia_Gabriela_tese.pdf: 512980 bytes, checksum: 8ab7fc0b5b89fa1bd8f99a705ae51920 (MD5)<br>Approved for entry into archive by Suzinei Teles Garcia Garcia (suzinei.garcia@fgv.br) on 2014-09-18T19:43:45Z (GMT) No. of bitstreams: 1 Marilia_Gabriela_tese.pdf: 512980 bytes, checksum: 8ab7fc0b5b89fa1bd8f99a705ae51920 (MD5)<br>Made available in DSpace on 2014-09-18T19:51:23Z (GMT). No. of bitstreams: 1 Marilia_Gabriela_tese.pdf: 512980 bytes, checksum: 8ab7fc0b5b89fa1bd8f99a705ae51920 (MD5) Previous issue date: 2014-08-27<br>This study uses data provided by BM&FBovespa to analyze Petrobras' stock for the months between July and August 2010 and October 2008. First, we present a detailed discussion about handling data, we show the impossibility of using the mid-price quote due to the high number of buy / sell orders that present very high / low prices. We checked some of the empirical stylized facts pointed out by Cont (2001), among others enshrined in the microstructure literature. In general, the stylized facts were replicated by the data. We apply the filter, proposed by Brownlees and Gallo (2006), to Petrobras' stock and we analyze the sensitivity of the number of possible outliers found by the filter with respect to the filter's parameters variation. We propose using the Akaike criterion to sort and select conditional duration models whose samples have different length sizes. The selected models are not always those in which the data has been filtered. For the ACD (1,1) setting, when we consider only well-adjusted models, the Akaike criterion indicates as better model as one in which the data were not filtered.<br>O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.
APA, Harvard, Vancouver, ISO, and other styles
29

Pigazo, López Alberto. "Método de control de filtros activos de potencia paralelo tolerante a perturbaciones de la tensión de red." Doctoral thesis, Universidad de Cantabria, 2004. http://hdl.handle.net/10803/10632.

Full text
Abstract:
La utilización de filtros activos paralelo mejora la eficiencia del suministro eléctrico mediante la modificación de las características de la forma de onda de las corrientes de línea. Trabajos de investigación anteriores destacan la complicada estructura de los controladores empleados en este tipo de soluciones y su sensibilidad a la distorsión de la onda de tensión en el punto donde se realiza su conexión. El objetivo fundamental de esta tesis es el desarrollo de un controlador para filtros activos de potencia tolerante a desequilibrios de tensión, huecos de tensión y armónicos de tensión. Objetivo secundario de este trabajo es el diseño de los algoritmos necesarios para el control de un filtro activo de potencia paralelo polifásico mediante una tarjeta basada en un procesador digital de señal.<br>Shunt active power filters (APF) modify the phase current waveform characteristics, which allow to increase the efficiency of electrical power grids. Previous research works establish the complex structure of controllers applied to APFs and their sensibility to voltage waveform disturbances.The aim of this thesis is the developing of a controller for shunt active power filters with tolerance to voltage unbalances, voltage dips and voltage harmonics. The proposed controller, implemented on a DSP target board, will be tested on a three-phase active power filter.
APA, Harvard, Vancouver, ISO, and other styles
30

Júnior, Claudio José Bordin. "Métodos estatísticos para equalização de canais de comunicação." Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/3/3142/tde-22042007-205845/.

Full text
Abstract:
Nesta tese analisamos e propomos métodos para a equalização não-treinada (cega) de canais de comunicação lineares FIR baseados em filtros de partículas, que são técnicas recursivas para a solução Bayesiana de problemas de filtragem estocástica. Iniciamos propondo novos métodos para equalização sob ruído gaussiano que prescindem do uso de codificação diferencial, ao contrário dos métodos existentes. Empregando técnicas de evolução artificial de parâmetros, estendemos estes resultados para o caso de ruído aditivo com distribuição não-gaussiana. Em seguida, desenvolvemos novos métodos baseados nos mesmos princípios para equalizar e decodificar conjuntamente sistemas de comunicação que empregam códigos convolucionais ou em bloco. Através de simulações numéricas, observamos que os algoritmos propostos apresentam desempenhos, medidos em termos de taxa média de erro de bit e velocidade de convergência, marcadamente superiores aos de métodos tradicionais, freqüentemente aproximando o desempenho dos algoritmos ótimos (MAP) treinados. Além disso, observamos que os métodos baseados em filtros de partículas determinísticos exibem desempenhos consistentemente superiores aos dos demais métodos, sendo portanto a melhor escolha caso o modelo de sinal empregado permita a marginalização analítica dos parâmetros desconhecidos do canal.<br>In this thesis, we propose and analyze blind equalization methods suitable for linear FIR communications channels, focusing on the development of algorithms based on particle filters - recursive methods for approximating Bayesian solutions to stochastic filtering problems. Initially, we propose new equalization methods for signal models with gaussian additive noise that dispense with the need for differentially encoding the transmitted signals, as opposed to the previously existing methods. Next, we extend these algorithms to deal with non-gaussian additive noise by deploying artificial parameter evolution techniques. We next develop new joint blind equalization and decoding algorithms, suitable for convolutionally or block-coded communications systems. Via numerical simulations we show that the proposed algorithms outperform traditional approaches both in terms of mean bit error rate and convergence speed, and closely approach the performance of the optimal (MAP) trained equalizer. Furthermore, we observed that the methods based on deterministic particle filters consistently outperform those based on stochastic approaches, making them preferable when the adopted signal model allows for the analytic marginalization of the unknown channel parameters.
APA, Harvard, Vancouver, ISO, and other styles
31

Movilla, Jose Gregorio Solorzano [UNESP]. "Sistemas dinâmicos e o método do filtro de Kalman." Universidade Estadual Paulista (UNESP), 2016. http://hdl.handle.net/11449/147133.

Full text
Abstract:
Submitted by JOSE GREGORIO SOLORZANO MOVILLA null (jsolorza79@gmail.com) on 2017-01-09T13:40:35Z No. of bitstreams: 1 Sistemas Dinâmicos e o método do filtro de Kalman.pdf: 1549234 bytes, checksum: ec2d80170e323569d4260fc92ec59802 (MD5)<br>Approved for entry into archive by LUIZA DE MENEZES ROMANETTO (luizamenezes@reitoria.unesp.br) on 2017-01-11T19:01:40Z (GMT) No. of bitstreams: 1 movilla_jgs_me_rcla.pdf: 1549234 bytes, checksum: ec2d80170e323569d4260fc92ec59802 (MD5)<br>Made available in DSpace on 2017-01-11T19:01:40Z (GMT). No. of bitstreams: 1 movilla_jgs_me_rcla.pdf: 1549234 bytes, checksum: ec2d80170e323569d4260fc92ec59802 (MD5) Previous issue date: 2016-12-19<br>Estimar os estados de um sistema é um problema que a cada dia assume maior importância devido ao grande interesse por conhecer com exatidão os resultados dados pelos sistemas dinâmicos em qualquer tempo. Principalmente nos casos onde o sistema é estocástico, o problema da estimação apresenta uma maior complexidade. É nesse contexto que os estudos que Kalman realizou no século XX, sobre a estimação de sistemas dinâmicos estocásticos, ganharam maior relevância. O filtro de Kalman foi o principal resultado desses estudos, pela e eficácia demonstrada dentro desse campo de estudo. Este trabalho tem como eixo principal o filtro de Kalman e sua aplicação tendo importância como o melhor estimador para os estados de sistemas dinâmicos lineares estocásticos em tempo discreto.<br>Estimating the states of a system is a problem of great importance due to interest in knowing exactly the results given by dynamic systems at any time. Moreover, if the system is stochastic, what causes the estimation problem to have complexity. In this context, Kalman studies in the previous century on the estimation of stochastic dynamical systems, whose result is the lter, which, due to its e ciency, is the most used in this eld. In this work the main focus is the Kalman lter and its application having in view its importance as the best estimator for the states of linear dynamic stochastic systems of discrete time.
APA, Harvard, Vancouver, ISO, and other styles
32

ALMEIDA, Frayzer Lima de. "Filtros otimizados para transformadas seno, co-seno e de Hankel j0, j1 e j2." Universidade Federal do Pará, 2003. http://repositorio.ufpa.br/jspui/handle/2011/5748.

Full text
Abstract:
Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-07-30T12:40:59Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_FiltrosOtimizadosTransformadas.pdf: 22760100 bytes, checksum: abb968af06456e7514688ee49c8dfca6 (MD5)<br>Rejected by Irvana Coutinho (irvana@ufpa.br), reason: Indexar os assuntos on 2014-08-06T13:21:20Z (GMT)<br>Submitted by Cleide Dantas (cleidedantas@ufpa.br) on 2014-09-10T15:53:22Z No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_FiltrosOtimizadosTransformadas.pdf: 22760100 bytes, checksum: abb968af06456e7514688ee49c8dfca6 (MD5)<br>Approved for entry into archive by Irvana Coutinho (irvana@ufpa.br) on 2014-09-18T11:32:26Z (GMT) No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_FiltrosOtimizadosTransformadas.pdf: 22760100 bytes, checksum: abb968af06456e7514688ee49c8dfca6 (MD5)<br>Made available in DSpace on 2014-09-18T11:32:26Z (GMT). No. of bitstreams: 2 license_rdf: 23898 bytes, checksum: e363e809996cf46ada20da1accfcd9c7 (MD5) Dissertacao_FiltrosOtimizadosTransformadas.pdf: 22760100 bytes, checksum: abb968af06456e7514688ee49c8dfca6 (MD5) Previous issue date: 2003<br>CNPq - Conselho Nacional de Desenvolvimento Científico e Tecnológico<br>Apresentamos dois algoritmos automáticos, os quais se utilizam do método dos mínimos quadrados de Wiener-Hopf, para o cálculo de filtros lineares digitais para as transformadas seno, co-seno e de Hankel J0, J1 e J2. O primeiro, que otimiza os parâmetros: incremento das abscissas, abscissa inicial e o fator de deslocamento utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas co-seno, seno e o segundo, que otimiza os parâmetros: incremento das abscissas e abscissa inicial utilizados para os cálculos dos coeficientes dos filtros lineares digitais que são aferidos através de transformadas de Hankel J0, J0 e J2. Esses algoritmos levaram às propostas de novos filtros lineares digitais de 19, 30 e 40 pontos para as transformadas co-seno e seno e de novos filtros otimizados de 37 , 27 e 19 pontos para as transformadas J0, J2 e J2, respectivamente. O desempenho dos novos filtros em relação aos filtros existentes na literatura geofísica é avaliado usando-se um modelo geofísico constituído por dois semi-espaços. Como fonte usou-se uma linha infinita de corrente entre os semi-espaços originando, desta forma, transformadas co-seno e seno. Verificou-se melhores desempenhos na maioria das simulações usando o novo filtro co-seno de 19 pontos em relação às simulações usando o filtro co-seno de 19 pontos existente na literatura. Verificou-se também a equivalência de desempenhos nas simulações usando o novo filtro seno de 19 pontos em relação às simulações usando o filtro seno de 20 pontos existente na literatura. Adicionalmente usou-se também como fonte um dipolo magnético vertical entre os semi-espaços originando desta forma, transformadas J0 e J1, verificando-se melhores desempenhos na maioria das simulações usando o novo filtro J1 de 27 pontos em relação ao filtro J1 de 47 pontos existente na literatura. Verificou-se também a equivalência de desempenhos na maioria das simulações usando o novo filtro J0 de 37 pontos em relação ao filtro J0 de 61 pontos existente na literatura. Usou-se também como fonte um dipolo magnético horizontal entre os semi-espaços, verificando-se um desempenho análogo ao que foi descrito anteriormente dos novos filtros de 37 e 27 pontos para as respectivas transformadas J0 e J1 em relação aos filtros de 61 e 47 pontos existentes na literatura, destas respectivas transformadas. Finalmente verificou-se a equivalência de desempenhos entre os novos filtros J0 de 37 pontos e J1 de 27 pontos em relação aos filtros de 61 e 47 pontos existentes na literatura destas transformadas, respectivamente, quando aplicados em modelos de sondagens elétricas verticais (Wenner e Schlumberger). A maioria dos nossos filtros contêm poucos coeficientes quando comparados àqueles geralmente usados na geofísica. Este aspecto é muito importante porque transformadas utilizando filtros lineares digitais são usadas maciçamente em problemas numéricos geofísicos.<br>We present two automatic algorithms, which use the Wiener-Hopf least-square method, for the calculation of digital linear filters for sine, co-sine transforms and J0, J1 and J2 Hankel transforms. The first algorithm optimizes the following parameters: abscissa increments, initial abscissas and displacement factor for the computation of digital linear filters coefficients that are computed through sine and co-sine analytic transforms. The second algorithm optimizes the following parameters: abscissa increments and initial abscissas for the computation of digital linear filters coefficients that are computed through J0, J1 and J2 Hankel analytic transforms. This methodology led to the proposition of new digital linear filters of 19, 30 and 40 points for the co-sine and sine transforms, and to new optimized filters of 37, 27 and 19 points for the J0, J1 and J2 Hankel transforms, respectively. The comparison of the performance of these filters with respect to the others ones published in the geophysical literature is evaluated by using a analytical geophysical model composed of two half spaces. An infinite current line was used between the half spaces, giving rise to the sine and co-sine transforms. Among all simulations carried out, it was noticed that the new sine and co-sine transforms of 19 points presented better performance when compared to the existing ones in the literature. In addition, J0 and J1 transforms were obtained using a vertical magnetic dipole as source between the half spaces, noticing that better performances using the new J1 filter of 27 points were obtained among all simulations when compared to the existing 47 points J1 filters, as well as with the simulations carried out using the new 37 points J0 filter and compared with the 61 points J0 existing filters in the literature. Using a horizontal magnetic dipole between the half spaces, it was observed an equivalent performance using the 37 and 27 points new filters for the J0 and J1 transforms when compared, respectively, to the existing 61 and 47 points filters in the literature. Finally, it was observed an equivalent performance using 37 and 27 points new filters for the J0 and J1 transforms when compared, respectively, to the existing 61 and 47 points in the literature, and when applied, respectively, in Wenner and Schlumberger electrical soundings. Most of our filters contain fewer coefficients than those usually used in geophysics. This aspect is very important because these linear filter transforms are commonly used intensively in numerical massively geophysical problems.
APA, Harvard, Vancouver, ISO, and other styles
33

Sánchez, Cervantes María Guadalupe. "Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore." Doctoral thesis, Universitat Politècnica de València, 2013. http://hdl.handle.net/10251/28854.

Full text
Abstract:
En esta tesis se aborda la eliminaci'on de ruido impulsivo, gaussiano y speckle en im'agenes a color y en escala de gises. Como caso particular se puede mencionar la eliminaci'on de ruido en im'agenes m'edicas. Algunos m'etodos de filtrado son costosos computacionalmente y m'as a'un, si las im'agenes son de gran tama¿no. Con el fin de reducir el coste computacional de dichos m'etodos, en esta tesis se utiliza hardware que soporta procesamiento paralelo, como lo son los cores CPU con procesadores multicore y GPUs con procesadores manycore.En las implementaciones paralelas en CUDA, se configuran algunas caracter'¿sticas con la finalidad de optimizar el procesamiento de la aplicaci'on en las GPUs. Esta tesis estudia por un lado, el rendimiento computacional obtenido en el proceso de eliminaci'on de ruido impulsivo y uniforme. Por otro lado, se eval'ua la calidad despu'es de realizar el proceso de filtrado. El rendimiento computacional se ha obtenido con la paralelizaci'on de los algoritmos en CPU y/o GPU. Para obtener buena calidad en la imagen filtrada, primero se detectan los p'¿xeles corruptos y luego son filtrados solo los p'¿xeles que se han detectado como corruptos. Por lo que respecta a la eliminaci'on de ruido gaussiano y speckle, el an'alisis del filtro difusivo no lineal ha demostrado ser eficaz para este caso. Los algoritmos que se utilizan para eliminar el ruido impulsivo y uniforme en las im'agenes, y sus implementaciones secuenciales y paralelas se han evaluado experimentalmente en tiempo de ejecuci'on (speedup) y eficiencia en tres equipos de c'omputo de altas prestaciones. Los resultados han mostrado que las implementaciones paralelas disminuyen considerablemente los tiempos de ejecuci'on secuenciales. Finalmente, en esta tesis se propone un m'etodo para reducir eficientemente el ruido en las im'agenes sin tener informaci'on inicial del tipo de ruido contenido en ellas. I<br>Sánchez Cervantes, MG. (2013). Algoritmos de detección y filtrado de imágenes para arquitecturas multicore y manycore [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28854<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
34

Solorzano, Movilla Jose Gregorio. "Sistemas dinâmicos e o método do filtro de Kalman /." Rio Claro, 2016. http://hdl.handle.net/11449/147133.

Full text
Abstract:
Orientador: Selene Maria Coelho Loibel<br>Banca: Maiko Fernandes Buzzi<br>Banca: Carmen Maria Andreazza<br>Resumo: Estimar os estados de um sistema é um problema que a cada dia assume maior importância devido ao grande interesse por conhecer com exatidão os resultados dados pelos sistemas dinâmicos em qualquer tempo. Principalmente nos casos onde o sistema é estocástico, o problema da estimação apresenta uma maior complexidade. É nesse contexto que os estudos que Kalman realizou no século XX, sobre a estimação de sistemas dinâmicos estocásticos, ganharam maior relevância. O ltro de Kalman foi o principal resultado desses estudos, pela e cácia demonstrada dentro desse campo de estudo. Este trabalho tem como eixo principal o ltro de Kalman e sua aplicação tendo importância como o melhor estimador para os estados de sistemas dinâmicos lineares estocásticos em tempo discreto<br>Abstract: Estimating the states of a system is a problem of great importance due to interest in knowing exactly the results given by dynamic systems at any time. Moreover, if the system is stochastic, what causes the estimation problem to have complexity. In this context, Kalman studies in the previous century on the estimation of stochastic dynamical systems, whose result is the lter, which, due to its e ciency, is the most used in this eld. In this work the main focus is the Kalman lter and its application having in view its importance as the best estimator for the states of linear dynamic stochastic systems of discrete time<br>Mestre
APA, Harvard, Vancouver, ISO, and other styles
35

Valladares, Peralta Macarena de los Angeles. "Estudio de Métodos Alternativos de Lavado de Filtros Granulares." Tesis, Universidad de Chile, 2006. http://www.repositorio.uchile.cl/handle/2250/104599.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Fantinato, Denis Gustavo 1985. "Equalização não supervisionada : contribuições ao estudo do critério do módulo constante e de métodos baseados na teoria da informação." [s.n.], 2013. http://repositorio.unicamp.br/jspui/handle/REPOSIP/259838.

Full text
Abstract:
Orientadores: Romis Ribeiro de Faissol Attux, Aline de Oliveira Neves Panazio<br>Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Elétrica e de Computação<br>Made available in DSpace on 2018-08-24T02:36:22Z (GMT). No. of bitstreams: 1 Fantinato_DenisGustavo_M.pdf: 4268670 bytes, checksum: 334fedf837e8de7a8a94d1e5f7c70fba (MD5) Previous issue date: 2013<br>Resumo: O resumo poderá ser visualizado no texto completo da tese digital<br>Abstract: The complete abstract is available with the full electronic document.<br>Mestrado<br>Engenharia de Computação<br>Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO, and other styles
37

Trevisan, Ana Carolina. "Avaliação de diferentes métodos de reconstrução de imagens no processamento de SPECT cerebral com simulador antropomórfico estriatal." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/82/82131/tde-03102017-162557/.

Full text
Abstract:
A dopamina (DA) é um neurotransmissor sintetizado nos neurônios dopaminérgicos da substância nigra, possuindo efeito importante sobre o Sistema Nervoso Central (SNC), dentre as quais a sensação de prazer e a motivação. Uma alteração nos transportadores de dopamina (DATs) se caracteriza por uma desordem progressiva do movimento devido à disfunção dos neurônios secretores de dopamina, gerando a Doença de Parkinson (DP). Por ser um distúrbio mais comum entre um espectro de doenças neurológicas, é necessário um estudo mais aprofundado para melhor diagnóstico. Esta dissertação apresenta um estudo do desempenho do filtro butterworth passa-baixa na reconstrução analítica Filtered Backprojection - FBP e reconstrução iterativa Ordered Subsets Expectation Maximization - OSEM, para garantir a qualidade da imagem de SPECT cerebral, adquirida pelo fantoma antropomórfico estriatal. Por avaliação interindividual de quatro especialistas em medicina nuclear, foram aplicadas notas para a análise visual das imagens, garantindo a qualidade da resolução espacial, contraste, ruído e diferenciação anatômica do corpo estriado. Para cada tipo de reconstrução, houve 49 imagens do corpo estriado, variando os valores das covariáveis apresentadas pelos algoritmos (iteração, subsets, ordem e frequência de corte). A fim de resultados consistentes, foram utilizados a regressão linear e o teste T-Student pareado. Os dados coletados demonstraram que é necessário utilizar um intervalo confiável de frequência de corte para FBP (0,9 a 1,6) e para OSEM (1,2 a 1,5) e variar a ordem de 0 a 10 que não influenciará a imagem. Para a reconstrução OSEM, ficou comprovado que o valor de iteração (i) e o número de subsets (s) que garantem melhor qualidade foram os mesmos que a empresa do algoritmo utilizado sugeriu (3i 8s). Esta, também, mostrou evidências de melhor qualidade da imagem, quando comparada à reconstrução FBP. Para uma imagem de qualidade, representando uma reconstrução confiável e uma análise visual segura, é necessário utilizar o intervalo de valores encontrados das covariáveis ordem e frequência de corte do filtro butterworth passa-baixa na reconstrução FBP e OSEM. Também é necessário utilizar o valor de iteração e subsets que a empresa sugeriu, e a reconstrução OSEM mostrou superioridade nas imagens comparadas à FBP, mas se o serviço não utilizar ainda este tipo de algoritmo, a imagem com FBP no intervalo proposto também garantirá a qualidade.<br>Dopamine is a synthesized neurotransmitter in dopaminergic neurons of the substantia nigra where it has an important effect on the central nervous system (CNS), such as the feeling of pleasure and motivation. A change in the dopamine transporters (DATs) is characterized by a progressive disorder of movement due to a dysfunction of the dopamine secreting neurons, causing Parkinson\'s Disease (PD). As it is a more common disorder among a spectrum of neurological diseases, further studies are necessary for a better diagnosis. This study presents an investigation on the performance of the low-pass butterworth filter in the Filtered Backprojection analytic reconstruction - FBP and Ordered Subsets Expectation Maximization iterative reconstruction - OSEM to ensure the quality of brain SPECT image, acquired by the anthropomorphic striatal phantom. By individual evaluation of four nuclear medicine specialists, grades were applied to the visual analysis of the images, ensuring the quality of the spatial resolution, contrast, noise and anatomical differentiation striatum. For each type of reconstruction, there were 49 pictures of the striatum, varying the values of covariates submitted by the algorithms (iteration, subsets, order and cutoff frequency). In order to obtain consistent results, we used linear regression and T-Student paired test. The collected data showed that it is necessary to use a reliable interval of cutoff frequency for both the FBP (0.9 to 1.6), and OSEM (1.2 to 1.5), and varying the order of 0 to 10, which does not influence the image. For OSEM reconstruction, it has been verified that the iteration value (i) and the number of subsets (s) ensuring best quality was the same as the company\'s algorithm suggested (3i 8s). This also showed evidence of better image quality when compared to FBP reconstruction. For an image quality, representing a reliable reconstruction and a safe visual analysis, you must use the range of values found of covariates order and cutoff frequency of the butterworth low-pass filter on the FBP and OSEM reconstruction. You must also use the iteration value and subsets that the company suggested and the OSEM reconstruction showed superiority on the images compared to FBP, but if the service does not use this type of algorithm, the image with FBP in the proposed range, also ensures quality.
APA, Harvard, Vancouver, ISO, and other styles
38

Ricchetti, Pier Marco. "Aplicação de técnicas matemáticas avançadas para auxílio a diagnóstico em imagens na detecção de fraturas em stents." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/98/98131/tde-21052012-080942/.

Full text
Abstract:
O implante de stents em região vascular periférica tem sido apontado como uma solução para o tratamento endovascular, e tem sido largamente utilizado. No entanto, há estudos que apontam com certa frequência a ocorrência de problemas ligados a fraturas de stents, as quais devem ser diagnosticadas e convenientemente tratadas. Na região femoropoplítea, por exemplo, foi detectada a ocorrência de 32% de fraturas em um conjunto de 121 tratamentos, conforme aponta pesquisa realizada. O diagnóstico de tais fraturas é normalmente feito a partir de análise visual de imagens, as quais muitas vezes apresentam ruídos e deformidades decorrentes do método empregado para a sua captura, dificultando a correta visualização de sua estrutura e deformidades. A escassez de recursos e estudos que permitam a automatização deste processo motivaram a realização deste trabalho, em que são desenvolvidas técnicas que melhoram a visualização dos elementos de imagem de forma a facilitar o diagnóstico de observação e, quando possível, apontar regiões de possíveis fraturas. Para isto, a utilização de elementos computacionais clássicos e o desenvolvimento de técnicas adicionais inéditas contribuem para a análise de imagens, fornecendo um possível direcionamento como forma de auxílio ao diagnóstico médico. Os métodos desenvolvidos são aplicados a amostras de imagens, e os resultados obtidos são comparados àqueles do diagnóstico médico. Como resultado obteve-se, além da melhoria de visualização das imagens, um índice de concordância Kappa de 0,878 para a detecção de fraturas, o que confirma o método como satisfatório e de concordância bastante relevante.<br>The insert of stents in peripheral vascular region has been considered as a solution for endovascular treatment, and has been widely used. However, there are studies that show, with a certain frequency, the occurrence of problems related to stent fractures, which should be diagnosed and properly treated. In the femoropopliteal region, for example, it was detected 32% of fractures in a set of 121 treatments, as shown by survey. The diagnosis of such fractures is usually made from visual analysis of images, which often shows noise and deformation resulting from the method employed for capture, making difficulty to the correct visualization of its structure and deformities. The lack of resources and studies that allows to automate this process, motivated this work, in which techniques are developed that improve the display of the image elements in order to facilitate the diagnosis by observation and, when possible, pointing out areas of possible fractures. For this, the use of classical elements and the development of additional computational techniques contribute to innovate image analysis, providing a possible direction as a way to aid medical diagnosis. The developed methods are applied to images samples and the results are compared to those of medical diagnosis. As a result obtained, as well as the improved display of images, a Kappa concordance index of 0.878 for the detection of fractures confirms the method as satisfactory and a quite relevant agreement.
APA, Harvard, Vancouver, ISO, and other styles
39

Silva, Uilson Barbosa da. "Um método de RMN no domínio do tempo para caracterização e identificação de relaxações moleculares em sistemas orgânicos." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/76/76131/tde-28042015-093817/.

Full text
Abstract:
Nesta dissertação, apresentamos uma aplicação simples de RMN de 1H no domínio do tempo (TD-NMR) de baixo campo para caracterização de dinâmica molecular variando do regime intermediário ao rápido. O método se baseia no filtro dipolar seguido da aplicação do Mixed Magic Sandwich Echo(MSE), o qual denominamos DF-MSE. O filtro dipolar suprime os sinais oriundo de segmentos com mobilidade abaixo de kHz, de modo que somente segmentos móveis sejam detectados. Assim, a dependência com a temperatura da intensidade do sinal mostra diretamente a temperatura em que movimentos moleculares ocorrem ao atingirem taxas maiores que kHz. Para que não ocorra variação da intensidade com a temperatura, mas somente pelos movimentos moleculares, os sinais são normalizados por uma intensidade de referência obtida pela aquisição de DF-MSE sem aplicação do filtro dipolar. A intensidade normalizada DF-MSE pode ser descrita adequadamente por uma expressão analítica baseada na aproximação de Anderson-Weiss, de forma a permitir que parâmetros de ativação de movimentos sejam avaliados. Ademais, também propomos um método baseado na diferença entre sinais DF-MSE normalizados adquiridos com tempos de filtro distintos, permitindo assim quantificar a largura da ditribuição de tempos de correlação de uma forma independente. A aplicação geral foi testada de forma bem sucedida em polímeros monofásicos e multifásicos. De fato, o método apresentado é um prosseguimento da análise feita pelo MSE já presente na literatura, porém sondando movimentos mais rápidos e com uma forma aprimorada para avaliação de heterogeneidades de movimento.<br>In this dissertation, we present a simple NMR approach for characterizing intermediate to fast regime molecular dynamics using 1H time-domain NMR (TD-NMR) at low magnetic field. The method is based on a dipolar filter followed by a Mixed Magic Sandwich Echo and FID acquisition, which is symbolized DF-MSE. The dipolar filter suppresses the signals of segments presenting sub kHz mobility, so only signals from mobile segments are detected. Thus, the temperature dependence of the signal intensities directly evidences the onset of molecular motions with rates higher than kHz. In order to avoid temperature variation of the signal intensities other than that due to motions, the signals are normalized by a reference intensity obtained in a DF-MSE acquisition without the dipolar filter. The normalized DF-MSE intensity can be well described by an analytical function based on the Anderson-Weiss approach, so the activation parameters of the motion can be evaluated. Furthermore, we also propose a method based on the difference between normalized DF-MSE signals acquired with different dipolar filter times, which provide evaluation of the width of the distribution of correlation times in an independent fashion. The general approach was successfully tested in single and multiphase polymer systems. Indeed, the presented method is a follow up of the MSE analysis previously reported, but probing faster motions and with an improved way of evaluating the motion heterogeneities.
APA, Harvard, Vancouver, ISO, and other styles
40

Costa, Priscila. "Desenvolvimento de uma metodologia para caracterização do filtro cuno do reator IEA-R1 utilizando o método de Monte Carlo." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/85/85131/tde-23032015-081657/.

Full text
Abstract:
O filtro cuno faz parte do circuito de tratamento de água do reator IEA-R1 que , quando saturado, é substituído, se tornando um rejeito radioativo que deve ser gerenciado. Neste trabalho foi realizada a caracterização primária do filtro cuno do reator nuclear IEA-R1 do IPEN utilizando-se espectrometria gama associada ao método de Monte Carlo. A espectrometria gama foi realizada utilizando-se um detector de germânio hiperpuro (HPGe). O cristal de germânio representa o volume ativo de detecção do detector HPGe, que possui uma região denominada camada morta ou camada inativa. Na literatura tem sido reportada uma diferença entre os valores experimentais e teóricos na obtenção da curva de eficiência desses detectores. Neste trabalho foi utilizado o código MCNP-4C para a obtenção da calibração em eficiência do detector para a geometria do filtro cuno, onde foram estudadas as influências da camada morta e do efeito de soma em cascata no detector HPGe. As correções dos valores de camada morta foram realizadas variando-se a espessura e o raio do cristal de germânio. O detector possui 75,83 cm3 de volume ativo de detecção, segundo informações fornecidas pelo fabricante. Entretanto os resultados encontrados mostraram que o valor de volume ativo real é menor do que o especificado, onde a camada morta representa 16% do volume total do cristal. A análise do filtro cuno por meio da espectrometria gama, permitiu a identificação de picos de energia. Por meio desses picos foram identificados três radionuclídeos no filtro: 108mAg, 110mAg e 60Co. A partir da calibração em eficiência obtida pelo método de Monte Carlo, o valor de atividade estimado para esses radionuclídeos está na ordem de MBq.<br>The Cuno filter is part of the water processing circuit of the IEA-R1 reactor and, when saturated, it is replaced and becomes a radioactive waste, which must be managed. In this work, the primary characterization of the Cuno filter of the IEA-R1 nuclear reactor at IPEN was carried out using gamma spectrometry associated with the Monte Carlo method. The gamma spectrometry was performed using a hyperpure germanium detector (HPGe). The germanium crystal represents the detection active volume of the HPGe detector, which has a region called dead layer or inactive layer. It has been reported in the literature a difference between the theoretical and experimental values when obtaining the efficiency curve of these detectors. In this study we used the MCNP-4C code to obtain the detector calibration efficiency for the geometry of the Cuno filter, and the influence of the dead layer and the effect of sum in cascade at the HPGe detector were studied. The correction of the dead layer values were made by varying the thickness and the radius of the germanium crystal. The detector has 75.83 cm3 of active volume of detection, according to information provided by the manufacturer. Nevertheless, the results showed that the actual value of active volume is less than the one specified, where the dead layer represents 16% of the total volume of the crystal. A Cuno filter analysis by gamma spectrometry has enabled identifying energy peaks. Using these peaks, three radionuclides were identified in the filter: 108mAg, 110mAg and 60Co. From the calibration efficiency obtained by the Monte Carlo method, the value of activity estimated for these radionuclides is in the order of MBq.
APA, Harvard, Vancouver, ISO, and other styles
41

Dutra, Elizângela Abreu. "Filtros Solares: determinação espectrofotométrica e cromatográfica." Universidade de São Paulo, 2000. http://www.teses.usp.br/teses/disponiveis/9/9139/tde-26022015-150054/.

Full text
Abstract:
Para minimizar os efeitos danosos a pele causados pelas radiações ultravioleta (UV), novos produtos cosméticos contendo filtros solares tem sido desenvolvidos e estão disponíveis no comércio. Consequentemente é necessário o desenvolvimento e validação de métodos analíticos para determinação quantitativa desses filtros solares em produtos cosméticos. O objetivo desta pesquisa foi a determinação quantitativa e simultânea dos filtros solares químicos, tais como, benzofenona-3, metoxicinamato de octila e salicilato de octila contidos em preparações cosméticas, por cromatografia líquida de alta eficiência (CLAE) e espectrofotometria no UV/visível. Paralelamente foi determinado o FPS para as amostras utilizando a espectrofotometria no uv/visível. A separação e determinação quantitativa pelo método cromatográfico foi realizada usando uma coluna LiChrospher® 100 RP-18 (5&#181;m), fase móvel constituída de metanol-água (85:15, v/v), com vazão de 1,0mL/min e detecção no UV a 310nm. Os coeficientes de correlação e percentuais de recuperação para benzofenona-3, metoxicinamato de octila e salicilato de octila foram de 0,9999 e98,9%; 0,9995 e 99,9%;0,9998 e 98,9%, respectivamente. A média do desvio padrão relativo foi de 0,6%. A determinação espectrofotométrica só foi possível quando os filtros em estudo estão de forma isolada nas preparações cosméticas. O método espectrofotométrico foi validado a 287nm, 310nm e 306nm para benzofenona-3, metoxicinamato de octila e salicilato de octila, respectivamente; os coeficientes de correlação foram de 0,9998; 0,9999; 0,9998, respectivamente. O percentual de recuperação para a amostra comercial contendo apenas metoxicinamato de octila foi de 99,6%. A média do desvio padrão relativo foi de 0,5%. O Fator de Proteção Solar (FPS) determinado pelo método espectrofotométrico, para as preparações comerciais, não correspondeu aos mesmos valores rotulados.<br>In order to minimize the damaging effects to the skin caused by the ultraviolet (UV) radiation, several cosmetic products containing sunscreens has been developed and are available commercially. Consequently, it is necessary to develop and validate an analytical method for quantitative determination of sunscreen agents in cosmetic products. The aim of this research was to develop a high performance liquid chromatographic and a UV / visible spectrophotometric quantitative method for simultaneous determination of chemical sunscreens benzophenone-3, octyl methoxycinnamate and octyl salicylate contained in cosmetic product. At the same time, the Sun Protection Factor (SPF) was determined for the samples using UV / visible spectrophotometry. The separation and quantitative determination was achieved using a LiChrospher® 100 RP-18 (5&#181;m) column, a mobile phase constituted of methanol-water (85: 15, v/v), a flow-rate of 1.0 mL/min and UV detection at 310nm. The correlation coefficient and percentage of recovery for benzophenone-3, octyl methoxycinnamate and octyl salicylate were 0.9999 and 99.05%; 0.9995 and 100.55%; 0.9998 and 98.05%, respectively. The average relative standard deviation (RSD) was 0.6%. The spectrophotometric determination was possible only when the sunscreens studied were in an isolated form, in cosmetic preparations. The spectrophotometric method was validated at 287nm, 310nm and 306nm for benzophenone-3, octyl methoxycinnamate and octyl salicylate, respectively. The correlation coefficients were 0.9998, 0.9999 and 0.9998, respectively. The percentage of recovery for commercial sample containing only octyl methoxycinnamate was 99.6%. The average relative standard deviation (RSO) was 0.5%. The Sun Protection Factor (SPF) determined by the spectrophotometric method, in the commercial preparations, did not corresponded to the labeled values.
APA, Harvard, Vancouver, ISO, and other styles
42

Souza, Evandro Tavares de. "Métodos numéricos para filtragem não linear." Instituto Tecnológico de Aeronáutica, 1992. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=1792.

Full text
Abstract:
O problema de filtragem consiste em estimar o processo de difusão parcialmente observado, Xt, a partir do processo de observação, Yt, relacionado com o mesmo. No contexto de sistemas lineares com ruído Gaussiano, o filtro de Kalman e Bucy resolve o problema de filtragem. Para sistemas não lineares, de um modo em geral, as equações que descrevem a evolução da distribuição condicional de Xt, têm dimensão infinita. A partir das idéias de Clark, Davis, através de uma mudança da lei de probabilidade, simplificou a equação de ZakaY e obteve uma equação diferencial parcial para o problema de filtragem. A estimativa de mínimos quadrados obtida através dessa equação é robusta no sentido da continuidade da mesma em relação ao supremo da norma de Yt no espaço C[O, t]. O objetivo deste trabalho é estudar alguns métodos numéricos para resolver a equação robusta de filtragem. Os métodos de Diferenças Finitas, Galerkin e de Monte Carlo, em particular, são considerados com detalhes. A fim de permitir o uso desses métodos, aproximamos Xt por um processo absorvido na fronteira de uma região limitada R e determinamos a. fronteira dessa região. A avaliação do desempenho dos métodos numéricos é feita através de três exemplos: problema com sensor cúbico, problema com ruido multiplicativo e estimação de uma mensagem a partir de um sinal modulado em freqüência. Aspectos tais como capacidade de memória e tempo de execução são examinados nos exemplos apresentados.
APA, Harvard, Vancouver, ISO, and other styles
43

Ferreira, Ygor Freire de Carvalho Dias. "O método dos filtros correlacionados aplicado na resposta aeroelástica." Instituto Tecnológico de Aeronáutica, 2010. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=1334.

Full text
Abstract:
Há diversas metodologias empregadas para a determinação das cargas de rajadas usadas em dimensionamentos estruturais da aeronave, e que incluem métodos determinísticos e métodos estocásticos. As cargas de resposta à turbulência continua são, hoje, obtidas pelo método estocástico (Random Process Theory - RPT) em conformidade com o estabelecido nos requisitos aeronáuticos em vigor (FAR). Este trabalho visa implementar uma alternativa ao RPT na determinação das cargas de turbulência contínua, baseada na teoria dos filtros correlacionados (Matched Filter Theory - MFT). Historicamente, o MFT foi originalmente utilizado na obtenção mde sinais maximizados de radares. Pototzky (POTOTZKY, 1997) demostrou que o MFT é aplicável também para a solução de problemas dinâmicos e aeroelásticos genéricos, especificamente para cálculos de cargas correlacionadas de rajadas. Será demonstrado aqui que as cargas correlacionadas geradas pelo MFT são fortemente similares às geradas pelo RPT. É apresentado neste documento uma descrição detalhada da metodologia de cálculo de cargas baseada em RPT e em MFT, e os resultados numéricos obtidos.
APA, Harvard, Vancouver, ISO, and other styles
44

Gomes, Jorge Eduardo da Silva. "Estudo sobre fatores que influenciam a acurácia do método do papel-filtro." Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/3/3145/tde-06072007-152808/.

Full text
Abstract:
O objetivo do presente trabalho é verificar a susceptibilidade do método do papel-filtro a variações em três parâmetros de ensaio: a rugosidade do meio poroso (estrutura da matriz porosa), a extensão do período de exposição do papel-filtro à água intersticial do solo (tempo de equilíbrio) e o grau de deficiência de contacto entre o papel-filtro e a superfície do meio poroso. Para o estudo da rugosidade do meio poroso, três materiais particulados foram empregados. Individualmente, esses materiais apresentam-se mal graduados. A diferença entre eles reside no tamanho médio dos grãos, que para cada um assume um valor característico. A pretexto de uma primeira descrição, seria possível classificá-los como argila (argila caolinítica rosa), areia fina (areia IPT 100, F = 0,15 mm) e areia média (areia IPT 30, F = 0,60 mm). Vale notar que a peculiaridade destas distribuições granulométricas desqualifica esses materiais como elementos representativos para o estudo de solos que ocorrem em problemas reais de engenharia. De fato, para os propósitos do presente trabalho, os solos são instrumentos de investigação, ao passo que o método de aferição de sucção é objeto de estudo. A fim de que o procedimento experimental abrangesse a um só tempo as observações concernentes aos três parâmetros de estudo, concebeu-se um elenco de corpos-de-prova que viabilizou o levantamento concomitante de todas as observações necessárias. Visando a subsidiar as especulações acerca do tempo de equilíbrio, criaram-se grupos de corpos-de-prova (denominados famílias) a serem avaliados periodicamente segundo três intervalos de tempo: sete dias, quatorze dias e vinte e oito dias. A fim de viabilizar a verificação concomitante da influência da rugosidade do meio poroso (ou seja, da estrutura da matriz porosa), previu-se que cada família de corpos-de-prova seria composta por três sub-grupos (designados lotes), representantes dos três materiais empregados na investigação. E, com o intuito de avaliar a influência do grau de deficiência de contacto entre o papel-filtro e o solo, definiu-se cada lote como um conjunto de três corpos-de-prova, cada qual apresentando em uma de suas bases um sulco com diâmetro e profundidade definidos. De corpo-de-prova a corpo-de-prova, para um mesmo lote de uma mesma família, o diâmetro do sulco apresenta variações. Tais variações geram deficits de contacto que valem 20%, 50% e 80% da área do papel-filtro. A profundidade do sulco é a mesma para todos os corpos-de-prova, e é igual à espessura do espaçador empregado nas medições de sucção total (esp = 2mm). Quanto à rugosidade do meio poroso (estrutura da matriz porosa), concluiu-se que o tamanho médio dos grãos, conjugado ao índice de vazios, constiui variável diretamente proporcional aos desvios percentuais de aferição. Ou seja, quanto menor o tamanho médio dos grãos e menor o índice de vazios do material, menores serão os desvios percentuais de aferição de sucção. Quanto à extensão do período de exposição do papel-filtro à água intersticial do solo (tempo de equilíbrio), concluiu-se que o aumento do tempo de interação entre o papel-filtro e o solo pode compensar eventuais dificuldades de acesso da água intersticial ao papel-filtro. Inicialmente, a água atinge o papel-filtro nas regiões onde há contacto efetivo. Então, de maneira progressiva, a água passa a migrar pelo papel-filtro, umedecendo-o uniformemente. Quanto ao grau de deficiência de contacto entre o papel-filtro e a superfície do meio poroso, concluiu-se que a relação desta variável com o desvio percentual de aferição é de proporcionalidade direta. Ou seja, quanto maior a privação de contacto a que for submetido o papel-filtro, tanto mais afastado do valor de sucção matricial plena estará o valor de sucção aferido. Graficamente, isto se observa como um destacamento da curva de retenção levantada para contacto deficiente em relação à curva de retenção levantada para sucção matricial plena. Observou-se também que o destacamento entre as curvas de retenção não ocorreu de maneira uniforme. Para baixos teores de umidade volumétrica, foram maiores os desvios percentuais de aferição. Deste modo, o afastamento entre as curvas deu-se como uma combinação de translação e distorção.<br>The purpose of this work is to verify the susceptibility of the filter-paper method to variations in three experimental parameters: roughness of porous medium (structure of porous matrix), period of exposition of the filter-paper to pore water (equilibration time) and degree of deficiency in contact between the filter-paper and the porous medium. In order to study roughness of porous medium (structure of porous matrix), three particulate materials have been used. Individually considered, they present a poorly graduated grain size distribution. They differ one from another for their average grain size, which assumes specific values for each material. As a summary description, it would be possible to classify them as kaolin, fine sand (F = 0.15 mm) and coarse sand (F = 0.60 mm). Such peculiar grain size distribution may disqualify these materials as representative of soils which normally occur in engineering problems. In fact, for the purposes of the present work, soil samples are instruments of investigation, while the method of suction measurement is the object of study. A set of samples was designed in order to make feasible simultaneous gauging of all relevant information. Thus, experimental procedure yielded at once data concerning all three parameters. Three groups of samples (each one assembling 9 elements) were created so that remarks could be made on equilibration time. Each of them is called family, being inspected according to a determined periodicity (7 days, 14 days and 28 days). On their turn, families are composed by smaller groups called branches (each branch gathers three samples, all made of the same material). Branches are intended to make possible the evaluation of the effect of average grain size on the accuracy of the filter-paper technique. Finally, in order to evaluate the role of deficient contact between the filter-paper and the soil, samples of a single branch (thus made of the same material) were designed to present a circular perforation on one of their faces. Within each single branch, from sample to sample, perforation diameter increases to generate growing lack of contact between the filter-paper and the soil sample (lack of contact may assume three different values: 20%, 50% or 80% of the filter-paper surface). Perforation depth doesn\'t vary from sample to sample, always being equal to the thickness of the perforated disk used in total suction measurements (which is 2 mm). As for roughness of porous medium (structure of porous matrix), it has been noticed that both average grain size and void ratio are directly proportional to percent measurement deviation. In other words, the smaller the average grain size and the void ratio, the smaller will be percent measurement deviations. As for period of exposition of the filter-paper to pore water (equilibration time), it has been noticed that extending time for interaction between filter-paper and soil may compensate difficulties interstitial water might have to access filter-paper. At first, water reaches the filter-paper on regions where there is effective contact. Then, progressively, water tends to migrate through the filter-paper, wetting it uniformly. As for degree of deficiency in contact between the filter-paper and the porous medium, it has been noticed that such variable is directly proportional to percent measurement deviations. In other words, the greater the lack of contact between the filter-paper and the soil, the further is suction measurement from its full matric suction equivalent. Graphically, it corresponds to a detachment between the retention curve associated with partial matric suction and the retention curve associated with full matric suction. Additionally, it has been noticed that detachment between retention curves hasn\'t occurred uniformly. For lower volumetric water contents, percent measurement deviations were greater. Hence, detachment occurred as a combination of translation and distortion.
APA, Harvard, Vancouver, ISO, and other styles
45

Silva, Fátima Cristina Franco e. "Padronização de métodos analíticos para a determinação de filtros solares em emulsões." Universidade de São Paulo, 2000. http://www.teses.usp.br/teses/disponiveis/9/9139/tde-09092006-121936/.

Full text
Abstract:
Quando a pele humana é exposta à radiação solar excessiva podem resultar eritemas, dermatites e até câncer. O sol provoca redução nas células de Langerhans, responsáveis pela resistência imunológica da pele. Os filtros solares podem fornecer ampla proteção contra as radiações UVA, UVB e IV (infravermelhas). Compostos químicos são capazes de interagir com a luz UV, absorvendo sua energia danosa. As ligações químicas dessas moléculas podem absorver a luz UV e reabsorvê-la na forma inofensiva. Os filtros físicos tem a capacidade de difundir as radiações ultravioletas (UV), visíveis e mesmo infravermelhas (IV), criando uma barreira que reflete, espalha ou bloqueia fisicamente a radiação que chega à superfície da pele. O objetivo do trabalho foi preparar emulsões protetoras solares e padronizar métodos analíticos para a determinação quantitativa dos filtros UVA, UVB e infravermelhos (IV) nelas contidas. Estudos de estabilidade foram realizados variando-se o tempo e a temperatura. Para tanto foram efetuadas medidas reológicas e empregadas técnicas como as análises térmicas, a espectrofotometria no UV, a cromatografia líquida de alta eficiência e a espectroscopia no infravermelho próximo. Todas as amostras, armazenadas a temperatura ambiente, 10ºC, 35ºC e 45ºC, apresentaram comportamento pseudoplástico e tixotropia. As análises térmicas, tais como a termogravimetria (TG), e a calorimetria exploratória diferencial (DSC), fornecem importantes informações sobre a estabilidade da emulsão. A cromatografia líquida de alta eficiência permitiu a separação e determinação quantitativa da 3-benzofenona e do metoxicinamato de octila.<br>When the human skin is exposed to excessive solar radiation it could lead to erythema, dermatitis and even skin cancer. The sun provokes a reduction in the Langerhans cells, responsible for the immunological resistance of the skin. Solar filters must encompass ample protection against UVA, UVB and IR (infrared) radiations. Certain chemical compounds interact with ultraviolet (UV) rays and have a capacity to absorve their harmful energy. Their chemical bonds can absorve UV radiation and transform it into inoffensive form. The physical filters have potential to dissipate UV, visible and even infrared radiations, creating physical barrier that reflects, spread and block radiation that reaches skin surface. The aim of this work was the preparation and analytical evaluation of emulsions containing UVA, UVB and infrared (IR) filters. Stability studies were performed, by varying time and temperature, using rheological measurements, thermal analysis, UV spectrophotometry, high performance liquid chromatography and near infrared spectroscopy. Most of all the samples, stored at room temperature, 10ºC, 35ºC and 45ºC, presented pseudoplastic and thixotropic behavior. Thermal analysis, such as thermogravimetry (TG) and differential scanning calorimetry (DSC), provided important information on the emulsion stability. High performance liquid chromatography enabled the separation and quantitative determination of benzophenone-3 and octyl methoxycinnamate.
APA, Harvard, Vancouver, ISO, and other styles
46

Júnior, Cairo Lúcio Nascimento. "Estudo comparativo de métodos de combate à divergência de Filtros de Kalman." Instituto Tecnológico de Aeronáutica, 1988. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=1505.

Full text
Abstract:
Este trabalho apresenta um estudo comparativo das Técnicas de Fatorização, de Janelamento e de Ruído Adaptativo no combate à divergência do Filtro de Kalman. Este estudo comparativo é realizado utilizando o Método de Monte Carlo e examinando as mudanças no desempenho do Filtro de Kalman quando este utiliza cada uma destas técnicas. Para tal também foram implementados o Filtro de Kalman, sem nenhum mecanismo adicional, denominado de Filtro de Kalman Convencional e a Técnica de Limitação da Covariância. Para a verificação do desempenho das diferentes implementações do Filtro de Kalman utiliza-se o caso da estimação da órbita de um satélite com modelo de perturbações linear, nas situações: 1) FK sem erro de modelo e sem erro de truncamento da mantissa do computador; 2) FK com erro de modelo; 3) FK com erro de truncamento da mantissa do computador. Investiga-se a utilização destas técnicas no Filtro de Kalman Estendido. Os esforços computacionais de cada técnica são também apresentados.
APA, Harvard, Vancouver, ISO, and other styles
47

Ledesma, Dorian Caraballo. "Deconvolução de dados sísmicos de reflexão utilizando mudança de fase do filtro de WIENER-LEVINSON." http://www.pggeofisica.ufba.br, 2012. http://www.pggeofisica.ufba.br.

Full text
Abstract:
Submitted by Souza Tanajura Augusto (cast@ufba.br) on 2012-12-17T16:57:06Z No. of bitstreams: 1 Ledesma.pdf: 11225315 bytes, checksum: 6afe5af6603df7177da616068fb63cf4 (MD5)<br>Made available in DSpace on 2012-12-17T16:57:06Z (GMT). No. of bitstreams: 1 Ledesma.pdf: 11225315 bytes, checksum: 6afe5af6603df7177da616068fb63cf4 (MD5)<br>Laboratório de Geofísica de Exploração de Petr óleo, convenio Rede01- Rede de Risco Exploratório, CTPETRO/FINEP/Petrobras<br>Uma tarefa importante do processamento de dados sIsmicos é a deconvolução. Ela tem o objetivo de melhorar a resolucão temporal e a coerência espacial dos refetores presentes nas secõe sísmicas. O método de deconvolução de Wiener-Levinson (WL) é o método clássico. Neste método o filtro é causal, também denominado de filtro de fase mínima, e é obtido com o método dos mínimos quadrados, através da solução de um sistema de equações normais. Tal filtro não é eficaz na deconvolução de pulsos de fase mista uma vez que estes não admitem inversa causal. Consequentemente, se o pulso sísmico não é de fase mínima o filtro de WL não produz um bom resultado. Apesar disso ele é normalmente utilizado porque pode ser obtido de forma simples e rápida. Na presente tese mostramos que a deconvolução utilizando o filtro inversão de fase mista, obtido através de operadores all-pass, preserva a equivalência com o espectro de amplitude da deconvolução de WL, e pode extrair a informação de fase do filtro e também do pulso estimado. O novo procedimento utiliza operadores all-pass para mudar a fase do filtro de fase mínima de WL, ou o pulso a ele associado. Testamos duas abordagens para obtenção de filtros inversos ótimos. Na primeira, os operadores all-pass são formados a partir de raízes fictícias do pulso sísmico, distribuídas, no plano complexo, na forma de uma coroa exterior ao círrculo de raio unitário. Na segunda abordagem são utilizadas diretamente as raízes calculadas a partir do filtro de WL. Mostramos que as duas abordagens permitem a obtenção de filtros inversos para a deconvolução de pulsos de fase mista e podem serutilizadas com sucesso no processamento de dados sísmicos. Para solução do problema de otimização, na escolha do filtro inverso ótimo, utilizamos o algoritmo genético, e para quantificar o desempenho dos operadores all-pass e selecionar o filtro inverso ótimo utilizamos a norma varimax do traço deconvolvido. O método de deconvolução de fase mista obtido através de operadores all-pass, foi testado sobre dados sísmicos sintéticos e dados sísmicos reais, utilizando seções síssmicas 2D na Bacia do Jequitinhonha. O novo método pode ser implementado computacionalmente de forma relativamente simples e pode ser utilizado para melhorar a identificação dos eventos sísmicos refletidos e revelar em maior detalhe as feições sismo-estratigráficas e estruturais, de interesse para a exploração e o estudo de reservatórios de hidrocarbonetos.<br>Pós Graduação em Geofísica da UFBA
APA, Harvard, Vancouver, ISO, and other styles
48

Ocaña, Levario Silvia Janeth. "Análisis, caracterización y modelación 3D de fugas de agua en sistemas de abastecimiento de agua mediante imágenes de GPR." Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/163677.

Full text
Abstract:
[ES] Los esfuerzos que hacen los países, en conjunto con organizaciones mundiales, tales como IWA (por International Water Association), ONU-Agua y OMS (Organización Mundial de la Salud), para mitigar el impacto ambiental en el campo de la hidráulica urbana son considerados de vital importancia. Sin embargo, la escasez de los recursos hídricos en el mundo aumenta diariamente. Esto viene dado por el aumento constante de la demanda en los sectores industrial, agrícola y urbano, provocado por el aumento poblacional y el cambio climático. Los administradores de los sistemas de abastecimiento de agua (WSSs, por sus siglas en inglés, water supply systems) se han visto desafiados a suplir la creciente demanda de los diferentes sectores con la cantidad, calidad y eficiencia necesarios y, a su vez, reducir el desperdicio y el mal uso del recurso. Desde esta perspectiva, las fugas de agua son el mayor problema que enfrentan los administradores de estas empresas de servicios públicos. Las fugas en una red provocan problemas de salud, de escasez, económicos y medioambientales. El uso de técnicas de inspección no destructivas debe favorecer una rápida identificación de problemas, para realizar acciones posteriores de reparación en la red. Este trabajo hace uso del GPR (siglas en inglés de ground penetrating radar) como técnica de inspección no destructiva porque: favorece la exploración del subsuelo sin causar alteraciones al medio, es de fácil aplicación y, además, permite obtener pseudo imágenes del subsuelo. Uno de los objetivos de este documento es identificar y extraer características de una fuga en un WSS mediante imágenes de GPR, con el fin último de recrear las fugas a través de modelos 3D. Se realizaron ensayos de laboratorio bajo condiciones controladas donde se emuló una parcela en la cual se había enterrado una tubería con una pequeño orifico que simula una fuga de agua; tras introducir agua al sistema, se realizaron prospecciones con el GPR. Una vez finalizada la exploración del subsuelo, dado que las imágenes de GPR en bruto obtenidas no son fácilmente interpretables por personal no experto, tales imágenes fueron sometidas a procesamiento de datos que favorezcan su fácil interpretación. Este documento presenta dos metodologías de procesamiento de datos que permiten obtener imágenes a partir de las cuales es posible identificar tanto los componentes del sistema como la fuga y su alcance. Las metodologías de tratamiento de datos aplicadas en este documento son una metodología basada en sistemas multi-agente y el filtro de varianza, metodología basada en parámetros estadísticos de segundo orden. Posteriormente, tras aplicar estas metodologías de procesamiento a las imágenes, se sometieron los resultados a un análisis que facilitase la mejor elección evitando la subjetividad del experto. Bajo este concepto, este documento propone el uso conjunto de técnicas multicriterio. Se utilizó el Proceso de Jerarquía Analítica Difusa (FAHP, por sus siglas en inglés, Fuzzy Analytical Hierarchy Process), que permite ponderar varios criterios de evaluación, con el propósito de mitigar la incertidumbre que caracterizan los juicios de los expertos, en conjunto con el método ELECTRE III para obtener la clasificación final de alternativas, todo esto de la manera más objetiva posible. Los resultados de este documento son satisfactorios, permitiendo obtener amplio conocimiento de las fugas y su interacción con el subsuelo, proporcionando pautas para desarrollar posteriormente metodologías de automatización que permitan localizar, seguir y predecir problemas en los WSSs.<br>[CA] Els esforços que fan els països en conjunt amb organitzacions mundials, como ara IWA (per International Water Association), ONU-Agua i OMS (per Organització Mundial de la Salut), per a mitigar l'impacte ambiental en el camp de la hidràulica urbana són considerats de vital importància. No obstant això, l'escassetat dels recursos hídrics en el món augmenta diàriament, donat per l'augment constant de la demanda en els sectors industrial, agrícola i urbà, provocat per l'augment poblacional i el canvi climàtic. Els administradors dels sistemes d'abastiment d'aigua (WSSs, per les seus sigles en anglès, water supply systems) s'han vist desafiats a suplir la creixent demanda dels diferents sectors amb la quantitat, qualitat i eficiència necessaris i, al seu torn, reduir el desaprofitament i el mal ús del recurs. Enfocant aquesta perspectiva, les pèrdues d'aigua són el problema més gran fet front pels directors d'aquestes utilitats. Les pèrdues d'aigua en una xarxa provoquen problemes de salut, d'escassetat, econòmics i mediambientals. L'ús de tècniques d'inspecció no destructives que afavoreixen una ràpida identificació per a realitzar accions de reparació posteriors en la xarxa. Aquest treball fa ús del GPR (sigles en anglès per ground penetrating radar) com a tècnica d'inspecció no destructiva perquè afavoreix l'exploració del subsol sense causar alteracions al entorn, és de fàcil aplicació i a més permet obtenir pseudo imatges del subsol. Un dels objectius d'aquest document és identificar i extraure característiques d'una pèrdua en un WSS mitjançant imatges de GPR, amb la fi última de recrear les pèrdues a través de models 3D. Es van realitzar assajos de laboratori sota condicions controlades on es va emular una parcel¿la en la qual s'ha enterrat una canonada amb una xicotet forat que simula una pèrdua d'aigua; després d'introduir aigua al sistema, s'obtenen prospeccions amb el GPR. Una vegada finalitzada l'exploració del subsol, atès que les imatges de GPR en brut obtingudes no són fàcilment interpretables per personal no expert, són sotmeses a processament de dades que afavorisquen la seua fàcil interpretació. Aquest document presenta dues metodologies de processament de dades que permeten obtenir imatges de les quals és possible identificar tant els components del sistema com la pèrdua i el seu abast. Les metodologies de tractament de dades aplicades en aquest document són una metodologia basada en multi-agents (MABS, per les seves sigles en anglès, multi-agent-based systems) i el filtre de variància, metodologia basada en paràmetres estadístics de segon ordre. Posteriorment, després d'aplicar aquestes metodologies de processament a les imatges se sotmeten els resultats a una anàlisi que faciliti la millor elecció evitant la subjectivitat de l'expert. Sota aquest concepte, aquest document proposa l'ús conjunt de tècniques de decisió multi-criteri (MCDM, per les seves sigles en anglès, multi-criteria decision-making). Es va utilitzar el Procés de Jerarquia Analítica Difusa (FAHP, per les seves sigles en anglès, Fuzzy Analytical Hierarchy Process) el qual s'utilitza per a ponderar diversos criteris d'avaluació, amb el propòsit de mitigar la incertesa que caracteritzen els judicis dels experts, en conjunt amb el mètode ELECTRE III, per a obtenir la classificació final d'alternatives, tot això de la manera més objectiva possible. Els resultats d'aquest document són satisfactoris, permetent obtenir ampli coneixement de les pèrdues d'aigua i la seua interacció amb el subsol, donant-nos la pauta per a desenvolupar posteriorment metodologies d'automatització que permeten localitzar, seguir i predir problemes en els WSSs.<br>[EN] The efforts made by the countries in collaboration with world organizations, such as IWA (for International Water Association), UN-Water and WHO (for World Health Organization), to mitigate the environmental impact in the field of urban hydraulics are considered of vital importance. However, the scarcity of water resources in the world increases daily, given by the constant increase in demand in the industrial, agricultural and urban sectors, caused by the population increase and the climate change. Managers of water supply systems (WSSs) are challenged to supply the growing demand of different sectors with sufficient quantity, quality and efficiency and, in turn, reduce waste and misuse of the resource. Focusing this perspective, water leaks are the biggest problem faced by the managers of these utilities. Leaks in a network cause health, shortage, economic and environmental problems. The use of non-destructive inspection techniques favors rapid identification to carry out subsequent repair actions on the network. This work makes use of the GPR (ground penetrating radar) as a non-destructive inspection technique because: it favors the exploration of the ground without causing alterations to the environment, it is easy to apply, and also allows to obtain pseudo images of the subsoil. This document presents two data processing methodologies that allow obtaining images from which it is possible to identify both the system components and the leak and its scope. The data treatment methodologies applied in this document are a multi-agent-based system (MABS) methodology and the variance filter, a methodology based on second-order statistical parameters. Subsequently, after applying these processing methodologies to the images, the results are subjected to an analysis that eases the best choice, avoiding expert's subjectivity. Under this concept, this document proposes the joint use of two multi-criteria decision-making (MCDM) methods. The Fuzzy Analytical Hierarchy Process (FAHP) is used first to weight various evaluation criteria, in order to mitigate the uncertainty that characterize the experts' judgments, in conjunction with the ELECTRE III method, to obtain the final classification of alternatives in the most objective way. The results of this document are satisfactory, allowing to obtain extensive knowledge of leaks and their interaction with the subsoil, giving a guideline to subsequently develop automation methodologies that allow locating, monitoring and predicting problems in WSSs.<br>Part of this work has been developed under the support of Fundación Carolina PhD and short-term scholarship program<br>Ocaña Levario, SJ. (2021). Análisis, caracterización y modelación 3D de fugas de agua en sistemas de abastecimiento de agua mediante imágenes de GPR [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/163677<br>TESIS
APA, Harvard, Vancouver, ISO, and other styles
49

Ribeiro, Paulo Nicácio. "Filtro de Kalman aplicado à estimação de posição de embarcações marítimas superficiais." Instituto Tecnológico de Aeronáutica, 1991. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=1850.

Full text
Abstract:
Este trabalho investiga a aplicação do Filtrode Kalman a sistemas de posicionamento no mar, necessários aos trabalhos de prospecção e produção de petróleo em águas profundas.Inicialmente é apresentado um resumo dos sistemas de rádio posicionamento, citando-se os principais sensores aplicáveis, com especial ênfase ao sistema ARGO. Com a finalidade de informação, é apresentado a seguir um resumo dos atuais procedimentos de posicionamento no mar utilizados pela Petrobrás. Posteriormente são apresentados os algoritmos de estimação considerados, a saber, Filtro de Kalman e Método dos M1nimos Quadrados. Técnicas de particionamento das equações do Filtro de Kalman, para redução do tempo de processamento e adequação com o arranjo de sensores, são também apresentadas. No penúl tim';o cap1 tulo apresentamos um resumo teórico do algoritmo do Filtro de Kalman para o movimento uniforme de um m6vel em um referencial plano. gráficos, Finalmente referentes às são mostrados implementações dos os resultados algoritmos de estimação anteriormente citados, das estimativas e simulações dos estados referentes a posição e erros oriundos de medidas de'; distância, com conclusões.de velocidade,comentár ios e conclusões.
APA, Harvard, Vancouver, ISO, and other styles
50

Pedroso, Luís Júlio de Gusmão Rocha. "Avaliação dos efeitos sobre os estimadores eletromiográficos de diversos métodos de filtragem da interferência da rede elétrica." reponame:Repositório Institucional da UnB, 2013. http://repositorio.unb.br/handle/10482/14693.

Full text
Abstract:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Elétrica, 2013.<br>Submitted by Elna Araújo (elna@bce.unb.br) on 2013-11-21T22:35:29Z No. of bitstreams: 1 2013_LuisJulioDeGusmaoPedroso.pdf: 4833098 bytes, checksum: 3fbfcd5686f9b880b58ece3cddb2383a (MD5)<br>Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2013-11-25T12:38:46Z (GMT) No. of bitstreams: 1 2013_LuisJulioDeGusmaoPedroso.pdf: 4833098 bytes, checksum: 3fbfcd5686f9b880b58ece3cddb2383a (MD5)<br>Made available in DSpace on 2013-11-25T12:38:46Z (GMT). No. of bitstreams: 1 2013_LuisJulioDeGusmaoPedroso.pdf: 4833098 bytes, checksum: 3fbfcd5686f9b880b58ece3cddb2383a (MD5)<br>Os sinais eletromiográficos (EMG) estão cada vez mais a serem utilizados para diagnósticos clínicos, controle de próteses de membros superiores ou inferiores e auxilio e acompanhamento do treinamento de atletas profissionais. O sucesso do uso da eletromiografia de superfície (EMGs) nessas aplicações é fortemente influenciado pela qualidade das informações obtidas desses sinais que por sua vez sofrem influências do meio, majoritariamente, influencias da rede elétrica de 60 Hz e seus harmônicos. Desta forma, o objetivo deste trabalho é avaliar os efeitos de diversos métodos de filtragem da interferência de 60 Hz e harmônicas provenientes da rede elétrica, sobre os estimadores eletromiográficos calculados com base em sinais eletromiográficos de superfície. Para isso, um sinal eletromiográfico sintético foi contaminado por diferentes sinais de interferência de 60 Hz, que foram em seguida, filtrados por filtros digitais do tipo FIR, IIR e adaptativos. Foram então calculados, para os sinais originais e para todos os sinais filtrados, os seguintes estimadores: valor quadrático médio (RMS), valor retificado médio (AVR), frequência média (MNF), frequência mediana (MDF) e velocidade de condução (CV). Para os resultados dos estimadores foi calculada a reta de regressão e feita a analise comparativa da influência dos filtros sobre o resultado dos estimadores através da comparação do coeficiente angular dessas retas em relação ao coeficiente angular das retas de controle, sinal sem ruído e com ruído, mas sem filtragem. Os valores obtidos demonstraram que não existe um filtro que possa ser aplicado com iguais resultados para todos os estimadores. Nos sinais com ruído jitter os estimadores apresentam inconsistência nos resultados, destacando a interferência do ruído jitter sobre os filtros e sobre os estimadores como consequência da relação da largura de banda do jitter e do corte notch dos filtros. Apesar das limitações do estudo, os resultados apresentam potencial para auxiliar pesquisadores na tomada de decisão do uso ou não de filtros em sinais EMGs e, caso positivo, quais apresentam melhores resultados. _______________________________________________________________________________ ABSTRACT<br>The surface electromyographic signals (EMGs) are being used for clinical diagnosis, control of prosthetic arms or legs and assisting and monitoring the training of professional athletes. The successful use of surface electromyography (EMGs) in these kind of applications is strongly influenced by the quality of the information obtained from these signals that, in turn, suffer from environmental influences, mainly influences from the electrical grid of 60 Hz and its harmonics. Thus, the objective of this study is to evaluate the effects of various methods of filtering interference of 60 Hz and harmonics from the electrical grid, on electromyographic estimators calculated based on surface electromyographic signals. For this, a synthetic electromyographic signal has been contaminated by different 60 Hz interference signals, which were filtered by FIR type digital filters, IIR and adaptive. So, there were calculated for the original signals and for all filtered signals, the following estimators: root mean square (RMS), average rectified value (AVR), mean frequency (MNF), median frequency (MDF) and conduction velocity (CV). For the results of the estimators, we calculated the regression line and a comparative analysis was made of the influence the filters on the results of estimators by comparing the angular coefficient of these lines in relation to the angular coefficients of the lines of control signal, without noise and with noise, but without filtering. The values obtained demonstrate that there is no filter that can be applied with similar results for all estimators. In signals with noise jitter estimators have had inconsistent results, especially the interference noise jitter on the filters and on the estimators as a result of the relationship of jitter bandwidth jitter and notch cut filters. Despite the limitations of the study, the results have potential to assist researchers in making the decision to use or not of filters in EMGs signals and, if so, which ones show better results.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!