To see the other types of publications on this topic, follow the link: Modelos estatísticos para água.

Dissertations / Theses on the topic 'Modelos estatísticos para água'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modelos estatísticos para água.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Girardi, Mauricio. "Modelos estatísticos para a água e para soluções diluídas de anfifílicas." Florianópolis, SC, 2004. http://repositorio.ufsc.br/xmlui/handle/123456789/88011.

Full text
Abstract:
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro de Ciências Físicas e Matemáticas. Programa de Pós-Graduação em Física.
Made available in DSpace on 2012-10-22T04:44:54Z (GMT). No. of bitstreams: 1 204258.pdf: 1972812 bytes, checksum: f2133f2deada68c59f0a45cd8e721e5a (MD5)
Neste trabalho estudamos alguns modelos estatísticos para a água e para soluções de moléculas anfifílicas. Obtivemos as propriedades termodinâmicas do modelo da água quadrada em um campo elétrico externo a partir de cálculos analíticos exatos e de soluções de campo médio, bem como através de simulações de Monte Carlo no ensemble canônico. Observamos o aparecimento de uma transição de fases induzida pelo campo quando a temperatura do sistema tende a zero, e verificamos um máximo no número de pontes de hidrogênio para um valor não nulo do campo externo. Em um outro estudo realizamos cálculos de campo médio em um modelo geométrico para a água em duas dimensões, obtendo o seu diagrama de fases no plano pressão versus temperatura, e a dependência da densidade e do número de pontes de hidrogênio com a temperatura e a pressão do sistema. Também para a água, desenvolvemos um modelo de trímeros interagentes em uma rede triangular, e estimamos suas propriedades termodinâmicas a partir de simulações de Monte Carlo no ensemble multicanônico. Essas simulações forneceram medidas diretas da entropia configuracional do sistema, bem como facilitaram a identificação de transições de fases de primeira ordem entre estados de diferentes densidades. Investigamos também modelos de agregação com propriedades semelhantes àquelas observadas em sistemas micelares. Dois modelos do tipo gás de rede, um com n estados e interações de pares, e outro com interações de pares e tripletos, foram explorados usando-se aproximações de campo médio usual e simulações computacionais. Verificamos que, apesar de sua simplicidade, os modelos apresentam comportamento similar ao de soluções de anfifílicas: a presença de uma concentração micelar crítica, e os mínimo e máximo locais na curva de distribuição de agregados. Por fim, analisamos alguns aspectos dinâmicos da agregação micelar, através da determinação dos tempos característicos de entrada e saída de anfifílicas de agregados (t1), e de formação/dissolução micelar (t2).
APA, Harvard, Vancouver, ISO, and other styles
2

SPANGHERO, Diogo Bessa Neves. "Utilização de modelos estatísticos para comparar dados de produção do camarão Litopenaeus vannamei (Bonne,1931) cultivados em água doce e salgada." Universidade Federal Rural de Pernambuco, 2008. http://www.tede2.ufrpe.br:8080/tede2/handle/tede2/6268.

Full text
Abstract:
Submitted by (edna.saturno@ufrpe.br) on 2017-02-09T14:50:18Z No. of bitstreams: 1 Diogo Bessa Neves Spanghero.pdf: 353251 bytes, checksum: 242874c51488bd360e78b53019a7ba2d (MD5)
Made available in DSpace on 2017-02-09T14:50:18Z (GMT). No. of bitstreams: 1 Diogo Bessa Neves Spanghero.pdf: 353251 bytes, checksum: 242874c51488bd360e78b53019a7ba2d (MD5) Previous issue date: 2008-02-21
The marine shrimp Litopenaeus vannamei can be cultured in waters of different salinities,therefore they tolerate an ample band of salinities (0,5-60). Of this form, the objective of this present work was to compare the production data, of this crustacean, when cultured in freshwater or salty water, using mathematical models. The models, to relate the variables of management and of production, had been formulated on the basis of a data base with 278 cultures. To estimate the models parameters, it was used technique of the squared minimums.The variable selection was carried through the process of "Stepwise" associated to the Box and Cox’s transformation. The adequacy of the equations and the normality estimated, for the errors, had been analyzed on the basis of the variance analysis, in the Durbin-Watson statistics, on the residue analysis and normality test. In all the formulated equations the management variables, culture in salty water (CAS) was selected, evidencing significant difference (p<0,05) between these culture systems.
O camarão marinho Litopenaeus vannamei pode ser cultivado em águas de diferentes salinidades, pois toleram uma ampla faixa de salinidades (0,5-60). Desta forma, objetivou-se com o presente trabalho comparar os dados de produção, desse crustáceo, quando cultivados em água doce ou em água salgada, utilizando-se modelos matemáticos. Os modelos, para relacionar as variáveis de manejo e as de produção, foram formulados com base em um banco de dados com 278 cultivos. Para estimar os parâmetros dos modelos, utilizou-se a técnica dos mínimos quadrados. A seleção das variáveis foi realizada com o processo de “Stepwise” associado à transformação de Box e Cox. A adequação das equações e os pressupostos de normalidade, para os erros, foram analisados com base na análise de variância, na estatística de Durbin-Watson, na análise de resíduo e teste de normalidade. Em todas as equações formuladas a variável de manejo, cultivo em água salgada (CAS) foi selecionada, evidenciando diferença significativa (p<0,05) entre esses sistemas de cultivo.
APA, Harvard, Vancouver, ISO, and other styles
3

Guisoni, Nara Cristina. "Polimorfismo líquido e efeito hidrofóbico através de modelos simplificados." Universidade de São Paulo, 2002. http://www.teses.usp.br/teses/disponiveis/43/43134/tde-18022014-163743/.

Full text
Abstract:
Desenvolvemos dois modelos estatísticos para água, nos quais diferentes aspectos de sua estrutura são considerados. O modelo geométrico permite diferentes números de coordenação. Em uma aproximação de campo médio mostramos que sob pressão o modelo apresenta linha de coexistência entre fases de baixa e alta densidade, e ponto crítico. A entropia das ligações de hidrogênio tem papel fundamental na definição da inclinação da linha de coexistência. O comportamento do modelo pode estar realcionado como segundo ponto crítico da água super resfriada e com transições líquido-líquido em geral.O modelo da água quadrada é uma versão térmica do modelo do gelo, no qual considera-se a direcionalidade das ligações de hidrogênio. O modelo foi estudado na rede de Bethe e através de simulações de Monte Carlo em três situações diferentes: para a água pura e na presença de solutos polares e apolares. A água quadrada pura não apresenta transição de fase. No modelo para solvente com solutos apolares, medidas de frequência relativa de ligações e do tempo de correlação mostram que o modelo apresenta estruturação da camada de hidratação. Medidas de correlação temporal no modelo de Ising mostram comportamento oposto. Em um estudo preliminar para uma solução com solutos que realizam ligações de hidrogênio não conseguimos encontrar diagramas de coexistência com círculo fechado, para o conjunto de parâmetros utilizados, possivelmente devido à ausência de buracos.
We have developed two statistical models for water in which different features of water structure are considered. In the geometrical model different coordination numbers are present and the model allows for translational disorder. A mean-field treatment shows that under pressure the model exhibits phases of different densities and a coexistence line ending in a critical point. Entropy of the hydrogen network plays an essential role in defining the slope of the coexistence line. The model behavior might be related with the second critical point in supercooled water and to liquid-liquid transitions in general. The square water model is a thermal version of the ice model, and takes into account the directionality of the hydrogen bonds. The model was studied on a Bethe lattice and through Monte Carlo simulations, for three different situations: as pure water and in the presence of polar and apolar solutes. Pure square water does not present a phase transition. In the presence of apolar solutes, first shell square water presents ordering, as shown from comparison of relative frequency of bonds, as well as from study of time correlations. The latter was shown to present opposite behavior in case of an Ising system. In a preliminary study for a solution of hydrogen bonding solutes we were unable to find a closed loop for the sets of parameters chosen. Vacancies might need to be included.
APA, Harvard, Vancouver, ISO, and other styles
4

Barbosa, Carolina Cerqueira. "Aplicação da modelagem ecológica com foco na dinâmica do fitoplâncton para avaliação da qualidade da água do Lago Paranoá - DF." reponame:Repositório Institucional da UnB, 2015. http://dx.doi.org/10.26512/2015.10.D.19854.

Full text
Abstract:
Dissertação (mestrado)—Universidade de Brasília, Faculdade de Tecnologia, Departamento de Engenharia Civil e Ambiental, 2015.
Submitted by Albânia Cézar de Melo (albania@bce.unb.br) on 2016-02-25T13:07:26Z No. of bitstreams: 1 2015_CarolinaCerqueiraBarbosa.pdf: 7717795 bytes, checksum: 1b53111a554b60471272e394318869bc (MD5)
Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2016-04-05T14:39:30Z (GMT) No. of bitstreams: 1 2015_CarolinaCerqueiraBarbosa.pdf: 7717795 bytes, checksum: 1b53111a554b60471272e394318869bc (MD5)
Made available in DSpace on 2016-04-05T14:39:30Z (GMT). No. of bitstreams: 1 2015_CarolinaCerqueiraBarbosa.pdf: 7717795 bytes, checksum: 1b53111a554b60471272e394318869bc (MD5)
Utilizou-se o modelo hidrodinâmico-ecológico GLM-AED para simular a dinâmica do fitoplâncton e a qualidade da água do lago Paranoá-DF. A escolha do modelo foi baseada em critérios pré-estabelecidos que levassem em conta a simplicidade da estrutura do modelo, a disponibilidade na rede (acesso livre) e tivesse a opção de modelar o fitoplâncton, visto a importância desses organismos nos ambientes aquáticos. O período selecionado para análise de sensibilidade e calibração foi de 01/03/2007 a 31/03/2009. A análise de sensibilidade e calibração hidrodinâmica foi realizada de maneira otimizada com o desenvolvimento de um script no software R, onde se identificaram três parâmetros sensíveis no lago Paranoá: coeficiente aerodinâmico de transferência de calor latente, coeficiente aerodinâmico de transferência de momento e coeficiente de atenuação vertical da luz. Após calibração, foram encontrados resultados satisfatórios para a simulação, com o erro padrão (RMSE) obtido para a temperatura ao longo da coluna d’água de 1,47ºC e nas profundidades a 1, 10, 15 e 20m da superfície abaixo de 2ºC. Foi realizada, também, análise de sensibilidade e calibração ecológica voltada ao módulo de fitoplâncton, com foco nos dois grupos: clorofíceas e cianobactérias. Chegou-se a quatro parâmetros sensíveis: taxa de crescimento do fitoplâncton a 20°C; temperatura ótima; constante de semi-saturação de luz para limitação de algas e taxa de respiração do fitoplâncton a 20°C. O modelo GLM-AED obteve bom ajuste para simular a biomassa dos dois grupos do fitoplâncton, o RMSE médio foi de 0,036 mg/L nas quatro profundidades avaliadas para a simulação da biomassa de clorofíceas e de 0,012 mg/L para a biomassa de cianobactérias. Também, foi realizada simulação de cenário de eutrofização para o Lago, com situação de qualidade da água semelhante ao período mais crítico. O modelo obteve bons resultados e conseguiu responder ao cenário de piora da qualidade da água. Observaram-se melhores respostas do modelo ecológico em condições de maior trofia no Lago.
The hydrodynamic-ecological model GLM-AED was used to simulate the phytoplankton dynamics and the water quality of the Paranoá lake-DF. The model selection was based in pre established criterions that consider model structure's simplicity, availability (open source) and the hability to simulate the phytoplankton dynamics, due to the importance of these organisms in the aquatic environment. The period used in the sensitivity analysis and calibration of the model started in 03/01/2007 and finished in 03/31/2009. The sensitivity and hydrodynamic calibration analysis was optimized using a script at R software, where it was identified three key parameters to the Paranoá Lake: bulk aerodynamic coefficient for latent heat transfer, bulk aerodynamic coefficient for transfer of momentum and extinction coefficient for PAR radiation. The calibration produced satisfactory results for the simulation with root mean square errors (RMSE) for the temperature in the surface of water column around 1,47°C and smaller than 2°C in the depths of 1, 10, 15 and 20 m. Also, it was performed a sensitivity and ecological calibration analysis focused in the phytoplankton module considering two main groups: green algae and blue-green algae. Four key parameters were observed during sensitivity analysis: phytoplankton growth rate at 20ºC, optimum temperature, light half saturation constant for algal limitation and phytoplankton respiration rate at 20ºC. The GLM-AED model managed to simulate the biomass of both phytoplankton's groups, the mean RMSE obtained for green algae group was 0,036 mg/L for the four evaluated depths in the simulation and the blue-green algae group was 0,012 mg/L. Likewise, an eutrophication scenario was simulated to the lake, with similar water quality to the most critical period. The model achieved good results similar to the water quality decrease. The ecological model results were as better as the eutrophic environment were present at the Lake.
APA, Harvard, Vancouver, ISO, and other styles
5

Carmo, Eduardo do. "Modelos estatísticos para o ordenamento nemático biaxial." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/43/43134/tde-15052012-091811/.

Full text
Abstract:
Consideramos o modelo de Maier-Saupe com a discretização de Zwanzig para as possíveis orientações das moléculas de cristais líquidos nemáticos. Esse modelo reproduz a transição de fases nemático-isotrópica dos cristais líquidos termotrópicos em acordo com a teoria fenomenológica de Maier e Saupe. Introduzimos variáveis desordenadas de forma a fim de descrever uma eventual estrutura biaxial em uma mistura binária de moléculas uniaxiais oblatas e prolatas. Para uma desordem do tipo quenched, o diagrama de fases do modelo possui uma fase nemática biaxial estável. Para uma desordem do tipo annealed, a estrutura biaxial é termodinamicamente instável. Esses resultados são confirmados realizando um contato com a teoria de Landau-de Gennes. Para ganhar intimidade com os cálculos estatísticos estudamos também um modelo para uma mistura binária de magnetos de Ising na rede. Para ir além dos resultados de campo médio, formulamos o modelo de Maier-Saupe discretizado na rede de Bethe. A análise desse problema é realizada através das relações de recorrência para a função de partição. A transição nemático-isotrópica é localizada através de uma expressão para a energia livre obtida pelo engenhoso método de Gujrati. Considerando o problema das misturas binárias de moléculas nemáticas e utilizando o formalismo adequado à fluidez das partículas annealed, tanto uma análise de estabilidade linear das relações de recorrência quanto uma análise termodinâmica proibem a existência da fase nemática biaxial.
We consider the Maier-Saupe model with the Zwanzig restriction for the orientations of the liquid-crystalline molecules. This model describes the nematic-isotropic phase transition of the thermotropic liquid-crystals. In order to study an elusive biaxial structure on a binary mixture of rods and discs, we add new disordered shape variables. For a quenched distribution of shapes, the system displays a stable biaxial nematic phase. For a thermalized distribution of shapes, however, the biaxial structure is forbidden. These results are confirmed through a connection with the Landau-de Gennes theory. To gain confidence in the use of these techniques, we also studied a model for a binary mixture of Ising magnets on a lattice. In order to go beyond the mean-field calculations, we consider the discretized Maier- Saupe (-Zwanzig) model on a Bethe lattice. The analysis of the problem is performed by the iteration of some recurrence relations. The isotropic-nematic phase transition is determined through the free energy that comes from the Gujrati method. For the problem of a binary mixture of prolate and oblate molecules, using a formalism suitable for the fluidity of the nematic molecules, we show that both thermodynamic and dynamic analyses of stability preclude the existence of a nematic biaxial phase.
APA, Harvard, Vancouver, ISO, and other styles
6

Demos, Guilherme do Livramento. "Modelos estatísticos alternativos para os mini flash crashes." reponame:Repositório Institucional da UFSC, 2014. https://repositorio.ufsc.br/xmlui/handle/123456789/123421.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Sócio-Econômico, Programa de Pós-Graduação em Economia, Florianópolis, 2014.
Made available in DSpace on 2014-08-06T18:11:15Z (GMT). No. of bitstreams: 1 326467.pdf: 1946162 bytes, checksum: 4b50f24942cdc0a450e705a480c5e711 (MD5) Previous issue date: 2014
APA, Harvard, Vancouver, ISO, and other styles
7

Silva, Andreia Marques. "Desenvolvimento de um modelo estatístico para o controlo da condutividade da água dos SMAS de Almada." Master's thesis, Faculdade de Ciências e Tecnologia, 2012. http://hdl.handle.net/10362/8522.

Full text
Abstract:
Dissertação para obtenção do Grau de Mestre em Engenharia Química e Bioquímica
A água é um tema cada vez mais importante nos dias que correm. A qualidade da água para consumo humano é fundamental para a avaliação do desenvolvimento e bem-estar de uma nação. A presente dissertação foi desenvolvida nos Serviços Municipalizados de Água e Saneamento de Almada (SMAS de Almada) e teve como objectivo principal o desenvolvimento de um modelo estatístico, denominado algoritmo, que irá permitir controlar um parâmetro bastante importante para a qualidade da água, a condutividade. Este modelo possibilitará obter estimativas da condutividade da água à saída de 6 reservatórios, a partir de dados recolhidos em 32 captações. A metodologia adoptada na presente dissertação compreendeu quatro fases distintas: tratamento e caracterização dos dados históricos; aplicação de cartas de controlo; construção de um modelo estatístico (algoritmo) e sua validação. A fase de tratamento e caracterização dos dados históricos consistiu numa primeira análise gráfica das 32 séries de dados, estudo de outliers e caracterização das séries em termos de parâmetros de tendência central e de dispersão. A segunda fase teve como principal objectivo aplicar uma ferramenta estatística que permitisse a monitorização, controlo e estimação dos parâmetros através da entrada de dados “frescos”. Como não existiam dados suficientes para estimar os parâmetros do processo (média e desvio padrão) optou-se por aplicar cartas de controlo de “pequenas produções” (short run), mais precisamente as cartas . Estas permitem actualizações em tempo real das estimativas dos valores da condutividade média da água à saída de cada captação. Tendo por base os valores médios da condutividade da água de cada captação e as relações de abertura das válvulas / caudal, foi então desenvolvido um modelo estatístico que irá permitir estimar a condutividade da água à saída de cada reservatório. Por último, procedeu-se à validação do algoritmo, recorrendo a análises laboratoriais das captações e das misturas das águas. Considera-se que os SMAS de Almada irão beneficiar deste estudo na medida em que o modelo proposto irá permitir obter valores da condutividade esperada à saída dos reservatórios (onde se encontram as misturas das águas provenientes das diversas captações).
APA, Harvard, Vancouver, ISO, and other styles
8

Varga, Maria Clara Mecatte. "Modelos estatísticos para LGD : uma visão clássica e bayesiana." Universidade Federal de São Carlos, 2011. https://repositorio.ufscar.br/handle/ufscar/4548.

Full text
Abstract:
Made available in DSpace on 2016-06-02T20:06:05Z (GMT). No. of bitstreams: 1 3715.pdf: 795641 bytes, checksum: 715aa7baebc9b8af84d099eb9c08d3dd (MD5) Previous issue date: 2011-03-28
Financiadora de Estudos e Projetos
Every day in financial institution is common to nd customers who are unable to honor their commitments. When this occurs we say that the individual is in default. In a possible economic downturn the portfolio could su_er losses due to excessive default clients and high loss rates. At this stage it is essential that financial institutions have a capital reserve to absorb this potential loss. This reserve is known as economic capital. We examined four different models, Normal, Log-Normal, Logit-Normal and Beta Regression, used to determine the individual loss rate, since the client is in default, also known as LGD (Loss Given Default). Such models are used to determine the economic capital. In the models, both the default and LGD depend on a single systematic risk factor, which describes the state of the economy. This means that we considered that the event of default and LGD are correlated. We describe in detail for the four models, two ways of calculating economic capital, using the asymptotic approximation of the distribution of loss rate and the normal approximation. Through a simulation study, we compared the different estimates of economic capital. A bayesian approach to the Beta Regression model is developed modeling mean and dispersion parameter jointly.
No dia-a-dia de uma instituição financeira é comum a existência de clientes que não conseguem honrar seus compromissos. Quando isso ocorre dizemos que o individuo entrou em default. Em uma eventual desaceleração econômica a carteira pode sofrer perdas devido ao excesso de cliente em default e _as altas taxas de perdas. Neste momento é fundamental que as instituição financeiras tenham um capital em reserva para absorver esta possível perda. Tal reserva _e conhecida como capital econômico. Neste trabalho analisamos quatro diferentes modelos, Normal, Log-Normal, Logit-Normal e Regressão Beta, utilizados para determinar a taxa individual de perda, dado que o cliente está em default, também conhecido como LGD (Loss Given Default). Tais modelos são utilizados na determinação do capital econômico. Nos modelos, ambos o default e a LGD dependem de um fator de risco sistemático simples, o qual descreve o estado da economia. Ou seja, considera-se que o evento de default e a LGD estão correlacionados. Descrevemos detalhadamente, para os quatro modelos, duas formas de calcular o capital econômico, utilizando a aproximação assintótica da distribuição da taxa de perda e a aproximação normal. Através de um estudo de simulação comparamos as estimativas dos diferentes capitais econômicos. Uma abordagem bayesiana para o modelo de Regressão Beta _e desenvolvida modelando conjuntamente a média e o parâmetro de dispersão.
APA, Harvard, Vancouver, ISO, and other styles
9

Patricia, Barreto Santana Silvia. "Modelos estatísticos para análise de dados longitudinais categorizados ordinais." Universidade Federal de Pernambuco, 2004. https://repositorio.ufpe.br/handle/123456789/6607.

Full text
Abstract:
Made available in DSpace on 2014-06-12T18:06:22Z (GMT). No. of bitstreams: 2 arquivo7261_1.pdf: 519185 bytes, checksum: 923bd272ea2504b66609c2a51a5f7382 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Modelos para dados longitudinais são modelos de regressão com respostas correlacionadas no tempo, observadas da mesma unidade amostral, podendo estas respostas serem consideradas de alguma forma grupos (clusters). A correlação existente deve ser levada em consideração. Uma forma de modelar esta correlação entre as observações ao longo do tempo é através das Equações de Estimação Generalizadas (GEEs). Liang & Zeger (1986) propuseram uma forma relativamente simples de tratar dados longitudinais através de Modelos Lineares Generalizados (MLG). O objetivo deste trabalho é estudar este tipo de modelo estatístico e seus métodos de estimação associados para análise de dados longitudinais categorizados ordinais e fazer uma análise de um conjunto de dados longitudinais considerando que os dados são correlacionados. Foi realizada uma aplicação com dados reais proveniente de um estudo de coorte de 477 crianças residentes nos municípios da zona da mata meridional de Pernambuco acompanhadas ao nascer e aos 2, 4, 6, 9, 12,15 e 18 meses de vida, estimando-se as probabilidades de desnutrição em relação a certas condições sócio-demográficas e biológicas, aqui denominada ?condição geral? e mais a situação de aleitamento da criança. Foram construídos modelos marginais nos quais a resposta é uma variável aleatória categorizada ordinal. Através dos modelos encontrados foi verificado a importância do aleitamento materno no estado nutricional da criança. Para as análises foram utilizados os pacotes estatísticos SAS e R. Os resultados indicam que as probabilidades estimadas utilizando os dois pacotes computacionais são bastantes próximas, apesar do pacote SAS utilizar o método GEE1, e o R utilizar o método GEE2, que são métodos diferentes provenientes de extensões do GEE. As estimativas oferecidas pelo R são sempre um pouco menores que as oferecidas pelo SAS
APA, Harvard, Vancouver, ISO, and other styles
10

Guidi, Henrique Santos. "Modelos estatísticos para a transição ordem - desordem de camadas lipídicas." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/43/43134/tde-27032013-130925/.

Full text
Abstract:
Lipídios em solução aquosa formam uma variedade de estruturas diferentes que incluem monocamadas de surfactantes na interface água-ar, conhecidas como monocamadas de Langmuir, como também vesículas unilamelares ou plurilamelares no interior da solução. Sob variação de temperatura, estas estruturas apresentam diferentes fases, observadas através de calorimetria ou variação isotérmica de pressão lateral. Entre as fases apresentadas por estas estruturas, as duas mais importantes se diferenciam pela ordem das cadeias lipídicas. Entendemos que do ponto de vista das fases termodinâmicas, simplificado e qualitativo, monocamadas de Langmuir e bicamadas lipídicas constituem o mesmo sistema físico sob vínculos diferentes. Neste trabalho, desenvolvemos um modelo estatístico para o estudo da transição ordem-desordem destes sistemas, que inclui flutuações de densidade, estas ausentes no modelo de Doniach, de 1980, a base para muitos estudos teóricos para transições de fase de sistemas lipídicos. Flutuações de densidade são fundamentais na descrição de vesículas lipídicas carregadas, compostas de surfactante cuja cabeça polar se dissocia em água. O estudo em laboratório das propriedades térmicas e estruturais de membranas artificiais de lipídios carregados _e relativamente recente, e foi desenvolvido em grande parte no Laboratório de Biofísica do IFUSP. Tais membranas apresentam comportamento distinto das membranas neutras, notoriamente influenciado pela concentração de sal na solução. Isto motivou o desenvolvimento de uma segunda versão do modelo, na qual passamos a descrever a cabeça polar do lipídio em termos de um par de cargas opostas, sendo que a camada lipídica foi acoplada ao modelo primitivo restrito na rede, que desempenha o papel da solução salina. O primeiro modelo foi estudado por aproximação de campo médio e por simulações de Monte Carlo, e o segundo modelo foi investigado apenas através de simulações numéricas. O estudo do modelo carregado foi precedido por uma investigação criteriosa das técnicas de simulação de sistemas com interação Coulombiana, resultando no desenvolvimento de uma metodologia adequada a condições de contorno não isotrópicas e com custo computacional reduzido. Os modelos estatísticos propostos por nós levaram a dois resultados importantes. O modelo para camadas lipídicas neutras é, até hoje, o único modelo estatístico que descreve tanto a transição gel-fluido de bicamadas lipídicas, como a transição líquido condensado - líquido expandido\" de monocamadas de Langmuir, além de descrever também a transição líquido expandido gás na interface água-ar. O modelo para camadas lipídicas que se dissociam em água reproduz a variação abrupta na dissociação, concomitante com a transição ordem-desordem, propriedade que permite interpretar estudos experimentais relativos à condutividade das soluções lipídicas correspondentes.
Lipids in aqueous solution form a variety of different structures which include monolayers of surfactants at the water-air interface, known as Langmuir monolayers, as well as unilamellar or plurilamellar vesicles within the solution. Under temperature variation, these structures display different phases, observed through calorimetry or isothermal variation of lateral pressure. Among the phases presented by these structures, the two most important differ in the order of the lipid chains. From the point of view of the thermodynamic phases, our understanding is that Langmuir monolayers and lipid bilayers constitute the same physical system under different constraints. In this work, we develop a statistical model for the order - disorder transition of lipid bilayers which adds density fluctuations to Doniach\'s 1980 model, which has been considered the basis for many theoretical studies for lipid systems phase transitions. Density fluctuations are essential in the description of the properties of charged vesicles in solution, which consist of surfactants whose polar head dissociates in water. The study in the laboratory of thermal and structural properties of artificial charged lipid membranes is relatively new, and was developed largely in the IFUSP Laboratory of Biophysics. Such membranes exhibit distinct behavior if compared to neutral membranes, notoriously influenced by the solution salt concentration. The experimental investigations motivated us to develop a second model, in which we describe the polar headgroups through a pair of opposite charges. The lipid layer is attached to the lattice restricted primitive model, which plays the role of the saline solution. The first model was studied both through a mean-field approximation as well as through Monte Carlo simulations, whereas the second model was investigated only through numerical simulations. The study of the charged model was preceded by a thorough investigation of the simulation techniques for Coulomb interaction systems, leading to the development of a methodology suitable for non isotropic boundary conditions and with reduced computational cost. The statistical models proposed by us led to two important results. To our knowledge, our model for neutral lipid layers is the only statistical model which, aside from describing simultaneously both the gel-fluid transition of lipid bilayers and the condensed liquid - expanded liquid transition of Langmuir monolayers, also describes the gas- expanded liquid transition at the air-water interface. The model for lipid layers that dissociate in water reproduces the abrupt change in dissociation, concomitant with the order-disorder transition, a property that allows us to interpret experimental studies related to conductivity of the corresponding lipid solutions.
APA, Harvard, Vancouver, ISO, and other styles
11

Dourado, Júnior José Nobre. "Probabilidade para o ensino médio." reponame:Repositório Institucional da UFC, 2014. http://www.repositorio.ufc.br/handle/riufc/10445.

Full text
Abstract:
DOURADO JÚNIOR, José Nobre. Probabilidade para o ensino médio. 2014. 55 f. Dissertação (Mestrado em Matemática em Rede Nacional) - Centro de Ciências, Universidade Federal do Ceará, Juazeiro do Norte, 2014.
Submitted by Erivan Almeida (eneiro@bol.com.br) on 2015-01-12T16:48:36Z No. of bitstreams: 1 2014_dis_jndjunior.pdf: 311696 bytes, checksum: 9111bc7d225b74ab3042ec8c4b7aaf18 (MD5)
Approved for entry into archive by Rocilda Sales(rocilda@ufc.br) on 2015-01-15T13:00:31Z (GMT) No. of bitstreams: 1 2014_dis_jndjunior.pdf: 311696 bytes, checksum: 9111bc7d225b74ab3042ec8c4b7aaf18 (MD5)
Made available in DSpace on 2015-01-15T13:00:31Z (GMT). No. of bitstreams: 1 2014_dis_jndjunior.pdf: 311696 bytes, checksum: 9111bc7d225b74ab3042ec8c4b7aaf18 (MD5) Previous issue date: 2014
This work has as objective introduce the basic concepts of the Theory of Probabilities and present notions on some probabilistic models for the student of the High School. We will begin the work presented in chapter I the notions of experiment deterministic, random experiment, sample space and events, followed by some definitions of Probability concepts that constitute the basis for this theory. In chapter II we will discuss the concepts of Conditional Probability and Independence of Events showcasing some important theorems that derive from these concepts, as well as some of its applications. In chapter III we will present in a simple way some probabilistic models discrete quite useful for shape effectively a good number of random experiments thus contributing to the calculation of the probabilities of its results. Finally, in chapter IV will be presented the probability model known as Poisson distribution, which allows us to calculate the probability that an event will occur in a given time interval or in a given spatial region.
Este trabalho tem como objetivo introduzir os conceitos básicos da Teoria das Probabilidades e apresentar noções sobre alguns modelos probabilísticos para o estudante do Ensino Médio. Iniciaremos o trabalho apresentando no capítulo 1 as noções de experimento determinístico, experimento aleatório, espaço amostral e eventos, seguidos de algumas definições de Probabilidade, conceitos que constituem a base para essa teoria. No capítulo 2 abordaremos os conceitos de Probabilidade Condicional e Independência de Eventos, apresentando alguns teoremas importantes que decorrem desses conceitos, bem como algumas de suas aplicaçoes. No capítulo 3 apresentaremos de maneira simples alguns modelos probabilísticos discretos bastante úteis por modelarem de forma eficaz um bom número de experimentos aleatórios contribuindo assim para o cálculo das probabilidades de seus resultados. Por fim, no capítulo 4 será apresentado o modelo probabilístico conhecido como Distribuição de Poisson, que nos permite calcular a probabilidade de um evento ocorrer em um dado intervalo de tempo ou numa dada região espacial.
APA, Harvard, Vancouver, ISO, and other styles
12

Kamogawa, Karen Pallotta Tunin. "Modelos estatísticos para mapeamento de QTL associados a dados de contagem." Universidade de São Paulo, 2009. http://www.teses.usp.br/teses/disponiveis/11/11139/tde-06082009-081116/.

Full text
Abstract:
Este estudo teve por objetivo analisar e comparar metodologias estatísticas para fins de mapeamento de QTL associados à resistência a ectoparasitas em bovinos. Os animais, submetidos à infestação artificial, foram periodicamente avaliados por contagens, como número de carrapatos. Estes dados se caracterizam como medidas repetidas e, via de regra, não atendem ou atendem parcialmente as exigências usuais da análise, para mapeamento de QTL, dentre elas a de apresentar distribuição normal e independência dos erros. Ainda não está bem definido qual seria a melhor estratégia para analisar dados com o perfil descrito. Algumas alternativas seriam transformações de dados que permitam o uso dos programas já disponíveis, ou o desenvolvimento de programas que utilizem outras distribuições como Poisson ou Poisson inflada de zeros (ZIP). Esta proposta está inserida na parceria entre EMBRAPA - Gado de Leite e a ESALQ/USP, para desenvolvimento do projeto de mapeamento de QTL em bovinos mestiços (Gir x Holandês), para várias características incluindo a resistência a parasitas. Foram utilizados 263 animais F2, genotipados com 5 marcadores moleculares no cromossomo 23, na tentativa de mapear QTL para característica de resistência a carrapatos. Dados coletados naquela população F2 e dados simulados em diferentes cenários, serão a base para a comparação de estratégias de análise e mapeamento de QTL. Os modelos de mapeamento clássico, assim como a utilização de transformações dos dados originais foram comparados a modelos de regressão Poisson e modelo ZIP. Os modelos Poisson e ZIP apresentaram os melhores resultados quando trabalhamos com dados de contagem inflacionados de zeros, porém em outros cenários a transformação dos dados originais se mostrou igualmente eficiente. Dependendo do propósito do mapeamento (seja ele localizar ou estimar o efeito), cada modelo possui suas vantagens e suas limitações. Assim, sempre é recomendável uma prévia análise descritiva dos dados para que o melhor modelo seja utilizado.
This study has as main objective to analyze and compare statistical approaches to QTL mapping for parasites resistance in bovines. The animals, under artificial infestation, were periodically evaluated by counting, as ticks count. These data are characterized as repeated measures and, usually, dont follow or partially follow the usual requirements for the analysis, for QTL mapping, that is to present normal distribution and error independence. It is not clear yet which will be the best strategy to analyze this kind of data. Some alternatives could be data transformation that allows the use of software available on the web, or the development of specific programs that use other types of distribution like Poisson or Zero Inflated Poisson (ZIP).This work is an association between EMBRAPA Gado de Leite and ESALQ/USP, to the development of the QTL mapping project for crossbred bovines (Gyr x Holstein), for different characteristics including the parasite resistance. Were used 263 animals F2, genotyped for 5 molecular markers on the chromosome 23, aiming to map QTL for characteristics of parasite resistance. Data collected on this F2 population and simulated data in different scenarios will be the base for the strategies of the QTL mapping approaches comparison. The classical mapping models and the use of data transformation of the original data were compared to Poisson regression and ZIP models. The Poisson and ZIP models presented the best results when working with zero inflated count data however in some other scenarios the data transformation showed similar efficiency. Depending on the purpose of the mapping (this meaning locate or estimate the QTL effect) each model has its vantages and its limitations. This way, it is always advisable to make a previous descriptive analysis of the data to better choose the model.
APA, Harvard, Vancouver, ISO, and other styles
13

Silva, Mérik Rocha. "Modelos estatísticos empregados para descrição do crescimento de codornas de corte." Universidade Federal de Mato Grosso, 2015. http://ri.ufmt.br/handle/1/222.

Full text
Abstract:
Submitted by Jordan (jordanbiblio@gmail.com) on 2017-03-02T15:47:42Z No. of bitstreams: 1 DISS_2015_Merik Rocha Silva.pdf: 906319 bytes, checksum: cdabe1d5bf2be64c1bdf695157237bfe (MD5)
Approved for entry into archive by Jordan (jordanbiblio@gmail.com) on 2017-03-03T11:59:38Z (GMT) No. of bitstreams: 1 DISS_2015_Merik Rocha Silva.pdf: 906319 bytes, checksum: cdabe1d5bf2be64c1bdf695157237bfe (MD5)
Made available in DSpace on 2017-03-03T11:59:38Z (GMT). No. of bitstreams: 1 DISS_2015_Merik Rocha Silva.pdf: 906319 bytes, checksum: cdabe1d5bf2be64c1bdf695157237bfe (MD5) Previous issue date: 2015-03-20
Objetivou-se avaliar modelos de regressão não linear utilizando as funções de Brody, Gompertz, Logístico, Morgan-Mercer-Flodin (MMF), Richards e von Bertalanffy na análise e interpretação da curva de crescimento de codornas de corte. Foram utilizados 30.410 registros de peso corporal, mensurados aos 1, 7, 14, 21, 28, 35 e 42 dias de idade de codornas de corte machos e fêmeas, participantes do Programa de Melhoramento Genético da Universidade Federal dos Vales do Jequitinhonha e Mucuri (UFVJM). Os modelos foram utilizados sob o enfoque de modelos fixos e também sob enfoque de modelos mistos. Dentre as funções utilizadas a de Brody não convergiu satisfatoriamente. Considerando modelos fixos e com base nos Critérios de Informação de Aikake (AIC) e Bayesiano (BIC) foi identificado o modelo de Gompertz como mais ajustado. Ao considerar o peso corporal assintótico, denominado parâmetro “A”; como aleatório, os modelos Gompertz, Logístico, MMF e von Bertalanffy apresentaram redução nas estimativas de desvio-padrão residual e melhores estimativas para AIC e BIC. Ao considerar o parâmetro “K” como aleatório, somente Richards apresentou convergência; e nenhum dos modelos apresentou convergência tendo A e K, simultaneamente como aleatórios. Entre os modelos mistos, Richards apresentou os menores valores de AIC e BIC, porém com problemas na matriz Hessiana, que resultou na estimação de parâmetros inutilizáveis, provavelmente devido a multicolinearidade entre parâmetros. Assim, o uso de modelos não-lineares mistos provocou redução do viés de predição com a redução do desvio-padrão residual, sendo o modelo MMF o mais apropriado para a descrição da curva de crescimento das codornas de corte.
Non-linear regression models were evaluated with Brody, Gompertz, Logistic, MorganMercer-Flodin (MMF), Richards and von Bertalanffy functions in the analysis and interpretation of the growth curve for broiler quails. Further, 30,410 body weight registers were used at 1, 7, 14, 21, 28, 35 and 42 days old of male and female quails for the Genetic Improvement Program of the Universidade Federal dos Vales do Jequitinhonha e Mucuri (UFVJM). Models comprised fixed and mixed modalities. Brody function failed to converge efficiently, whereas the Gompertz model proved to be the most adjusted when fixed models based on Aikake (AIC) and Bayesian (BIC) Information Criteria were taken into consideration. When the asymptotic body weight, called parameter A, is randomized, the Gompertz, Logístico, MMF and von Bertalanffy models had a decrease in residual standard deviation estimates and an increase for AIC and BIC. In the case of randomized parameter K, only Richards function converged, whilst no model converged with A and K simultaneously randomized. Richards had the lowest AIC and BIC rates among the mixed models, featuring problems in the Hessian matrix resulting in the estimation of unusable parameters, perhaps due to the multi-co-linearity among the parameters. Mixed non-linear models reduced prediction bias when the residual standard deviation was reduced. The MMF model fitted best to describe the growth curve of broiler quails.
APA, Harvard, Vancouver, ISO, and other styles
14

Liarte, Danilo Barbosa. "Modelos estatísticos de campo médio para vidros de spins e fluidos complexos." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/43/43134/tde-29092011-144333/.

Full text
Abstract:
Estudamos nesta tese três sistemas desordenados distintos das áreas de vidros de spins e fluidos complexos, por meio de modelos estatísticos no contexto da aproximação de campo médio. Analisamos os efeitos da inclusão de graus de liberdade elásticos sobre o diagrama de fases do modelo de Sherrington-Kirkpatrick, que é a versão de campo médio de um modelo popular de vidros de spins, paradigmas de sistemas com desordem temperada. Analisamos em seguida alguns problemas típicos da física dos fluidos complexos. Investigamos o diagrama de fases de um modelo de Maier-Saupe (MS), que é uma espécie de arquétipo das transições nemáticas, numa versão de rede muito simples, denominada modelo de Maier-Saupe-Zwanzig (MSZ), com a introdução de uma variável binária de desordem para representar uma mistura de discos e cilindros. Mostramos que o aparecimento de uma fase nemática biaxial, termodinamicamente estável, que tem sido intensamente procurada na literatura, depende da forma de tratamento das variáveis de desordem. Finalmente, utilizamos o modelo MSZ, na presença de termos elásticos não lineares e de elementos de desordem, a fim de reproduzir diversas características do comportamento termodinâmico dos elastômeros nemáticos, novos materiais poliméricos, com propriedades dos cristais líquidos nemáticos e das borrachas, tema de grande interesse na física da matéria mole.
We study three distinct disordered systems in the areas of spin glasses and complex fluids, by means of mean-field statistical models. We first analyze the effects of compressibility on the phase diagram of the Sherrington-Kirkpatrick model, a mean-field version of a popular model of spin glasses, which are paradigmatic examples of systems with quenched disorder. We then analyze some typical problems in the area of physics of complex fluids. We investigate the phase diagram of a Maier-Saupe model (MS), which is a sort of archetype of nematic transitions, in a simple lattice version called Maier-Saupe-Zwanzig model (MSZ), with the introduction of a binary variable of disorder to mimic a mixture of rod-like and plate-like mesogens. We show that the emergence of a stable nematic biaxial phase, which has been intensely pursued in the literature, depends on the form of treatment of the disorder variables. Finally, we use the MSZ model, in the presence of non-linear elastic terms and elements of disorder, to reproduce several aspects of the thermodynamic behavior of nematic elastomers, new polymeric materials with the properties of liquid crystals and rubber, and of great importance in the area of soft-matter physics.
APA, Harvard, Vancouver, ISO, and other styles
15

Marcari, Marcos Antonio [UNESP]. "Modelos agrometeorológicos estatísticos de previsão de produtividade e qualidade para cana-de-açúcar." Universidade Estadual Paulista (UNESP), 2015. http://hdl.handle.net/11449/128085.

Full text
Abstract:
Made available in DSpace on 2015-10-06T13:03:12Z (GMT). No. of bitstreams: 0 Previous issue date: 2015-06-12. Added 1 bitstream(s) on 2015-10-06T13:18:49Z : No. of bitstreams: 1 000849756.pdf: 428290 bytes, checksum: 03fd146bf85d856682db4cdc9bfdba66 (MD5)
O clima é o fator importante que influencia a cana-de-açúcar e seu estudo é fundamental para entender as exigências climáticas da safra. A estimativa é feita com dados históricos e representa uma condição atual, já a previsão é a estimativa feita para o futuro, ou seja, com dados disponíveis atuais simular uma condição futura. O presente trabalho teve como objetivo o desenvolvimento de modelos agro-meteorológicos regionais para fazer a previsão da produtividade em toneladas de cana por hectare (TCH) e qualidade da matéria prima em relação á total de açúcar recuperável (ATR) da cana em uma escala mensal. Foram utilizados dados climatológicos mensais (temperatura do ar, precipitação, deficiência e excesso hidricos, evapotranspiração potencial e real do solo, armazenamento de água no solo, radiação solar global) do ano anterior, para prever TCH e ATR do próximo ano por meio de regressão linear múltipla. A combinação de dados climatológica mensal foi feito buscando um menor erro médio percentual absoluto possível com valor-p inferior a 0,05, e modelos com maior antecipação possível. Dados de 12 anos da região de Jaboticabal, de um grande produtor de cana no Estado de São Paulo, foram utilizados para análise, sendo o período de 2002-2009 utilizados para calibração e 2010-2013 para validação. Observou-se que todos os modelos calibrados foram significativos e precisos, pois os maiores valores de erro médio percentual absoluto (MAPE) foram de 4,06% na previsão do TCH (C) de julho. O modelo calibrado para novembro teve a presença de variável déficit hídrico em todos os ambientes, mostrando a importância dessa variável na cultura. Modelos mensais testadas neste trabalho apresentaram desempenhos significativos em sua previsão. Por exemplo, a previsão do TCHMAI no ambiente AB (MAPE = 1,89% e R adj = 0,90), considerando um valor médio de 90,6 t ha-1 na região, o modelo erra cerca de...
The climate is the important factor of influence for sugarcane and its study is fundamental for understanding the climatic requirements of the crop. The estimate is made with historical data and is a current condition, as the forecast is the estimate made for the future, ie, with current available data simulate a future state. The present work aimed developing regional agro-meteorological models to make the yield forecasting of tons of sugarcane per hectare (TCH) and quality in relation to total recoverable sugar (ATR) of sugarcane in a monthly scale. We used monthly climatological data (air temperature, Precipitation, Water Deficiency and Surplus, Potential and Actual evapotranspiration, Soil Water Storage, Solar Global irradiation) of the previously year to forecast TCH and ATR of the next year using multiple linear regression. The combination of monthly climatological data was made searching a small mean absolute percentage error possible with p-value less than 0.05, and models with greater possible anticipation. Data of 12 years of Jaboticabal, a major sugarcane producer in the State of São Paulo, were used for analysis, being the period from 2002 to 2009 used for calibration and from 2010 to 2013 for validation. We observed that all models calibrated were significant and accurate, because the higher values of mean absolute percentage error (MAPE) were of 4.06% in the forecasting of the TCH(C) of July. The model calibrated for November had the presence of water deficit variable in every environment, showing the importance of this variable in the crop. Monthly models tested in this work showed significant performances in their forecasting's. For example, the forecast of the TCHMAY in the AB environment (MAPE = 1.89% and R2 adj = 0.90) considering an average value of 90.6 t ha-1 in the region, the model misses about 1.7 t ha-1.In this case the anticipation for forecasting TCHMAY was eight months because the last climatological ...
APA, Harvard, Vancouver, ISO, and other styles
16

Lopes, Marina Travassos. "Modelos estatísticos para suporte a avaliação cirúrgica em crianças portadoras de cardiopatias congênitas." Universidade Federal da Paraíba, 2017. http://tede.biblioteca.ufpb.br:8080/handle/tede/9057.

Full text
Abstract:
Submitted by Viviane Lima da Cunha (viviane@biblioteca.ufpb.br) on 2017-07-06T13:03:15Z No. of bitstreams: 1 arquivototal.pdf: 2397887 bytes, checksum: 02b09da7c8ccdfb1dbbf31dd43c59ee8 (MD5)
Made available in DSpace on 2017-07-06T13:03:15Z (GMT). No. of bitstreams: 1 arquivototal.pdf: 2397887 bytes, checksum: 02b09da7c8ccdfb1dbbf31dd43c59ee8 (MD5) Previous issue date: 2017-02-23
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
Heart diseases are responsible for more deaths in the first year of life than any other congenital problem in Brazil, affecting 8 to 10 children per 1000 live births. There are several types of heart diseases, some heal with time others require surgery. Evaluating the characteristics of the surgeries, it is possible to obtain the probability of the occurrence of postoperative complications and the estimation of the length of stay in the ICU (Intensive Care Unit) that varies according to the typology of this occurrence and the patient health condition. In this sense, the use of statistical models can help to optimize the care of patients in unfavorable clinical conditions. The aim of this study is to develop a tool based on statistical models to assist decision making about the chronological order of the surgeries to be performed. The data from this study came from the charts of the children destined to the execution of the surgery of congenital heart disease in the reference center that composes the Pediatric Cardiology Network PE-PB in the State of Paraíba. A logistic regression model was used to estimate the probability of occurrence of postoperative complications and survival analysis techniques to detect differences between the influence of determining factors on the length of ICU stay after the surgery. All data were analyzed in statistical software R, version 3.2.0. A total of 130 children were included, which 86.15% being below 10 years of age and weighing between 5 and 25 kg. Of the 72 children who presented post-surgical complications, 22.3% presented shunt-type cardiopathy, and 10% had Patent Ductus Arteriosus, followed by 9.2% with Tetralogy of Fallot. The risk factors identified by logistic regression as more associated with the outcome "developing post-surgical complications" were: high risk score (OR = 12.9; p-value = 0.02), presence of acyanotic obstructive heart disease (OR = 12.5, p-value = 0.006), the aortic clamping time during surgery greater than 20 minutes (OR = 3.3; p-value = 0.01), the time of extubation during the surgery (OR = 1.1, p-value = 0.07), presence of pulmonary arterial hypertension (OR = 6.7, p-value = 0.09) and age less than 6 months (OR = 3, 6; p-value = 0.05). In the survival analysis, it was possible to verify that there are statistically significant differences in length of ICU stay between children less than 6 months and older children; Also among children who presented high surgical risk and those who did not present; And among children where there is presence or absence of pulmonary arterial hypertension, in which the presence of some of these characteristics implies a greater probability of permanence for a certain time in the ICU. Also through the survival analysis, it was possible to observe that besides the factors identified through the logistic regression, the occurrence of postoperative infection in children also entails a longer hospitalization time after the surgery. Both techniques analyzed together, were able to build estimates for a certain hospital stay in cases of occurrence or not of postoperative complications, bringing support to hospital planning decisions, resulting in the optimization of the rotation of the available beds, in addition to the suggestion of chronological order of the queue of the next surgeries of congenital cardiopathy to be performed.
As cardiopatias são responsáveis por mais mortes no primeiro ano de vida do que qualquer outro problema congênito no Brasil, acometendo de 8 a 10 crianças a cada 1000 nascidos vivos. Existem diversos tipos de cardiopatia, algumas curam com o tempo, outras requerem intervenções cirúrgicas. Avaliando as características das cirurgias, é possível obter a probabilidade da ocorrência de complicações pós-cirúrgicas, e a estimativa do tempo de internamento em UTI que varia de acordo com a tipologia dessa ocorrência e com o perfil clínico do paciente. Neste sentido, a utilização de modelos estatísticos, pode auxiliar a otimização do cuidado a pacientes em condições clínicas desfavoráveis, sendo a proposta deste estudo, desenvolver uma ferramenta baseada em modelos estatísticos para auxiliar à tomada de decisões acerca da ordem cronológica das cirurgias a serem executadas. Os dados desse estudo provieram dos prontuários das crianças destinadas à execução da cirurgia de cardiopatia congênita no centro de referência que compõe a Rede de Cardiologia Pediátrica PE-PB no Estado da Paraíba. O modelo de regressão logística foi utilizado para estimar a probabilidade de ocorrência de complicações pós-cirúrgicas e as técnicas de análise de sobrevivência, para detectar diferenças entre a influência de fatores determinantes sobre os tempos de internamento em Unidades de Terapia Intensiva após a realização das cirurgias. Todos os dados foram analisados no software estatístico R, versão 3.2.0. Foram incluídas 130 crianças, sendo 86,15% com idade inferior a 10 anos de idade e peso se concentrando entre 5 e 25 quilos. Das 72 crianças que apresentaram complicações pós-cirúrgicas, 22,3% apresentaram a cardiopatia do tipo shunt, e no tocante ao diagnóstico, observou-se que 10% eram portadores de Persistência do Canal Arterial, seguido de 9,2% portadores de Tetralogia de Fallot. Os fatores de risco identificados pela regressão logística como mais associados com o desfecho “desenvolver complicações pós-cirúrgicas” foram: apresentar escore de risco alto (OR=12,9; p-valor=0,02), a presença de cardiopatia acianótica obstrutiva (OR=12,5; p-valor=0,006), o tempo de clampeamento aórtico durante a cirurgia ser superior a 20 minutos (OR=3,3; p-valor=0,01), o tempo de extubação durante a realização da cirurgia (OR=1,1; p-valor=0,07), a presença de hipertensão arterial pulmonar (OR=6,7; p-valor=0,09) e idade inferior a 6 meses (OR=3,6; p-valor=0,05). Na análise de sobrevivência, foi possível constatar que existem diferenças estatisticamente significativas sobre o tempo de internamento em UTI entre as crianças com menos de 6 meses de idade e as crianças com idade superior; também entre as crianças que apresentaram alto risco cirúrgico e as que não apresentaram; e entre as crianças onde há presença ou ausência de hipertensão arterial pulmonar, em que a presença de alguma(s) dessas características implica em maiores probabilidades de permanência por um determinado tempo em UTI. Ainda através da análise de sobrevivência, foi possível observar que além dos fatores identificados através da regressão logística, a ocorrência de infecção pós-operatória nas crianças também acarreta maior tempo de internamento após a cirurgia. Ambas as técnicas analisadas conjuntamente, foram capazes de construir estimativas para um determinado tempo de internamento hospitalar em casos de ocorrência ou não de complicações pós-cirúrgicas, trazendo apoio às decisões do planejamento hospitalar, resultando na otimização da rotatividade dos leitos disponíveis, além da sugestão de ordenação cronológica da fila de espera das próximas cirurgias de cardiopatia congênita a serem executadas.
APA, Harvard, Vancouver, ISO, and other styles
17

Marcari, Marcos Antonio. "Modelos agrometeorológicos estatísticos de previsão de produtividade e qualidade para cana-de-açúcar /." Jaboticabal, 2015. http://hdl.handle.net/11449/128085.

Full text
Abstract:
Orientador: Glauco de Souza Rolim
Banca: Alexandre Barcellos Dalri
Banca: Maurício dos Santos Simões
Resumo: O clima é o fator importante que influencia a cana-de-açúcar e seu estudo é fundamental para entender as exigências climáticas da safra. A estimativa é feita com dados históricos e representa uma condição atual, já a previsão é a estimativa feita para o futuro, ou seja, com dados disponíveis atuais simular uma condição futura. O presente trabalho teve como objetivo o desenvolvimento de modelos agro-meteorológicos regionais para fazer a previsão da produtividade em toneladas de cana por hectare (TCH) e qualidade da matéria prima em relação á total de açúcar recuperável (ATR) da cana em uma escala mensal. Foram utilizados dados climatológicos mensais (temperatura do ar, precipitação, deficiência e excesso hidricos, evapotranspiração potencial e real do solo, armazenamento de água no solo, radiação solar global) do ano anterior, para prever TCH e ATR do próximo ano por meio de regressão linear múltipla. A combinação de dados climatológica mensal foi feito buscando um menor erro médio percentual absoluto possível com valor-p inferior a 0,05, e modelos com maior antecipação possível. Dados de 12 anos da região de Jaboticabal, de um grande produtor de cana no Estado de São Paulo, foram utilizados para análise, sendo o período de 2002-2009 utilizados para calibração e 2010-2013 para validação. Observou-se que todos os modelos calibrados foram significativos e precisos, pois os maiores valores de erro médio percentual absoluto (MAPE) foram de 4,06% na previsão do TCH (C) de julho. O modelo calibrado para novembro teve a presença de variável déficit hídrico em todos os ambientes, mostrando a importância dessa variável na cultura. Modelos mensais testadas neste trabalho apresentaram desempenhos significativos em sua previsão. Por exemplo, a previsão do TCHMAI no ambiente AB (MAPE = 1,89% e R adj = 0,90), considerando um valor médio de 90,6 t ha-1 na região, o modelo erra cerca de...
Abstract: The climate is the important factor of influence for sugarcane and its study is fundamental for understanding the climatic requirements of the crop. The estimate is made with historical data and is a current condition, as the forecast is the estimate made for the future, ie, with current available data simulate a future state. The present work aimed developing regional agro-meteorological models to make the yield forecasting of tons of sugarcane per hectare (TCH) and quality in relation to total recoverable sugar (ATR) of sugarcane in a monthly scale. We used monthly climatological data (air temperature, Precipitation, Water Deficiency and Surplus, Potential and Actual evapotranspiration, Soil Water Storage, Solar Global irradiation) of the previously year to forecast TCH and ATR of the next year using multiple linear regression. The combination of monthly climatological data was made searching a small mean absolute percentage error possible with p-value less than 0.05, and models with greater possible anticipation. Data of 12 years of Jaboticabal, a major sugarcane producer in the State of São Paulo, were used for analysis, being the period from 2002 to 2009 used for calibration and from 2010 to 2013 for validation. We observed that all models calibrated were significant and accurate, because the higher values of mean absolute percentage error (MAPE) were of 4.06% in the forecasting of the TCH(C) of July. The model calibrated for November had the presence of water deficit variable in every environment, showing the importance of this variable in the crop. Monthly models tested in this work showed significant performances in their forecasting's. For example, the forecast of the TCHMAY in the AB environment (MAPE = 1.89% and R2 adj = 0.90) considering an average value of 90.6 t ha-1 in the region, the model misses about 1.7 t ha-1.In this case the anticipation for forecasting TCHMAY was eight months because the last climatological ...
Mestre
APA, Harvard, Vancouver, ISO, and other styles
18

Cemin, Henrique Scher. "Determinação da exigência de lisina para frangos de corte utilizando diferentes modelos estatísticos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2016. http://hdl.handle.net/10183/140914.

Full text
Abstract:
O objetivo desta dissertação foi estimar a exigência de lisina (Lis) para frangos de corte machos Cobb x Cobb 500 de 1 a 12 dias de idade (experimento 1), 12 a 28 dias de idade (experimento 2) e 28 a 42 dias de idade (experimento 3). Dietas basais foram formuladas para atingir ou exceder as exigências nutricionais, com exceção da Lis. Cinco níveis de Lis foram suplementados às dietas basais a partir de L-Lis HCl ou sulfato de L-Lis de modo que os níveis variaram de 0,97% a 1,37% de Lis digestível no experimento 1, 0,77% a 1,17% de Lis digestível no experimento 2 e 0,68% a 1,08% de Lis digestível no experimento 3 em incrementos de 0,08%. Os tratamentos foram distribuídos em um delineamento inteiramente casualizado com 8 repetições de 25 aves. Em cada experimento, 2200 aves foram alojadas em 88 unidades experimentais. Nos dias 1 e 12 (experimento 1), 12 e 28 (experimento 2) e 28 e 42 (experimento 3) as aves e a ração foram pesadas para determinar o ganho de peso (GP) e conversão alimentar (CA). No experimento 3, quatro aves por unidade experimental foram abatidas para determinação do rendimento de carcaça e peito. A biodisponibilidade relativa (RBV) das fontes de Lis foi avaliada através de uma regressão multivariada e comparada pelo teste t. A exigência de Lis foi estimada por três modelos de regressão: polinomial quadrática, brokenline linear e broken-line quadrática. A exigência foi representada como 95% do ponto de máxima resposta. Não houve diferença entre a RBV da Lis no sulfato de L-Lis em relação ao L-Lis HCl, portanto ambas as fontes foram utilizadas para estimar as exigências. As exigências encontradas variaram de acordo com o modelo estatístico e a variável analisada. A regressão broken-line quadrática apresentou o melhor ajustamento aos dados de desempenho, enquanto a regressão broken-line linear se ajustou melhor aos dados de rendimento de carcaça e peito. As regressões polinomial quadrática, broken-line linear e broken-line quadrática estimaram, respectivamente, as exigências como 1,190, 1,032 e 1,101% para GP e 1,226, 1,038 e 1,124% para CA no experimento 1; 1,021, 0,900 e 0,961% para GP e 1,064, 0,966 e 1,043% para CA no experimento 2; 0,949, 0,833 e 0,925% para GP, 0,978, 0,851 e 0,960% para CA, 0,933, 0,842 e 0,931% para rendimento de carcaça e 0,952, 0,839 e 0,921% para rendimento de peito no experimento 3. Os resultados demonstraram que as exigências de Lis foram consideravelmente influenciadas pelas diferentes regressões. Portanto, a escolha do modelo estatístico é crítica para a obtenção de estimativas precisas e coerentes.
The objective of this thesis was to estimate lysine (Lys) requirement of male Cobb x Cobb 500 broilers from 1 to 12 days of age (experiment 1), 12 to 28 days of age (experiment 2), and 28 to 42 days of age (experiment 3). Basal diets were formulated to meet or exceed recommendations, except for Lys. Five graded levels of Lys were supplemented from L-Lys HCl or L-Lys sulfate to the basal diets. Dietary treatments ranged from 0.97% to 1.37% digestible Lys in experiment 1, 0.77% to 1.17% digestible Lys in experiment 2, and 0.68% to 1.08% digestible Lys in experiment 3 in 0.08% increments. Treatments were distributed in a completely randomized design with 8 repetitions of 25 birds each. A total of 2,200 birds per experiment were placed in 88 experimental units. At 1 and 12 days (experiment 1), 12 and 28 days (experiment 2), and 28 and 42 days (experiment 3), birds and feed were weighed to determine body weight gain (BWG) and feed conversion ratio (FCR). In experiment 3, four birds per experimental unit were processed for carcass and breast meat yield evaluation. Relative bioavailability (RBV) of Lys sources was assessed by a multivariate regression and compared by a t-test. Lysine requirement was estimated using three regression models: quadratic polynomial, linear broken-line, and quadratic broken-line. Requirements were represented as 95% of the asymptote. No difference was observed in Lys RBV in L-Lys sulfate compared to L-Lys HCl, thus both sources were used to estimate requirements. Requirement estimates varied according to statistic model and analyzed variable. Quadratic broken-line model presented the best fit to performance data (BWG and FCR), whereas linear broken-line model fitted better to carcass and breast meat yield data. Quadratic polynomial, linear broken-line, and quadratic brokenline estimates were, respectively, 1.190, 1.032, and 1.101% for BW gain and 1.226, 1.038, and 1.124% for FCR in experiment 1; 1.021, 0.900, and 0.961% for BW gain and as 1.064, 0.966, and 1.043% for FCR in experiment 2; and 0.949, 0.833, 0.925% for BW gain, 0.978, 0.851, and 0.960% for FCR, 0.933, 0.842, and 0.931% for carcass yield, and 0.952, 0.839, and 0.921% for breast meat yield in experiment 3. Results demonstrate that Lys requirements were considerably influenced by different regression models. Therefore, the choice of statistical model is crucial to obtain precise, coherent estimates.
APA, Harvard, Vancouver, ISO, and other styles
19

Melo, Alexandre Martins. "Adsorção sequencial unidimensional: Modelos para automontagem de moléculas." Universidade de São Paulo, 2005. http://www.teses.usp.br/teses/disponiveis/43/43134/tde-23072014-173859/.

Full text
Abstract:
Neste trabalho estudamos deposição de partículas em redes unidimensionais, com uma abordagem estatística a partir de modelos como absorção sequencial aleatória (RSA) e cooperativa (CSA). O objetivo é a simulação de formação de monocamadas oligoméricas automontadas em substratos, que se justifica devido aos recentes avanços, por um lado, na área experimental, na formação de SAMs (self-assembled monolayers) e produção de nanoestruturas e, por um lado, na área teórica, no desenvolvimento de diversos modelos estocásticos para processos de adsorção sequencial. Introduzimos o modelo clássico de adsorção sequencial aleatória, a nomenclatura utilizada, e estudamos algumas de suas características. Analisamos a fração da rede que permanece vazia após ser atingida a saturação, para oligômeros formados por um número K de unidades. Em seguida, estudamos a cinética de um processo RSA, primeiro para o caso de monômeros, depois para dímeros, e então para oligômeros maiores. A estrutura da camada para o caso de dímeros é examinada a partir da distribuição de tamanhos de grãos (número de K-meros adjacentes), e da função de correlação. Os dados obtidos nas nossas simulações de Monte Carlo são comparados com resultados de modelos estocásticos existentes na literatura. A partir desse ponto, estudamos variações do processo de RSA simples. Adicionamos outro oligômero ao fluxo, chegando à adsorção sequencial de misturas. Estudamos a maneira como a fração de cada um dos oligômeros no fluxo de moléculas influi tanto na dinâmica do preenchimento da camada, como na taxa de saturação da rede. Em seguida analisamos a influência do oligômero adicional na estrutura da monocamada automontada obtida. Como antes, sempre que possível os dados obtidos são comparados com resultados da literatura. Introduzimos processos de relaxamento, chegando a adsorção-difusão, adsorção-evaporação e adsorção-difusão-evaporação, em todos os casos compilando modelos estocásticos disponíveis na literatura e, onde possível, comparando as previsões desses modelos com resultados de nossas simulações numéricas. Assim como no caso RSA simples, ao estudar esses processos derivados de RSA, analisamos tanto a cinética dos processos (incluindo o estado final do sistema), quanto as estruturas formadas (através da função de correlação e do tamanho de domínios), destacando as mudanças causadas quando se introduz processos de relaxamento durante a formação de uma SAM. Por fim, estudamos processos cooperativos, em que o destino dos oligômeros sendo depositados depende da vizinhança em que se encontram. Como é usual em modelos estatísticos de deposição sequencial, as interações são representadas por mudanças nas taxas de ocorrência de algum dos eventos, neste caso a difusão. Apresentamos dados inéditos, relativos ao modelo cooperativo de adsorção-difusão que simulamos numericamente, com o objetivo de demonstrar a influência que uma interação atrativa entre oligômeros pode ter na estrutura da monocamada depositada sobre o substrato. O objetivo é mostrar como a estrutura de um SAM pode fornecer indícios sobre as interações existentes entre oligômeros.
In this work we study particle deposition in one-dimensional lattices, through a statistical approach, using models such as random sequential adsorption (RSA) and cooperative sequential adsorption (CSA). The goal is to simulate the formation of oligomeric self-assembled monolayers (SAMs) on substrates, which are relevant right now important firstly because of recent advances in the experimental area, with manufacturing of nanostructures using SAMs, and secondly because of progresses in the theoretical field, with development of stochastic models of sequential adsorption process. We introduce the classical model of random sequential adsorption, the associated nomenclature, and some of its characteristics. We analyze the portion of the lattice that remains empty after reaching saturation, for oligomers formed with K units. Subsequently we study the kinetics of a RSA process, initially for the case of monomers, then for dimmers, and lastly for larger species. The structure of the monolayer is analysed in terms of grain or domain size (probability distribution p(n) for n contiguous ologomers), and correlation function, for dimmers. Data obtained in our Monte Carlo simulations are compared with existing results in literature. From this point on, we study variations of the simple RSA process. We add another oligomer to the flux, obtained RSA of mixtures. We examine how the flux of each of the oligomers affects the filling of the monolayer: not only the final coverage saturation, but the kinetics of the process. We further analyze the influence of the additional oligomer in the structure of the monolayer obtained. Also here we compare our results with models from the literature. We add relaxation to the adsorption processes, achieving adsorption-diffusion (RSAD), adsorption-desorption, and adsorption-diffusion-desorption, always compiling stochastic models available in the literature, and comparing our results where analytical models are available. As done previously with RSA, when studying these more complex processes, we analyze the kinetics (including the final coverage) as much as th resulting structure (correlation function and domain size distribution), highlighting changes caused by these relaxation processes. In the final chapter we study cooperative process, in which the destiny of oligomers being adsorbed depends on their neighborhood. As usual in statistical models of sequential adsorption, the interactions are represented by changes of rates of some event (in this case, diffusion). We present new data, concerning the cooperative adsorption-diffusion model we simulated, aiming to demonstrate the influence an attractive interaction between oligomers may have in the structure of the monolayer formed on the substrate. The objective is illustrate how a SAM structure may give clues about the existence of interactions between oligomers.
APA, Harvard, Vancouver, ISO, and other styles
20

Miola, Rodrigo Fernando. "Uso de modelos estatísticos para dados de escore de crédito de uma instituição financeira /." Bauru, 2013. http://hdl.handle.net/11449/93072.

Full text
Abstract:
Orientador: Gladys Dorotea Cacsire Barriga
Banca: Manoel Henrique Salgado
Banca: Silvia Inês Dallavalle de Pádua
Resumo: Modelos estatísticos de risco têm sido amplamente utilizados nas últimas décadas pelos bancos e outras instituições financeiras devido à forte concorrência por clientes no mercado de crédito e tendo em vista a regulação bancária quanto a risco de crédito, determinado no Acordo de Basiléia II. O objetivo deste trabalho foi usar modelos estatísticos em dados de escore de crédito de uma instituição financeira com o intuito de analisar a ocorrência de inadimplência. Foram utilizadas duas metodologias estatísticas: análise discriminante e análise de sobrevivência com fração de cura. Com a análise discriminante obteve-se um modelo de escore de crédito em (24) para classificar os clientes em grupos (de adimplentes e inadimplentes), resultando que 72,4% dos clientes foram corretamente classificados pelo modelo de escore de crédito obtido, e novos clientes solicitantes de crédito foram classificados em um dos grupos a partir do modelo obtido. Além disso, os resultados apontam que taxas de juros mais elevados influenciam na classificação do cliente como inadimplente, enquanto que idades mais elevadas influenciam na classificação de clientes como adimplentes. A segunda metodologia, a análise de sobrevivência com fração de cura (clientes adimplentes) foi utilizadas para modelar os dados dos tempos de inadimplência, considerando-se que uma proporção substancial de clientes não apresentou inadimplência durante o período do empréstimo. Os resultados obtidos demonstraram que o sexo e a renda dos clientes influenciam na proporção de inadimplência dos empréstimos e no risco dos clientes tornarem-se inadimplente. Para aplicação das metodologias estatíticas foi utilizada uma amostra de dados reais selecionados da base de dados de empréstimos da modalidade de Crédito Direito ao Consumidor (CDC) de uma... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: Statistical risk models has been widely used in recent decades by banks and other financial institutions owing to high competition for customers in the credit market and in order to bank regulation regarding credit risk, in particular the Basel Accord II. The objective of this paper was to use statistical methods in data credit scoring financial institution in order to analyze the occurrence of default. In this work were used two statistical methods: discriminant analysis and survival analysis with cure fraction. With discriminant analysis obtained a credit score model in (24) to classify customers into groups (non-defaulting and defaulting), resulting that 72,4% of customers were correctly classified by the credit scoring model obtained, and new customers requesting credit were classified into one of the groups from the model obtained. Furthermore, the results indicate that higher interest rates influence the classification of the customers as nondefaulting customers) was used to model the data from the time of default, given that a substantial proportion of customers showed no default during the loan period. The result shows that gender and income influence the proportion of customers timely payment of loans and the risk of customers becoming default. In the application of statistical methods was used a sample of real data selected from the database of the type of Loans Consumer Credit (LCC) of financial institution with operations in Brazil. The models... (Complete abstract click electronic access below)
Mestre
APA, Harvard, Vancouver, ISO, and other styles
21

Miola, Rodrigo Fernando [UNESP]. "Uso de modelos estatísticos para dados de escore de crédito de uma instituição financeira." Universidade Estadual Paulista (UNESP), 2013. http://hdl.handle.net/11449/93072.

Full text
Abstract:
Made available in DSpace on 2014-06-11T19:26:18Z (GMT). No. of bitstreams: 0 Previous issue date: 2013-12-11Bitstream added on 2014-06-13T20:54:32Z : No. of bitstreams: 1 miola_rf_me_bauru.pdf: 1327738 bytes, checksum: bd4b7b1c818731f2931747583142a73e (MD5)
Modelos estatísticos de risco têm sido amplamente utilizados nas últimas décadas pelos bancos e outras instituições financeiras devido à forte concorrência por clientes no mercado de crédito e tendo em vista a regulação bancária quanto a risco de crédito, determinado no Acordo de Basiléia II. O objetivo deste trabalho foi usar modelos estatísticos em dados de escore de crédito de uma instituição financeira com o intuito de analisar a ocorrência de inadimplência. Foram utilizadas duas metodologias estatísticas: análise discriminante e análise de sobrevivência com fração de cura. Com a análise discriminante obteve-se um modelo de escore de crédito em (24) para classificar os clientes em grupos (de adimplentes e inadimplentes), resultando que 72,4% dos clientes foram corretamente classificados pelo modelo de escore de crédito obtido, e novos clientes solicitantes de crédito foram classificados em um dos grupos a partir do modelo obtido. Além disso, os resultados apontam que taxas de juros mais elevados influenciam na classificação do cliente como inadimplente, enquanto que idades mais elevadas influenciam na classificação de clientes como adimplentes. A segunda metodologia, a análise de sobrevivência com fração de cura (clientes adimplentes) foi utilizadas para modelar os dados dos tempos de inadimplência, considerando-se que uma proporção substancial de clientes não apresentou inadimplência durante o período do empréstimo. Os resultados obtidos demonstraram que o sexo e a renda dos clientes influenciam na proporção de inadimplência dos empréstimos e no risco dos clientes tornarem-se inadimplente. Para aplicação das metodologias estatíticas foi utilizada uma amostra de dados reais selecionados da base de dados de empréstimos da modalidade de Crédito Direito ao Consumidor (CDC) de uma...
Statistical risk models has been widely used in recent decades by banks and other financial institutions owing to high competition for customers in the credit market and in order to bank regulation regarding credit risk, in particular the Basel Accord II. The objective of this paper was to use statistical methods in data credit scoring financial institution in order to analyze the occurrence of default. In this work were used two statistical methods: discriminant analysis and survival analysis with cure fraction. With discriminant analysis obtained a credit score model in (24) to classify customers into groups (non-defaulting and defaulting), resulting that 72,4% of customers were correctly classified by the credit scoring model obtained, and new customers requesting credit were classified into one of the groups from the model obtained. Furthermore, the results indicate that higher interest rates influence the classification of the customers as nondefaulting customers) was used to model the data from the time of default, given that a substantial proportion of customers showed no default during the loan period. The result shows that gender and income influence the proportion of customers timely payment of loans and the risk of customers becoming default. In the application of statistical methods was used a sample of real data selected from the database of the type of Loans Consumer Credit (LCC) of financial institution with operations in Brazil. The models... (Complete abstract click electronic access below)
APA, Harvard, Vancouver, ISO, and other styles
22

Sauerwein, Ricardo Andreas. "Modelo discreto para cristais líquidos biaxiais." Universidade de São Paulo, 1990. http://www.teses.usp.br/teses/disponiveis/43/43133/tde-19062015-161203/.

Full text
Abstract:
A partir de considerações sobre interações entre pares de objetos dependentes apenas de suas orientações relativas, desenvolvemos um modelo discreto para cristais líquidos biaxiais. Representamos estes sistemas por um conjunto de partículas biaxiais localizadas nos sítios de uma rede cristalina e que se orientam somente ao longo dos três eixos cartesianos. O diagrama de fases, obtido na aproximação de campo médio, apresenta uma fase nemática biaxial, duas fases nemáticas uniaxiais, além da fase isotrópica. Estas fases se encontram em um ponto multicrítico em cuja vizinhança fazemos a expansão de Landau da Energia Livre. Finalmente analisamos a adição de um campo externo favorável ao ordenamento nemático uniaxial.
From considerations about the pair interaction of objects depending only on their relative orientations, we develop a discrete model for biaxial liquid crystals. These systems are represented by a set of biaxial particles localized on the sites of a crystal lattice and oriented only along the three Cartesian axes. The phase diagram, obtained in a mean field approximation, displays a biaxial nematic phase, two uniaxial nematic phases, beside the isotropic phase. These phases meet on a multicritical point about which we make the Landau expansion of the free energy. Finally, we analyse the case where an external field is applied to favour the uniaxial nematic ordering.
APA, Harvard, Vancouver, ISO, and other styles
23

Martins, Roberto Luvisutto 1986. "Estabelecimento de unidades para o monitoramento da água no solo em vitivinicultura /." Botucatu, 2018. http://hdl.handle.net/11449/154094.

Full text
Abstract:
Orientador: Luis Henrique Bassoi
Banca: Leandro Maria Gimenez
Banca: João Carlos Cury Saad
Resumo: O trabalho teve como objetivo delimitar unidades de monitoramento da umidade do solo por meio da aplicação da análise geoestatística e multivariada em dados de textura do solo de um pomar de videira de vinho cv. Chardonnay / Paulsen 1103, de 1,1 ha, localizado em Espirito Santo do Pinhal, São Paulo. Em 54 pontos georreferenciados, foram coletadas 108 amostras de solo, nas camadas de 0-0,20 e 0,20-0,40 m, para determinação da textura do solo (areia, silte e argila) e estimativa do conteúdo de água disponível (AD) e água prontamente disponível (APD). Os dados de textura do solo, AD e APD foram submetidos à análise estatística descritiva e ao teste de Kolmogorov-Smirnov. Posteriormente, os dados de textura do solo foram submetidos à análise geoestatística e interpolação por krigagem ordinária, para determinação das unidades de monitoramento da umidade do solo por meio das análises de componentes principais e de agrupamento fuzzy c-means. O melhor número de unidades de foi determinado a partir de dois índices, sendo quatro o resultado obtido, para ambas as camadas, as quais apresentaram diferença significativa tanto para as três frações granulométricas do solo quanto para AD e APD. Unidades de monitoramento com os valores maiores de argila e menores de silte contribuíram para os menores valores de AD e APD. A utilização restrita dos dados de textura do solo permite o delineamento de unidades de monitoramento da umidade do solo com elevada representatividade do conteúdo de água di... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: The objective of this study was to delimit soil water monitoring zones through the application of geostatistical and multivariate analysis in soil texture data of a 1.1 ha wine vine orchard cv. Chardonnay / Paulsen 1103, located at Espirito Santo do Pinhal, State of São Paulo, Brazil. In 54 georeferenced points, 108 soil samples were collected in the 0-0.20 m and 0.20-0.40 m layers to determine the percentage of soil granulometric fractions (sand, silt and clay), available soil water content (AW) and readily available soil water content (RAW). Soil fractions, AW and RAW data were submitted to descriptive statistics and Kolmogorov- Smirnov test. Soil granulometric fraction data were submitted to geostatistical analysis to characterize the data spatial distribution and their interpolation. Then, principal component and fuzzy c-means cluster analyses were applied for the determination of the best number of soil water monitoring zones based on two indexes. Four zones for both soil layers were determined, and they showed significant difference for both soil granulometric fractions as for AW and RAW. Zones with the highest values of clay fraction and smallest values for silt fraction gave the lowest values of AW and RAW. The use of soil texture data allows the design of soil water monitoring units with high representativeness of the available soil water content
Mestre
APA, Harvard, Vancouver, ISO, and other styles
24

Shimakura, Silvia Emiko. "Modelos de regressão Weibull e Sarkar para testes acelerados em problemas de riscos competitivos." [s.n.], 1994. http://repositorio.unicamp.br/jspui/handle/REPOSIP/306838.

Full text
Abstract:
Orientador: Cicilia Yuko Wada
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação
Made available in DSpace on 2018-07-19T14:13:46Z (GMT). No. of bitstreams: 1 Shimakura_SilviaEmiko_M.pdf: 3879713 bytes, checksum: d562d4dd4e7b0ddb475fce69a864db69 (MD5) Previous issue date: 1994
Resumo: Não informado
Abstract: Not informed
Mestrado
Mestre em Estatística
APA, Harvard, Vancouver, ISO, and other styles
25

Secolin, Rodrigo. "Aplicação de modelos estatísticos e desenvolvimento de algoritmos para estudo genético de doenças neuro-psiquiátricas." [s.n.], 2011. http://repositorio.unicamp.br/jspui/handle/REPOSIP/309732.

Full text
Abstract:
Orientador: Iscia Teresinha Lopes Cendes
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Ciências Médicas
Made available in DSpace on 2018-08-17T11:06:08Z (GMT). No. of bitstreams: 1 Secolin_Rodrigo_D.pdf: 5866562 bytes, checksum: 5079bfd5d88341ce619480ba6e19fb16 (MD5) Previous issue date: 2011
Resumo: Fatores genéticos têm sido descritos para diversas doenças do sistema nervoso central. Uma etapa importante na identificação de genes responsáveis por estas doenças são os estudos de mapeamento genético. Além disso, devido às novas tecnologias de aquisição de dados de genótipos dos indivíduos, é necessário o estudo e desenvolvimento de programas de processamento de grande quantidade de dados para as análises estatísticas. Os objetivos deste trabalho foram: 1) criar uma interface entre os equipamentos de aquisição de dados de genótipos e os programas estatísticos, por meio de programas de processamento de dados; 2) aplicar e avaliar os modelos estatísticos em amostras de famílias segregando três doenças neuro-psiquiátricas: epilepsia do lobo temporal mesial (ELTM), polimicrogiria perisylviana bilateral congênita (PPBC) e transtorno afetivo bipolar (TAB). A interface foi desenvolvida a partir de um algoritmo lógico, o qual adiciona a matriz dos dados dos genótipos provenientes dos equipamentos em uma matriz representativa dos dados das famílias. Este algoritmo, denominado JINGLEFIX, foi programado em linguagem de computador PERL e ambiente R e utilizado posteriormente nos estudos de mapeamento genético da ELTM, PPBC e TAB. Análise de segregação foi realizada em 148 famílias nucleares com ELTM, com um total de 698 indivíduos, visto que esta síndrome não possui padrão de herança conhecido. Uma família, segregando PPBC com um total de 15 indivíduos e um padrão conhecido de herança ligada ao X dominante, foi submetida à análise paramétrica de ligação por meio do pacote de programas LINKAGE, utilizando 18 marcadores microssátelites na região candidata Xq27-Xq28. Análise não paramétrica de ligação realizada em uma amostra de 74 famílias segregando TAB, totalizando 411 indivíduos, por meio do teste de transmissão de desequilíbrio de ligação (TDT), utilizando 21 single nucleotide polymosphisms (SNPs) para 21 regiões candidatas. A análise de segregação revelou a presença de um gene de maior efeito com um padrão autossômico dominante, além da presença de genes de menor efeito influenciando no fenótipo da ELTM. O posterior mapeamento genômico da ELTM, utilizando os parâmetros definidos na análise de segregação, revelou ligação genética na região 18p11. A análise paramétrica de ligação genética levou ao mapeamento da região Xq27 para a família com PPBC, diferente da região candidata previamente descrita. Esta diferença pode ser explicada pelo tipo de amostra familiar utilizada pelos dois estudos. Em relação ao TAB, a análise não paramétrica identificou a região candidata 3p22. Posterior estudo de refinamento da região 3p21-3p22 utilizando 94 SNPs adicionais e estudo de expressão gênica identificou o gene ITGA9 como possível gene de susceptibilidade para o TAB. Comparando o poder estatístico entre as análises, foi observado maior poder estatístico na análise paramétrica utilizando uma ou poucas famílias, com um número grande de indivíduos por família; enquanto que o poder estatístico foi maior nas análises não paramétricas utilizando múltiplas famílias de tamanhos moderados e estruturas variadas. Conclui-se que o algoritmo de processamento de dados e a adequada aplicação dos modelos estatísticos são fundamentais para sucesso do mapeamento genético das regiões e dos genes responsáveis pelas doenças neuro-psiquiátricas estudadas
Abstract: Genetic factors have been described for several central nervous system diseases. A main step for disease gene identification is genetic mapping study. In addition, due new genotype acquire technology, the development of genotype processing data software is required. The objectives of this work were: 1) to generate interface between genotype equipment and statistical software by processing data algorithm; 2) to apply and evaluate statistical models in family sample segregating three neurological diseases: mesial temporal lobe epilepsy (MTLE), bilateral perysilvian polymicrogyria (BPP) and bipolar affective disorder (BPAD). Data interface was developed from a logic algorithm, which adds a genotype matrix data from equipment to a family data matrix. This algorithm, called JINGLEFIX, was implemented in PERL computer language and R environment. In addition, this software was used in genetic mapping study for MTLE, BPP and BPAD. Segregation analysis was performed in 148 nuclear MTLE pedigrees, with a total of 698 individuals, since this syndrome has not known inheritance pattern. One BPP pedigree with known X-linked dominant pattern of inheritance, with a total of 15 individuals, was submitted to parametric linkage analysis by LINKAGE package, using 18 microsatellite markers on candidate region Xq27-Xq28. Non-parametric linkage analysis was performed from 74 BPAD families, with a total of 411 individuals, by transmission disequilibrium test (TDT) and using 21 single nucleotide polymorphisms (SNPs) for 21 candidate regions. Segregation analysis revealed a major effect gene with an autosomal dominant pattern of inheritance and minor gene effect, which could influence MTLE phenotype. Further whole genome analysis mapped the putative MTLE major gene on 18p11. Parametric linkage analysis mapped Xq27 locus for BPP, a different region compared to the Xq28 previous described. This difference could be explained to sample type used by the two studies. Non-parametric linkage for BPAD identified the candidate region on 3p22. Further studies using 94 additional SNPs on 3p21-3p22 and gene expression analysis identified ITGA9 as susceptibility gene for BPAD. A comparison of statistical power between statistical analyses showed a high statistical power for parametric linkage analysis from one or a few large families; whereas a high statistical power was observed for non-parametric linkage analysis using several moderate size families. The conclusion of this study is that data processing algorithm and adequate statistical model applying are fundamental tools for successful of genetic mapping of complex diseases
Doutorado
Neurociencias
Doutor em Ciências
APA, Harvard, Vancouver, ISO, and other styles
26

Menarin, Vinicius. "Modelos estatísticos para dados politômicos nominais em estudos longitudinais com uma aplicação à área agronômica." Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/11/11134/tde-19042016-091641/.

Full text
Abstract:
Estudos em que a resposta de interesse é uma variável categorizada são bastante comuns nas mais diversas áreas da Ciência. Em muitas situações essa resposta é composta por mais de duas categorias não ordenadas, denominada então de uma variável politômica nominal, e em geral o objetivo do estudo é associar a probabilidade de ocorrência de cada categoria aos efeitos de variáveis explicativas. Ademais, existem tipos especiais de estudos em que os dados são coletados diversas vezes para uma mesma unidade amostral ao longo do tempo, os estudos longitudinais. Estudos assim requerem o uso de modelos estatísticos que considerem em sua formulação algum tipo de estrutura que suporte a dependência que tende a surgir entre observações feitas em uma mesma unidade amostral. Neste trabalho são abordadas duas extensões do modelo de logitos generalizados, usualmente empregado quando a resposta é politômica nominal com observações independentes entre si. A primeira consiste de uma modificação das equações de estimação generalizadas para dados nominais que se utiliza de razões de chances locais para descrever a dependência entre as observações da variável resposta politômica ao longo dos diversos tempos observados. Este tipo de modelo é denominado de modelo marginal. A segunda proposta abordada consiste no modelo de logitos generalizados com a inclusão de efeitos aleatórios no preditor linear, que também leva em conta uma dependência entre as observações. Esta abordagem caracteriza o modelo de logitos generalizados misto. Há diferenças importantes inerentes às interpretações dos modelos marginais e mistos, que são discutidas e que devem ser levadas em consideração na escolha da abordagem adequada. Ambas as propostas são aplicadas em um conjunto de dados proveniente de um experimento da área agronômica realizado em campo, conduzido sob um delineamento casualizado em blocos com esquema fatorial para os tratamentos. O experimento foi acompanhado ao longo de seis estações do ano, caracterizando assim uma estrutura longitudinal, sendo a variável resposta o tipo de vegetação observado no campo (touceiras, plantas invasoras ou espaços vazios). Os resultados encontrados são satisfatórios, embora a dependência presente nos dados não seja tão caracterizada; por meio de testes como da razão de verossimilhanças e de Wald diversas diferenças significativas entre os tratamentos foram encontradas. Ainda, devido às diferenças metodológicas das duas abordagens, o modelo marginal baseado nas equações de estimação generalizadas mostra-se mais adequado para esses dados.
Studies where the response is a categorical variable are quite common in many fields of Sciences. In many situations this response is composed by more than two unordered categories characterizing a nominal polytomous outcome and, in general, the aim of the study is to associate the probability of occurrence of each category to the effects of variables. Furthermore, there are special types of study where many measurements are taken over the time for the same sampling unit, called longitudinal studies. Such studies require special statistical models that consider some kind of structure that support the dependence that tends to arise from the repeated measurements for the same sampling unit. This work focuses on two extensions of the baseline-category logit model usually employed in cases when there is a nominal polytomous response with independent observations. The first one consists in a modification of the well-known generalized estimating equations for longitudinal data based on local odds ratios to describe the dependence between the levels of the response over the repeated measurements. This type of model is also known as a marginal model. The second approach adds random effects to the linear predictor of the baseline-category logit model, which also considers a dependence between the observations. This characterizes a baseline-category mixed model. There are substantial differences inherent to interpretations when marginal and mixed models are compared, what should be considered in the choice of the most appropriated approach for each situation. Both methodologies are applied to the data of an agronomic experiment installed under a complete randomized block design with a factorial arrangement for the treatments. It was carried out over six seasons, characterizing the longitudinal structure, and the response is the type of vegetation observed in field (tussocks, weeds or regions with bare ground). The results are satisfactory, even if the dependence found in data is not so strong, and likelihood-ratio and Wald tests point to several differences between treatments. Moreover, due to methodological differences between the two approaches, the marginal model based on generalized estimating equations seems to be more appropriate for this data.
APA, Harvard, Vancouver, ISO, and other styles
27

Barraz, Junior Ney Marçal. "Estudo das anomalias estruturais, termodinâmicas e dinâmicas para modelos contínuos aplicados para água." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2011. http://hdl.handle.net/10183/30999.

Full text
Abstract:
Nesta tese, estudou-se anomalias existentes na agua. A classificação das anomalias são termodinâmica, dinâmica e estrutural. Para realizar uma análise das anomalias, utilizou-se simulações em dinâmica molecular com ensemble NVT e termostato de Nose-Hoover. O sistema foi caracterizado por 500 partículas idênticas, simétricas e homogêneas, todas elas colocadas em uma caixa cúbica com condições de contornos periódicos. A interação entre todas as partículas _e governada por um potencial contínuo efetivo. Em 1993, obteve-se experimentalmente uma função de distribuição radial entre oxigênio-oxigênio, e através desse dado (mais algumas aproximações) foi possível determinar um potencial contínuo efetivo contendo duas escalas. Esse potencial inspirou o entendimento sobre a essência básica das anomalias existentes na _agua, e com ele construiu-se três modelos. Modelo I: foi construída uma família de potenciais com modificações na profundidade da primeira escala. Em um diagrama de fases pressão-temperatura, verificou-se à medida que a profundidade da primeira escala aumenta as três anomalias presentes no diagrama encolhem e desaparecem. Modelo II: foram construídas três famílias de potenciais com modificações na profundidade da primeira escala, na distância física e energética entre as duas escalas, mantendo fixo a inclinação do potencial. Em um diagrama de fases pressãotemperatura, verificou-se que ao diminuir a distância física e energética das duas escalas as anomalias presentes neste potencial encolhem e desaparecem. Também verificou-se que as partículas localizadas nas duas primeiras escalas e entre elas são as partículas geradoras das anomalias. Modelo III: foram construídas três famílias de potenciais mantendo fixo a escala energética da primeira escala do potencial e variou-se a distância física entre as duas escalas, dessa forma a inclinação do potencial foi alterada. Ao analisar o diagrama de fases pressão-temperatura, observou-se que as anomalias crescem e aparecem no diagrama quando as duas escalas físicas se aproximam, diferentemente dos outros dois modelos. Foi utilizado um novo método que permite realizar uma análise prévia no potencial afim de localizar a região dos pontos críticos. Porém, este trabalho gerou duas publicações, um artigos submetidos e um artigo em redação final a submeter.
In this work, we have studied the presence of anomalies in water. The anomalies are classi cation as thermodynamic, dynamic and structural. To realize an analysis of anomalies, were used molecular dynamics simulations in NVT ensemble and with Nose-Hoover thermostat. The system had been characterized by 500 identical particles, symmetric and homogeneous, all placed in a cubic box with periodic boundary conditions. The interaction between particles is governed by a continuous e ective potential. In 1993, a radial distribution function between oxygen-oxygen had been obtained experimentally (plus some approximations) and considering that was possible to determine a continuous e ective potential containing two scales. This potential has inspired us to understand the basic essence of the anomalies present in water, and within this three models were created, see below models: Model I: a family of potential changes in the depth of the rst scale was built. In a phase diagram of pressure-temperature, we see as the depth increases the scale of the rst three anomalies in this diagram shrink and disappear. Model II: three families of potential changes in the depth of the rst scale were built, the energetic and physical distance between the two scales, keeping slope of the potential xed. In a phase diagram of pressure-temperature, we found that decreasing the physical and energy distances de ciencies present in this potential shrink and disappear. We found that the particles located in two scales and between them are the particles generating the anomalies. Model III: three families of potential keeping xed the energy scale of the rst scale and vary the physical distance between the two scales were built, thus slope of the potential was changed. Again looking at a phase diagram of pressure-temperature, the anomalies appear and grow in the phase diagram when the two physical scales approach, unlike the other two models. We used a new method that allows to perform a preliminary analysis on the potential in order to locate the region of critical points. Finally, this work has produced a publication, two papers submitted and a nal draft to be submitted.
APA, Harvard, Vancouver, ISO, and other styles
28

Martinazzo, Claodomir Antonio. "Modelos de estimativa de radiação solar para elaboração de mapas solarimétricos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2004. http://hdl.handle.net/10183/3915.

Full text
Abstract:
O objetivo fundamental desta dissertação foi desenvolver modelos de estimativa da radiação solar no intuito de complementar a base de dados visando o traçado de mapas de radiação solar para o Rio Grande do Sul. Inicialmente foi realizada uma pesquisa na literatura sobre as metodologias desenvolvidas para a estimativa da radiação solar para locais onde inexistem dados medidos desta variável. Foi feito um levantamento das técnicas estatísticas utilizadas na previsão de valores de variáveis. As metodologias pesquisadas foram aplicadas ao banco de dados SAMSON (Solar and Meteorological Surface Observational Network). Entre as variáveis deste banco de dados estão a radiação solar, a umidade relativa, a temperatura, a latitude, a altitude e a nebulosidade. A metodologia dos modelos de estimativa aplicada neste trabalho baseia-se no Método dos Mínimos Quadrados. Foram realizadas correlações mensais e anuais entre as variáveis acima citadas e seus resultados validados através de validação cruzada. Resultou apropriada, na disponibilidade de dados climatológicos, a aplicação de modelos com parâmetros mensais de regressão linear múltipla envolvendo as variáveis explicativas: insolação, temperatura média e umidade relativa. Este modelo, entre outros, foi aplicado aos dados do Rio Grande do Sul. A metodologia acima descrita aplicada aos dados medidos no Rio Grande do Sul, resultou eficaz. Foram pesquisadas técnicas de interpolação para traçado de mapas e estabelecidas regras para o traçado dos mesmos. Foram utilizados dados periféricos para a Argentina, Uruguai e Santa Catarina. Foram feitos mapas mensais de médias mensais de radiação solar global horizontal diária bem como um mapa da média anual de radiação solar global horizontal diária. Observou-se que o modelo de Ångström–Prescott apresenta bons resultados quando se dispõe apenas da insolação Os mapas serão úteis para a pesquisa e implementação de sistemas empregando Energia Solar no Estado do Rio Grande do Sul. Finalmente, a principal conclusão é a de que modelos de correlações obtidos com dados de cada mês e produzindo parâmetros mensais são mais adequados do que um único modelo de correlação com parâmetros de validade anual utilizado nas estimativas mensais.
APA, Harvard, Vancouver, ISO, and other styles
29

Oliveira, Evelyn Aparecida de. "Modelos computacionais para análise da influência de parâmetros estatísticos de textura superficial no contato dentário humano." Universidade Federal de Juiz de Fora (UFJF), 2016. https://repositorio.ufjf.br/jspui/handle/ufjf/3297.

Full text
Abstract:
Submitted by isabela.moljf@hotmail.com (isabela.moljf@hotmail.com) on 2017-02-13T14:23:53Z No. of bitstreams: 1 evelynaparecidadeoliveira.pdf: 4026204 bytes, checksum: c1b720f3501ffcd12b38f9d4c877dfa9 (MD5)
Approved for entry into archive by Adriana Oliveira (adriana.oliveira@ufjf.edu.br) on 2017-02-13T16:49:50Z (GMT) No. of bitstreams: 1 evelynaparecidadeoliveira.pdf: 4026204 bytes, checksum: c1b720f3501ffcd12b38f9d4c877dfa9 (MD5)
Made available in DSpace on 2017-02-13T16:49:50Z (GMT). No. of bitstreams: 1 evelynaparecidadeoliveira.pdf: 4026204 bytes, checksum: c1b720f3501ffcd12b38f9d4c877dfa9 (MD5) Previous issue date: 2016-04-01
O desgaste do dente, que se manifesta com uma grande variedade de graus ou níveis, é uma das anomalias dentárias comumente encontradas em diversas populações. A modelagem computacional do problema de contato oclusal pode ajudar na compreensão das interações entre os dentes, que gera concentrações de tensões. A abordagem utilizada para simular o contato entre as superfícies ásperas, dadas as funções de densidade de probabilidade das alturas das asperezas, consiste em discretizá-las em vários intervalos, de modo que cada um deles represente uma aspereza principal. As deformações das asperezas principais são analisadas e, utilizando técnicas de homogeneização, é possível estabelecer a relação entre as respostas que ocorrem em microescala e as respostas esperadas na macroescala. Neste trabalho, foi criada uma rotina para geração numérica de superfícies, um script acoplado ao programa de elementos finitos, Abaqus, para análise dos microcontatos, e, finalmente, um código para o procedimento de homogeneização e análise paramétrica das medidas de rugosidade. Na estimativa da dureza superficial, verificou-se que a curvatura média das asperezas exerce maior influência. Os parâmetros que mais influenciam nas forças e áreas de contato são o coeficiente de achatamento (kurtosis), cujo aumento leva ao decaimento dessas grandezas, seguido da rugosidade média quadrática, que, por sua vez, tem uma relação diretamente proporcional com a carga e consequentemente com a área de contato.
Tooth wear, which manifests with a great variety of degrees or levels, is one of the dental abnormalities commonly found in different populations. The computational modelling of the occlusal contact problem can help the comprehension of any interaction between teeth generating stress concentration. The approach used in this work to simulate contact between rough surfaces, given the probability density functions of asperities, consists in discretizing them in several intervals, so that each one represents a main asperity. The deformations of the main asperities are analyzed and, using homogenization techniques, it is possible to developed the relationship among the responses occurred in micro-scale and the predicted responses in macro-scale. In this work a routine has been established for numerical generation of surfaces, a script as well as has been coupled to the finite element program Abaqus, for analysis of the micro-contacts, and, finally, a code for homogenization and parametric analysis of the roughness measure. In the estimate of the surface hardness it was found that the mean curvature of the asperities exerts the largest influence. The parameters that influence the forces and contact areas are the flattening coefficient (kurtosis), which when increases leads to decay of these greatness, followed by the mean square roughness, which, in turn, has a direct proportional relationship with the strength and consequently with the contact area.
APA, Harvard, Vancouver, ISO, and other styles
30

Costa, Denise Reis 1985. "Estimação robusta em modelos de variáveis latentes para dados censurados." [s.n.], 2013. http://repositorio.unicamp.br/jspui/handle/REPOSIP/306683.

Full text
Abstract:
Orientador: Víctor Hugo Lachos Dávila
Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Matemática, Estatística e Computação Científica
Made available in DSpace on 2018-08-24T00:22:53Z (GMT). No. of bitstreams: 1 Costa_DeniseReis_D.pdf: 5095534 bytes, checksum: 5bb05e15edf36db32e78eff601b757db (MD5) Previous issue date: 2013
Resumo: Modelos de variáveis latentes são amplamente utilizados por psicometristas, econometristas e pesquisadores da área de ciencias sociais para modelar variáveis que não podem ser medidas diretamente, conhecidas como construtos ou efeitos aleatórios (Skrondal e Rabe-Hesketh, 2004). Na literatura, é muito comum verificar a utilização da distribuição normal para a modelagem dessas variáveis, contudo tal suposição pode ser inadequada, especialmente na presença de valores discrepantes. Preocupados com a sensibilidade das inferências sob a presença de potenciais pontos discrepantes ou com dados provenientes de distribuições com caudas pesadas, nesta tese propomos métodos de inferência robusta, utilizando a distribuição t de Student multivariada, para dois tipos de modelos de variáveis latentes: o modelo linear generalizado misto para respostas binárias (GLMM) e o modelo de análise fatorial Tobit (TCFA) para respostas contínuas e censuradas. Para a estimação dos parâmetros dos modelos estudados, um algoritmo do tipo EM foi proposto e este apresenta expressões fechadas no passo E que utiliza os dois primeiros momentos de uma distribuição multivariada t truncada. Adicionalmente apresentamos uma abordagem via análise Bayesiana e propomos medidas de diagnóstico de influência para dados censurados sob o modelo TCFA quando a suposição de normalidade é assumida. Para avaliação dos métodos propostos, foram realizados alguns estudos simulados, além da aplicação a conjuntos de dados reais.
Abstract: Latent variable models are broadly used by psychometrists, econometrists and social science researchers to model variables that cannnot be directly measured, known as constructs or random effects (Skrondal and Rabe-Hesketh, 2004). In the literature, such variables are commonly modeled with a normal distribution, but such assumption may be inadequate, especially when there are outliers. Concerned with the sensitivity of the inferences under the presence of potential outliers or data derived from heavy-tailed distributions, this thesis proposes robust inference models, using the mutivariate t-Student distribution, for two types of latent variable models: the Generalized Linear Mixed Model for correlated binary data (GLMM) and the Tobit Confirmatory Factor Analysis (TCFA) for continuous and censored data. In order to estimate the parameters of the studied models, an EM-type algorithm was proposed. This algorithm presents closed expressions on the E-step which use the two first moments of a multivariate truncated t-distribution. Moreover, we present a Bayesian approach and propose measures of influence diagnostics for censored data under the TCFA model when normality is assumed. In order to evaluate the proposed methods, simulated studies were carried out, as well as the application on real datasets.
Doutorado
Estatistica
Doutor em Estatística
APA, Harvard, Vancouver, ISO, and other styles
31

Werner, Liane. "Um modelo composto para realizar previsão de demanda através da integração da combinação de previsões e do ajuste baseado na opinião." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2005. http://hdl.handle.net/10183/4189.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Nunes, Alfredo Rossetto. "Analise de dados geologicos, geofisicos e de sensoriamento remoto para geração de modelos prospectivos para a região de Serra Leste, Carajas (PA)." [s.n.], 2002. http://repositorio.unicamp.br/jspui/handle/REPOSIP/287225.

Full text
Abstract:
Orientadores : Carlos Roberto de Souza Filho, Adalene Moreira Silva
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Geociencias
Made available in DSpace on 2018-08-02T18:30:19Z (GMT). No. of bitstreams: 1 Nunes_AlfredoRossetto_M.pdf: 13485970 bytes, checksum: 6e12954b7e2eca08d4334a83b91257ca (MD5) Previous issue date: 2002
Resumo: A região de Serra Leste, Carajás (P A), compreende diversos contextos geológicos aos quais uma grande variedade de depósitos e ocorrências minerais encontram-se relacionados. Dado o grande potencial prospectivo da região, a Companhia Vale do Rio Doce levantou um considerável acervo de dados sobre a região de Serra Leste, incluindo aqueles derivados de campanhas de mapeamento geológico, levantamentos geofisicos aéreos de alta resolução e imageamento por sensores remotos passivo (multiespectral) e ativo (RADAR). o objetivo deste trabalho foi o de agregar subsídios para o estabelecimento de um modelo prospectivo regional para mineralizações de platinóides, a partir do processamento digital, integração e análise dos dados geológicos, geofisicos e de sensoriamento remoto. Para tal, foram utilizados o mapa geológico do bloco Serra Leste, os dados de levantamentos geofisicos aéreos (magnetometria, gamaespectrometria e eletromagnético no domínio do tempo), imagens do Enhanced Thematic Mapper Plus (Landsat 7), incluindo a banda pancromática com 15 metros de resolução espacial, e do RADARSA T no modo Fine, com resolução espacial de 8 metros. A análise do dados geológicos e geofisicos indicou uma boa correspondência das áreas de afloramento dos complexos máficos e ultramáficos com os valores baixos do canal do tório na gamaespectrometria. As unidades ultramáficas, principais hospedeiras da mineralização de EGP, são muito bem representadas pelo sinal analítico do campo magnético anômalo e pelas anomalias de condutância aparente do sistema GEOTEM. As imagens do ETM Plus (Landsat 7) processadas a partir da técnica Feature Oriented Principal Component Selection (FPCS) adaptada, possibilitou o realce das áreas ricas em minerais dos grupos das hidroxilas e em óxido de ferro, gerados a partir do intemperismo de rochas ultramáficas. A análise espacial integrada dos produtos do processamento digital dados, usando como modelo o depósito de EGP do Luanga, permitiu a elaboração de um modelo prospectivo, que sugere áreas favoráveis para a prospecção de EGP na região de Serra Leste
Abstract: The Serra Leste region, located in the northeast portion of the Carajás Mineral Province (State ofPará, Brazil), hosts several mineral deposits and mineralisations that are related to different geological settings. The Companhia Vale do Rio Doce holds the majority of the property claims in the region and motivated by its prospective potential, the company has built a vast data set, including geologic maps at various scales, high resolution airborne geophysical data and passive (multispectral) and active (radar) remote sensing imagery. The aim of the present work is to integrate these information, via digital data processing and analysis, in order to create a regional prospective model for PGE mineralisations in Carajás. The data set comprises a regional geological map, airborne geophysics (magnetometry, radiometry and time domain electromagnetics), Landsat 7/Enhanced Thematic Mapper Plus (including the 15m resolution panchromatic band) and RADARSAT (8m resolution fine path) imagery. Geological and geophysics data analysis indicate a good correspondence between areas with mafic-ultramafic rocks and low values in gama spectrometry, particularly in the thorium channel. The ultramafic units of the complexes, the main host rock of the mineralisation, are soundly mapped by the analytic signal from the residual magnetic field and by the apparent conductance anomalies yielded through the GEOTEM system. The ETM Plus images processed by an adapted algorithm ofthe Feature Oriented Principal Component Selection (FPCS) technique, highlighted the hydroxyl minerais, generated through weathering of ultramaftc rocks, and iron oxide-rich areas. The combination of the products of digital processing and data analysis, with updated geological data of the Serra Leste region and the Luanga deposit, supported the assembly of a regional prospective model for PGE and allowed the selection of new targets within the studied area
Mestrado
Metalogenese
Mestre em Geociências
APA, Harvard, Vancouver, ISO, and other styles
33

Zaniboni, Natália Cordeiro. "Modelos para teste de estresse do sistema financeiro no Brasil." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/12/12139/tde-17082018-153606/.

Full text
Abstract:
A literatura sobre testes de estresse do sistema financeiro vem crescendo substancialmente nos últimos anos devido à importância destes exercícios, destacada pela crise financeira do subprime, a sequência de falências bancárias em muitos países e a crise econômica brasileira. Este trabalho propõe uma metodologia para testes de estresse, focada em risco de crédito, para o sistema financeiro brasileiro. Após a definição do escopo, o segundo passo de um teste de estresse é a identificação das vulnerabilidades do sistema financeiro, em que se captura as relações entre fatores macroeconômicos e a inadimplência. A maior parte dos trabalhos utiliza um conjunto limitado de fatores macroeconômicos. Este trabalho propôs a utilização de mais de 300 variáveis e uma análise fatorial para obter fatores macroeconômicos que consideram um conjunto mais abrangente de variáveis em um modelo ARIMAX. Além disso, os trabalhos comumente empregam modelos de dados em painel, VAR, séries temporais ou modelos de regressão linear. Porém, a mudança em uma variável raramente afeta outra instantaneamente, pois o efeito é distribuído ao longo do tempo. Neste trabalho é proposto o modelo de defasagem distribuída polinomial, que considera este efeito ao estimar os parâmetros defasados por meio de um polinômio de segundo grau. Os modelos foram construídos utilizando o período de março de 2007 a agosto de 2016 como período de modelagem e setembro de 2016 a agosto de 2017 como período de validação fora do tempo. Para os meses de validação, os modelos propostos apresentaram menor soma dos quadrados dos erros. O terceiro passo é a calibração de um cenário de estresse adverso e plausível, que pode ser obtido pelos métodos histórico, hipotético e probabilístico. Nota-se uma lacuna na literatura brasileira, suprida neste trabalho, em que não há propostas de cenários hipotéticos e históricos (que consideram todas as crises de 2002, crise subprime de 2008 e crise de 2015/2017) para o Brasil. Notou-se que os choques históricos geram valores mais severos que os hipotéticos, e há variáveis mais sensíveis aos diferentes tipos de crises econômicas. Ao verificar o impacto do cenário obtido para as instituições, a inadimplência estimada em cenário de estresse foi de 6,38%, um aumento de 68% em relação ao cenário base. Este aumento foi semelhante, um pouco mais severo, aos choques obtidos na literatura brasileira e ao Relatório de Estabilidade Financeira construído pelo Banco Central do Brasil, que estima que o sistema bancário está preparado para absorver um cenário de estresse macroeconômico.
Studies on stress testing the financial system has been growing substantially recently due to the importance of these exercises, highlighted by the subprime financial crisis, the bank failures sequence in many countries and the Brazilian economic crisis. This paper proposes a stress test methodology, focused on credit risk, for the Brazilian financial system. After the scope definition, the second step of a stress test is the vulnerabilities of the financial system identification, in which the relation between macroeconomic factors and credit risk are captured. Most papers use a limited set of macroeconomic factors. This paper proposes the use of more than 300 variables and a factor analysis to obtain macroeconomic factors to consider a more comprehensive set of variables in an ARIMAX model. In addition, academic papers commonly employ panel data models, VAR, time series or linear regression models. However, changing one variable rarely affects another instantaneously because the effect is distributed over time. In this work the polynomial distributed lag model is proposed, which considers this effect when estimating the lagged parameters by a second degree polynomial. The models were constructed using March 2007 to August 2016 as a modeling period and September 2016 to August 2017 as an out of time validation period. For the validation period, the proposed models presented a smaller sum of the squares errors. The third step is the calibration of an adverse and plausible stress scenario, which can be obtained by historical, hypothetical and probabilistic methods. We note a gap in the Brazilian literature, provided in this paper, in which there are no hypothetical and historical scenarios (which consider all crises of 2002, subprime crisis of 2008 and crisis of 2015/2017) for Brazil. It was noted that historical shocks generate more severe values than hypothetical shocks, and there are variables more sensitive to different types of economic crises. When verifying the impact of the scenario obtained for the institutions, the estimated default in the stress scenario was 6.38%, an increase of 68% in relation to the base scenario. This increase was similar, somewhat more severe, to the shocks obtained in the Brazilian literature and to the Financial Stability Report built by the Central Bank of Brazil, which estimates that the banking system is prepared to absorb a macroeconomic stress scenario.
APA, Harvard, Vancouver, ISO, and other styles
34

Loyola, Jocely Maria Thomazoni. "Modelos analíticos para predição do processo da redistribuição da água no solo." reponame:Repositório Institucional da UFPR, 2012. http://hdl.handle.net/1884/28393.

Full text
Abstract:
Resumo: A avaliação do processo da redistribuição da água no solo, em condições de campo, demanda considerável tempo e apreciável custo, porque as propriedades hidráulicas do solo sofrem extensa variabilidade espacial e estão sujeitas a freqüentes alterações no tempo. O presente trabalho propõe dois modelos analíticos para estimar a dinâmica desse processo, a partir da adoção do gradiente de potencial hidráulico unitário na equação de Richards. O primeiro modelo estima a umidade do solo e o segundo estima a densidade de fluxo, ambos em função do tempo de drenagem interna para a profundidade de interesse. Os resultados gerados pelos modelos confrontaram-se satisfatoriamente física e estatisticamente com os valores medidos da umidade e densidade de fluxo durante o período de drenagem em diferentes profundidades de dois solos morfologicamente homogéneos. Isto representa uma simplificação apreciavelmente importante nas análises do comportamento da água dentro de um perfil homogéneo de solo, em relação aos problemas práticos de recarga de aqüíferos, lixiviação ou retenção de fertilizantes e sais, e manejo de água residuais, porque os modelos propostos exigem somente o conhecimento prévio dos dados da curva de retenção e da condutividade hidráulica do solo na profundidade de interesse. Termos de indexação: redistribuição da água no solo, Equação de Richards, Modelos analíticos.
APA, Harvard, Vancouver, ISO, and other styles
35

Carvalho, Isabella de Castro. "Proposição de modelos de previsão de consumo de água para ambientes aeroportuários." Universidade Federal de Viçosa, 2013. http://locus.ufv.br/handle/123456789/3788.

Full text
Abstract:
Made available in DSpace on 2015-03-26T13:28:13Z (GMT). No. of bitstreams: 1 texto completo.pdf: 1839882 bytes, checksum: 7b04313dfd0b066f5ee10b45f9495ac7 (MD5) Previous issue date: 2013-02-27
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Airports present large water consumption and a great potential for the implementation of measures for its rational and efficient use. Knowing the future water demand is essential for assessing investments destined to increase capacity and the potential benefit from adopting such measures. However, for such environments, there is a lack of studies on water consumption profiles, factors which affect water demand and forecast models. Thus the objectives of this study were to assess the influence of airport movement variables on water consumption and develop multiple regression models to predict it. The database was provided by Infraero and consisted of the annual number of passengers and flights, the annual amounts of cargo and mail, and the annual water consumption for the most important airports in Brazil. The models were developed considering airports grouped in terms of passenger capacity and category (domestic or international flights), and the performance was assessed by the determination (R2) and the Nash-Sutcliffe (NSE) coefficients. The model developed for airports with capacity to transport at least 10 million passengers a year were able to explain 81% of water consumption variation, whereas the model for airports with inferior capacity explained 62% of the variation. The models developed for international and domestic airports presented R2 of 90% and 89%, respectively. The NSE coefficients were 0.93 and 0.88 for the models considering capacity and category, respectively. The model developed specifically for the Airport of Confins-MG showed good performance (NSE = 0.98) and presented great potential to enable the inclusion of other variables that can reflect characteristics of each airport which are not considered by movement variables.
Aeroportos consomem grandes volumes de água e possuem grande potencial para a implementação de medidas de uso racional. Conhecer a demanda futura é essencial para avaliar investimentos destinados à ampliação de capacidade e o potencial benefício advindo da adoção dessas medidas. Para esses ambientes, no entanto, são poucos os estudos sobre o perfil de consumo de água, fatores que o influenciam e modelos para sua previsão. Portanto, os objetivos deste estudo foram avaliar a influência das variáveis de movimentação aeroportuária sobre o consumo de água e utilizá-las na obtenção de modelos de regressão linear múltipla para estimar este consumo. A base de dados disponibilizada pela Infraero contém informações sobre a movimentação anual de passageiros, voos, carga e mala postal, além do consumo anual de água para os principais aeroportos do Brasil. Os modelos foram desenvolvidos considerando a distinção dos aeroportos em termos de porte e categoria, e os coeficientes de determinação (R2) e de Nash-Sutcliffe (NSE) foram utilizados para avaliação do desempenho. Os modelos desenvolvidos considerando o porte apresentaram R² iguais a 0,81, para aeroportos de grande porte, e 0,62, para aeroportos de médio e pequeno porte. Para aeroportos que operam apenas voos domésticos, foi obtido um modelo linear simples com r² igual a 0,89; para aeroportos que operam voos internacionais e domésticos, o modelo apresentou R² igual a 0,90. Os coeficientes NSE foram 0,93 e 0,88 para os modelos considerando o porte e a categoria, respectivamente. O modelo desenvolvido especificamente para o Aeroporto de Confins-MG apresentou melhor desempenho (NSE = 0,98) e o potencial para viabilizar a inclusão de outras variáveis capazes de refletir características específicas de cada aeroporto não consideradas pelas variáveis de movimentação.
APA, Harvard, Vancouver, ISO, and other styles
36

Silva, Margarida Isabel Mendes. "Contribuições para o estudo do Site Index da Eucalyptus globulus." Master's thesis, Universidade de Aveiro, 2012. http://hdl.handle.net/10773/9938.

Full text
Abstract:
Mestrado em Matemática e Aplicações
O Site Index é um indicador da produtividade florestal que, no caso da espécie Eucalyptus globulus, corresponde à altura dominante dos povoamentos à idade de referência de 10 anos. O presente trabalho consiste num estudo de predição do Site Index para essa espécie, em função de parâmetros edafo-climáticos, aplicando métodos da análise estatística multivariada a um conjunto de observações recolhidas em Portugal. Os métodos estatísticos usados convencionalmente não são robustos, no sentido em que são muito sensíveis a observações discordantes (outliers) e a outros afastamentos dos pressupostos dos modelos, pelo que podem conduzir a resultados distorcidos. Atualmente existem versões alternativas robustas, mas não estão muito divulgadas na investigação florestal. No estudo aplicaram-se os métodos convencionais seguidos das respetivas versões robustas e exploraram-se diferenças nos resultados. De entre as variáveis ambientais relacionadas com o Site Index, identificaram-se as que mais contribuem para explicar a variabilidade das observações, aplicando Análise de Componentes Principais. Um fator caraterizado por variáveis climáticas (o deficit-hídrico), distinguiu claramente dois grupos de indivíduos que foram caraterizados pela Análise de Agrupamentos. O grupo com deficithídrico encontra-se em regiões cujas condições climáticas se traduzem em deficiente disponibilidade da água para potenciar o crescimento das plantas, enquanto o grupo sem deficit-hídrico surge em regiões onde a disponibilidade de água não é limitante para o crescimento. Para cada grupo, a dependência do Site Index relativamente às variáveis ambientais foi modelada por Regressão Linear em Componentes Principais, para superar as dificuldades decorrentes da correlação entre diversas dessas variáveis. Do ponto de vista da modelação, o trabalho não conduziu a avanços relevantes em relação às publicações existentes, mas ainda permitiu identificar as variáveis climáticas que, em cada grupo, mais contribuem para a distribuição do Site Index e evidenciar os benefícios da utilização de métodos robustos.
The Site Index is an indicator of forest productivity. In the case of Eucalyptus globulus it corresponds to the height of dominant stand evaluated at the age of reference of 10 years. The present document consists of a study of the prediction of the Site Index of that species as a function of site factors parameters. A data set sampled at Portugal was analyzed with multivariate statistical methods. Those methods are non robust when they are applied in a conventional way, in the sense that they are very sensitive to outliers and to deviations of the assumptions of the model, thus they might produce misleading results. Nowadays there exist alternative robust versions which give more safe results, but they are not very disseminated among forestry researchers. The study was developed with both the conventional and the robust approaches and pointing out different conclusions whenever they are relevant. Among environmental variables, it was used Principal Component Analyze for selecting those with major contributions for explaining the variability in data. That method made possible to identify two groups of observations located in different geographical regions. A factor characterized by climate variables (hidryc-deficit) clearly distinguishes the two groups of individuals which were characterized by a Cluster Analyze. The group with water deficit corresponds to regions whose climatic characteristics traduce poor availability of water for enhancing the growth of the plants, while the group without water deficit is located in regions where the availability of water is not a limiting factor for plants’ growth. For each group of observations the dependence of the Site Index on the environmental variables was modeled by Linear Regression in Principal Components, thus overcoming the problems caused by correlation between several environmental variables. The study did not produce a relevant improvement in modeling the Site Index; nevertheless it was possible to identify the variables which contribute more for its distribution and to highlight the benefits of using robust statistical methods.
APA, Harvard, Vancouver, ISO, and other styles
37

Silva, Gilberto Ferreira da. "Aplicação de descritores topológicos e modelos estatísticos para o descobrimento de potenciais antagonistas da integrina alfa4 beta1." Instituto Oswaldo Cruz, 2012. https://www.arca.fiocruz.br/handle/icict/6984.

Full text
Abstract:
Submitted by Alessandra Portugal (alessandradf@ioc.fiocruz.br) on 2013-09-24T19:31:30Z No. of bitstreams: 1 Gilberto Ferreira da Silva_Tese.pdf: 10525757 bytes, checksum: fed4f4587ca5231f5b7517d0ec5bee91 (MD5)
Made available in DSpace on 2013-09-24T19:31:30Z (GMT). No. of bitstreams: 1 Gilberto Ferreira da Silva_Tese.pdf: 10525757 bytes, checksum: fed4f4587ca5231f5b7517d0ec5bee91 (MD5) Previous issue date: 2012
Fundação Oswaldo Cruz. Instituto Oswaldo Cruz. Vice Direção de Ensino, Informação e Comunicação. Rio de Janeiro, RJ, Brasil.
Doenças autoimunes abrangem uma grande variedade de desordens inflamatórias, até hoje consideradas incuráveis, tais como Artrite Reumatoide, Asma, Colite Ulcerativa, Doença de Crohn, Esclerose Múltipla, Hepatite Autoimune, e outras. Elas são caracterizadas pelo acúmulo exagerado e desmotivado de leucócitos em alguns órgãos, atacando células sadias do próprio organismo, lesionando e destruindo tecidos importantes. As integrinas, receptores glicoproteínicos expressos na superfície dos leucócitos, têm papel importante nesse processo: elas modulam a adesão dos leucócitos através da interação com seus ligantes primários, VCAMs (Vascular Cell Adhesion Molecules), expressos no tecido afetado. A interação integrina/ligante é que viabiliza a migração do leucócito do vaso sanguíneo para o interior do tecido. Sendo assim, uma alternativa terapêutica promissora, ainda sob investigação, para essas doenças é a administração de antagonistas, moléculas que tenham afinidade pelas integrinas de modo a se ligar a elas preferencialmente aos ligantes primários, dessa maneira inibindo a passagem dos leucócitos para o sítio da inflamação. No caso de Artrite Reumatoide, Asma e Esclerose Múltipla, a integrina de maior importância é a α4β1, para a qual uma boa quantidade de antagonistas já foi identificada. Infelizmente, porém, por variados motivos, nenhuma dessas drogas tem viabilidade para aplicação a seres humanos. Um indicador quantitativo da capacidade, exibida por uma droga, de inibir determinado processo biológico ou bioquímico é o índice IC50, definido pelo FDA como "a concentração (dessa droga) requerida para a inibição de 50% do processo in vitro". A partir, pois, de uma lista, compilada da literatura, de moléculas com capacidade, já experimentalmente quantificada, de antagonismo à integrina α4β1, nós participamos da busca de novos antagonistas construindo e aplicando modelos estatísticos de estimativa do índice IC50 para novas moléculas. As ferramentas que usamos são oriundas da Topologia Molecular, um campo de pesquisas da Teoria dos Grafos em Química, que busca inferir quantitativamente características importantes das moléculas a partir da topologia (vértices, arestas, adjacências, etc.) de grafos correspondentes a essas moléculas.
Autoimmune diseases cover a large variety of inflammatory disorders like Rheumatoid Arthritis, Asthma, Ulcerative Colitis, Crohn Disease, Multiple Sclerosis, Autoimmune Hepatitis, and others. To date, all them seem to be incurable. They are characterized by excessive and unnecessary accumulation of leukocytes in healthy organs, attacking the body's own healthy cells, injuring and destroying important tissues. Integrins, glycoprotein receptors expressed on the surface of leukocytes, play an important role in this process: they modulate leukocyte adhesion and migration from the blood vessel into the tissue through interaction with its ligands primary VCAMs (Vascular Cell Adhesion Molecules), expressed in the affected tissue. Thus, a promising alternative treatment for those diseases, still under investigation, is the administration of antagonists: molecules that bind to integrins with affinity comparable to that of their primary ligands, thereby inhibiting the migration of leukocytes to the site of inflammation. For rheumatoid arthritis, asthma and multiple sclerosis, the most important integrin is α4β1, for which several antagonists have been identified and published. Unfortunately, for various reasons, none of these drugs is feasible for application to humans; this way, the search for new antagonists is still active. A quantitative indicator of the ability of a drug to inhibit a biological or biochemical process is the IC50 index, defined by the FDA as "the concentration (of the drug) required for 50% inhibition of process in vitro". We perform participate in the search for new α4β1 antagonists by: starting with a list of antagonists compiled from the literature with their experimentally evaluated IC50 evaluated experimentally compiled from the literature, we build and apply statistical models to estimate the IC50 index for new molecules. We use tools derived from molecular topology, a research field of research of Chemical Graph Theory, which aims to infer quantitatively important characteristics of the molecules from the topology (vertices, edges, adjacencies , etc.) of the graphs corresponding to these molecules.
APA, Harvard, Vancouver, ISO, and other styles
38

Valença, Dione Maria. "O modelo de regressão gama generalizada para discriminar entre modelos parametricos de tempo de vida." [s.n.], 1994. http://repositorio.unicamp.br/jspui/handle/REPOSIP/325403.

Full text
Abstract:
Orientador: Jonathan Biele
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Ciencia da Computação
Made available in DSpace on 2018-07-19T05:50:13Z (GMT). No. of bitstreams: 1 Valenca_DioneMaria_M.pdf: 5617916 bytes, checksum: 995fe9ed2de35a3bd029f3773a6d2d24 (MD5) Previous issue date: 1994
Resumo: Não informado.
Abstract: Not informed
Mestrado
Mestre em Estatística
APA, Harvard, Vancouver, ISO, and other styles
39

da, Costa Araújo Clebenilson. "Comparação de modelos computacionais para fluxo e transporte de poluentes em água subterrânea." Universidade Federal de Pernambuco, 2008. https://repositorio.ufpe.br/handle/123456789/5245.

Full text
Abstract:
Made available in DSpace on 2014-06-12T17:37:39Z (GMT). No. of bitstreams: 2 arquivo2405_1.pdf: 1906607 bytes, checksum: fe556bca6bf43e4091a864e7c1f7ff67 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2008
Fundação de Amparo a Pesquisa do Estado de Alagoas
Este trabalho apresenta um estudo da utilização de técnicas numéricas mais recentes e precisas associadas à modelagem do fluxo e transporte de poluentes em águas subterrâneas. A intenção principal é citar a técnica meshless e o modelo SUTRA como alternativas para a implementação dos problemas, bem como observar seus comportamentos em comparação aos métodos numéricos classicamente utilizados, tais como o Método dos Elementos Finitos (MEF) e o Método das Diferenças Finitas (MDF). Foram desenvolvidos alguns algoritmos em linguagem MatLab utilizando os chamados métodos sem malha de discretização, para o cálculo das cargas hidráulicas e do fluxo. Os métodos meshless utilizados são Métodos de Colocação utilizando Funções de Base Radial (FBR). No trabalho são apontados alguns exemplos de situações envolvendo o fluxo e o transporte de solutos em água subterrânea, os quais foram calculados utilizando-se a técnica proposta, meshless, e o modelo SUTRA, respectivamente. As soluções obtidas a partir da Função de Base Radial Multiquádrica (FBR-MQ) são mais precisas, quando comparadas aos resultados em MEF e MDF, e ainda, os resultados convergem rapidamente apenas com uma simples mudança do parâmetro de forma c. Observou-se ainda a redução dos tempos de processamento, chegando a solução FBR-MQ a se apresentar em duas ordens de grandeza mais rápida, em termos de tempo de CPU. No exemplo referente ao problema de contorno inverso é constatado que o resultado pode ser obtido com FBR-MQ em apenas um simples passo, ao contrário dos métodos clássicos, que requerem muitas iterações para alcançar o resultado final. Nos exemplos de transporte são comparados os erros percentuais de balanço de massa entre os resultados obtidos no SUTRA e os resultados apresentados nos benchmarks, onde se percebe a excelente aplicabilidade e simplicidade de implementação no SUTRA, no processo de dispersão dependente da direção de fluxo em um meio anisotrópico. Não obstante sua aparição recente, as técnicas numéricas meshless visando a resolução de equações diferenciais parciais já são bastante utilizadas nas mais diversas áreas da engenharia, no entanto, aplicações dessa natureza em fluxo de águas subterrâneas ainda são incipientes em todo o mundo. O SUTRA é um programa de computador ainda recente, o qual apresentou resultados bastante satisfatórios com relação ao transporte de substâncias dissolvidas em um ambiente subsuperficial. Diante do exposto, o presente trabalho se apresenta como uma contribuição para o aprimoramento do cálculo das cargas hidráulicas e das concentrações de solutos, caracterizando-se como uma ferramenta alternativa de dimensionamento do bombeamento em aqüíferos
APA, Harvard, Vancouver, ISO, and other styles
40

Tronto, Iris Fabiana de Barcelos. "Uma metodologia baseada em modelos estatísticos e redes neurais para a estimativa de esforço de desenvolvimento de software." Instituto Nacional de Pesquisas Espaciais, 2007. http://urlib.net/sid.inpe.br/mtc-m17@80/2007/12.10.13.25.

Full text
Abstract:
Estimativa de esforço de software é uma parte importante do desenvolvimento de software e fornece um guia essencial para a análise de viabilidade, licitação, orçamento, planejamento e acompanhamento de projeto. As conseqüências de estimativas imprecisas podem resultar em perdas significativas ou mesmo em perda de contratos. Em geral as estimativas de projetos são excedidas, principalmente porque as estimativas são muito otimistas. Nesta tese, o principal objetivo é apresentar uma metodologia baseada em métodos estatísticos e de redes neurais para realizar estimativas de esforço mais precisas e de forma mais simples. Esta pesquisa contribui para a redução de erros de estimativa de projeto de desenvolvimento de software, permitindo que o público interessado tenha um melhor entendimento das várias classes de modelos e técnicas de estimativa de esforço de software e da expressividade das variáveis de projeto disponíveis. São utilizadas redes neurais artificiais, técnicas de raciocínio baseado em casos, modelos baseados em regressão, e técnicas para integrar análise de resíduos, análise de variância e modelos baseados em regressão. Vários estudos de casos foram conduzidos para validar os diferentes métodos. Os resultados indicam que os métodos propostos apresentam resultados realistas, para os dados das empresas disponíveis na base de dados, e que o uso de redes neurais implica em um processo simples de calibração de modelos locais. Entretanto, observa-se que as técnicas são dependentes dos dados disponíveis, exigindo a re-calibração dos modelos em função do surgimento de novas tecnologias para o desenvolvimento de software.
Software effort estimation is an important part of software development work and provides essential input to project feasibility analyses, bidding, budgeting and planning. The consequences of inaccurate estimates can be severe. Optimistic estimates may cause significant losses while the pessimistic estimates may lead to loss of exiting and future contracts. Unfortunately, it is common for software development projects to overrun their effort estimates, typically because the estimates are too optimistic. This thesis presents a methodology based on statistical and neural networks methods to provide more accurate effort estimates in a simpler way. The goal of this research is to contribute to reduce estimation error in software development projects by better understanding the different software effort estimation models and techniques that include: artificial neural networks, case-based reasoning techniques, regression-based models, and techniques for integrating analysis of residuals, analysis of variance and regression-based models. Several case studies have been conducted. The results show all the proposed models lead to realistic estimations, however, neural networks based models emerge as a very easy tool for local models calibration processes due to its simpler implementation. The case studies show all the models are sensitive to the available data, thus requiring recalibration processes every since new project data area gathered to the database.
APA, Harvard, Vancouver, ISO, and other styles
41

Biruel, Elisabeth Peres [UNIFESP]. "Websites para diabéticos: uso da internet com instrumento de Educação em Saúde." Universidade Federal de São Paulo (UNIFESP), 2008. http://repositorio.unifesp.br/handle/11600/24269.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Costa, Valdeci José. "Modelo matemático para combustão de carvão pulverizado e sua interação com água." Florianópolis, SC, 2002. http://repositorio.ufsc.br/xmlui/handle/123456789/83245.

Full text
Abstract:
Tese (doutorado) - Universidade Federal de Santa Catarina, Centro Tecnológico. Programa de Pós-Graduação em Engenharia Mecânica.
Made available in DSpace on 2012-10-19T22:10:52Z (GMT). No. of bitstreams: 1 189809.pdf: 4637366 bytes, checksum: a6569d7f22eee5c0537b7435783f311e (MD5)
Neste trabalho foi desenvolvido um modelo matemático para combustão de carvão pulverizado que considera os principais fenômenos envolvidos na queima de partículas sólidas. Foram resolvidas numericamente equações para: conservação das espécies; energia do gás, das partículas e de todo o escoamento; devolatilização, formação de cinzas; queima do carbono; secagem da partícula e ainda conservação da massa. Também foram resolvidas equações para transferência de calor e massa de pequenas gotas de água injetadas em algum ponto do canal. Um método implícito aplicável a sistemas com alto grau de rigidez foi empregado. A variação na massa específica foi considerada mediante a utilização de uma equação empírica. A transferência de massa de uma fase para outra foi simulada mediante o uso de reações de "troca de massa". Este procedimento tornou o código independente no número de reações e espécies consideradas, bem como das composições do combustível e oxidante. Um mecanismo de reações composto por 500 reações e 88 espécies foi estabelecido e sua influência no processo foi avaliada. A calcinação e a sulfatação foram acopladas ao modelo de combustão, podendo ser avaliadas de maneira simultânea aos demais parâmetros. A interligação entre estes fenômenos pôde então ser estudada. A validação do modelo foi efetuada via comparação com resultados numéricos e experimentais publicados por outros autores, obtendo-se sempre boas concordâncias. A influência da umidade contida nas partículas de carvão também foi analisada. Sua presença favorece a sobreposição entre a devolatilização e a região de combustão heterogênea. As emissões de SO2, CO e NO são drasticamente reduzidas com o incremento da umidade na partícula de carvão, mas a concentração de H2SO é ampliada. O diâmetro das partículas de carvão foi variado e alguns resultados puderam ser estabelecidos. O modelo detectou a presença de grandes quantidades da espécie H2SO, fato ainda não relatado na literatura pesquisada. Temperaturas ideais para sulfatação foram obtidas via injeção de gotas de água à temperatura de 300 K. Equações apropriadas de transferência de calor e massa das gotas foram anexadas ao modelo. Modificando-se a quantidade de água injetada, foi determinada uma relação (consumo de água/consumo de carvão) ideal para a sulfatação. Não um ponto, mas sim uma região ideal para injeção de gotas foi estabelecida. À medida que o ponto de injeção é deslocado para frente no interior do canal, o percentual de captura de SO2 é favorecido. A taxa de captura é incrementada com o aumento da área BET da pedra calcária e de sua fração molar. Contudo, para um dado conjunto de parâmetros existe um limite superior no percentual de captura proporcionado pela temperatura do meio, e conseqüente tendência ao equilíbrio químico.
APA, Harvard, Vancouver, ISO, and other styles
43

FANTIN, L. L. D. "PROPOSTA METODOLÓGICA PARA A PRÉ-SELEÇÃO DE SISTEMAS DE TRATAMENTO DE ESGOTO NO ÂMBITO DE BACIAS HIDROGRÁFICAS." Universidade Federal do Espírito Santo, 2016. http://repositorio.ufes.br/handle/10/9437.

Full text
Abstract:
Made available in DSpace on 2018-08-01T23:57:57Z (GMT). No. of bitstreams: 1 tese_10245_Dissertação - Lucas_Luiz_Dall_Orto_Fantin.pdf: 2837180 bytes, checksum: 66a611038ab0ec15c4896bae8e9d814d (MD5) Previous issue date: 2016-06-27
Lançamento de esgotos sanitários em corpos dágua é a causa de um dos principais problemas de degradação ambiental. A implantação de estações de tratamento destes efluentes constitui a alternativa mais comum para redução e controle da consequente poluição. O processo de seleção de uma estação de tratamento de esgoto é complexo quando observado do ponto de vista de uma bacia hidrográfica, onde existem múltiplos lançamentos apresentando diferentes cargas e corpos dágua com diferentes capacidades de assimilação. Neste contexto, a presente pesquisa tem como objetivo estabelecer metodologia para a pré-seleção de alternativas de tratamento de esgoto no âmbito de bacias hidrográficas. A proposta metodológica envolve o uso combinado de modelo de qualidade de água, técnica de otimização e um conjunto de critérios de natureza técnica e econômica associados aos diferentes sistemas de tratamento de esgotos. Modelo de qualidade de água e Algoritmo Genético foram combinados em ambiente computacional do software MatLab e permitiram minimização de soma das eficiências das estações de tratamento consideradas. Dois diferentes objetivos de otimização foram considerados. O primeiro objetivo buscou a minimização do somatório de eficiências de tratamento no âmbito da bacia hidrográfica estudada. O segundo buscou a equidade entre as eficiências dos diferentes sistemas de tratamento. Para avaliação da metodologia proposta foram considerados diferentes cenários de disposição de efluentes na bacia hidrográfica do rio Pardo, importante afluente do rio Itapemirim, curso dágua da porção sul do estado do Espírito Santo. Os resultados indicaram que o modelo de otimização que buscou a minimização das eficiências de tratamento no âmbito da bacia, permitindo uso da capacidade de autodepuração dos cursos dágua, selecionou sistemas de tratamento que variaram da combinação de reatores UASB e lagoas de polimento a sistemas de infiltração lenta, alternativas de tratamento que apresentaram menores estimativas de custos presentes líquidos. A incorporação da equidade entre os sistemas de tratamento aumentou significativamente os custos presentes líquidos totais associados ao tratamento de esgoto no âmbito da bacia hidrográfica.
APA, Harvard, Vancouver, ISO, and other styles
44

Oliveira, Alan Barros de. "Anomalias termodinâmicas, dinâmicas e estruturais em modelos contínuos de duas escalas para a água." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2008. http://hdl.handle.net/10183/12466.

Full text
Abstract:
Neste trabalho estudamos dois modelos diferentes quanto a presença de anomalias típicas da água. As anomalias em questão são três: anomalia na densidade, que é a expansão do sistema sob resfriamento; anomalia na difusão, quando as partículas do sistema ganham mobilidade sob compressão; e anomalia estrutural, que é a diminuição da organização (estrutura) do líquido quando submetido a compressões ou, equivalentemente, a aumentos de densidade. Os modelos estudados foram o Modelo I, que refere-se a um sistema de partículas idênticas e esféricas, interagindo através de um potencial isotrópico contínuo que possui um ombro repulsivo, e o Modelo II. Os modelos Modelo I e Modelo II diferem apenas quanto ao potencial interpartícula, onde o potencial de interação no Modelo II, além do ombro repulsivo contínuo, possui também uma parte atrativa no potencial. Encontramos várias semelhanças entre os resultados obtidos para a água - tanto em experimentos quanto em simulações - e os resultados obtidos para os modelos estudados nesta tese. No caso do modelo de ombro contínuo sem atração entre as partículas - o Modelo I - foram encontradas as anomalias na densidade, na difusão e estrutural. A hierarquia das anomalias, que é a disposição das regiões onde surgem as anomalias no diagrama de fases do sistema, do Modelo I é idêntica aos resultados obtidos com modelos de simulação para a água, como o SPC/E e o TIP5P, e concordam com os dados experimentais. Para o sistema com potencial de ombro contínuo repulsivo e parte atrativa - Modelo II - as mesmas anomalias presentes no Modelo I foram encontradas aqui. Ainda, a hierarquia das anomalias mostrou-se ser a mesma encontrada para a água. Com a inclusão de atração entre partículas obtivemos uma transição líquido-gás e uma transição líquido-líquido para o Modelo II, o que não acontece no Modelo L O Modelo II foi estudado sob a luz da entro pia de excesso, através de uma teoria desenvolvida recentemente, onde se busca conectar a termodinâmica do sistema, por meio da entropia de excesso, com a sua estrutura, por meio da função distribuição radial. Por fim, um estudo detalhado do comportamento da função distribuição radial - ou de pares - é feito e, por meio da entropia de excesso, propomos uma teoria que permite prever a existência ou não da presença de anomalias em um sistema isotrópico, mesmo analisando regiões onde este se comporta de maneira não-anômala.
In this work we study two different models focusing waterlike anomalies. The interesting anomalies are three: density anomaly, when system expands upon cooling; diffusion anomaly, when particles of the system diffuse faster upon compression; and structural anomaly, when system becomes less organized upon compression - or equivalently upon increasing density. The models studied are Modelo I, that is a system of identical spherical particles interacting through an isotropic continuous potential having a repulsive shoulder, and Modelo lI. The only difference between Modelo I and Modelo II is the interpaticle potential. The potential of Modelo II has a continuous repulsive shoulder plus an attractive part - absent in Modelo r. Were found several similarities between the results for water - experiments and simulations - and the ones obtained for the models studied in this thesis. In the case of a repulsive shoulder with no attractive part - Modelo I - were found density, diffusion, and structural anomalies. Besides, the hierarchy of anomalies, i.e., the order in which the region of anomalies are organized in the phase-diagram, is identical to the one obtained with simulation models for water, such as SPC/E and TIP5P. The experimental data support these findings. For the system with a repulsive shoulder and attractive part potential - Modelo II - the same anomalies present in Modelo I are present here. The hierarchy of anomalies for the Modelo II is the same as for Modelo I - and obviously the same as for water. Because of the attractive part in the interparticle potential a liquid-gas and liquid-liquid transitions were found, absent in Modelo r. Next, Modelo II is studied upon the framework of excess entropy throughout a recent theory in whichthe thermodynamicof the system- by meansof excessentropy- is connectedto its structure through the pair distribution function. Finally, a detailed study of the behaviour of the pair distribution function is made. Here we propose an excess entropy-based theory which allow one to predict the appearence or not of anomalies in a system eventhought the system is analized in a region in which no anomaly is present.
APA, Harvard, Vancouver, ISO, and other styles
45

Bevilacqua, José Luiz Barbosa. "Modelos estatísticos para previsão de metástases axilares em câncer de mama em pacientes submetidos à biópsia de linfonodo sentinela." Universidade de São Paulo, 2005. http://www.teses.usp.br/teses/disponiveis/5/5132/tde-21122005-112536/.

Full text
Abstract:
INTRODUÇÃO: O status axilar é o fator prognóstico mais importante em câncer de mama. A biópsia de linfonodo sentinela (BLS) tornou-se o procedimento padrão no estadiamento axilar em pacientes com axila clinicamente negativa. O procedimento recomendado para pacientes com metástase em linfonodo sentinela (LS) inclui a linfadenectomia axilar completa (LAC). Porém questiona-se a necessidade da LAC em todos os pacientes com metástase em LS (MLS), particularmente naqueles com baixo risco de metástase em linfonodos axilares adicionais (Não-LS). Estimar de forma precisa a probabilidade de MLS e metástase em Não-LS (MNão-LS) pode auxiliar em muito o processo de decisão terapêutica. Os dados publicados referentes aos fatores preditivos de MLS e MNão-LS são de certa forma escassos. A forma de como esses dados são apresentados – geralmente expressos como razão de chance (odds-ratio) – dificulta o cálculo de probabilidade de MLS ou MNão-LS para um paciente em específico. Nesta tese, dois modelos de previsão computadorizados de fácil utilização foram desenvolvidos, utilizando-se um grande número de casos, para facilitar o cálculo de probabilidade de MLS e MNão-LS. MÉTODOS: Todos os dados clínico-patológicos foram coletados do banco de dados prospectivo de LS do Memorial Sloan-Kettering Cancer Center (MSKCC), Nova York, EUA. Os projetos de desenvolvimento de ambos os modelos foram aprovados pelo Institutional Review Board do MSKCC. Dois modelos foram desenvolvidos: Modelo de MLS (Modelo LS) e Modelo de metástase em Não-LS (Modelo Não-LS). No Modelo LS, os achados clínico-patológicos de 4.115 procedimentos subseqüentes de BLS (amostra de modelagem) foram submetidos à análise de regressão logística multivariada para se criar um modelo de previsão de MLS. Um software baseado nesse modelo foi desenvolvido utilizando-se as variáveis: idade, tamanho do tumor, tipo histológico, invasão vásculo-linfática (IVL), localização do tumor e multifocalidade. Esse modelo foi validado em uma amostra distinta (amostra de validação) com 1.792 BLSs subseqüentes. No Modelo Não-LS, os achados patológicos do tumor primário e das MLS, obtidas de 702 procedimentos de BLS (amostra de modelagem) em pacientes submetidos à LAC, foram submetidos à análise de regressão logística multivariada para se criar um modelo de previsão de MNão-LS. Um nomograma e um software baseados nesse modelo foram desenvolvidos utilizando-se as variáveis: tamanho do tumor, tipo histológico, grau nuclear, IVL, multifocalidade, receptor de estrógeno, método de detecção da MLS, número de LS positivos, número de LS negativos. Esse modelo foi validado em uma amostra distinta (amostra de validação) com 373 casos subseqüentes. RESULTADOS: O software do Modelo LS na amostra de modelagem mostrou-se adequado, com a área sob a curva de características operacionais (ROC) de 0,76. Quando aplicado na amostra de validação, o Modelo LS também previu de forma acurada as probabilidades de MLS (ROC = 0,76). O software e o nomograma do Modelo Não-LS na amostra de modelagem apresentaram uma área ob a curva ROC de 0,76 e, na amostra de validação, 0,77. CONCLUSÕES: Dois softwares de fácil utilização foram desenvolvidos, utilizando-se informações comumente disponíveis pelo cirurgião para calcular para o paciente a probabilidade de MLS e MNão-LS de forma precisa, fácil e individualizada. O software do Modelo LS não deve ser utilizado, porém, para se evitar a BLS. Para download dos softawares clique em: www.mastologia.com .
INTRODUCTION: Axillary lymph node status is the most significant prognostic factor in breast cancer. Sentinel lymph node biopsy (SLNB) has become the standard of care as the axillary staging procedure in clinically node negative patients. The standard procedure for patients with sentinel lymph node (SLN) metastasis includes complete axillary lymph node dissection (ALND). However, many experts question the need for complete ALND in every patient with detectable SLN metastases, particularly those perceived to have a low risk of additional lymph node (Non-SLN) metastasis. Accurate estimates of the likelihood of SLN metastases and additional disease in the axilla could greatly assist in decision-making treatment. The published data on predictive factors for SLN and Non-SLN metastases is somewhat scarce. It is also difficult to apply these data – usually expressed as odds ratio – to calculate the probability of SLN or Non-SLN metastases for a specific patient. In this thesis, two user-friendly computerized prediction models based on large datasets were developed, to assist the prediction of the presence of SLN and Non-SLN metastases. METHODS: All clinical and pathological data were collected from the prospective SLN database of Memorial Sloan-Kettering Cancer Center (MSKCC), New York, USA. The development projects of both models were approved by the Institutional Review Board of MSKCC. Two models were developed: Model for predicting SLN metastases (SLN Model) and Model for predicting Non-SLN metastases (Non-SLN Model). In the SLN Model, clinical and pathological features of 4,115 sequential SLNB procedures (modeling sample) were assessed with multivariable logistic regression to predict the presence SLN metastases. A software based on the logistic regression model was created using age, tumor size, tumor type, lymphovascular invasion, tumor location and multifocality. This model was subsequently applied to another set of 1,792 sequential SLNBs (validation sample). In the Non-SLN Model, pathological features of the primary tumor and SLN metastases, identified in 702 SLNBs (modeling sample) on patients who underwent complete ALND, were assessed with multivariable logistic regression to predict the presence of additional disease in the Non-SLNs of these patients. A nomogram and a software were created using tumor size, tumor type and nuclear grade, lymphovascular invasion, multifocality, and estrogen-receptor status of the primary tumor; method of detection of SLN metastases; number of positive SLNs; and number of negative SLNs. This model was subsequently applied to another set of sequential 373 procedures (validation sample). RESULTS: The software of the SLN Model for the modeling sample was accurate and discriminating, with an area under the receiver operating characteristic (ROC) curve of 0.76. When applied to the validation sample, the SLN-Model accurately predicted likelihood of SLN metastases (ROC = 0.76). The software and nomogram of the Non-SLN Model was also accurately predicted likelihood of Non-SLN metastases, with an area under ROC curve of 0.76 for the modeling sample, and 0.77 for the validation sample. CONCLUSION: Two user-friendly softwares were developed, using information commonly available to the surgeon to easily and accurately calculate the likelihood of having SLN metastases or additional, Non-SLN metastases for individual patients. However, the software of the SLN Model should not be used to avoid SLNB. Click on
www.mastologia.com to download these softwares.
APA, Harvard, Vancouver, ISO, and other styles
46

ARAÚJO, NETO Cláudio Luis de. "Análise do comportamento dos resíduos sólidos urbanos e desenvolvimento de modelos estatísticos para previsão das deformações de aterros sanitários." Universidade Federal de Campina Grande, 2016. http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/1422.

Full text
Abstract:
Submitted by Emanuel Varela Cardoso (emanuel.varela@ufcg.edu.br) on 2018-08-13T17:26:46Z No. of bitstreams: 1 CLÁUDIO LUIS DE ARAÚJO NETO – DISSERTAÇÃO (PPGECA) 2016.pdf: 21031066 bytes, checksum: 32162af2172e4ac7647d56edf4a788b9 (MD5)
Made available in DSpace on 2018-08-13T17:26:46Z (GMT). No. of bitstreams: 1 CLÁUDIO LUIS DE ARAÚJO NETO – DISSERTAÇÃO (PPGECA) 2016.pdf: 21031066 bytes, checksum: 32162af2172e4ac7647d56edf4a788b9 (MD5) Previous issue date: 2016-04
Capes
Os aterros sanitários são obras de engenharia de alta complexidade, devido, principalmente, à natureza heterogênea do material, às variadas dimensões de suas partículas e à perda de massa sólida durante a biodegradação dos resíduos. Um dos indicadores que melhor expressa o comportamento dos resíduos ao longo do tempo, em aterros sanitários, é o recalque, que corresponde à redução da altura e volume da massa de resíduos. Este trabalho foi realizado com o objetivo de compreender o comportamento dos Resíduos Sólidos Urbanos (RSU) para desenvolvimento e validação de modelos estatísticos que expressam as deformações de aterros sanitários. Foi realizada a caracterização dos RSU em termos gravimétricos, volumétricos, granulométricos e densimétricos. Construiu-se e instrumentou-se uma célula experimental de 3,5 m de altura preenchida com RSU da cidade de Campina Grande – PB para monitoramento da magnitude e velocidades dos recalques, assim como das deformações específicas ocorridas no maciço. Também, foram executados ensaios de compressão confinada dos RSU em uma prensa e do métrica automatizada com inibição da biodegradação, para obtenção das deformações mecânicas ocorridas no maciço sanitários. Com estas informações foi possível desenvolver modelos estatísticos para previsão de deformação específica de RSU ao longo do tempo e validá-los através de monitoramentos realizados por outros autores. Os resultados de caracterização dos resíduos indicaram que em termos gravimétricos, 46,5% dos RSU produzidos em Campina Grande – PB são materiais putrescíveis, passiveis a degradação ao longo do tempo. O alto percentual, em termos volumétricos, de recicláveis favoreceu os recalques mecânicos e retardou e/ou inibiu os biológicos. O comportamento dos recalques ao longo do tempo foi influenciado pelas características dos resíduos. A velocidade das deformações decresceu com o tempo, porém apresentou uma elevação durante a retroalimentação,o que era esperado devido ao acréscimo de carga. Os resultados dos ensaios de compressão confinada permitiram conhecer e entender melhor o comportamento mecânico dos resíduos sólidos urbanos. A partir das análises dos resultados, foi possível desenvolver novos modelos de previsão de deformações para maciços sanitários. E, finalmente, verificou-se que a aplicação dos novos modelos é satisfatória na simulação de deformações em maciços sanitários, porém faz-se necessário o incremento de outras condições de contorno.
Landfills are complex engineering constructions mainly due to the heterogeneous nature of the material, the various dimensions of its particles and the loss of solid mass during biodegradation. One of the best indicators that expresses the behavior of waste over time is the settlement. Waste settlement represents the geotechnical term that corresponds to the reduction in height and volume (deformation) of thewaste mass. This study was conducted in order to understand the behavior of Municipal SolidWaste (MSW) for the development and validation of statistical models for landfill deformations. The MSW were characterized in terms of gravimetric and volumetric composition, particle size distribution and density. An experimental cell with 3.5m of height was built, instrumented and filled with MSW from the city of Campina Grande – PB in order to monitor the waste settlement and specific deformations. Also, consolidation tests were performed by the means of an automated equipment, in which the MSW biodegradation was inhibited, so that mechanical deformations were obtained. Based on this information, statistical models were developed to predict the specific deformation of MSW over time. To prove their consistency, the results were compared with other author’s data. The waste characterization indicated that, in gravimetric terms, 46.5% of the MSW produced in Campina Grande - PB is composed of putrescible materials. The high percentage, in volumetric terms, of recyclable materials enabled the mechanical waste settlement and inhibited the biological ones. The behavior of settlement over time was influenced by the physical, chemical and biological characteristics of the waste. In addition, the deformations velocity decreased with time, but it presented an increase during the refilling phase, which is expected since the loads were increased. The results of confined compression tests allowed knowing and understandingthe mechanical behavior of municipal solid waste under the influence of an applied load. From the analysis of the results, it was possible to develop new models to predict landfill deformations. Finally, it was verified that the application of new models to simulate landfill deformations is satisfactory. However, it is necessary the increment of other boundary conditions.
APA, Harvard, Vancouver, ISO, and other styles
47

Martinez, Brayan Alexander Fonseca. "Estudos transversais em epidemiologia veterinária : utilização de modelos hierárquicos e revisão de métodos estatísticos para analise de desfechos binários." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2016. http://hdl.handle.net/10183/148983.

Full text
Abstract:
Um dos estudos observacionais mais difundidos e usados em epidemiologia veterinária é o estudo do tipo transversal. Sua popularidade ocorre por fatores como baixo custo e rapidez comparados com outros tipos de estudos, além de ajudar a estimar a prevalência de uma doença (desfecho) e postular fatores associados com o desfecho, que poderão ser confirmados como fatores causais em outros tipos de estudos epidemiológicos. Porém, este tipo de estudo apresenta dois importantes desafios: a dependência dos dados, muito frequente dada a típica estrutura populacional de animais dentro do mesmo rebanho ou fazenda e a escolha da medida de associação para desfechos binários, tão frequentes neste modelo de estudo. Com o objetivo de contribuir com a compreensão global da epidemiologia do aborto bovino associado à Neospora caninum tendo em conta a estrutura populacional, construiu-se um modelo misto com os dados de um estudo transversal realizado em duas regiões do Rio Grande do Sul. Usaram-se dados de 60 propriedades amostradas em duas regiões (noroeste e sudeste) e 1256 bovinos. A percentagem de aborto dentro de cada rebanho variou entre 1% e 30%. Vacas soropositivas tiveram 6,63 vezes mais chances de ter histórico de aborto (IC 95%: 4,41-13,20). As chances de uma vaca ter histórico de aborto foram 5,18 vezes maiores na região noroeste em relação à região sudeste (IC 95%: 1,83-20,80). Um coeficiente de correlação intraclasse de 16% foi estimado, indicando que 16% da variação da ocorrência de abortamentos não explicados pelos efeitos fixos foram devido as fazendas. Já na segunda parte deste trabalho, uma revisão sistemática foi realizada considerando um conjunto diverso de revistas e jornais com o objetivo de verificar os métodos estatísticos usados e a adequação das interpretações das medidas de associação estimadas em estudos transversais na área de medicina veterinária. Um total de 62 artigos foi avaliado. A revisão mostrou que, independentemente do nível de prevalência relatado no artigo, 96% deles empregou regressão logística e, portanto, estimaram razão de chances (RC). Nos artigos com prevalência superior a 10%, 23 deles fizeram uma interpretação adequada da RC como uma “razão de chances” ou simplesmente não fizeram uma interpretação direta da RC, enquanto 23 artigos interpretaram de forma inadequada a RC, considerando-a como risco ou probabilidade. Entre os artigos com prevalência inferior a 10%, apenas três interpretaram a RC como uma “razão de chances”, cinco interpretaram como risco ou probabilidade e em um, apesar de ter estimado a razão de prevalências (RP), foi interpretado de forma inadequada. Paralelamente, com o objetivo de exemplificar o uso de métodos estatísticos que estimam diretamente a razão de prevalências (RP), medida mais adequada para os estudos transversais, um conjunto de dados obtidos a partir de um estudo transversal sobre a ocorrência de anticorpos (AC) contra o vírus da diarreia viral bovina (BVDV) foi usado. Os AC foram medidos em amostras de tanque de leite de rebanhos leiteiros localizados no estado do Rio Grande do Sul, em que os possíveis fatores associados puderam ser avaliados. Entre os métodos utilizados, as maiores discrepâncias nas medidas de associação estimadas foram observadas com a regressão logística tomando-se como referência a regressão log-binomial. Finalmente, é importante que este tipo de desafio seja atendido pelos pesquisadores que realizam estudos transversais, ou seja, considerar a estrutura das populações nas análises, cuidado ao escolher o tipo de modelo estatístico empregado para desfecho binário e interpretação dos estimadores.
The commonest study design used in veterinary epidemiology is the cross-sectional study. Its popularity lies on the fact of the short time needed and low costs compared with other types of studies; moreover, this type of study estimates prevalence and associated factors, which may be elucidated as causal in another type of epidemiological studies. However, this type of study presents two major challenges: a very common dependence between data given the typical structure of the animal population, i.e., animals within herds or farms and the choice of measure of association for binary outcomes, frequently used in this type of study. In order to contribute to the understanding of the epidemiology of bovine abortion associated with Neospora caninum, a mixed model accounting for the hierarchical structure of cattle population using data from a cross-sectional study conducted in two regions (northwest and southeast) of Rio Grande do Sul was made. Data from 60 dairy herds and 1256 sampled cattle were used. The percentage of abortions in each herd ranged between 1% and 30%. Seropositive cows were 6.63 times more likely to have a history of abortion (95% CI: 4.41 to 13.20). The chances of a cow have a history of abortion were 5.18 times higher in the northwest comparing with the southeast region (95% CI: 1.83 to 20.80). An intraclass correlation coefficient (ICC) of 16% was estimated which means that 16% of the variation in abortion occurrence not explained by the fixed effects is due to farms. In the second part of this work, a systematic review was conducted considering a range of journals and newspapers in order to verify the statistical methods used and the adequacy of the interpretations of the measures of association estimated in cross-sectional studies from the veterinary medicine field. A total of 62 articles were revised. The review showed that, regardless of the reported prevalence, 96% of them employed logistic regression, therefore estimating odds ratio (OR). From the articles that reported prevalence rates above 10%, 23 of them did a proper interpretation of OR as an odds ratio, or simply did not make a direct interpretation of the OR, while 23 articles interpreted improperly the OR as a risk or probability. Among the articles that reported prevalence rates lower than 10%, only three interpreted the OR as an odds ratio, five interpreted as a risk or probability and only one, despite the estimated prevalence ratio (PR), it was improperly interpreted. Meanwhile, in order to exemplify the use of statistical methods to estimate directly the PR, the more appropriate measure of association in cross-sectional studies, a data set obtained from a cross-sectional study to estimate the occurrence of antibodies (AB) against bovine viral diarrhea virus (BVDV) in milk was used; AB were measured in bulk tank samples from dairy herds located in the state of Rio Grande do Sul, Brazil, and also possible associated factors were estimated. Among the methods used, major discrepancies in the measures of association estimated were observed with the logistic regression, comparing with the log-binomial regression. Finally, it is important that such challenges are met by the researchers that undertake cross-sectional studies.
APA, Harvard, Vancouver, ISO, and other styles
48

Lopes, Christian Raposo. "Utilização de modelos estatísticos e machine learning para a previsão de vendas no sector do retalho : um estudo comparativo." Master's thesis, Instituto Superior de Economia e Gestão, 2019. http://hdl.handle.net/10400.5/19184.

Full text
Abstract:
Mestrado em Ciências Empresariais
A previsão das necessidades futuras torna-se fundamental para o correto planeamento e operação das empresas de retalho. Ao nível organizacional, as previsões de vendas funcionam como parâmetros de entrada para as diversas áreas funcionais das empresas. Previsões pouco precisas ou ineficientes podem levar à realização de elevado ou baixo nível de inventário, afetando de forma direta a rentabilidade e a posição competitiva das organizações. Os dados de vendas provenientes deste sector, exibem fortes padrões de tendência e variação sazonal, colocando desafios ao desenvolvimento de modelos de previsão eficazes. O objetivo do trabalho assenta na comparação do desempenho da previsão entre os métodos ARIMA e MLP para o estudo de caso de uma empresa portuguesa do sector do retalho, tendo em consideração cinco grupos de produtos. Pretende-se também investigar qual o impacto do pré-processamento dos dados de entrada no rigor das previsões, e de que forma a utilização combinada dos métodos ARIMA e MLP aumenta a eficácia desta previsão. Os resultados apontam para um melhor desempenho do método MLP em comparação com o método ARIMA, quando utilizado o erro de previsão EAM. Foi ainda demonstrado que o pré-processamento dos dados impacta de forma positiva o desempenho da previsão, contribuindo para a redução significativa dos erros de previsão. Também se conclui que a previsão combinada das metodologias ARIMA e MLP produz resultados positivos para duas das cinco categorias de produtos analisadas, mostrando ser um conceito com elevado interesse para uma investigação futura.
Forecasting the future needs is one of the most important decisions for the effective planning and operation of the retail industries. At the organizational level, sales forecasts act as input parameters for the several functional areas of the business. Inaccurate or inefficient forecasts can lead to high or low stock levels, directly affecting the organizations profit and competitive position. Retail sales data often exhibit a strong trend pattern and seasonal variation, creating challenges for the development of effective forecast models. The objective of this study is to compare the forecast performance of ARIMA and MLP methods through a case study of a Portuguese retail company, considering five different groups of products. It is also intended to investigate the impact of the data preprocessing on the accuracy of forecasts, and if the combination of ARIMA and MLP methods can increase the effectiveness of this forecast. The results show that the forecasting performance, evaluated via EAM error, of the MLP method is better than the one obtained for ARIMA method. It has also been shown that data preprocessing positively impacts the forecasting performance, contributing to a significantly reduction of the forecasting errors. It is also concluded that the combined forecasting of the ARIMA and MLP methodologies yields positive results for two of the five groups of products, proving to be a concept of high interest for future research.
info:eu-repo/semantics/publishedVersion
APA, Harvard, Vancouver, ISO, and other styles
49

Dias, Milena de Mello. "Uso da \"Superfórmula\" para projeto geométrico de tomada d´água." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/3/3147/tde-27072016-094958/.

Full text
Abstract:
O presente trabalho propõe a utilização da \"superfórmula\" como solução de dimensionamento de estruturas hidrodinâmicas na engenharia hidráulica. Para tanto, apresentam-se neste trabalho os métodos atualmente empregados para o dimensionamento de uma tomada d\'água, apresenta-se também o que é a \"superfórmula\", como se chegou a ela e a possibilidade de sua aplicação na engenharia, necessitando para isso algumas parametrizações. A introdução da \"superfórmula\" na engenharia hidráulica tem o objetivo de facilitar o dimensionamento de estruturas e reduzir as complexidades, com foco no desenvolvimento de formas geométricas ideais com vistas à hidrodinâmica e especificamente para a tomada d\'água, tem o objetivo de encontrar uma transição entre seções onde a perda de carga seja mínima, para isso, propõe-se uma modelação matemática para otimização da estrutura da tomada d\'água, baseada no conceito de aceleração convectiva máxima.
This dissertation proposes that \"superfórmula\" have high potential use in solutions for hydrodynamic design of hydraulic structures. Thus, it presents, the methods currently employed for the design of a water intake, also presents what is \"superfórmula\", how it discovered and application possibility in engineering, requiring for it some parameterizations. The introduction of \"superfórmula\" in hydraulic engineering aims to facilitate the design of structures and reduce the complexities, focusing on the development of ideal geometric shapes with a view to hydrodynamic and specifically for water intake, aims to find a transition between sections where the head loss. For this, it proposes a mathematical model to optimize the water intake structure based on the concept of maximum convective acceleration.
APA, Harvard, Vancouver, ISO, and other styles
50

Junior, Sergio Marques. "Modelo computacional para simular a equação da velocidade de infiltração da água no solo." Universidade de São Paulo, 1993. http://teses.usp.br/teses/disponiveis/11/11143/tde-20181127-161144/.

Full text
Abstract:
O objetivo do trabalho foi desenvolver um modelo de simulação capaz de estimar a equação de velocidade de infiltração da água no solo o procedimento matemático de estimativa foi baseado na técnica das diferenças finitas, no qual estima-se o volume de água que atravessa uma camada imaginária num dado intervalo de tempo. Os parâmetros necessários à simulação foram: umidade inicial, curva de retenção, condutividade hidráulica em meio saturado, densidade global e carga hidráulica. A aferição do modelo foi realizada a partir de testes de infiltração com colunas verticais de solo utilizando-se solos pertencentes a duas classes texturais distintas. Os parâmetros que mais influenciaram na simulação das equações de infiltração foram o intervalo de tempo e a condutividade hidráulica em meio saturado. Dentro do universo amostrado, não se verificou influência significativa do parâmetro volume hipotético da camada nas estimativas das equações de velocidade de infiltração
not available
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography