To see the other types of publications on this topic, follow the link: Multivariant.

Dissertations / Theses on the topic 'Multivariant'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Multivariant.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Boqué, Martí Ricard. "Límits de detecció en l'anàlisi multivariant." Doctoral thesis, Universitat Rovira i Virgili, 1997. http://hdl.handle.net/10803/8977.

Full text
Abstract:
La normativa internacional referent a la qualitat en els laboratoris d'anàlisi estableix que un mètode analític, abans de poder ser utilitzat com a mètode de rutina, ha d'estar validat. S'entén com a validació l'establiment de que els paràmetres de qualitat associats a un mètode compleixen els requeriments especificats per a una aplicació analítica determinada. Dins els paràmetres de qualitat importants es troba el límit de detecció (LDD).

Els mètodes analítics que utilitzen tècniques capaces de generar dades multivariants són cada vegada més habituals i és, per tant, important el derivar-ne els paràmetres de qualitat associats. En la present Tesi Doctoral es va abordar l'estudi dels límits de detecció.

En el primer capítol es presenta una evolució històrica del concepte de LDD, amb les diferents aproximacions per al seu càlcul en mètodes d'anàlisi que utilitzen el calibratge univariant. També es descriuen els diferents factors que influeixen en el càlcul del LDD.

Les diferents tècniques d'anàlisi multivariant existents, junt amb els diversos models matemàtics utilitzats, ha fet que s'hagin desenvolupat diferents aproximacions al càlcul dels LDD multivariants. En el segon capítol es revisen críticament aquestes aproximacions.

En el tercer capítol es presenta una aproximació per calcular el LDD a unes dades obtingudes mitjançant l'acoblament cromatografia de gasos-espectrometria de masses, que es basa en l'ús de la recta de calibratge dels scores del primer component principal (obtinguts per descomposició mitjançant anàlisi de components principals de la matriu de respostes original) respecte les concentracions dels patrons de calibratge.

Aquest mètode és aplicable només en absència de substàncies interferents i quan el primer component principal explica un percentatge molt elevat de la informació continguda en les dades originals. Per tal de solucionar aquesta limitació, es va procedir a desenvolupar un estimador del LDD aplicat a models directes de calibratge multivariant, on les respostes es modelen en funció de les concentracions. En aquests models, l'etapa de calibratge pot dur-se a terme a partir de mostres consistents en els analits purs o mostres consistents en mescles dels diferents analits. Els estimadors derivats per ambdós casos, juntament amb una aplicació a dades reals, configuren el quart capítol.

Els mètodes de calibratge basats en els models directes tenen l'inconvenient que cal conèixer les concentracions de totes les substàncies que produeixen senyal o, almenys, cal disposar dels espectres dels analits i els interferents purs. Aquesta condició no és la més habitual en els laboratoris, on la majoria de mostres analitzades són matrius complexes, de composició parcialment desconeguda, i en les quals sovint només interessa determinar un analit en concret. Amb aquests tipus de mostres s'ha de recórrer als models inversos, en els quals la concentració d'analit es modela en funció de la resposta obtinguda. Aquests models tenen l'avantatge que només cal conèixer la concentració de l'analit d'interès per construir el model de calibratge.

Es va derivar un mètode de càlcul dels LDD per a models inversos de calibratge multivariant i que pogués servir per un ventall més ampli de mostres reals (mediambientals, alimentàries,...). En un primer treball, l'estimador del LDD es calcula a partir dels intervals de confiança del model de calibratge multivariant. En una segona aproximació, l'estimador es basa en la teoria dels tests d'hipòtesi i utilitza la incertesa de les concentracions predites. Aquests continguts, juntament amb les aplicacions a dades reals, són els que conformen el capítol cinquè.

Finalment, a les conclusions es discuteixen els avantatges i les limitacions dels estimadors presentats i es donen una sèrie de pautes de com s'ha d'enfocar l'estudi de la seva millora en futurs treballs. Com a perspectiva de futur, es proposa l'aplicació dels coneixements adquirits al desenvolupament d'estimadors de càlcul del LDD en mètodes d'anàlisi que utilitzen el calibratge de segon ordre.
Limits of detection in multivariate analysis

International norms concerning the quality of analytical laboratories establish that an analytical method, before being used as a routine method, has to be validated. Validation is defined as the process of verifying that a method is fit for purpose, that is, suitable for its intended use. Among the important performance parameters in method validation, there is the limit of detection (LOD).

Analytical methods that use techniques capable of generating multivariate data are more and more frequent. It is therefore important to derive their associated performance parameters. In this Doctoral Thesis we have focused on the study of the LODs.

In the first chapter, the historical evolution of the concept of LOD is presented, together with the different approaches to calculate it in analytical methods using univariate calibration. The different factors affecting the calculation of the LOD are also described..

The different existing techniques of multivariate analysis, together with the various mathematical models used, have motivated the development of different approaches for calculating multivariate LODs. In the second chapter all the approaches developed so far are critically reviewed.

In chapter 3 an approach is presented to calculate the LOD to data obtained from a hyphenated technique, gas chromatography-mass spectrometry. The approach is based on the use of the calibration line of the scores of the first principal component (obtained by principal component analysis decomposition of the original response matrix) versus the concentrations of the calibration standards.

This approach is only applicable if interfering substances are not present and when the first principal component explains a very high percentage of the information in the original data. To overcome this limitation, a LOD estimator was developed to be applied to multivariate calibration using the direct model, in which the responses are modelled as a function of the concentrations. In these models, the calibration step can be carried out either from standards consistent on the pure analytes or standards consistent on mixtures of the different analytes. The LOD estimators derived for both cases, together with an application to real data, constitute the contents of chapter 4.

Calibration methods based on the direct model have a big disadvantage: the concentrations of all the analytes contributing to the response or, at least, the spectra of pure analytes and interfering substances, must be known. This condition is seldom met in analytical laboratories, where most of the samples analysed are complex and have composition partially unknown. Also, usually only one specific analyte wants to be determined. With this type of samples one has to resort to multivariate calibration using the inverse model, in which the concentration of the analyte is modelled as a function of the response measured. Inverse models have the advantage that only the concentration of the analyte of interest needs to be known in the calibration samples when building the calibration model.

An estimator was derived to calculate the LOD for multivariate calibration using the inverse model, applicable to a wider range of real samples (environmental, foodstuffs,...). In a first work, the LOD estimator is calculated from the confidence intervals of the multivariate calibration model. In a second approach, the estimator is based on the theory of hypothesis testing and uses the uncertainty of the predicted concentrations. These approaches, together with the applications to real data, are included in chapter 5.

Finally, in the conclusions, the advantages and limitations of the developed LOD estimators are discussed and a series of guidelines are given on how to improve the LOD estimators in future works. As prospect research, the development of LOD estimators is suggested for analytical methods that generate second-order data.
APA, Harvard, Vancouver, ISO, and other styles
2

Bhattacherjee, Rupa. "Multivariant levels of interpretations on selected Cary¢as." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ55135.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Evans, Ryan George. "LogBoy meets FilterGirl--a toolkit for multivariant movies." Thesis, Massachusetts Institute of Technology, 1994. http://hdl.handle.net/1721.1/29073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Renart, i. Vicens Gemma. "Aspectes metodològics i aplicacions de la modelització del temps de supervivència multivariant mitjançant models mixtes." Doctoral thesis, Universitat de Girona, 2009. http://hdl.handle.net/10803/7705.

Full text
Abstract:
Els estudis de supervivència s'interessen pel temps que passa des de l'inici de l'estudi (diagnòstic de la malaltia, inici del tractament,...) fins que es produeix l'esdeveniment d'interès (mort, curació, millora,...). No obstant això, moltes vegades aquest esdeveniment s'observa més d'una vegada en un mateix individu durant el període de seguiment (dades de supervivència multivariant). En aquest cas, és necessari utilitzar una metodologia diferent a la utilitzada en l'anàlisi de supervivència estàndard. El principal problema que l'estudi d'aquest tipus de dades comporta és que les observacions poden no ser independents. Fins ara, aquest problema s'ha solucionat de dues maneres diferents en funció de la variable dependent. Si aquesta variable segueix una distribució de la família exponencial s'utilitzen els models lineals generalitzats mixtes (GLMM); i si aquesta variable és el temps, variable amb una distribució de probabilitat no pertanyent a aquesta família, s'utilitza l'anàlisi de supervivència multivariant. El que es pretén en aquesta tesis és unificar aquests dos enfocs, és a dir, utilitzar una variable dependent que sigui el temps amb agrupacions d'individus o d'observacions, a partir d'un GLMM, amb la finalitat d'introduir nous mètodes pel tractament d'aquest tipus de dades.
Survival research is interested in the time that passes from the beginning of the study until the event of interest occurs. However, it is very common to find individuals who experience this event more than once during the period of study. In this case, a different methodology needs to be used to that of the standard univariate survival analysis.In this case, the duration between recurrences could be correlated due to the presence of unobserved individual factors. This type of event is normally dealt with by introducing individual random effects in the model, resulting in a multivariate model. The random effects represent the individual "frailty" and the variance of these effects measures the unobserved heterogeneity between individuals. Until recently, the most common way of dealing with this type of situation in survival analysis was by using marginal models such as the robust covariance matrix estimation in the Andersen-Gill approximation; the Wei, Lin and Weissfeld method or the Prentice, Williams and Peterson method; or using the conditional models such as the frailty models (EM algorhthym). The aim of this study is to model multivariate survival data, based on generalised linear mixed models (GLMM).
APA, Harvard, Vancouver, ISO, and other styles
5

Duran, Rúbies Josep Maria. "Contribucions a les desigualtats en regressió i anàlisi multivariant." Doctoral thesis, Universitat de Barcelona, 2004. http://hdl.handle.net/10803/1554.

Full text
Abstract:
Aquesta memòria és un recull de diverses desigualtats d'interès principalment en regressió i anàlisi multivariant, les quals en alguns casos s'il·lustren i interpreten gràfícament.

En els primers capítols es presenten resultats aparentment desconcertants, com per exemple la desigualtat de Hamilton-Roudledge-Cuadras. els quals ens poden avisar dels perills de l'ús, a la Ileugera, de la regressió lineal múltiple i altres tècniques multivariants.

S'estudia també la paradoxa de Simpson i una versió multivariant com és la desigualtat en distàncies Mahalanobis més gran que Pearson.

S'ha dedicat també un capítol a l'estudi d'un mètode molt general d'anàlisi multivariant presentat per Cuadras, Atkinson i Fortiana que suposa implícitament la construcció de
densitats de probabilitat a partir de distàncies.

En la darrera part de la memòria es presenten desigualtats per a la variància d'una funció d'una variable aleatòria que tenen aspecte semblant a la desigualtat de Cramér-Rao, altres relacionades amb la distància de Wasserstein i altres desjgualtats que s'obtenen de la propietat d'acotació de la raó de versemblança.
APA, Harvard, Vancouver, ISO, and other styles
6

Johnston, Kyle S. "Planar substrate surface plasmon resonance probe with multivariant calibration /." Thesis, Connect to this title online; UW restricted, 1996. http://hdl.handle.net/1773/6069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Jaumot, Soler Joaquim. "Nous desenvolupaments, aplicacions bioanalítiques i validació dels mètodes de resolució multivariant." Doctoral thesis, Universitat de Barcelona, 2006. http://hdl.handle.net/10803/2730.

Full text
Abstract:
Aquest treball s'integra en una de les línies d'investigació del grup de recerca "Quimiometria" del Departament de Química Analítica de la Universitat de Barcelona. Aquesta línia d'investigació es centra en el desenvolupament de mètodes quimiomètrics d'anàlisi multivariant de dades, i en la seva aplicació a l'estudi analític dels canvis de conformació i/o de les interaccions entre biomolècules.

Actualment és possible enregistrar l'espectre sencer d'una mostra en poc temps. Aquest augment del nombre i de la complexitat de les dades adquirides ha portat a l'aparició de mètodes que tenen com a finalitat la obtenció d'informació d'interés físico-químic a partir d'aquests conjunt de dades. Amb aquesta finalitat es poden trobar dues aproximacions: a) els mètodes de modelatge rígid que exigeixen la postulació d'un model químic o cinètic al qual ajustar les dades experimentals, i b) els mètodes de modelatge flexible que no necessiten la postulació d'un model.

El treball realitzat en aquests tesi doctoral es pot dividir en tres blocs.

En primer lloc, s'ha desenvolupat una interfície gràfica en l'entorn de programació MATLAB pel mètode de resolució multivariant de corbes mitjançant mínims quadrats alternats (MCR-ALS). Aquesta interfície millora notablement la interacció entre l'usuari i el programa, i potencía la seva utilització generalitzada per part d'usuaris no acostumats a treballar amb eines pròpies de la Quimiometria.

En segon lloc, s'ha dut a terme la validació de diversos mètodes d'anàlisi multivariant, és a dir, s'ha estudiat la fiabilitat de les solucions obtingudes per aquest tipus de mètodes quimiomètrics. Així, pel mètode MCR-ALS, s'ha analitzat la influència i la propagació de l'error experimental i les possibles repercusions sobre les ambigüetats matemàtiques existents en les solucions obtingudes. Aquest estudi s'ha realitzat tant en el cas de l'anàlisi individual de matrius de dades obtingudes en un únic experiment, com en el cas de l'anàlisi simultani de matrius de dades obtingudes en diversos experiments. En el cas dels mètodes de modelatge rígid s'ha estudiat l'ambigüetat existent al ajustar mecanismes cinètics complexos. En aquest cas s'ha observat l'aparició de mínims locals múltiples amb el mateix valor d'ajust en la superfície de desposta associada.

Finalment, s'han aplicat els mètodes quimiomètrics de modelatge flexible i de modelatge rígid a l'estudi dels equilibris en solució dels àcids nucleics. Aquestes són biomolècules que tenen una organització jeràrquica començant en la seqüència de nucleòtids a les cadenes fins a estructures complexes d'ordre superior com els tríplexs o quadruplexs. Els canvis conformacionals o les interaccions amb d'altres biomolècules s'han estudiat tradicionalment mitjançant experiments seguits amb tècniques espectroscòpies. En aquest treball es seguiran aquests processos mitjançant lectures a moltes longituts d'ona (aproximació multivariant) i s'aplicaran mètodes quimiomètrics adients de tractaments de dades multivariants. Els procesos estudiants en aquesta Tesi són bàsicament els canvis conformacionals provocats en variar condicions del medi, com el pH, la temperatura, la concentració d'altres ions... S'han emprat tècniques espectroscòpiques com l'absorció molecular a l'UV-visible, la fluorescència, el dicroisme circular i la ressonància magnètica nuclear. Una altra aplicació, ha estat l'anàlisi de micromatrius d'ADN. L'aparició d'aquesta la tecnologia ha permès obtenir informació sobre els nivells de l'expressió gènica per un gran nombre de gens en un únic experiment. La generació de grans quantitats de dades requereix la utilització d'eines mitjançant les quals es pugui extreure la informació biològica. En aquest treball s'ha aplicat el mètode MCR-ALS a l'anàlisis de diversos conjunts de dades per tal de poder determinar la relació entre les mostres que presenten diferents tipus de càncer i els gens estudiats.
OF THE PHD THESIS:

This PhD Thesis has been developed in the framework of the Chemometrics group at the Universitat de Barcelona. The work deals with the development and validation of Multivariate Curve Resolution (MCR) methods (both hard- and soft-modelling), and with their application to bioanalytical problems. The work has been organized into three blocks:

First, a graphical interface has been developed for the program running the MCR-ALS (Multivariate Curve resolution Alternating Least Squares) method in the MATLAB® environment. This interface improves the interaction between the user and the program and facilitates the use of multivariate curve resolution to little experineced potential users.

Secondly, validation of multivariate resolution methods of data analysis has been carried out. For the MCR-ALS method, effects of rotational ambiguities and of propagation of experimental noise have been studied. These studies have been performed in the analysis of a single experiment and in the case of analyzing multiple experiments simultaneously. In the case of hard-modelling kinetic data fitting methods, ambiguities in the analysis of kinetic experiments have been studied and methods to overcome this ambiguity have been proposed.

Third, multivariate resolution methods have been applied to the study of conformational equilibria of nucleic acids. These are biomolecules that have a hierarchic organization from the nucleotide sequence to higher order structures such as triplex or quadruplex. Traditionally, conformational changes or interactions of nucleic acids with other biomolecules have been spectroscopically monitored at just one wavelength. In this work, these processes have been followed at multiple wavelengths and suitable multivariate resolution methods for the data treatment have been applied. Processes studied during this Thesis have been DNA conformational changes induced by pH, temperature or salinity. Spectroscopic techniques such as molecular absorption in the UV-visible, circular dichroism or nuclear magnetic resonance have been used for this purpose. Finally, data obtained using DNA microarrays have been analyzed. This technique allows highthroughput analysis of relative gene expressions of thousands of genes of an organism that generates large amounts of data. This has caused a need for statistical methods that can extract useful information for further research. In this PhD Thesis, the MCR-ALS method has been proposed for the analysis of this kind of data with very promising results.
APA, Harvard, Vancouver, ISO, and other styles
8

Sævar, Guðbjörnssonn Alexander, and Yassin Haider Mohammed. "Flow Optimisation for Improved Performance of a Multivariant Manufacturing and Assembly Line." Thesis, KTH, Industriell produktion, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254443.

Full text
Abstract:
Stoneridge, Inc. is an independent designer and manufacturer of highly engineered electrical and electronic components, modules and systems principally for the automotive, commercial vehicle, motorcycle, agricultural and off-highway vehicle markets. A subsidiary of Stoneridge, Inc. is the company Stoneridge Electronics. They specialise in instrument clusters and tachographs which are manufactured in high quantityin their production plant in Örebro, Sweden. This master thesis focuses on the production line of an instrument cluster called Angela. In close collaboration with Stoneridge Electronics, the goal was to find ways to improve the output of the Angela line by at least 10% compared to the three best months in terms of output from the year before. The Angela line was analyzed thoroughly and from different perspectives using lean tools such as value stream mapping, spaghetti diagram and continuous improvement. Finally, the simulation software ExtendSim was used in order to simulate and analyse different suggestions. The results show that various steps can be taken to improve the efficiency and output of the manufacturing line by as much as 16.3%. Due to the fact that other production lines within the production are similar to the one that the project was carried out on, the project results could be applicable for the other lines as well.
Stoneridge, Inc. är en oberoende designer och tillverkare av högteknologiska elektriska och elektroniska komponenter, moduler och system huvudsakligen för fordonsmarknaderna. Ett dotterbolag till Stoneridge, Inc. är företaget Stoneridge Electronics. De är specialiserade på instrument kluster och färdskrivare som tillverkas i produktionsanläggning i Örebro. Denna examensarbete fokuserar på produktionslinje av ett instrumentkluster som heter Angela. I nära samarbete med Stoneridge Electronics,målet var att hitta sätt att förbättra produktionen av Angela linje med minst 10 % jämförtmed de tre bästa månaderna när det gäller produktion från året innan. Angela-linjen analyserades grundligt och från olika perspektiv med lean verktyg som värdeflödesanalys, spaghetti diagram och kontinuerlig förbättring. Slutligen användes simuleringsprogrammet ExtendSim för att simulera och analysera olika förslag. Resultaten visar att olika steg kan vidtas för att förbättra effektiviteten och produktionen av produktionslinjen med så mycket som 16.3%. På grund av att andra produktionslinjer inom produktionen liknar den som projektet genomfördes på, kan projektresultaten vara tillämpliga för andra linjer också.
APA, Harvard, Vancouver, ISO, and other styles
9

Ferré, Baldrich Joan. "Experimental design applied to the selection of samples and sensors in multivariate calibration." Doctoral thesis, Universitat Rovira i Virgili, 1998. http://hdl.handle.net/10803/9020.

Full text
Abstract:
Els models de calibratge multivariant relacionen respostes instrumentals (per exemple, espectres) d'un conjunt de mostres de calibratge amb quantitats de variables físiques o químiques tals com concentració d'analit, o índexs (per exemple, el nombre d'octà en gasolines). Aquesta relació es fa servir per predir aquestes quantitats a partir de les respostes instrumentals de noves mostres desconegudes, mesurades de la mateixa manera.

La predicció emprant models de calibratge multivariants està esdevenint un pas comú en els procediments analítics. Per tant, l'habilitat del model de donar prediccions precises i no esbiaixades té una influència decisiva en la qualitat del resultat analític. És important que les mostres de calibratge i els sensors es triïn adequadament de manera que els models pugin representar adequadament el fenomen en estudi i assegurar la qualitat de les prediccions.

En aquesta tesi s'ha estudiat la selecció de mostres de calibratge d'un a llista de mostres candidates en regressió sobre components principals (PCR) i la selecció de longituds d'ona en el model de mínims quadrats clàssics (CLS). El fonament l'ha donat la teoria del disseny estadístic d'experiments.

En PCR, el nombre mínim de mostres de calibratge es tria emprant les respostes instrumentals de les mostres candidates. La concentració d'analit només cal determinar-la en les mostres seleccionades. S'han proposat diferents usos del criteri d'optimalitat D.

En CLS, s'han interpretat diferents criteris per la selecció de longituds d'ona des del punt de vista de l'el·lipsoide de confiança de les concentracions predites. Els criteris també s'han revisat de manera crítica d'acord amb el seu efecte en la precisió, exactitud i veracitat (que s'han revisat d'acord amb les definicions ISO). Basat en la teoria del disseny d'experiments, s'han donat les regles per a la selecció de sensors. A demés, s'ha proposat un nou mètode per a detectar i reduir el biaix en les prediccions de noves mostres predites mitjançant CLS.

Conclusions
1. Criteris d'optimalitat del disseny d'experiment en MLR s'han aplicat per triar longituds d'ona de calibratge en CLS i el nombre mínim de mostres de calibratge en MLR i PCR a partir de les respostes instrumentals o scores de components principals d'una llista de candidats. Aquests criteris són un alternativa a (i/o complementen) el criteri subjectiu de l'experimentador. Els models construïts amb els punts triats per aquests criteris tenen una menor variància dels coeficients o concentracions i una millor habilitat de predicció que els models construïts amb mostres triades aleatòriament.

2. El criteri D s'ha emprat amb èxit per triar mostres de calibratge en PCR i MLR, per triar un grup reduït de mostres per a comprovar la validesa de models de PCR abans d'estandarditzar-los i per triar longituds d'ona en CLS a partir de la matriu de sensibilitats. Les mostres de calibratge que són D òptimes generalment donen models de PCR i MLR amb una millor habilitat de predicció que quan les mostres de calibratge es trien aleatòriament o emprant l'algorisme de Kennard-Stone

3. Cal emprar algorismes d'optimització per trobar, els subconjunts de I punts òptims entre una llista de N candidats. En aquest treball es van emprar els algorismes de Fedorov, de Kennard-Stone i algorismes genètics.

4. L'el·lipsoide de confiança de les concentracions estimades i la teoria del disseny d'experiments proporcionen el marc per interpretar l'efecte dels sensors triats amb aquests criteris en els resultats de predicció del model i per definir noves regles per triar longituds d'ona.

5. L'eficàcia dels criteris de selecció en CLS basats en la matriu de calibratge necessiten que no hi hagi biaix en la resposta dels sensors triats. La qualitat de les dades s'ha de comprovar abans de que s'empri el mètode de selecció de longituds d'ona.

6. La senyal analítica neta (NAS) és important pera comprendre el procés de quantificació en CLS i la propagació dels errors a les concentracions predites. S'han emprat diagnòstics tals com la sensibilitat, selectivitat i el gràfic de regressió del senyal analític net (NASRP), que es basen en el NAS d'un analit particular. S'ha vist que la norma del NAS està relacionada amb l'error de predicció.

7. El NASRP és una eina per a detectar gràficament si la resposta mesurada de la mostra desconeguda segueix el model calculat. La concentració estimada és el pendent de la recta ajustada als punts de gràfic. plot. Els sensors amb biaix es poden detectar i els sensors que segueixen el model es poden triar emprant la funció indicador d'Error i un mètode de finestres mòbils.
Multivariate calibration models relate instrumental responses (e.g. spectra) of a set of calibration samples to the quantities of chemical or physical variables such as analyte concentrations, or indexes (e.g. octane number in fuels). This relationship is used to predict these quantities from the instrumental response data of new unknown samples measured in the same manner.

Prediction using multivariate calibration models is becoming one common step in the analytical procedure. Therefore, the ability of the model to give precise and unbiased predictions has a decisive influence on the quality of the analytical result. It is important that the calibration samples and sensors be carefully selected so that the models can properly represent the phenomenon under study and assure the quality of the predictions.

We have studied the selection of calibration samples from the list of all the available samples in principal component regression (PCR) and the selection of wavelengths in classical least squares (CLS). The underlying basis has been given by experimental design theory.

In PCR, the minimum number of calibration samples are selected using the instrumental responses of the candidate samples. The analyte concentration is only determined in the selected samples. Different uses of the D-criterion have also been proposed.

In CLS, different criteria for wavelength selection have been interpreted from the point of view of the experimental design using the confidence hyperellipsoid of the predicted concentrations. The criteria have also been critically reviewed according to their effect on precision, accuracy and trueness (which are revised following ISO definitions). Based on the experimental design theory, new guidelines for sensor selection have been given. Moreover, a new method for detecting and reducing bias in unknown samples to be analyzed using CLS.

Conclusions
1. Optimality criteria derived from experimental design in MLR have been applied to select calibration wavelengths in CLS and the minimum number of calibration samples in MLR and PCR from the instrumental responses or principal component scores of a list of candidates. These criteria are an alternative (and/or a complement) to the experimenter's subjective criterion. The models built with the points selected with the proposed criteria had a smaller variance of the coefficients or concentrations and better predictive ability than the models built with the samples selected randomly

2. The D-criterion has been successfully used for selecting calibration samples in PCR and MLR, for selecting a reduced set of samples to assess the validity of PCR models before standardization and for selecting wavelengths in CLS from the matrix of sensitivities. D optimal calibration samples generally give PCR and MLR models with a better predictive ability than calibration samples selected randomly or using the Kennard-Stone algorithm.

3. Optimization algorithms are needed to find the optimal subsets of I points from a list of N candidates. Fedorov's algorithm, Kennard-Stone algorithm and Genetic Algorithms were studied here.

4. The confidence ellipsoid of the estimated concentrations and the experimental design theory provide the framework for interpreting the effect of the sensors selected with these criteria on the prediction results of the model and for deriving new guidelines for wavelength selection.

5. The efficacy of the selection criteria in CLS based on the calibration matrix requires there to be no bias in the response at the selected sensors. The quality of the data must be checked before a wavelength selection method is used.

6. The net analyte signal (NAS) is important to understand the quantification process in CLS and the propagation of errors to the predicted concentrations. Diagnostics such as sensitivity, selectivity and net analyte signal regression plots (NASRP) which are based on the NAS for each particular analyte have been used. The norm of the NAS has been found to be related to the prediction error .

7. The NASRP is a tool for graphically detecting whether the measured response of the unknown sample follows the calculated model. The estimated concentration is the slope of the straight line fitted to the points in this plot. The sensors with bias can be detected and the sensors that best follow the model can be selected using the Error Indicator function and a moving window method.
APA, Harvard, Vancouver, ISO, and other styles
10

Cavaglia, Pietro Julieta. "Monitoring wine fermentation using ATR-MIR spectroscopy and chemometric techniques." Doctoral thesis, Universitat Rovira i Virgili, 2021. http://hdl.handle.net/10803/672472.

Full text
Abstract:
El vi és un dels productes amb valor afegit més apreciats al món i és per això que el control de la producció vinícola ha sigut sempre un tema prioritari per a la majoria dels cellers. La implementació d’anàlisis at-line com són les Tècniques Analítiques de Processos (PAT), no només permet un control del vi acabat si no que també dóna la possibilitat de prendre mesures correctives al llarg del procés evitant així obtenir un producte final defectuós. En aquesta tesi doctoral, es va investigar la possibilitat d’implementar diferents estratègies per controlar i detectar desviacions durant la fermentació alcohòlica utilitzant un equip portable i de resposta ràpida: un equip d’ espectroscòpia en l’infraroig mitjà, en el mode de reflectància total atenuada (ATR-MIR) el qual permet obtenir, en pocs segons, una gran quantitat d’informació sobre el procés de fermentació que es va tractar amb diferents tècniques quimiomètriques. Primer, utilitzant les dades espectrals i la regressió de mínims quadrats parcials, es van predir diferents paràmetres químics durant la fermentació alcohòlica. En segon lloc, es van comparar els espectres de fermentacions control amb fermentacions desviades utilitzant l’anàlisi discriminant per mínims quadrats parcials
El vino es uno de los productos con valor añadido más apreciados del mundo y por ello, el control de la producción vinícola ha sido siempre un tema prioritario para la mayoría de bodegas. La implementación de análisis at-line como son las Técnicas Analíticas de Procesos (PAT), no sólo permite un control del vino acabado si no que también brinda la posibilidad de tomar medidas correctivas a lo largo del proceso evitando así obtener un producto final defectuoso. En esta tesis doctoral, se investigó la posibilidad de implementar diferentes estrategias para controlar y detectar desviaciones durante la fermentación alcohólica utilizando un equipo portátil y de respuesta rápida: un equipo de espectroscopia en el infrarrojo medio, en el modo de reflectancia total atenuada (ATR-MIR) el cual permite obtener, en pocos segundos, una gran cantidad de información sobre el proceso de fermentación que se trató con diferentes técnicas quimiométricas. Primero, usando los datos espectrales y la regresión de mínimos cuadrados parciales, se predijeron distintos parámetros químicos durante la fermentación alcohólica. En segundo lugar, se compararon los espectros de fermentaciones control con fermentaciones desviadas utilizando el análisis discriminante por mínimos cuadrados parciales
Wine is one of the most appreciated high added-value products in the world and therefore, controlling wine production has always been a priority for most wineries. Implementing at-line analyses such as Process Analytical Technologies (PAT) guidelines, not only enables a control of the final wine but also gives the possibility to apply correcting measures throughout the process, thus avoiding a defective final product. In this doctoral thesis, we investigated the possibility of implementing different strategies to control and detect deviations during wine alcoholic fermentation using a fast and portable equipment: an Attenuated Total Reflectance Mid-Infrared (ATR-MIR) spectrometer which allows obtaining, in a few seconds, a large amount of information about the fermentation process, which was processed with different chemometric techniques. First, using the spectral data and Partial Least Square Regression, different chemical parameters were predicted during alcoholic fermentation. Secondly, we compared the spectra from both Normal Operation Conditions and deviated fermentations using Partial Least Squares Discriminant Analysis. ANOVA–simultaneous component analysis was applied to study the influence of several factors into the variance of the spectra. Multivariate Curve Resolution Alternating Least Squares was used to model both alcoholic and malolactic fermentations. Finally, a PAT methodology
APA, Harvard, Vancouver, ISO, and other styles
11

Papadimitriou, Sofia. "Towards multivariant pathogenicity predictions: Using machine-learning to directly predict and explore disease-causing oligogenic variant combinations." Doctoral thesis, Universite Libre de Bruxelles, 2020. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/312576.

Full text
Abstract:
The emergence of statistical and predictive methods able to analyse genomic data has revolutionised the field of medical genetics, allowing the identification of disease-causing gene variants (i.e. mutations) for several human genetic diseases. Although these approaches have greatly improved our understanding of Mendelian «one gene – one phenotype» genetic models, studying diseases related to more intricate models that involve causative variants in several genes (i.e. oligogenic diseases) still remains a challenge, either due to the lack of sufficient methodologies and disease-specific cohorts to study or the phenotypic complexity associated with such diseases. This situation makes it difficult to not only understand the genetic mechanisms of the disease, but to also offer proper counseling and support to the patient. Until recently, no specialized predictive methods existed to directly predict causative variant combinations for oligogenic diseases. However, with the advent of data on variant combinations in gene pairs (i.e. bilocus variant combinations) leading to disease, collected at the Digenic Diseases Database (DIDA), we hypothesized that the transition from single to variant combination pathogenicity predictors is now possible.To investigate this hypothesis, we organised our research on two main routes. At first, we developed an interpretable variant combination pathogenicity predictor, called VarCoPP, for gene pairs. For this goal, we trained multiple Random Forest algorithms on pathogenic bilocus variant combinations from DIDA against neutral data from the 1000 Genomes Project and investigated the contribution of the incorporated variant, gene and gene pair features to the prediction outcome. In the second part, we explored the usefulness of different gene pair burden scores based on this novel predictive method, in discovering oligogenic signatures in neurodevelopmental diseases, which involve a spectrum of monogenic to polygenic cases. We performed a preliminary analysis on the Deciphering Developmental Diseases (DDD) project containing exome data of 4195 families and assessed the capability of our scores in supporting already diagnosed monogenic cases, discovering significant pairs compared to control cases and linking patients in communities based on the genetic burden they share, using the Leiden community detection algorithm.The performance of VarCoPP shows that it is possible to predict disease-causing bilocus variant combinations with good accuracy both during cross-validation and when testing on new cases. We also show its relevance for disease-related gene panels, and enhanced its clinical applicability by defining confidence zones that guarantee with 95\% or 99\% probability that a prediction is indeed a true positive, guiding clinical researchers towards the most relevant results. This method and additional biological annotations are incorporated in an online platform called ORVAL that allows the prediction and exploration of candidate disease-causing oligogenic variant combinations with predicted gene networks, based on patient variant data. Our preliminary analysis on the DDD cohort shows that - although all bi-locus burden scores show advantages, disadvantages and certain types of biases - taking the maximum pathogenicity score present inside a gene pair seems to provide, at the moment, the most unbiased results. We also show that our predictive methods enable us to detect patient communities inside DDD, based exclusively on the shared pathogenic bi-locus burden between patients, with more than half of these communities containing enriched phenotypic and molecular pathway information. Our predictive method is also able to bring to the surface genes not officially known to be involved in disease, but nevertheless, with a biological relevance, as well as a few examples of potential oligogenicity inside the network, paving the way for further exploration of oligogenic signatures for neurodevelopmental diseases.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
12

Mañá, Rey Joan Mª. "Estudio de los factores pronósticos en la sarcoidosis: análisis de la persistencia de actividad mediante técnicas multivariantes." Doctoral thesis, Universitat de Barcelona, 1990. http://hdl.handle.net/10803/2263.

Full text
Abstract:
a) INTRODUCCIÓN.

La sarcoidosis es una enfermedad cuya evolución puede oscilar desde formas asintomáticas o con eritema nudoso con remisión espontánea, hasta cuadros progresivamente incapacitantes a pesar de un tratamiento con corticoides. La dificultad fundamental se plantea en poder identificar, en la presentación inicial de la enfermedad, aquellos datos que ayuden a establecer un pronóstico y, en consecuencia, a indicar un tratamiento. En la literatura médica sobre el pronóstico se han analizado sólo aspectos parciales de la enfermedad y no se ha utilizado una metodología estadística adecuada. En el Hospital de Bellvitge de Barcelona se dispone de una amplia casuística de pacientes con sarcoidosis y el establecimiento del pronóstico y la indicación de tratamiento son especialmente problemáticos. Por dicho motivo se inició un estudio con los siguientes

b) OBJETIVOS

1) Estudiar la casuística de sarcoidosis del hospital.

2) Estudiar los factores pronósticos de persistencia de actividad de la enfermedad en el tiempo, mediante técnicas estadísticas univariantes y multivariantes.

c) MATERIAL Y METODOS

1) Casuística general: El estudio abarcó un periodo de 14 años y se efectuó en el Servicio de Medicina Interna del Hospital de Bellvitge, en colaboraci6n con otros servicios. A todos los pacientes incluidos en el estudio se les exigió confirmación anatomopatológica, excepto si se trataba de un síndrome de Lofgren.y fueron sometidos a un protocolo de estudio prospectivo que incluía datos referidos a formas clínicas, estadios radiológicos, marcadores de actividad, evolución y tratamiento.

2) Estudio de los factores pronósticos: El pronóstico se definió como "la persistencia de actividad de la enfermedad en el transcurso del tiempo". La actividad se definió como "la presencia de datos clínicos y/o de alteraciones radiológicas y/o de alteraciones en los marcadores de actividad, persistentes o cambiantes en el tiempo. A partir del protocolo de estudio se definieron las variables que se estudiaron como factores pronósticos.

3) Metodología estadística: se efectuaron dos tipos de análisis estadísticos:

1º) Análisis de la persistencia de actividad a los 2 años del diagnóstico, mediante el test de chi-cuadrado y el test de regresión logística múltiple.

2º) Análisis de la persistencia de actividad en el transcurso del tiempo, mediante Curvas actuariales (Kaplan-Meier) y el test de Mantel-Cox, y el test de Cox para Curvas actuariales ("Cox proportional hazards regression models"). Con esta metodología se realizaron dos análisis: uno con variables clínicas y otro que incluía además a los marcadores de actividad.

d) RESULTADOS

1) Casuística general: Se estudiaron 209 pacientes, con una edad media de 40 años y una relación mujer/varón de 3: 1. Destacó el elevado número de formas clínicas con eritema nudoso (62.7%) y la mayor frecuencia de estadio 1 en la radiografía de tórax (59.3%). Los niveles séricos de la enzima de conversión de la angiotensina fueron superiores a 2 DE en el 44% de los pacientes con eritema nudoso y en el 65% de los pacientes sin eritema nudoso. La captación endotorácica de galio-67 fue predominantemente en forma de estadio 1 (67.3%). Un 16% de los casos presentaron disminución de la capacidad vital y un 17% del test de difusión del monóxido de carbono. El 64% de los pacientes a los que se practicó lavado broncoalveolar presentó alveolitis de alta intensidad (linfocitosis superior al 28%).

2) Estudio de los factores pronósticos: El estudio clínico de persistencia de actividad a los 2 años incluyó a 155 pacientes y las variables que se asociaron con independencia de las demás a un mal pronóstico fueron: ausencia de eritema nudoso, edad superior a 40 años, esplenomegalia y afectación del parénquima en la radiografía de tórax. El estudio clínico de persistencia de actividad en el transcurso del tiempo incluyó 193 casos y las variables que con independencia de las demás se asociaron a un mal pronóstico fueron: ausencia de eritema nudoso, afectación del parénquima en la radiografía de tórax, esplenomegalia, edad avanzada y ausencia de adenopatías en la radiografía de tórax. El estudio clínico y de los marcadores de actividad, de persistencia de actividad en el tiempo, incluyó 116 casos y las variables que con independencia de 1as demás se asociaron a un mal pronóstico fueron: ausencia de eritema nudoso, edad avanzada, elevación del nivel sérico de la enzima de conversión de la angiotensina, hipergammaglobulinemia, disminución de la capacidad vital y sexo varón.

e) DISCUSION

La sarcoidosis no es infrecuente en nuestro medio. La elevada frecuencia del síndrome de Löfgren destaca sobre el 17% de la media mundial, mientras que la distribución por estadios radiológicos es similar a la del resto de las series. Para el estudio de los factores pronósticos es necesario definir el concepto de pronóstico y el de actividad. La metodología estadística empleada muestra que para el estudio del pronóstico el test de Cox para curvas actuariales es superior al test de regresión logística múltiple. Las variables asociadas a un mal pronóstico tienen todas ellas un sentido clínico. Los marcadores de actividad son útiles en el seguimiento de la enfermedad, así como en el establecimiento del pronóstico.

f) CONCLUSIONES

Las conclusiones más importantes de la presente tesis son las siguientes:

1) En nuestro medio, la sarcoidosis no es infrecuente y el síndrome de Lofgren es la forma clínica más común.

2) El test de Cox para curvas actuariales es la metodología estadística multivariante más apropiada para estudiar el pronóstico de la enfermedad.

3) En el estudio clínico, las variables asociadas a un mal pronóstico fueron: ausencia de eritema nudoso, afectación del parénquima en la radiografía de tórax, esplenomegalia, edad avanzada y ausencia de adenopatías en la radiografía de tórax.
4) En el estudio conjunto clínico y de los marcadores de actividad las variables asociadas a un mal pronóstico fueron: ausencia de eritema nudoso, edad avanzada, elevación del nivel sérico de la ECA. hipergammaglobulinemia, disminución de la capacidad vital y sexo varón. En consecuencia, los marcadores de actividad son útiles para establecer el pronóstico de la sarcoidosis.

5) El problema del pronóstico en la sarcoidosis se plantea fundamentalmente en las formas sin eritema nudoso. En consecuencia, un estudio del pronóstico realizado en una serie amplia de pacientes sin eritema nudoso podía proporcionar información más especifica para esta forma clínica de la enfermedad.
The aim of this study was to define the prognostic factors in sarcoidosis using univariate and multivariate statistical methods (Cox proportional hazards regression model).

We studied prospectively 209 patients suffering from sarcoidosis, during a 14 year period (1974-1987) in Bellvitge Hospital (Barcelona). The prognosis was defined as "persistence of activity of the disease by means of clinical, radiological and other markers".

Main results:

1) Our population with sarcoidosis had a high incidence of erythema nooosum (62.7%) and a predominance of stage 1 on x-ray. The activity markers (serum angiotensin converting enzyme, pulmonary gallium scan, pulmonary function test, and broncoalveolar lavage) showed to be a useful follow-up parameter.

2) Prognostic factors: A Cox proportional-hazards regression model picked the following variables: absence of erythema nodosum (Risk Ratio=2'78), greater than 40 years (Risk Ratio=1'67), elevation of serum angiotensin converting enzyme (Risk Ratio=1'45), immunoglobulin level elevation (Risk Ratio=2'47), vital capacity decrease (Risk Ratio=2'17), and male sex (Risk Ratio=1'8) as independent predictors of bad prognosis. We suggest that accurate definition of prognostic factors in sarcoidosis may provide a better treatment approach for the disease.
APA, Harvard, Vancouver, ISO, and other styles
13

Macià, Escatllar Antoni. "Computational Modelling of TiO2 and Mg-silicate nanoclusters and nanoparticles - Crystallinity and Astrophysical Implications." Doctoral thesis, Universitat de Barcelona, 2020. http://hdl.handle.net/10803/669508.

Full text
Abstract:
The research presented in this thesis contributes to the understanding of both titania and silicate nanosystems by providing new information on energetic stability and properties of nanometer sized particles using computational modelling. Particular emphasis is placed on the importance of two nanosized regimes: i) tens of atoms, and ii) several hundred up to thousands of atoms. We differentiate these two size regimes by naming nanoclusters the structures containing between tens up to a hundred of atoms, and using the term nanoparticles (NPs) for the structures containing hundreds to thousands of atoms. Titania (TiO2) is the most studied photocatalyst, and thus research is mostly focused on understanding the electronic properties of different morphologies of TiO2 NPs. In detail, for TiO2 the present thesis benchmarks the ability of several interatomic potentials (IPs) to reduce the computational cost of Density Functional Theory (DFT) calculations, as well as a detailed analysis of the energetic stability of three different morphologies of NPs together with an analysis of their band-gap. We show that the Anatase crystal structure becomes the most stable for particle sizes of ~2-3 nm in diameter, while for smaller sizes amorphous particles are the most stable. Within the Anatase structure, we see that Wulff construction is the most stable for large sizes (above 2 nm), but amorphous shell-crystalline core nanoparticles are within the same energy range below a radius of 2 nm. We also find that spherical particles have a band-gap consistent with the so-called black TiO2. On the other hand, research on silicates is mainly focused on calculating the properties of nanoclusters and NPs, with the objective of obtaining a better understanding of the relevance of such species in interstellar space. In detail, we propose global minima (GM) candidates for numerous nanoclusters based on extensive global optimization (GO) searches and compare their spectroscopic and chemical properties with literature values, where the later values are mostly derived from extrapolation using macroscale laboratory samples. The GO searches were done with a reparameterization of the FFSiOH where we included the Mg element. We also evaluate whether silicate nanoclusters can be the origin of the anomalous microwave emission (AME), a foreground emission in the microwave (MW) region of the spectra from an unknown source and find that indeed nano silicates have the appropriate dipole moments in order to be a strong source of the AME. We indicate that the amount of nano silicates in the interstellar medium is constrained by the AME emission. Finally, the IR spectra of large NPs of around 4 nm in diameter is compared on the basis of their crystallinity. We find that for such sizes, the IR spectra of the crystalline particle corresponds to a broad band similar to the amorphous material, which we ascribe to the large fraction of surface atoms. We conclude that the IR spectra is not sufficient to characterize the crystallinity of astronomical silicates with sizes of several nanometers in diameter. We also show that amorphous silicate nano particles with sizes of ~1 nm in diameter are more stable than their crystalline counterparts. We extrapolate the tendency and propose that the crystalline nanoparticles become more stable than amorphous particles at particle sizes of ~12 nm in diameter.
En la presente tesis se estudian la estructura y propiedades de nano partículas de TiO2 y de silicatos de magnesio. Mediante cálculos de teoría del funcional de la densidad y cálculos de potenciales interatómicos se muestra, para TiO2, cómo la estructura de la nano partícula tiene un factor clave para entender la diferencia de energía entre la banda de conducción y la banda de valencia. Además, Comparamos la estabilidad energética de nano partículas de Anatasa con diferente geometría respecto a nano partículas y nano clúster amorfos, mostrando como la geometría de Wulff es energéticamente la más estable a partir de 2nm, pero para tamaños inferiores los clúster amorfos son más estables. Para silicatos de magnesio, se describe la estructura, espectro infra-rojo y microondas de clúster de MgSiO3 y Mg2SiO4, así como la similitud del espectro infra-rojo en materiales cristalinos y amorfos de tamaños ~4 nm. Los resultados se comparan con los modelos usados para entender las propiedades del medio interestelar. Se muestra que para nano partículas de hasta algunos nanómetros de radio no es posible diferenciar el material cristalino del amorfo en base a espectroscopia infrarroja. Finalmente, se calcula la intensidad de emisión en microondas (10-60 GHz) de nano clústers de silicatos de ~100 átomos y se demuestra a nivel teórico la capacidad de los silicatos como fuente viable de la emisión anómala de microondas.
APA, Harvard, Vancouver, ISO, and other styles
14

Fortiana, Gregori Josep. "Enfoque basado en distancias de algunos métodos estadísticos multivariantes." Doctoral thesis, Universitat de Barcelona, 1992. http://hdl.handle.net/10803/1563.

Full text
Abstract:
1) Introducción

Una de las aplicaciones estadísticas de la Geometría Métrica es la representación de conjuntos, consistente en determinar puntos en un espacio de métrica conocida (frecuentemente euclídea) cuyas distancias reproduzcan exacta o aproximadamente las observadas.

Los Métodos de Regresión y Discriminación basados en Distancias, propuestos por Cuadras, proporcionan predicciones estadísticas aplicando propiedades geométricas de una representación euclídea. Tienen la ventaja de permitir el tratamiento de Variables continuas, cualitativas de tipo nominal y ordinal, binarias y, en general, cualquier mixtura de estas variables.

Esta memoria es una contribución al estudio de estos métodos de predicción basados en distancias. En lo sucesivo emplearemos la abreviatura "DB" para referirnos él estos métodos.

2) Fundamento teórico de la predicción DB

Supongamos que se ha medido una variable respuesta "Y" sobre un conjunto "U" de "n" objetos, definidos por unas coordenadas "Z", y se desea predecir el valor Y(n+l) de esta variable para un nuevo objeto "omega" definido por las coordenadas "Epsilon"(n+1).

Aplicando una función distancia adecuada se obtiene una matriz "delta" de distancias entre los objetos "U", y de ella las coordenadas "X" de los "U" en cierto espacio euclídeo RP. Existe una expresión para las coordenadas euclídeas X(n+l) de "omega".

Si "Y" es continua (regresión DB), la predicción Y(n+l) se obtiene calculando regresión lineal sobre las variables "X" y aplicando a X(n+1) la ecuación de regresión obtenida. Si "Y" es discreta, con estados que equivalen a sub-poblaciones de "U" (discriminación DB), se asigna "omega" a aquella subpoblación para la cual es mínima la distancia euclídea entre su centro de gravedad y X(n+l). Conviene observar que en la práctica no se emplean en general estas construcciones teóricas, sino cálculos equivalentes.

3) La distancia Valor Absoluto

La elección de la función distancia es crítica para estos métodos. Para cada problema concreto se puede elegir una medida de distancia que refleje el conocimiento del modelo.

Existen, sin embargo, algunas medidas de distancia "standard", adecuadas a gran número de problemas. Un caso notable es el de la distancia Valor Absoluto, cuya fórmula se aborda en esta tesis. Se ha observado que da lugar a predicciones excelentes, comparables a las de una regresión no lineal. Uno de los objetivos de este trabajo ha sido precisamente dar una justificación teórica a este buen comportamiento.

En el teorema (2.2.1) se muestra que para todo conjunto "U" de puntos en R(n) existe una configuración de puntos en un espacio euclídeo R(P) que reproduce la matriz ele distancias valor absoluto entre los "U".

Seguidamente se realiza el estudio teórico de la estructura de coordenadas principales asociada a esta distancia para "n" puntos sobre la recta real (al ser no bilineal la función distancia, en general "n-1" coordenadas son no triviales).

El caso de puntos equidistantes se resuelve analíticamente, partiendo de una configuración euclídea inicial X(o) (convencional, con el único requerimiento de reproducir las distancias valor absoluto entre los puntos dados), y a partir de ella se obtienen las componentes principales. Las coordenadas principales resultan aplicando a la matriz X(o) la rotación resultante. Este método indirecto es más accesible que el usual para la obtención de Coordenadas Principales.

En el teorema (2.4.1) se expresan los elementos de la columna "j" de la matriz de coordenadas principales como los valores de una función polinómica de grado "j" en unos puntos "z(i)" fijos.

Este teorema se deduce del estudio de una familia paramétrica de matrices cuyo problema de valores y vectores propios se resuelve mediante una ecuación en diferencias. La fórmula de recurrencia se identifica como la de los polinomios de Chehychev. Empleando propiedades de estos polinomios se llega a expresiones explícitas.

Estas matrices tienen notables propiedades combinatorias. En particular el teorema (3.3.1) muestra que todos sus vectores propios se obtienen aplicando a1 primero de ellos potencias de una matriz de permutación con signo.

Si se dispone de un modelo paramétrico y de una distancia entre individuos estadísticos aplicable a dicho modelo, se puede emplear la versión para variables aleatorias de las funciones discriminantes. La distancia entre individuos más adecuada es la deducida de la Geometría Riemanniana de la variedad de parámetros, que tiene por tensor métrico la "Métrica de Rao".

Se han calculado las funciones discriminantes DB para variables aleatorias que siguen algunas distribuciones conocidas. En particular, de la proposición (5.4.2), para variables multinomiales las funciones discriminantes DB coinciden con el tradicional estadístico Ji cuadrado, y de la (5.4.5), para variables normales con matriz de covarianzas común conocida, las funciones discriminantes DB coinciden con las clásicas (lineales) de Fisher.

4)Representación de Poblaciones

Se propone una distancia entre poblaciones, obtenida como diferencia de Jensen a partir de promedios sobre las distancias entre los individuos. El teorema (5.5.1) permite interpretarla como distancia euclídea entre los centros de gravedad de los puntos que representan los individuos de cada población.

Se demuestra que generaliza la de Mahalanobis, pues coincide con ella en poblaciones normales, si se emplea como distancia entre individuos la deducida de la Geometría Diferencial.

Calculando esta distancia para todos los pares de sub-poblaciones se obtiene una matriz, a la que se aplica Multidimensional Scaling, dando lugar a un representación euclídea que generaliza el Análisis Canónico de Poblaciones clásico, es decir, para poblaciones normales se obtienen los mismos resultados que con dicho análisis. Este método no proporciona regiones de confianza para los valores medios de las poblaciones. Se sugiere el empleo de "bootstrap" para dicho cálculo.

5)Aspectos computacionales

Se discuten algunos puntos relevantes de la implementación realizada de los algoritmos DB en los programas MULTICUA ®, así como de la estimación "bootstrap" de la distribución de probabilidad de las distancias entre poblaciones, con especial énfasis en las dificultades debidas a las grandes dimensiones de los objetos tratados.

6)Puntos arbitrarios sobre una recta

En este caso se llega a una descripción cualitativa de las coordenadas principales, que permite todavía describir la primera coordenada como una dimensión lineal, la segunda como una dimensión cuadrática, la tercera como una dimensión cúbica, etc.

La proposición (4.1.1) reduce el problema al estudio de los cambios de signo de las componentes de los vectores propios de una matriz "C". En (4.1.2) se muestra que "C" es oscilatoria, propiedad equivalente a la de tener todos los menores no negativos. Un teorema de Gantmacher sobre matrices oscilatorias da la descripción de los signos.

7)Coordenadas principales de una variable aleatoria uniforme

La técnica empleada para obtener las coordenadas principales de un conjunto unidimensional discreto de puntos da lugar a una generalización aplicable a una distribución continua uniforme en el intervalo (0,1). La "configuración euclídea" de partida es un proceso estocástico con parámetro continuo. El cálculo de componentes principales se sustituye por el cálculo de las funciones propias de la función de covarianza del proceso, y de ellas una sucesión (numerable) de variables aleatorias centradas C(j).

En (4.2.1) se muestra que estas variables son incorrelacionadas, igualmente distribuidas, y con una sucesión de varianzas sumable, de suma igual a la "variabilidad total" del proceso (traza del núcleo), y por ello el apropiado llamarlas "coordenadas principales de la variable aleatoria uniforme".

Aplicando a este modelo de coordenadas principales el esquema de predicción DB se propone una medida de bondad de ajuste de una muestra a una distribución dada.

8)Análisis discriminante DB

Las funciones discriminantes DB descritas más arriba pueden obtenerse directamente de los elementos de la matriz de distancias, sin precisar ninguna diagonalización, según resulta de (5.2.1) y (5.2.2). En consecuencia, el cálculo es rápido y efectivo.
Distance Based (DB) Regression and Discrimination methods, proposed by Cuadras, give statistical predictions by exploiting geometrical properties of a Euclidean representation obtained from distances between observations. They are adequate to deal with mixed variables.

Choice of a suitable distance function is a critical step. Some "standard" functions, however, fit a wide range of problems, and particularly the Absolute Value distance.

This is explained showing that for "n" equidistant points on the real line, elements in the "j"-th row of the principal coordinate matrix are values of a "j"-th degree polynomial function. For arbitrary one-dimensional sets of points a qualitatively analogous result holds.

Using results from the theory of random processes, a sequence of random variables is obtained from a continuous uniform distribution on the (0, 1) interval. Their properties show that they deserve the name of "Principal Coordinates". The DB prediction scheme in this case provides a goodness-of-fit measuring technique.

DB discriminant functions are evaluated from distances between observations. They have a simple geometrical interpretation in the Euclidean representation of data.

For parametric models, distances can be derived from the Differential Geometry of the parametric manifold. Several DB discriminant functions are computed using this approach. In particular, for multinomial variables they coincide with the classic Pearson's Chi Square statistic, and for Normal variables, Fisher's linear discriminant function is obtained.

A distance between populations generalizing Mahalanobis' is obtained as a Jensen difference from distances between observations. It can be interpreted in terms of the Euclidean representation. Using Multidimensional Scaling, it originates a Euclidean representation of populations which generalizes the classical Canonical Analysis.

Several issues concerning implementation of DB algorithms are discussed, specially difficulties related to the huge dimension of objects involved.
APA, Harvard, Vancouver, ISO, and other styles
15

Casanova, Gurrera María de los Desamparados. "Construction of Bivariate Distributions and Statistical Dependence Operations." Doctoral thesis, Universitat de Barcelona, 2005. http://hdl.handle.net/10803/1555.

Full text
Abstract:
Dependence between random variables is studied at various levels in the first part, while the last two chapters are devoted to the construction of bivariate distributions via principal components. Chapter 1 of Preliminaries is devoted to general dependence concepts (Fréchet classes, copulas, and parametric families of distributions). In Chapter 2, we generalize the union and intersection operations of two distance matrices to symmetric nonnegative definite matrices. These operations are shown to be useful in the geometric interpretation of Related Metric Scaling (RMS ), and possibly in other approaches of Multivariate Analysis. They show relevant properties that are studied in this chapter. The behaviour of the operations is, in some way, analogous to that presented by the intersection and union between vector spaces; in particular, we prove that the intersection of orthogonal matrices is the null matrix, while the union is the direct sum of the matrices. Matrices that share their eigenvectors form an equivalence class, and a partial order relation is defined. This class is closed for the union and intersection operations. A continuous extension of these operations is presented in Chapter 3. Infinite matrices are studied in the context of bounded integral operators and numerical kernels. We put the basis for extending RMS to continuous random variables and, hence, infinite matrices. The starting point is Mercer's Theorem, which ensures the existence of an orthogonal expansion of the covariance kernel K (s, t) = min {F (s) , F (t)} - F (s) F (t), where F is the cumulative distribution function of each marginal variable. The sets of eigenvalues and eigenfunctions of K, whose existence is ensured by the cited theorem, allow us to define a product between symmetric and positive (semi)definite kernels, and, further, to define the intersection and the union between them. Results obtained in the discrete instance are extended in this chapter to continuous variables, with examples. Such covariance kernels (symmetric and positive definite) are associated with symmetric and positive quadrant dependent (PQD) bivariate distributions. Covariance between functions of bounded variation defined on the range of some random variables, joined by distributions of this type, can be computed by means of their cumulative distribution functions. In Chapter 4, further consequences are obtained, especially some relevant relations between the covariance and the Fréchet bounds, with a number of results that can be useful in the characterization of independence as well as in testing goodness-of-fit. The intersection of two kernels (defined in Chapter 3) is a particular instance of the covariance between functions. Covariance is a quasiinner product defined through the joint distribution of the variables involved. A measure of affinity between functions with respect to H is defined, and also studied. In Chapter 5, from the concept of affinity between functions via an extension of the covariance, we define the dimension of a distribution, we relate it to the diagonal expansion and find the dimension for some parametric families. Diagonal expansions of bivariate distributions (Lancaster) allows us to construct bivariate distributions. It has proved to be adequate for constructing Markov processes, and has also been applied to engineering problems among other uses. This method has been generalized using the principal dimensions of each marginal variable that are, by construction, canonical variables. We introduce in Chapter 6 the theoretical foundations of this method. In Chapter 7 we study the bivariate, symmetric families obtained when the marginals are Uniform on (0, 1), Exponential with mean 1, standard Logistic, and Pareto (3,1). Conditions for the bivariate density, first canonical correlation and maximum correlation of each family of densities are given in some cases. The corresponding copulas are obtained.
Al Capítol 1 de Preliminars es revisen conceptes de dependència generals (classes de Fréchet, còpules, i famílies paramètriques de distribucions). Al Capítol 2, generalitzem les operacions unió i intersecció de dues matrius de distàncies a matrius simètriques semidefinides positives qualssevol. Aquestes operacions s'han mostrat d'utilitat en la interpretació geomètrica del Related Metric Scaling (RMS), i possiblement en altres tècniques d'Anàlisi Multivariant. S'estudien llur propietats que són similars, en alguns aspectes, a les de la unió i intersecció de subespais vectorials. Al Capítol 3 es presenta una extensió al continuu d'aquestes operacions, mitjançant matrius infinites en el context dels operadors integrals acotats i nuclis numèrics. S'estableix la base per a extendre el RMS a variables contínues i, per tant, a matrius infinites. Es parteix del Teorema de Mercer el qual assegura l'existència d'una expansió ortogonal del nucli de la covariança K (s, t) = min {F (s), F (t)} - F (s) F (t), on F és la funció de distribució de cada variable marginal. Els conjunts de valors i funcions pròpies d'aquest nucli ens permeten definir un producte entre nuclis i la intersecció i unió entre nuclis simètrics semidefinits positius. Tals nuclis de covariança s'associen amb distribucions bivariants també simètriques i amb dependència quadrant positiva (PQD). El producte de dos nuclis és un cas particular de covariança entre funcions, que es pot obtenir a partir de les distribucions conjunta i marginals, com s'estudia al Capítol 4 per a funcions de variació afitada, fixada la distribució bivariant H. S'obtenen interessants relacions amb les cotes de Fréchet. Aquesta covariança entre funcions és un producte quasiescalar a l'espai de funcions de variació afitada i permet definir una mesura d'afinitat. Al Capítol 5 aquesta H-afinitat s'utilitza per definir la dimensió d'una distribució. Les components principals d'una variable (Capítol 6) s'utilitzen com a variables canòniques a l'expansió diagonal de Lancaster (Capítol 7 i últim) per a construïr distribucions bivariants amb marginals Uniformes al (0,1), Exponencial de mitjana 1, Logística estàndard, i Pareto (3,1). S'obtenen condicions per la densitat bivariant, correlacions canòniques i correlació màxima per cada família. S'obtenen les còpules corresponents.
APA, Harvard, Vancouver, ISO, and other styles
16

Arcas, Pons Antoni. "Contribuciones a la representación de datos multidimensionales mediante árboles aditivos." Doctoral thesis, Universitat de Barcelona, 1986. http://hdl.handle.net/10803/1574.

Full text
Abstract:
En esta tesis se analiza el problema de la representación asociada a un conjunto sobre el que tenemos definida una distancia verificando el axioma del cuarto punto, realizando un estudio formal de los principales aspectos relacionados con este tipo de representaciones tales como una caracterización de las mismas tratando a través de ella las relaciones entre distancias ultramétricas y aditivas. En concreto, se estudia una estructura de variedad diferenciable sobre el conjunto de las distancias aditivas con configuración inferencia en árboles y confección de algoritmos de construcción de árboles aditivos.
APA, Harvard, Vancouver, ISO, and other styles
17

Capdevila, i. Marquès Carles. "Contribuciones al estudio del problema de la clasificación mediante grafos piramidales." Doctoral thesis, Universitat de Barcelona, 1993. http://hdl.handle.net/10803/1575.

Full text
Abstract:
En esta memoria se ha desarrollado una metodología para abordar problemas relativos a la clasificación y de un conjunto de objetos o individuos de una determinada población, mediante unas estructuras llamadas "Pirámides", introducidas por E. Diday en 1984, y que pretenden ser una generalización del concepto de Jerarquía, en el sentido de permitir la existencia no de grupos disjuntos o encajados, sino también de grupos solapados, y por tanto permitir clasificaciones en las que los grupos en que queda dividida la población a un determinado nivel, no tengan que ser forzosamente particiones de la misma, como pasa con las clasificaciones inducidas por las Jerarquías, sino que puedan ser recubrimientos. Este tipo de clasificaciones permite pues que un determinado individuo pueda pertenecer a dos grupos de una misma clasificación y por tanto, en la realidad, pueda ser caracterizado por las propiedades de los distintos grupos a los que pertenezca y no por las de un único grupo como en el caso jerárquico, con lo cual este nuevo modelo de clasificación y representación de datos se adaptará a la realidad que aquel.

En primer lugar se ha situado este nuevo modelo de representación en el marco del Análisis Multivariante y se han presentado algunos conceptos y resultados ya conocidos, pero imprescindibles para el desarrollo del tema: Caracterización de las matrices asociadas a las disimilaridades piramidales, relación con los preordenes compatibles, etc. Se recuerda que toda disimilaridad ultramétrica es también piramidal y que, en consecuencia, toda Jerarquía Total Indexada es una Pirámide Indexada, con lo cual podemos considerar a los modelos piramidales como una generalización de los modelos jerárquicos.

Se ha desarrollado también una nueva formalización de las bases sobre las que se amparan los modelos de representación y clasificación. En este sentido se ha precisado la axiomática y se han dado nuevos teoremas de Existencia y Unicidad de la pirámide inducida por una disimilaridad piramidal y recíprocamente, de la disimilaridad piramidal inducida por una pirámide.

Una vez establecidos los resultados teóricos mencionados, se ha profundizado en otros aspectos teóricos conducentes a hacer que los métodos piramidales puedan llegar a ser útiles en la realización de trabajos prácticos como lo han sido los modelos jerárquicos clásicos.

En este sentido se ha diseñado un algoritmo de clasificación piramidal, inspirado en el descrito por el propio Diday, convenientemente modificado, con el fin de obtener una pirámide indexada lo más sencilla posible desde el punto de de la representación visual.

Se han caracterizado los grupos sobrantes en una pirámide indexada y se ha demostrado que son los únicos que pueden ser eliminados de una pirámide sin que ello suponga pérdida de información sobre la clasificación. Se ha definido un índice de agregación adecuado a los modelos de representación piramidal y se ha demostrado que el algoritmo de clasificación piramidal descrito, utilizando un tal índice de agregación, produce siempre una pirámide indexada en sentido estricto, sin inversiones, sin cruzamientos y sin grupos sobrantes.

Finalmente se ha efectuado una programación informática del algoritmo en Turbo Prolog. El programa, llamado PIR. PRO, a partir de una matriz de disimilaridad dada sobre los individuos de la población, efectúa una clasificación piramidal de la misma por los métodos del Mínimo, del Máximo y del UPGMA, obteniéndose como resultado una de las pirámides indexadas correspondientes, la disimilaridad piramidal asociada, el grafo piramidal y como coeficientes de adecuación entre la disimilaridad inicial y la piramidal obtenida, el coeficiente de correlación cofenética (rho) y el coeficiente gamma de Goodman-Kurskal.

Debido a las restricciones impuestas en el algoritmo, se establece que el algoritmo piramidal del mínimo produce siempre la jerarquía del mínimo, que como es sabido, es única.

Un sencillo experimento de simulación nos confirma la mejora que suponen las representaciones piramidales frente a las ultramétricas, en el sentido de ser próxima la realidad.

En problemas reales de clasificación, una vez obtenida la pirámide es necesario evaluar el nivel de adecuación de la estructura piramidal obtenida, a la estructura inicial de los datos. Para ello disponemos de numerosos coeficientes de adecuación, en nuestro caso hemos considerado el coeficiente de correlación cofenética y el de Goodman-Kurskal. A pesar de disponer de estos parámetros, en un caso concreto, es difícil valorar hasta qué punto sus valores realmente significativos. Así pues, seria conveniente encontrar algún criterio que nos permitiese evaluar el nivel de significación de dichos parámetros. En este sentido hemos intentado una validación estadística de los métodos piramidales del mínimo y del máximo así como la obtención de algún criterio evaluar la potencia-eficiencia de los mismos.

Debido al desconocimiento de las distribuciones de los estadísticos utilizados (gamma y rho), se han tratado cuestiones inferenciales un punto de vista empírico. Mediante algunas pruebas de simulación por métodos de Monte Carlo se ha tabulado, a partir de la distribución muestral del estadístico gamma, un test de significación de la bondad de ajuste de una representación piramidal por los métodos del mínimo y del máximo. Asimismo se ha establecido que, en general, el método piramidal del máximo recupera mejor una posible estructura piramidal subyacente en la población a clasificar que el método del mínimo, a menos que pueda preverse que la estructura de la población inicial se asemeje a una jerarquía encadenada.
In this memory it is developed a methodology to tackle problems about the classifications and representations population's members through structures called "Pyramids". Pyramidal trees, introduced by E. Diday, are a logical generalization of ultrametric trees. They are less restrictive structures where recovering replaces the concept of partition, obtaining a representation which bears information is closer to the dissimilarities.

A new formalization of mathematics bases of the pyramidal models is developed. In this sense, the axiomatic has fixed and new theorems of existence and uniqueness of the pyramid induced from pyramidal dissimilarity, they are considered, and mutually.

An algorithm of pyramidal classification is designed in order to obtain an easiest pyramid. The spare groups in an indexed pyramid are characterized. A suitable criterion to the pyramidal models is definited to calculate the distance between groups. From mentioned algorithm and using this criterion indexed pyramid in strict sense, without reversals, crossings and spare groups. Moreover, a computer programming of the algorithm is developed in Turbo Prolog.

In applied problems is necessary to measure the fitting between the pyramidal tree from some algorithm and the initial structure. Using some simulation techniques by means of Monte Carlo methods, sample distribution of is obtained, to tabulate a goodness-of-fit test of the pyramidal representation using the minimum method and the maximum method. Finally, we have studied the efficiency of the maximum method and the minimum method through other simulation tests.
APA, Harvard, Vancouver, ISO, and other styles
18

Botella, Pérez Cristina. "Multivariate classification of gene expression microarray data." Doctoral thesis, Universitat Rovira i Virgili, 2010. http://hdl.handle.net/10803/9046.

Full text
Abstract:
L'expressiódels gens obtinguts de l'anàliside microarrays s'utilitza en molts casos, per classificar les cèllules. En aquestatesi, unaversióprobabilística del mètodeDiscriminant Partial Least Squares (p-DPLS)s'utilitza per classificar les mostres de les expressions delsseus gens. p-DPLS esbasa en la regla de Bayes de la probabilitat a posteriori. Aquestsclassificadorssónforaçats a classficarsempre.Per superaraquestalimitaciós'haimplementatl'opció de rebuig.Aquestaopciópermetrebutjarlesmostresamb alt riscd'errors de classificació (és a dir, mostresambigüesi outliers).Aquestaopció de rebuigcombinacriterisbasats en els residuals x, el leverage ielsvalorspredits. A més,esdesenvolupa un mètode de selecció de variables per triarels gens mésrellevants, jaque la majoriadels gens analitzatsamb un microarraysónirrellevants per al propòsit particular de classificacióI podenconfondre el classificador. Finalment, el DPLSs'estenen a la classificació multi-classemitjançant la combinació de PLS ambl'anàlisidiscriminant lineal.
APA, Harvard, Vancouver, ISO, and other styles
19

Burgas, Nadal Llorenç. "Multivariate statistical modelling and monitoring of smart buildings." Doctoral thesis, Universitat de Girona, 2019. http://hdl.handle.net/10803/669279.

Full text
Abstract:
In order to reduce mismatches between real and expected consumption, this thesis explores the use of PCA (Principal Component Analysis) as a modelling tool for buildings. PCA is a statistical technique that allows complex systems to be modelled, and, subsequently, to monitor them to detect abnormal behaviours with respect to the conditions initially modelled. The work in this thesis includes adapting PCA to take full advantage of its potential in buildings. Such adaption is also verified by applying it to various use cases
Per tal de reduir els desajustos entre el consum real i l’esperat, en aquesta tesi s’explora l’ús de PCA (les sigles en Angles d’Anàlisi de Components Principals) com a eina de modelat per edificis. PCA és una tècnica estadística que permet modelar sistemes complexes i posteriorment monitoritzar-los per detectar comportaments anòmals respecte a les condicions modelades inicialment. Els treballs d’aquesta tesi inclouen l’adaptació de PCA per poder aprofitar tot el seu potencial en edificis i la verificació de l’adaptació realitzada mitjançant l’aplicació en diversos casos d’ús
APA, Harvard, Vancouver, ISO, and other styles
20

Gusmão, Rui Jorge Coelho. "Complejación de iones metálicos con mezclas de fitoquelatinas, sus fragmentos y selenocistina. Estudio mediante voltamperometría - resolución multivariante de curvas, en combinación con técnicas espectrométricas y calorimétricas." Doctoral thesis, Universitat de Barcelona, 2012. http://hdl.handle.net/10803/107882.

Full text
Abstract:
El objetivo principal de la Tesis ha sido profundizar en el conocimiento de la complejación de metales por ligandos de S y Se. Se ha dedicado una atención especial a las fitoquelatinas (PCn), que son la base de la fitorremediación, por su capacidad de complejar los metales pesados. Se ha intentado conocer los complejos formados, mediante experimentos realizados con diferentes técnicas analíticas. En una primera fase, el trabajo se centra en el uso de la polarografia de impulsos diferencial (DPP) asistida con el método quimiométrico de Resolución Multivariante de Curvas por Mínimos Cuadrados Alternados (MCR-ALS) para resolver las mezclas de péptidos presentes en plantas (fitoquelatinas y sus fragmentos) y Cd2+. Los resultados obtenidos se han comparado con los obtenidos por la espectrometría de masas (ESI-MS). El siguiente objetivo fue estudiar la fitoquelatina PC5, en presencia de los iones Cd2+ y Pb2+. El mayor tamaño de este péptido, respecto a otras PCn estudiadas anteriormente, podria implicar a priori modelos de complejación competitiva más complejos. Por ello, se planteó un estudio sistemático basado en una combinación del análisis quimiométrico (mediante MCR-ALS y los nuevos algoritmos pHfit y GPA) de las medidas por DPP y Dicroísmo Circular (CD), y ESI-MS. El tercer objetivo fue estudiar la selenocistina (SeCyst), en diversas situaciones de complejación competitiva. El comportamiento electrónico de SeCyst sola o en presencia de un ion metálico (Bi3+, Cd2+, Co2+, Cu2+ , Cr3+ , Ni2+ , Pb2+ y Zn2+) fue estudiado por DPP en un amplio intervalo de pH. Se han realizado también estudios por Valoración Isotérmica Calorimétrica (ITC) a pH fisiológico (7.4) que además, permitieron obtener parámetros termodinámicos y constante de complejación. En un estudio más detallado, se seleccionó el Cd2+ como modelo para comportamiento de SeCyst en la presencia de un metal no esencial, en cambio, se eligió el Zn2+ para el caso de un elemento esencial. Además, se estudiaran mezclas de SeCyst y el glutatión (GSH) en presencia de Cd2+ a pH fisiológico. Un último objetivo consistió en evaluar la posible utilización de electrodos modificados para la detección de tioles. En una estancia en la Universidad de Oxford, se llevaron a cabo estudios de modificación de dos tipos de electrodos de carbono: el de carbono vitrificado (GCE) y el de grafito pirolítico “edge plane pyrolytic graphite” (EPPG), inmovilizando en sus superficies un centro metálico redox (derivados del Ferroceno, Fc). Finalmente, se estudió su respuesta catalítica en presencia de Cys.
The main goal of the Thesis has been to deepen the knowledge about metal complexation by ligands containing S and Se. A special attention has been paid to phytochelatins (PCn), which are on the basis of phytoremediation due to their ability to complex heavy metals. The formed complexes have been studied by means of different analytical techniques. In a first step, the work is focused on the use of Differential Pulse Polarography (DPP), assisted by Multivariate Curve Resolution by Alternating Least Squares (MCR-ALS), in order to resolve the mixtures of peptides present in plants (phytochelatins and their fragments) and Cd2+. The obtained results have been compared with those by mass spectrometry (ESI-MS). The next goal has been the study of the phytochelatin PC5 in the presence of Cd2+ and Pb2+. The bigger size of this PCn as compared to other previously studied could imply a priori more complicated models of competitive complexation. Then, a systematic study was devised based on the combination of chemometric analysis (by means of MCR-ALS and the new algorithms pHfit and GPA) of the data obtained by DPP and circular dichroism, and ESI-MS. A third goal has been the study of selenocystine (SeCyst) in different situations of competitive complexation. The electrochemical behaviour of SeCyst alone or in the presence of a metal ion (Bi3+, Cd2+, Co2+, Cu2+, Cr3+, Ni2+, Pb2+ and Zn2+) has been studied by DPP in a wide pH range. Studies by isothermal titration calorimetry (ITC) have also been made, which have provided thermodynamic parameters and complexation constants. In a more detailed study, Cd2+ and Zn2+ ions have been selected as models of non-essential and essential metal, respectively, in order to study their behaviour in the presence of SeCyst. Mixtures of SeCyst and glutathione have been also studied in the presence of Cd2+ at physiological pH. The last goal has been to evaluate the possible use of modified electrodes for the detection of thiols. During a stay in the University of Oxford, several studies were carried out on the modification of two kinds of carbon electrode: glassy carbon (GCE) and edge plane pyrolitic graphite (EPPG). The modification consisted on the immobilisation of a metallic redox center (a ferrocene derivative) onto the surface. Then, the catalytic responses in the presence of Cys have been studied.
APA, Harvard, Vancouver, ISO, and other styles
21

Terrado, Casanovas Marta. "Aplicació de diferents metodologies d'anàlisi i representació de dades per a l'avaluació de la qualitat ambiental d'una conca hidrogràfica." Doctoral thesis, Universitat de Barcelona, 2009. http://hdl.handle.net/10803/1977.

Full text
Abstract:
En aquesta tesi doctoral es proposa la integració de metodologies de tipus quimiomètric i determinista per a l'avaluació la qualitat ambiental d'una conca hidrogràfica. Amb aquesta integració es busca ampliar el coneixement sobre la distribució espacial i temporal de les principals fonts de contaminació que existeixen dins de l'àmbit d'una determinada conca. Les fonts de contaminació poden ser identificades mitjançant mètodes quimiomètrics i de l'estadística multivariant. En concret, en aquesta tesi s'ha posat especial èmfasi en l'aplicació de dos mètodes diferents: l'Anàlisi de Components Principals (PCA) i la Resolució Multivariant de Corbes per Mínims Quadrats Alternats (MCR-ALS). Mentre que PCA és un mètode àmpliament utilitzat en l'anàlisi exploratòria de dades, l'aplicació d' MCR-ALS per a l'estudi de taules de dades ambientals és més incipient. En aquest treball es realitza la validació d'MCR-ALS per a l'estudi de la contaminació en aigües superficials i, a més, s'estén la seva utilització al cas d'altres compartiments ambientals com són les aigües subterrànies, els sòls i els sediments.
Un cop identificades mitjançant mètodes quimiomètrics, les fonts de contaminació poden ser modelitzades amb l'aplicació de models deterministes, que facilitaran la presa de decisions respecte a les possibles mesures de gestió per al control i millora de la qualitat ambiental de l'àrea d'estudi. No obstant, això requerirà l'adaptació dels models deterministes a l'estudi de factors multivariables, com són les fonts de contaminació, enlloc d'aplicar-los a l'estudi de variables individuals, com s'ha fet fins al moment.
Aquesta tesi recull l'estudi de diferents conques i problemàtiques ambientals: a) contaminació per metalls pesants, compostos orgànics i productes farmacèutics en diferents compartiments ambientals de la conca del riu Ebre; b) contaminació per compostos orgànics en aigües superficials del delta de l'Ebre; i c) contaminació per compostos orgànics en aigües superficials de la conca del riu Llobregat.
Addicionalment, es proposa la utilització d'un índex fisicoquímic per a l'avaluació de la qualitat de les aigües superficials que pugui ser aplicat sobre dades generades per xarxes automàtiques de presa de mostra. Les xarxes automàtiques acostumen a mesurar simultàniament diverses variables a diferents localitzacions amb una elevada resolució temporal. L'índex del Canadian Council of Ministers of the Environment (CCME WQI) ha estat seleccionat per a la categorització de la qualitat de les aigües a partir de dades de les estacions automàtiques, gràcies a la seva flexibilitat en la selecció de les variables utilitzades en el seu càlcul, així com per la llibertat en la fixació dels objectius màxims i mínims segons l'ús final específic assignat a la massa d'aigua. D'altra banda, el procediment Combined Monitoring-based and modelling-based Priority Setting scheme (COMMPS) de la Comunitat Europea, ha estat adaptat per a l'establiment d'una llista de substàncies prioritàries de risc de contaminació a l'àmbit de Catalunya. En base a aquest índex també s'ha elaborat un índex prioritari de contaminació a les localitzacions, el qual permet obtenir una indicació de les localitzacions considerades de risc més elevat pel que fa a la contaminació per substàncies químiques orgàniques, tenint en compte els seus efectes toxicològics sobre humans i sobre l'ecosistema aquàtic.
The integration of chemometric and deterministic methods is proposed in this work to evaluate the environmental quality of river basins. This integration allows improving current knowledge about the spatial and temporal distribution of the main contamination sources existing in the river basin under study. The application of Principal Component Analysis (PCA) and Multivariate Curve Resolution using Alternating Least Squares (MCR-ALS) methods is presented. While PCA is a widely-used method for exploratory data analysis purposes, MCR-ALS application to the study of environmental data tables is more incipient. In this work, validation of MCR-ALS for the study of contamination in surface water is performed, and its usage is also extended to other environmental compartments such as groundwater, soil and sediment.
Once identified, contamination sources can be modelled by the application of deterministic models. This makes the procedure of decision-making easier in the sense of possible management measures to be applied for improvement of the environmental quality in the study area. However, the adaptation of deterministic models to the study of multivariate factors will be needed in this case.
Additionally, a physico-chemical index has been used for the evaluation of surface water quality using data obtained from automated sampling networks (which measure different variables simultaneously at high temporal resolution). The index of the Canadian Council of Ministers of the Environment (CCME) has been selected as the most suitable one for categorization of water quality in this case. The procedure of Combined Monitoring-based and Modelling-based Priority Setting scheme (COMMPS) from the European Community, has been adapted to establish a list of priority substances of contamination risk in Catalunya. Based on it, a priority contamination index at locations has been obtained in order to identify those locations with a higher risk by contamination for organic substances, according to toxicological effects over humans and aquatic ecosystems.
APA, Harvard, Vancouver, ISO, and other styles
22

Laouadi, Rabah. "Analyse du flot de contrôle multivariante : application à la détection de comportements des programmes." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT255.

Full text
Abstract:
Sans exécuter une application, est-il possible de prévoir quelle est la méthode cible d’un site d’appel ? Est-il possible de savoir quels sont les types et les valeurs qu’une expression peut contenir ? Est-il possible de déterminer de manière exhaustive l’ensemble de comportements qu’une application peut effectuer ? Dans les trois cas, la réponse est oui, à condition d’accepter une certaine approximation. Il existe une classe d’algorithmes − peu connus à l’extérieur du cercle académique − qui analysent et simulent un programme pour calculer de manière conservatrice l’ensemble des informations qui peuvent être véhiculées dans une expression.Dans cette thèse, nous présentons ces algorithmes appelés CFAs (acronyme de Control Flow Analysis), plus précisément l’algorithme multivariant k-l-CFA. Nous combinons l’algorithme k-l-CFA avec l’analyse de taches (taint analysis),qui consiste à suivre une donnée sensible dans le flot de contrôle, afin de déterminer si elle atteint un puits (un flot sortant du programme). Cet algorithme, en combinaison avec l’interprétation abstraite pour les valeurs, a pour objectif de calculer de manière aussi exhaustive que possible l’ensemble des comportements d’une application. L’un des problèmes de cette approche est le nombre élevé de faux-positifs, qui impose un post-traitement humain. Il est donc essentiel de pouvoir augmenter la précision de l’analyse en augmentant k.k-l-CFA est notoirement connu comme étant très combinatoire, sa complexité étant exponentielle dans la valeur de k. La première contribution de cette thèse est de concevoir un modèle et une implémentation la plus efficace possible, en séparant soigneusement les parties statiques et dynamiques de l’analyse, pour permettre le passage à l’échelle. La seconde contribution de cette thèse est de proposer une nouvelle variante de CFA basée sur k-l-CFA, et appelée *-CFA, qui consiste à faire du paramètre k une propriété de chaque variante, de façon à ne l’augmenter que dans les contextes qui le justifient.Afin d’évaluer l’efficacité de notre implémentation de k-l-CFA, nous avons effectué une comparaison avec le framework Wala. Ensuite, nous validons l’analyse de taches et la détection de comportements avec le Benchmark DroidBench. Enfin, nous présentons les apports de l’algorithme *-CFA par rapport aux algorithmes standards de CFA dans le contexte d’analyse de taches et de détection de comportements
Without executing an application, is it possible to predict the target method of a call site? Is it possible to know the types and values that an expression can contain? Is it possible to determine exhaustively the set of behaviors that an application can perform? In all three cases, the answer is yes, as long as a certain approximation is accepted.There is a class of algorithms - little known outside of academia - that can simulate and analyze a program to compute conservatively all information that can be conveyed in an expression. In this thesis, we present these algorithms called CFAs (Control flow analysis), and more specifically the multivariant k-l-CFA algorithm.We combine k-l-CFA algorithm with taint analysis, which consists in following tainted sensitive data inthe control flow to determine if it reaches a sink (an outgoing flow of the program).This combination with the integration of abstract interpretation for the values, aims to identify asexhaustively as possible all behaviors performed by an application.The problem with this approach is the high number of false positives, which requiresa human post-processing treatment.It is therefore essential to increase the accuracy of the analysis by increasing k.k-l-CFA is notoriously known as having a high combinatorial complexity, which is exponential commensurately with the value of k.The first contribution of this thesis is to design a model and most efficient implementationpossible, carefully separating the static and dynamic parts of the analysis, to allow scalability.The second contribution of this thesis is to propose a new CFA variant based on k-l-CFA algorithm -called *-CFA - , which consists in keeping locally for each variant the parameter k, and increasing this parameter in the contexts which justifies it.To evaluate the effectiveness of our implementation of k-l-CFA, we make a comparison with the Wala framework.Then, we do the same with the DroidBench benchmark to validate out taint analysis and behavior detection. Finally , we present the contributions of *-CFA algorithm compared to standard CFA algorithms in the context of taint analysis and behavior detection
APA, Harvard, Vancouver, ISO, and other styles
23

Talarico, Alina Marcondes. "Modelo de calibração ultraestrutural." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-26032014-161411/.

Full text
Abstract:
Os programas de Ensaios de Prociência (EP) são utilizados pela sociedade para avaliar a competência e a confiabilidade de laboratórios na execução de medições específicas. Atualmente, diversos grupos de EP foram estabelecidos pelo INMETRO, entre estes, o grupo de testes de motores. Cada grupo é formado por diversos laboratórios que medem o mesmo artefato e suas medições são comparadas através de métodos estatísticos. O grupo de motores escolheu um motor gasolina 1.0, gentilmente cedido pela GM Powertrain, como artefato. A potência do artefato foi medida em 10 pontos de rotação por 6 laboratórios. Aqui, motivados por este conjunto de dados, estendemos o modelo de calibração comparativa de Barnett (1969) para avaliar a compatibilidade dos laboratórios considerando a distribuição t de Student e apresentamos os resultados obtidos das aplicações e simulações a este conjunto de dados
Proficiency Testing (PT) programs are used by society to assess the competence and the reliability in laboratories execution of specific measurements. Nowadays many PT groups were established by INMETRO, including the motor\'s test group. Each group is formed by laboratories measuring the same artifact and their measurements are compared through statistic methods. The motor\'s group chose a gasoline engine 1.0, kindly provided by GM as an artifact. The artifact\'s power was measured at ten points of rotation by 6 laboratories. Here, motivated by this set data, we extend the Barnet comparative calibration model (1969) to assess the compatibility of the laboratories considering the Student-t distribution and show the results obtained from application and simulation of this set data
APA, Harvard, Vancouver, ISO, and other styles
24

López, Vilardell Maria Isabel. "Development and validation of multivariate qualitative methods in the food field." Doctoral thesis, Universitat Rovira i Virgili, 2015. http://hdl.handle.net/10803/294599.

Full text
Abstract:
L’objectiu general d’aquesta tesis es el desenvolupament i validació de metodologies analítiques enfocades al anàlisi qualitatiu multivariant. Els mètodes qualitatius són una alternativa als mètodes quantitatius, generalment costosos, quan aquests estan dissenyats per a solucionar problemes que requereixen una resposta binaria (si/no). Aquestes metodologies poden ser utilitzades en una gran diversitat d’àmbits analítics i, en questa tesis, s’han aplicat en l’alimentació (contaminació o adulteració d’aliments). Els treballs que s’han realitzat recauen en les diferents etapes associades al seu desenvolupament i validació. (1) Font de dades: s’han implementat diferents tècniques espectroscòpiques tal com NIR i IR i s’ha avaluat una modalitat de Raman, Surface-Enhanced Raman Scattering spectroscopy (SERS). La tècnica SERS s’ha usat poc en el àmbit analític multivariant tot i ser una tècnica similar a altres àmpliament emparades (NIR i IR). (2) Tractament quimiomètric: s’han emparat diferents tècniques de classificació basades en el seu poder modelador. S’han utilitzat tècniques ben establertes (SIMCA e UNEQ), tècniques recents (OCPLS) i una nova tècnica desenvolupada en aquesta tesis (partial least square density modeling, PLS-DM). A més, s’han estudiat diferents estratègies de modelat, una classe (untargeted) y múltiples classes (targeted). En la bibliografia, molt estudis s’han basat en el modelat de dos o més categories (targeted) mentre que pocs estudis basen la seva estratègia en el modelat de només una categoria, la categoria d’interès (untargeted). Tot i que no es una estratègia nova, està poc explotada. (3) Validació: s’ha dut a terme un estudi enfocat a clarificar la terminologia usada en la validació de mètodes qualitatius. S’ha proposat un protocol de validació que inclou el ús de Performance Characteristic Curves per establir els paràmetres de qualitat amb connotació quantitativa (límits de concentració i la regió d’incertesa).
El objetivo general de esta tesis es el desarrollo y validación de metodologías enfocadas al análisis cualitativo multivariante. Los métodos cualitativos son una alternativa a los métodos cuantitativos, generalmente caros, cuando estos están diseñados para solucionar problemas que requieren una respuesta binaria (si/no). Estas metodologías pueden ser utilizadas en una gran diversidad de ámbitos analíticos y, en esta tesis, se han aplicado en alimentación (contaminación o adulteración de alimentos). Los trabajos llevados a cabo inciden en las diferentes etapas asociadas al análisis cualitativo multivariante: (1) Fuente de datos: se han implementado diferentes técnicas espectroscópicas como NIR e IR y se ha evaluado una modalidad de Raman, Surface-Enhanced Raman Scattering spectroscopy (SERS). La técnica SERS se ha utilizado poco en el ámbito analítico multivariante a pesar de ser una técnica similar a otras ampliamente utilizadas (NIR e IR). (2) Tratamiento quimiométrico: se han aplicado diferentes técnicas de clasificación basadas en su poder modelador. Se han utilizado técnicas bien establecidas (SIMCA e UNEQ), técnicas recientes (OCPLS) y una técnica nueva desarrollada en esta tesis (partial least square density modelling, PLS-DM). Además, se han estudiado diferentes estrategias de modelado, una clase (untargeted) y múltiples clases (targeted). En la literatura, muchos estudios se basan en el modelado de dos o más categorías (targeted) mientras que pocos estudios basan su estrategia en el modelado de solamente una categoría, la categoría de interés (untargeted). A pesar de no ser una estrategia nueva, está poco explotada. (3) Validación: se ha llevado a cabo un estudio encaminado a clarificar la terminología usada en la validación de métodos cualitativos. Se ha propuesto un protocolo de validación que incluye el uso de las Performance Characteristic Curves para estimar los parámetros de calidad con connotación cuantitativa (limites de concentración y región de incertidumbre).
The main objective of this thesis is the development and validation of analytical methodologies focused on multivariate qualitative analysis. These methods are used to address problems that require a binary response (yes/no). In this way, the number of quantitative characterizations, which are usually more expensive, is reduced and decision-making is made quicker by the use of simple and low-cost analytical instrumentation. Multivariate qualitative methodologies can be used in a wide variety of analytical fields and, in this thesis; they have been applied to the food field (contamination or adulteration of foodstuff). The works carried out in this thesis tackle the different steps that cover multivariate qualitative analysis: (1) Data source: several spectroscopic techniques such as NIR and IR have been used and a Raman modality called Surface-Enhanced Raman Scattering spectroscopy (SERS) has been evaluated. Although SERS technique is similar to other implemented spectoscopies (NIR and IR), it can be still considered as an emergent technique in the analytical multivariate field. (2) Chemometric data treatment: several classification techniques based on their modelling power has been applied; well-known techniques (SIMCA e UNEQ), recent developed techniques (OCPLS) and a new technique developed in this thesis (partial least square density modeling, PLS-DM). Moreover, two different modelling strategies have been studied, one-class (untargeted) and multiclass (targeted). In the literature, most of the studies are based on the modelling of two or more categories (targeted) whereas few of them are based on the modelling of just one category (targeted). Although untargeted strategy is not new, it has been low exploit. (3) Validation: An attempt to clarify the terminology used in the qualitative method validation has been presented. A validation protocol has been proposed which include the use of Performance Characteristic Curves to estimate the performance parameters with quantitative connotation (concentration limits and unreliability region).
APA, Harvard, Vancouver, ISO, and other styles
25

Simões, Elisvanir Ronaldo. "Diagnóstico da produção leiteira no sudeste do Estado de Roraima : uma classificação de produtores de acordo com os fatores que influenciam a produtividade e a qualidade do leite /." Guaratinguetá, 2019. http://hdl.handle.net/11449/182246.

Full text
Abstract:
Orientador: Marcela Aparecida Guerreiro Machado de Freitas
Coorientador: Roberto Campos Leoni
Banca: Félix Monteiro Pereira
Banca: Nilo Antônio de Souza Sampaio
Resumo: A produção leiteira é destaque entre os principais produtos agropecuários por ser um alimento altamente empregado na dieta humana e uma atividade que gera emprego e renda. Inúmeros fatores tornam a produção leiteira muito heterogênea, dentre os quais destacam-se: o tamanho das propriedades, a tecnologia empregada na atividade leiteira e o nível de conhecimento dos produtores. O objetivo desta pesquisa foi identificar os fatores que interferem na produção leiteira da microrregião Sudeste do Estado de Roraima e propor a formação de agrupamentos homogêneos de produtores locais. O método empregado para o desenvolvimento deste trabalho estabeleceu a identificação dos fatores potenciais que interferem na produção leiteira a partir de uma revisão da literatura; construção de um questionário com os fatores potenciais que interferem na produtividade e qualidade do leite; entrevistas com aplicação de questionário; análises estatísticas descritiva e análises de agrupamentos. Na análise descritiva, obtiveram-se tabelas com análise de frequência e buscou-se comparar com os dados obtidos em outros trabalhos. Na análise de agrupamentos, empregou-se a classificação hierárquica, método de Ward e coeficiente de distância Gower. Verificou-se que as propriedades visitadas se caracterizam como estabelecimentos de produção de base familiar e produção de subsistência; quanto à formação de agrupamentos de produtores, identificaram-se sete agrupamentos, quantidade que se assemelha a realidade local, ... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: Milk production is among the most relevant agricultural and livestock products due to its importance as a type of food that is highly used in human diets and as an activity that generates jobs and income. Countless factors make milk production very heterogeneous, among which are property size, technology used in milking activities, and the level of knowledge of producers. The objective of the present study was to identify factors that interfere in milk production of the southeastern microregion of the state of Roraima and propose the creation of homogeneous clusters of local producers. The methodological approach used in this study involved a literature review to identify potential factors that interfere in milk production; the construction of a questionnaire with these potential factors that interfere in milk productivity and quality; interviews applying the questionnaire; and descriptive statistical and cluster analyses. The descriptive analysis yielded tables of frequency analysis results and allowed comparisons and correlations of data obtained in other studies. In turn, the cluster analysis was conducted using a hierarchical classification, Ward's method, and Gower's distance coefficient. The properties visited in the present study were characterized as family-based production and subsistence production establishments. In total, 7 producer clusters were identified, which was consistent with local reality, since the region does not present a standardized profile of milkin... (Complete abstract click electronic access below)
Mestre
APA, Harvard, Vancouver, ISO, and other styles
26

Brown, Anna. "How Item Response Theory can solve problems of ipsative data." Doctoral thesis, Universitat de Barcelona, 2010. http://hdl.handle.net/10803/80006.

Full text
Abstract:
Multidimensional forced-choice questionnaires can reduce the impact of numerous response biases typically associated with Likert scales. However, if scored with traditional methodology these instruments produce ipsative data, which has psychometric problems, such as constrained total test score and negative average scale inter-correlation. Ipsative scores distort scale relationships and reliability estimates, and make interpretation of scores problematic. This research demonstrates how Item Response Theory (IRT) modeling may be applied to overcome these problems. A multidimensional IRT model for forced-choice questionnaires is introduced, which is suitable for use with any forced-choice instrument composed of items fitting the dominance response model, with any number of measured traits, and any block sizes (i.e. pairs, triplets, quads etc.). The proposed model is based on Thurstone's framework for comparative data. Thurstonian IRT models are normal ogive models with structured factor loadings, structured uniquenesses, and structured local dependencies. These models can be straightforwardly estimated using structural equation modeling (SEM) software Mplus. Simulation studies show how the latent traits are recovered from the comparative binary data under different conditions. The Thurstonian IRT model is also tested with real participants in both research and occupational assessment settings. It is concluded that when the recommended design guidelines are met, scores estimated from forced-choice questionnaires with the proposed methodology reproduce the latent traits well.
APA, Harvard, Vancouver, ISO, and other styles
27

Flores, Alsina Xavier. "Conceptual design of wastewater treatment plants using multiple objectives." Doctoral thesis, Universitat de Girona, 2008. http://hdl.handle.net/10803/7799.

Full text
Abstract:
La implementació de la Directiva Europea 91/271/CEE referent a tractament d'aigües residuals urbanes va promoure la construcció de noves instal·lacions al mateix temps que la introducció de noves tecnologies per tractar nutrients en àrees designades com a sensibles. Tant el disseny d'aquestes noves infraestructures com el redisseny de les ja existents es va portar a terme a partir d'aproximacions basades fonamentalment en objectius econòmics degut a la necessitat d'acabar les obres en un període de temps relativament curt. Aquests estudis estaven basats en coneixement heurístic o correlacions numèriques provinents de models determinístics simplificats. Així doncs, moltes de les estacions depuradores d'aigües residuals (EDARs) resultants van estar caracteritzades per una manca de robustesa i flexibilitat, poca controlabilitat, amb freqüents problemes microbiològics de separació de sòlids en el decantador secundari, elevats costos d'operació i eliminació parcial de nutrients allunyant-les de l'òptim de funcionament. Molts d'aquestes problemes van sorgir degut a un disseny inadequat, de manera que la comunitat científica es va adonar de la importància de les etapes inicials de disseny conceptual. Precisament per aquesta raó, els mètodes tradicionals de disseny han d'evolucionar cap a sistemes d'avaluació mes complexos, que tinguin en compte múltiples objectius, assegurant així un millor funcionament de la planta. Tot i la importància del disseny conceptual tenint en compte múltiples objectius, encara hi ha un buit important en la literatura científica tractant aquest camp d'investigació. L'objectiu que persegueix aquesta tesi és el de desenvolupar un mètode de disseny conceptual d'EDARs considerant múltiples objectius, de manera que serveixi d'eina de suport a la presa de decisions al seleccionar la millor alternativa entre diferents opcions de disseny. Aquest treball de recerca contribueix amb un mètode de disseny modular i evolutiu que combina diferent tècniques com: el procés de decisió jeràrquic, anàlisi multicriteri, optimació preliminar multiobjectiu basada en anàlisi de sensibilitat, tècniques d'extracció de coneixement i mineria de dades, anàlisi multivariant i anàlisi d'incertesa a partir de simulacions de Monte Carlo. Això s'ha aconseguit subdividint el mètode de disseny desenvolupat en aquesta tesis en quatre blocs principals: (1) generació jeràrquica i anàlisi multicriteri d'alternatives, (2) anàlisi de decisions crítiques, (3) anàlisi multivariant i (4) anàlisi d'incertesa. El primer dels blocs combina un procés de decisió jeràrquic amb anàlisi multicriteri. El procés de decisió jeràrquic subdivideix el disseny conceptual en una sèrie de qüestions mes fàcilment analitzables i avaluables mentre que l'anàlisi multicriteri permet la consideració de diferent objectius al mateix temps. D'aquesta manera es redueix el nombre d'alternatives a avaluar i fa que el futur disseny i operació de la planta estigui influenciat per aspectes ambientals, econòmics, tècnics i legals. Finalment aquest bloc inclou una anàlisi de sensibilitat dels pesos que proporciona informació de com varien les diferents alternatives al mateix temps que canvia la importància relativa del objectius de disseny.
El segon bloc engloba tècniques d'anàlisi de sensibilitat, optimització preliminar multiobjectiu i extracció de coneixement per donar suport al disseny conceptual d'EDAR, seleccionant la millor alternativa un cop s'han identificat decisions crítiques. Les decisions crítiques són aquelles en les que s'ha de seleccionar entre alternatives que compleixen de forma similar els objectius de disseny però amb diferents implicacions pel que respecte a la futura estructura i operació de la planta. Aquest tipus d'anàlisi proporciona una visió més àmplia de l'espai de disseny i permet identificar direccions desitjables (o indesitjables) cap on el procés de disseny pot derivar. El tercer bloc de la tesi proporciona l'anàlisi multivariant de les matrius multicriteri obtingudes durant l'avaluació de les alternatives de disseny. Específicament, les tècniques utilitzades en aquest treball de recerca engloben: 1) anàlisi de conglomerats, 2) anàlisi de components principals/anàlisi factorial i 3) anàlisi discriminant. Com a resultat és possible un millor accés a les dades per realitzar la selecció de les alternatives, proporcionant més informació per a una avaluació mes efectiva, i finalment incrementant el coneixement del procés d'avaluació de les alternatives de disseny generades. En el quart i últim bloc desenvolupat en aquesta tesi, les diferents alternatives de disseny són avaluades amb incertesa. L'objectiu d'aquest bloc és el d'estudiar el canvi en la presa de decisions quan una alternativa és avaluada incloent o no incertesa en els paràmetres dels models que descriuen el seu comportament. La incertesa en el paràmetres del model s'introdueix a partir de funcions de probabilitat. Desprès es porten a terme simulacions Monte Carlo, on d'aquestes distribucions se n'extrauen números aleatoris que es subsisteixen pels paràmetres del model i permeten estudiar com la incertesa es propaga a través del model. Així és possible analitzar la variació en l'acompliment global dels objectius de disseny per a cada una de les alternatives, quines són les contribucions en aquesta variació que hi tenen els aspectes ambientals, legals, econòmics i tècnics, i finalment el canvi en la selecció d'alternatives quan hi ha una variació de la importància relativa dels objectius de disseny. En comparació amb les aproximacions tradicionals de disseny, el mètode desenvolupat en aquesta tesi adreça problemes de disseny/redisseny tenint en compte múltiples objectius i múltiples criteris. Al mateix temps, el procés de presa de decisions mostra de forma objectiva, transparent i sistemàtica el perquè una alternativa és seleccionada en front de les altres, proporcionant l'opció que més bé acompleix els objectius marcats, mostrant els punts forts i febles, les principals correlacions entre objectius i alternatives, i finalment tenint en compte la possible incertesa inherent en els paràmetres del model que es fan servir durant les anàlisis. Les possibilitats del mètode desenvolupat es demostren en aquesta tesi a partir de diferents casos d'estudi: selecció del tipus d'eliminació biològica de nitrogen (cas d'estudi # 1), optimització d'una estratègia de control (cas d'estudi # 2), redisseny d'una planta per aconseguir eliminació simultània de carboni, nitrogen i fòsfor (cas d'estudi # 3) i finalment anàlisi d'estratègies control a nivell de planta (casos d'estudi # 4 i # 5).
The implementation of EU Directive 91/271/EEC concerning urban wastewater treatment promoted the construction of new facilities and the introduction of nutrient removal technologies in areas designated as sensitive. The need to build at a rapid pace imposed economically sound approaches for the design of the new infrastructures and the retrofit of the existing ones. These studies relied exclusively on the use of heuristic knowledge and numerical correlations generated from simplified activated sludge models. Hence, some of the resulting wastewater treatment plants (WWTPs) were characterized by a lack of robustness and flexibility, bad controller performance, frequent microbiology-related solids separation problems in the secondary settler, high operating and maintenance costs and/or partial nutrient removal, which made their performance far from optimal. Most of these problems arose because of inadequate design, making the scientific community aware of the crucial importance of the conceptual design stage. Thus, these traditional design approaches should turn into more complex assessment methods in order to conduct integrated assessments taking into account a multiplicity of objectives an hence ensuring a correct plant performance. Despite the importance of this fact only a few methods in the literature addressed the systematic evaluation of conceptual WWTP design alternatives using multiple objectives. Yet, the decisions made during this stage are of paramount importance in determining the future plant structure and operation. The main objective pursued in this thesis targets the development of a systematic conceptual design method for WWTP using multiple objectives, which supports decision making when selecting the most desirable option amongst several generated alternatives. This research work contributes with a modular and evolutionary approach combining techniques from different disciplines such as: a hierarchical decision approach, multicriteria decision analysis, preliminary multiobjective optimization using sensitivity functions, knowledge extraction and data mining techniques, multivariate statistical techniques and uncertainty analysis using Monte Carlo simulations. This is accomplished by dividing the design method into 4 different blocks: (1) hierarchical generation and multicriteria evaluation of the design alternatives, (2) analysis of critical decisions, (3) multivariate analysis and, finally, (4) uncertainty analysis. The first block of the proposed method, supports the conceptual design of WWTP combining a hierarchical decision approach with multicriteria analysis. The hierarchical decision approach breaks down the conceptual design into a number of issues that are easier to analyze and to evaluate while the multicriteria analysis allows the inclusion of different objectives at the same time. Hence, the number of alternatives to evaluate is reduced while the future WWTP design and operation is greatly influenced by environmental, technical, economical and legal aspects. Also, the inclusion of a sensitivity analysis facilitates the study of the variation of the generated alternatives with respect to the relative importance of the objectives. The second block, analysis of critical decisions, is tackled with sensitivity analysis, preliminary multiobjective optimization and knowledge extraction to assist the designer during the selection of the best alternative amongst the most promising alternatives i.e. options with a similar overall degree of satisfaction of the design objectives but with completely different implications for the future plant design and operation. The analysis provides a wider picture of the possible design space and allows the identification of desirable (or undesirable) WWTP design directions in advance.
The third block of the proposed method, involves the application of multivariate statistical techniques to mine the complex multicriteria matrixes obtained during the evaluation of WWTP alternatives. Specifically, the techniques used in this research work are i) cluster analysis, ii) principal component/factor analysis, and iii) discriminant analysis. As a result, there is a significant improvement in the accessibility of the information needed for effective evaluation of WWTP alternatives, yielding more knowledge than the current evaluation methods to finally enhance the comprehension of the whole evaluation process. In the fourth and last block, uncertainty analysis of the different alternatives is further applied. The objective of this tool is to support the decision making when uncertainty on the model parameters used to carry out the analysis of the WWTP alternatives is either included or not. The uncertainty in the model parameters is introduced, i.e input uncertainty, characterising it by probability distributions. Next, Monte Carlo simulations are run to see how those input uncertainties are propagated through the model and affect the different outcomes. Thus, it is possible to study the variation of the overall degree of satisfaction of the design objectives, the contributions of the different objectives in the overall variance to finally analyze the influence of the relative importance of the design objectives during the selection of the alternatives. Thus, in comparison with the traditional approaches the conceptual design method developed in this thesis addresses design/redesign problems with respect to multiple objectives and multiple performance measures. Also, it includes a more reliable decision procedure that shows in a systematic, objective and transparent fashion the rationale way a certain alternative is selected and not the others. The decision procedure provides to the designer/decision maker with the alternative that best fulfils the defined objectives, showing its main advantages and weaknesses, the different correlations between the alternatives and evaluation criteria and dealing with the uncertainty prevailing in some of the model parameters used during the analysis. A number of case studies, selection of biological nitrogen removal process (case study #1), optimization of the setpoints in two control loops (case study #2), redesign to achieve simultaneous organic carbon, nitrogen and phosphorus removal (case study #3) and evaluation of control strategies at plant wide level (case studies #4 and #5), are used to demonstrate the capabilities of the conceptual design method.
APA, Harvard, Vancouver, ISO, and other styles
28

SALES, Rafaella de Figueiredo. "Controle estatístico multivariado de processo aplicado à produção de biodiesel por transesterificação." Universidade Federal de Pernambuco, 2016. https://repositorio.ufpe.br/handle/123456789/17789.

Full text
Abstract:
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2016-09-02T13:38:23Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Rafaella de Figueiredo Sales.pdf: 2788155 bytes, checksum: 95e4d0c2ca7494069abdc945b186152e (MD5)
Made available in DSpace on 2016-09-02T13:38:23Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Dissertação_Rafaella de Figueiredo Sales.pdf: 2788155 bytes, checksum: 95e4d0c2ca7494069abdc945b186152e (MD5) Previous issue date: 2016-02-19
PETROBRÁS / PRH - 28
O biodiesel é considerado um potencial substituto para os combustíveis de origem fóssil. Geralmente, esse biocombustível é produzido através da transesterificação de óleos vegetais ou gordura animal utilizando um álcool de cadeia curta. A vasta aplicação industrial da transesterificação para produção de biodiesel requer um cuidadoso monitoramento do processo e modelagem dessa reação, orientados para um melhor entendimento e para a otimização do processo. Além disso, o controle do processo é de fundamental importância para garantir a qualidade do biodiesel de forma constante, uniforme e atendendo às especificações necessárias para a sua comercialização. Dentre as técnicas existentes para o monitoramento de reações, a espectroscopia no infravermelho próximo permite uma análise rápida e não destrutiva, podendo ser utilizada para o monitoramento in-line de processos. Nesse contexto, o presente trabalho descreve o monitoramento in-line da produção de biodiesel por transesterificação de óleo de soja com metanol utilizando a espectroscopia na região do infravermelho próximo. As reações foram conduzidas em batelada com controle de temperatura e velocidade de agitação. Dois estudos diferentes foram então realizados a partir dos dados espectroscópicos coletados ao longo das reações. A primeira abordagem consistiu na implementação de estratégias de controle estatístico multivariado e de qualidade, baseadas em métodos de projeção multivariada. Nesse estudo, modelos de referência baseados em dois métodos diferentes (tempo real e após o término da batelada) foram desenvolvidos usando bateladas sob condições normais de operação (concentração de catalisador NaOH de 0,75% em massa em relação à massa de óleo de soja, temperatura de 55°C e velocidade de agitação de 500 rpm). Foram avaliadas diferentes técnicas de pré-processamento espectral, bem como estratégias para desdobramento da matriz de dados espectrais. Posteriormente, bateladas submetidas a diferentes perturbações (relacionadas à adição de água e a mudanças na temperatura, na velocidade de agitação, na concentração de catalisador e na matéria prima utilizada) foram produzidas para avaliar o desempenho dos diferentes modelos em relação às suas capacidades de detectar falhas de operação. De um modo geral, as cartas de controle desenvolvidas foram capazes de detectar a maioria das falhas intencionalmente produzidas ao longo do processo. Apenas pequenas perturbações na velocidade de agitação não foram identificadas. A segunda abordagem baseou-se no estudo do comportamento cinético da metanólise do óleo de soja em diferentes condições de temperatura (20, 45 e 55°C) e de concentração de catalisador (0,75 e 1,0% m/m de NaOH). Nesse estudo, a modelagem cinética foi realizada a partir dos perfis de concentração do éster metílico estimados utilizando o método de Resolução multivariada de curvas com mínimos quadrados alternantes com restrição de correlação. Os perfis de concentração obtidos permitiram o desenvolvimento de um estudo cinético simplificado da reação, a qual foi considerada como seguindo uma cinética de pseudo-primeira ordem baseada na concentração do éster metílico para a reação global de transesterificação. O modelo cinético incluiu apenas o regime pseudo-homogêneo, em que é observada uma rápida taxa de reação e a cinética está controlada pela reação química. Para esse regime, obteve-se uma energia de ativação de 32,29 kJ.mol-1, com base na equação de Arrhenius.
Biodiesel is considered a potential substitute for fossil fuels. In general, this biofuel is produced by transesterification of vegetable oils or animal fats using a short-chained alcohol. The wide industrial application of transesterification for biodiesel production requires a thorough process monitoring and modeling of this reaction, oriented to a better understanding and optimization of the process. Moreover, process control is of utmost importance to ensure in a constant and uniform way the biodiesel quality in order to meet commercialization requirements. Among the existing techniques applied for reaction monitoring, near infrared spectroscopy allows a fast and non-destructive analysis, being able to be used for in-line process monitoring. In this context, the present work describes the in-line monitoring of biodiesel production by transesterification of soybean oil with methanol using near infrared spectroscopy. Reactions were carried out in batch reactors with temperature and agitation speed control. Two different studies were then carried out from spectroscopic data collected throughout the reactions. The first approach consisted of the implementation of multivariate statistic and quality control strategies, based on multivariate projection methods. In this study, reference models based on two different methods (real time and end of batch) were developed using batches under normal operating condition (0.75 w/w% of catalyst NaOH with respect to the amount of oil, temperature of 55ºC and stirring speed of 500 rpm). Different techniques for pre-processing and unfolding the spectral data were evaluated. Afterwards, batches subjected to different disturbances (related with water addition and changes in the temperature, agitation speed, catalyst content and raw material used) were manufactured to assess the performance of the different models in terms of their capability for fault detection. In general, the control charts developed were able to detect most of the failures intentionally produced during the batch runs. Only small variations in the stirring spend were not detected. The second approach was based on the study of the kinetic behavior of the soybean oil methanolysiscarried out with different temperatures (20, 44 and 55°C) and catalyst (NaOH) concentrations (0.75 and 1.0 w/w% based onoil weight). In this study, the kinetic modelling was developed from methyl ester concentration profiles estimated by Multivariate curve resolution alternating least squares with correlation constraint. The obtained concentration profiles allowed the development of a simplified kinetic model of the reaction, which was considered to follow a pseudo-first order overall kinetics based on methyl ester concentration for global transesterification reaction. The kinetic model included only the pseudo-homogeneous regime where the overall process kinetics is under chemical reaction control and a fast methanolysis rate is observed. For this regime, the activation energy was 32.29 kJ.mol-1, based on Arrhenius equation.
APA, Harvard, Vancouver, ISO, and other styles
29

Bernardo, Danilo Vicensotto. "Afinidades morfológicas intra e extra-continentais dos paleoíndios de Lagoa Santa: uma nova abordagem." Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/41/41131/tde-21122007-140301/.

Full text
Abstract:
O presente trabalho propõe-se a analisar as afinidades biológicas através da comparação estatística multivariada dos dados craniométricos dos Paleoíndios de Lagoa Santa com outras séries esqueletais representativas de diversas regiões do mundo, testando, de forma complementar, as relações biológicas primeiramente observadas por Neves & Pucciarelli (1989). De acordo com a proposta inicial de Neves e Pucciarelli (1989), que sugere que a ocupação do Novo Mundo se deu a partir da chegada de dois componentes biológicos à América, os Paleoíndios, representantes da primeira leva de colonizadores, apresentam morfologia craniana generalizada, semelhante à observada entre as populações australo-melanésicas e africanas atuais e diametralmente oposta à morfologia especializada, característica dos nativos americanos recentes, todos descendentes da segunda leva de colonizadores. Para a execução do trabalho proposto foi utilizado, como base de dados comparativa à série Paleoíndia de Lagoa Santa, uma base de dados alternativa ao banco Howells, classicamente utilizado nas investigações bioantropologicas. A base de dados alternativa, numericamente expressiva e contando com populações originárias de 19 grandes regiões geográficas, foi organizada pelo Prof. Tsunehiko Hanihara, do Departamento de Anatomia da Saga Medical School (Saga, Japão), e cedida ao Laboratório de Estudos Evolutivos Humanos para a execução deste trabalho. Os resultados gerados através das técnicas estatísticas multivariadas empregadas indicaram que a população Paleoíndia de Lagoa Santa, em escala intracontinental, não se associa com as populações indígenas nativas americanas tardias e atuais e, em escala extra-continental, apresentam, de maneira geral, uma morfologia craniana mais semelhante à apresentada por populações de morfologia craniana generalizada
The present work proposes the analysis of the biological affinities, through a multivariate statistics comparison, of the Lagoa Santa Paleoindians´ craniometric data and other skeletal series, representatives of other regions in the world, testing, in a complementary way, the biological relationships first observed by Neves & Pucciarelli (1989). In accordance with Neves and Pucciarelli initial proposal, which suggests that the New World settlement happened with the arrive of two biological components to the America, the Paleoindians, representatives of the first migration wave, who show the generalized cranial morphology, resembling the one observed among the australomelanesian and african current populations, and completely opposite to the specialized morphology of the current native americans, all descendents from the second migration wave. For the accomplishment of this work it was used, as comparative data base to the Lagoa Santa\'s Paleoindians series, an alternative data set from that produced by Howells, commonly utilized in physical anthropological studies. The alternative data base, numerically expressive and counting with populations derived from 19 great geographic regions, was organized by the Professor Tsunehiko Hanihara, from the Anatomy Department of Saga Medical School (Saga, Japan), and granted to the Laboratory of Human Evolution Studies (Laboratório de Estudos Evolutivos Humanos - LEEH), for the execution of this project. The results generated through the employee multivariate statistics technics pointed out that the Paleoindian population from Lagoa Santa, in a intra-continental scale, do not associate with the american indigenous populations, neither from the past nor the present and, from the extra-continental scale, they present, in a general manner, a cranial morphology that resembles more that one presented by the populations with the generalized cranial morphology.
APA, Harvard, Vancouver, ISO, and other styles
30

Espejo, Márcia Maria dos Santos Bortolocci. "Perfil dos atributos do sistema orçamentário sob a perspectiva contingencial: uma abordagem multivariada." Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/12/12136/tde-30062008-141909/.

Full text
Abstract:
O sistema orçamentário é um artefato contábil relevante para a tomada de decisão diante de um contexto de alta complexidade apresentado na realidade contemporânea, pois representa uma antecipação da visão da empresa, traduzindo sua estratégia e oferecendo diretrizes de conduta. Sua composição e as razões para o seu uso (como forma de comunicação das metas, avaliando desempenho, sendo um instrumento de planejamento operacional e de formação da estratégia) parecem estar relacionadas às variáveis contingenciais que afetam a empresa, tais como a incerteza ambiental percebida, a estratégia em foco, a estrutura organizacional, a tecnologia empregada em seu sistema de informação e o seu porte. O presente estudo, portanto, possui como finalidade compreender os atributos do sistema orçamentário a partir das variáveis contingenciais, considerando determinados níveis de desempenho. Metodologicamente, trata-se de um estudo descritivo e causal, utilizando-se de coleta de dados com questionário previamente formulado, aplicado para os controllers ou responsáveis pela controladoria nas indústrias paranaenses cadastradas em 2006 na FIEP- Federação das Indústrias do Estado do Paraná. Adicionalmente, refere-se a um estudo ex post facto, em condições de campo, transversal e utilizando-se de técnicas estatísticas de análise multivariada, mais especificamente testes não-paramétricos, correlação de Pearson, análise fatorial, modelagem de equações estruturais e clusters. Por subsidiar sua investigação com a abordagem contingencial, o presente estudo pode ser caracterizado como sendo uma pesquisa de sistemas, relacionando as diversas variáveis em análise com o desempenho percebido para a identificação de arranjos contingenciais. Os resultados apresentados apontam para a aceitabilidade das cinco hipóteses apresentadas na tese, ratificando a influência do ambiente nos fatores contingenciais intra-organizacionais, a relação dos fatores contingenciais e o sistema orçamentário da empresa, a influência das variáveis contingenciais no desempenho, a associação existente entre os atributos orçamentários e o desempenho e, por fim, a presença de arranjos (fits) entre as variáveis contingenciais e os atributos do sistema orçamentário, em virtude da apresentação de um desempenho superior. A presente pesquisa empírica revela que independente do porte, indústrias paranaenses que possuem um maior grau de aderência ao sistema orçamentário, conscientes das razões para o seu uso e que apresentam tarefa rotineira em seus processos exibiram alto desempenho organizacional e orçamentário. Logo, conclui-se que sob certas condições há indícios que o orçamento é benéfico à empresa, revelando uma relação custo-benefício positiva.
The budgetary system is a relevant accounting tool to the decision-making within the high complex context of the contemporary reality, since it represents a prospect of the business vision, translating its strategy and offering conduct guidance. The budgetary system\'s composition and the reasons for its use (as a form of targets communication, performance evaluation and being an instrument for operational planning and strategic formation) seem to be related to contingent variables that affect a business, such as perceived environmental uncertainty, focus strategy, the organizational structure, the information system technology employed and its size. The present study, therefore, intends to understand the budgetary system attributes considering contingent variables and certain performance levels. Methodologically, it is a descriptive and causal study, witch uses data from previously formulated surveys, aimed to the controllers or to the responsible for the control department of the Paraná industries registered at FIEP - Federação das Indústrias do Estado do Paraná in 2006. Additionally, it is an ex post facto study, in field conditions, transversal, and using multivariate analysis statistical techniques, more specifically non parametric tests, Pearson correlation, factorial analysis, structural equation modeling, and clusters. Since this investigation is subsidized by a contingent approach, it may be characterized as a systems\' research, relating the many variables under analysis like the noticed performance of contingent arrangements/fits. The presented results show an acceptability of the five hypotheses presented on the thesis, ratifying the environment influence on the intraorganizational contingent factors, the relations between the contingent factors and the company budgetary system, the contingent variables influence on the performance, the existent association between the budgetary attributes and the performance and, finally, fits/arrangements presence between the contingent variables and the budgetary system attributes, due to the better performance presentation. This empirical research reveals that unrelated to the company size, Paraná industries that show a higher degree of adherence to the budgetary system, industries that are conscious of the reasons for its uses and present routine tasks in its process showed an organizational and budgetary high performance. Thus, the conclusion is that under certain conditions the budgeting is a benefit to the company, revealing a positive cost-benefit relation.
APA, Harvard, Vancouver, ISO, and other styles
31

Nogueira, Fabio Esteves. "Modelos de regressão multivariada." Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/45/45133/tde-25062007-163150/.

Full text
Abstract:
Os modelos de Regressão Linear Multivariada apesar de serem pouco utilizados são muito úteis pois, dentre outras vantagens, permitem a construçãoo de modelos considerando estruturas de correlação entre medidas tomadas na mesma ou em distintas unidades amostrais. Neste trabalho apresentamos os métodos de estimação dos parâmetros, medidas para análise de diagnóstico, procedimentos de seleção de variáveis e uma aplicação dessa técnica de modelagem em um conjunto de dados reais.
Multivariate Linear Regression Models are not frequently used although they are very useful. Working with this kind of model, it is possible to analyse correlated response variables jointly. In this dissertation, we dedicate initially to describe the inferencial methods in Multivariate Linear Regression models. Further, we describe some measures of diagnostics and methods of variable selection in this model. Finally, some of the describe procedures are applied in a real data set.
APA, Harvard, Vancouver, ISO, and other styles
32

Galinaro, Carlos Alexandre. "\"Distinção entre cachaça produzida com cana-de-açúcar queimada e não queimada\"." Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/75/75132/tde-18012007-095215/.

Full text
Abstract:
Cachaça é a terceira das bebidas alcoólicas fermento-destilado mais consumida no mundo, com uma produção de aproximadamente 2,5 litros de bilhões por ano. Tradicionalmente, a cachaça é produzida a partir da destilação do mosto fermentado da cana-de-açúcar. Porém, ela pode sofrer a contaminação por HPAs (Hidrocarbonetos Policíclicos Aromáticos) quando a cana-de-açúcar utilizada na sua produção é queimada antes da sua colheita. Objetivando a distinção entre as amostras de cachaça produzidas a partir da cana-de-açúcar colhida após a queima ou não dos canaviais, foram analisados 15 HPAs em 26 amostras de cachaça produzidas com cana-de-açúcar queimada e 105 amostras de cachaça produzidas com cana-de-açúcar não queimada. As amostras de cachaça foram previamente concentradas por extração em fase sólida (SPE) e analisadas por cromatografia liquida de alta eficiência (HPLC), acoplada a um detector de fluorescência. Este método apresentou uma boa separação cromatográfica para a análise dos seguintes HPAs estudados: naftaleno, acenafteno, fluoreno, fenantreno, antraceno, fluoranteno, pireno, benzo(a)antraceno, criseno, benzo(b)fluoranteno, benzo(k)fluoranteno, benzo(a)pireno, dibenzo(a,h)antraceno, benzo(g,h,i)perileno e indeno(1,2,3-c,d)pireno. O método cromatográfico apresentou bons limites de detecção (5,68E-04 a 45,4 µg L-1), boa porcentagem de extração e recuperação (81,5 ± 9 % a 113 ± 5 %) e uma boa reprodutibilidade (> 90,0 %). As amostras produzidas a partir de cana-de-açúcar queimada apresentaram teores médios totais dos HPAs de 21,1 µg L-1, enquanto que as amostras produzidas com cana-de-açúcar não queimada apresentaram teores médios totais dos HPAs de 1,91 µg L-1. Os dados analíticos foram tratados por meio de análise multivariada (PCA, FA, PLS, DA, LDA, QDA e CDA), possibilitando uma boa distinção entre as amostras produzidas com cana queimada e não queimada. Os resultados dos modelos estatísticos revelaram uma elevada probabilidade (85,0 %) na diferenciação entre estes dois grupos de cachaça
Cachaça is the third most consumed fermented alcoholic beverage in the world, with a production of nearly 2.5 billion liters a year. Traditionally, cachaça is made from the distillation of the fermented sugar cane juice. However, it may be contaminated by PAHs (Polycyclic Aromatic Hydrocarbons) when the sugar cane used for its production is burned before harvesting. Aiming at distinguishing spirits made from burned and non-burned sugar cane, 15 PAHs in 26 cachaças samples obtained from non-burned and 105 cachaça samples obtained from burned sugar cane have been analyzed. The cachaça samples were previously concentrated by solid phase extraction (SPE) and analyzed by high performance liquid chromatography (HPLC), coupled with a fluorescence detector. This method presented good chromatographic separation for the analysis of the following PAHs: naphthalene, acenaphthene, fluorene, phenanthrene, anthracene, fluoranthene, pyrene, benz(a)anthracene, chrysene, benz(b)fluoranthene, benz(k)fluoranthene, benz(a)pyrene, dibenz(a,h)anthracene, benz(g,h,i)perylene, and indeno(1,2,3- c,d)pyrene. The chromatographic method showed good detection limits (5.68E-04 to 45.4 ? g L-1), good index for the clean up percentage and recovery (from 81.5 ± 9% to 113 ± 5%) and a good reproducibility (> 90.0%). The samples obtained from burned sugar cane presented 21.1 ? g L-1 total PAHs average contents while the ones obtained from non-burned sugar cane showed PAHs average contents of 1.91 ?g L-1. Such analytical data were treated by means of the multivariate statistical methods (PCA, FA, PLS, LDA, QDA and CDA), thus allowing good distinction among the samples obtained from burned and non-burned sugar cane. Results of the Abstract IQSC-USP statistical models presented high probability (85.0%) for the distinction between these two groups of spirits.
APA, Harvard, Vancouver, ISO, and other styles
33

Almeida, Mariana Ramos de 1985. "Espectroscopia Raman e quimiometria como ferramentas analíticas para química forense e paleontologia." [s.n.], 2015. http://repositorio.unicamp.br/jspui/handle/REPOSIP/249320.

Full text
Abstract:
Orientador: Ronei Jesus Poppi
Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Química
Made available in DSpace on 2018-08-26T16:15:02Z (GMT). No. of bitstreams: 1 Almeida_MarianaRamosde_D.pdf: 6686279 bytes, checksum: 1e1d5d53538fb99a153ff4425595e0ce (MD5) Previous issue date: 2015
Resumo: A motivação para o desenvolvimento dessa tese foi a busca por métodos de análise não destrutivos, com nenhum ou mínimo preparo de amostra e que permitam a obtenção do máximo de informação com a realização de uma única análise na área de forense e paleontologia. Em forense, a espectroscopia Raman e o método de classificação supervisionado PLS-DA (Análise Discriminante por Mínimos Quadrados Parciais) foram empregados para construir modelos de classificação. O primeiro modelo foi construído para discriminar cédulas autênticas de cédulas falsas. A análise foi baseada na caracterização das tintas usadas na confecção das cédulas. O segundo modelo de classificação foi construído para diferenciar o óleo essencial extraído de diferentes partes (caule, folhas e galhos) da árvore amazônica Aniba Rosaeodora. A confiabilidade dos modelos foi avaliada pelo cálculo do intervalo de confiança, que foram calculados usando a técnica de reamostragem bootstrap. Os resultados obtidos mostraram que os modelos de classificação podem ser usados como método complementar à inspeção forense clássica e método de triagem. O desempenho dos modelos de classificação foi avaliado pelo cálculo de sensibilidade, especificidade, eficiência e coeficiente de Mathew. A espectroscopia Raman de imagem e o método de análise de componentes independentes (ICA) foram empregados para a identificação de explosivos em superfícies de cédulas. O método ICA foi avaliado como método de resolução de curvas para extrair os perfis espectrais e as imagens Raman dos constituintes presentes nas superfícies analisadas. Os resultados obtidos mostraram que o método ICA é adequado para resolução de curvas, uma vez que alcançou desempenho equivalente ao método clássico MCR-ALS (Resolução Multivariada de Curvas com Mínimos Quadrados Alternados). O limite de detecção da metodologia apresentada foi de 50 µg.cm-2 para o explosivo TNT. Por fim, a espectroscopia Raman de imagem foi empregada no estudo da composição química de fósseis de peixes, com o objetivo de obter informações sobre características biológicas. Os resultados mostraram informações sobre a composição química do fóssil estudado
Abstract: The motivation for the development of this thesis was to search for non-destructive testing methods, with none or minimal sample preparation and allowing them to obtain maximum information with the completion of a single analysis for forensic and paleontology. In the forensics, the Raman spectroscopy and the PLS-DA (discriminant analysis by Partial Least Squares) classification method were explored to build classification models. The first model was built to discriminate authentic and counterfeit banknotes. The analysis was based on the characterization of inks used in the confection of the banknotes. The second classification model was built to differentiate the essential oil extracted from different parts (wood, leaves and branches) of the Brazilian tree Aniba rosaeodora. The reliability of the models was evaluated by calculating the confidence interval, which was calculated using the bootstrap resampling technique. The results show that the classification models can be used as a complementary method to classical forensic inspection and a screening method. The performance of classification models was evaluated by calculating sensitivity, specificity, efficiency and Matthew coefficient. In a third application, Raman hyperspectral imaging and the independent component analysis (ICA) method were used for identification of explosives on the surfaces of banknotes. The ICA method was evaluated as curve resolution method to extract the Raman spectral profiles and the images of the constituents present in the analyzed surfaces. The results showed that the ICA method is appropriate for curves resolution, once achieved equivalent performance to the classical MCR-ALS (Multivariate Curve Resolution with Alternating Least Squares) method. The methodology presented limit of detection of 50 µg.cm-2 for the explosive TNT. Finally, the Raman hyperspectral imaging was applied in paleontology to study the chemical composition of fish fossil with the aim of obtaining information on biological characteristics. The results showed information about the chemical composition of fossil studied
Doutorado
Quimica Analitica
Doutora em Ciências
APA, Harvard, Vancouver, ISO, and other styles
34

Marius, Matei. "A Contribution to Multivariate Volatility Modeling with High Frequency Data." Doctoral thesis, Universitat Ramon Llull, 2012. http://hdl.handle.net/10803/81072.

Full text
Abstract:
La tesi desenvolupa el tema de la predicció de la volatilitat financera en el context de l’ús de dades d’alta freqüència, i se centra en una línia de recerca doble: proposar models alternatius que millorarien la predicció de la volatilitat i classificar els models de volatilitat ja existents com els que es proposen en aquesta tesi. Els objectius es poden classificar en tres categories. El primer consisteix en la proposta d’un nou mètode de predicció de la volatilitat que segueix una línia de recerca desenvolupada recentment, la qual apunta al fet de mesurar la volatilitat intradia, com també la nocturna. Es proposa una categoria de models realized GARCH bivariants. El segon objectiu consisteix en la proposta d’una metodologia per predir la volatilitat diària multivariant amb models autoregressius que utilitzen estimacions de volatilitat diària (i nocturna, en el cas dels bivariants), a més d’informació d’alta freqüència, quan se’n disposava. S’aplica l’anàlisi de components principals (ACP) a un conjunt de models de tipus realized GARCH univariants i bivariants. El mètode representa una extensió d’un model ja existent (PC-GARCH) que estimava un model GARCH multivariant a partir de l’estimació de models GARCH univariants dels components principals de les variables inicials. El tercer objectiu de la tesi és classificar el rendiment dels models de predicció de la volatilitat ja existents o dels nous, a més de la precisió de les mesures intradia que s’utilitzaven en les estimacions dels models. En relació amb els resultats, s’observa que els models EGARCHX, realized EGARCH i realized GARCH(2,2) obtenen una millor valoració, mentre que els models GARCH i no realized EGARCH obtenen uns resultats inferiors en gairebé totes les proves. Això permet concloure que el fet d’incorporar mesures de volatilitat intradia millora el problema de la modelització. Quant a la classificació dels models realized bivariants, s’observa que tant els models realized GARCH bivariant (en versions completes i parcials) com el model realized EGARCH bivariant obtenen millors resultats; els segueixen els models realized GARCH(2,2) bivariant, EGARCH bivariant I EGARCHX bivariant. En comparar les versions bivariants amb les univariants, amb l’objectiu d’investigar si l’ús de mesures de volatilitat nocturna a les equacions dels models millora l’estimació de la volatilitat, es mostra que els models bivariants superen els univariants. Els resultats proven que els models bivariants no són totalment inferiors als seus homòlegs univariants, sinó que resulten ser bones alternatives per utilitzar-los en la predicció, juntament amb els models univariants, per tal d’obtenir unes estimacions més fiables.
La tesis desarrolla el tema de la predicción de la volatilidad financiera en el contexto del uso de datos de alta frecuencia, y se centra en una doble línea de investigación: la de proponer modelos alternativos que mejorarían la predicción de la volatilidad y la de clasificar modelos de volatilidad ya existentes como los propuestos en esta tesis. Los objetivos se pueden clasificar en tres categorías. El primero consiste en la propuesta de un nuevo método de predicción de la volatilidad que sigue una línea de investigación recientemente desarrollada, la cual apunta al hecho de medir la volatilidad intradía, así como la nocturna. Se propone una categoría de modelos realized GARCH bivariantes. El segundo objetivo consiste en proponer una metodología para predecir la volatilidad diaria multivariante con modelos autorregresivos que utilizaran estimaciones de volatilidad diaria (y nocturna, en el caso de los bivariantes), además de información de alta frecuencia, si la había disponible. Se aplica el análisis de componentes principales (ACP) a un conjunto de modelos de tipo realized GARCH univariantes y bivariantes. El método representa una extensión de un modelo ya existente (PCGARCH) que calculaba un modelo GARCH multivariante a partir de la estimación de modelos GARCH univariantes de los componentes principales de las variables iniciales. El tercer objetivo de la tesis es clasificar el rendimiento de los modelos de predicción de la volatilidad ya existentes o de los nuevos, así como la precisión de medidas intradía utilizadas en las estimaciones de los modelos. En relación con los resultados, se observa que los modelos EGARCHX, realized EGARCH y GARCH(2,2) obtienen una mejor valoración, mientras que los modelos GARCH y no realized EGARCH obtienen unos resultados inferiores en casi todas las pruebas. Esto permite concluir que el hecho de incorporar medidas de volatilidad intradía mejora el problema de la modelización. En cuanto a la clasificación de modelos realized bivariantes, se observa que tanto los modelos realized GARCH bivariante (en versiones completas y parciales) como realized EGARCH bivariante obtienen mejores resultados; les siguen los modelos realized GARCH(2,2) bivariante, EGARCH bivariante y EGARCHX bivariante. Al comparar las versiones bivariantes con las univariantes, con el objetivo de investigar si el uso de medidas de volatilidad nocturna en las ecuaciones de los modelos mejora la estimación de la volatilidad, se muestra que los modelos bivariantes superan los univariantes. Los resultados prueban que los modelos bivariantes no son totalmente inferiores a sus homólogos univariantes, sino que resultan ser buenas alternativas para utilizarlos en la predicción, junto con los modelos univariantes, para lograr unas estimaciones más fiables.
The thesis develops the topic of financial volatility forecasting in the context of the usage of high frequency data, and focuses on a twofold line of research: that of proposing alternative models that would enhance volatility forecasting and that of ranking existing or newly proposed volatility models. The objectives may be disseminated in three categories. The first scope constitutes of the proposal of a new method of volatility forecasting that follows a recently developed research line that pointed to using measures of intraday volatility and also of measures of night volatility, the need for new models being given by the question whether adding measures of night volatility improves day volatility estimations. As a result, a class of bivariate realized GARCH models was proposed. The second scope was to propose a methodology to forecast multivariate day volatility with autoregressive models that used day (and night for bivariate) volatility estimates, as well as high frequency information when that was available. For this, the Principal Component algorithm (PCA) was applied to a class of univariate and bivariate realized GARCH-type of models. The method represents an extension of one existing model (PC GARCH) that estimated a multivariate GARCH model by estimating univariate GARCH models of the principal components of the initial variables. The third goal of the thesis was to rank the performance of existing or newly proposed volatility forecasting models, as well as the accuracy of the intraday measures used in the realized models estimations. With regards to the univariate realized models’ rankings, it was found that EGARCHX, Realized EGARCH and Realized GARCH(2,2) models persistently ranked better, while the non-realized GARCH and EGARCH models performed poor in each stance almost. This allowed us to conclude that incorporating measures of intraday volatility enhances the modeling problem. With respect to the bivariate realized models’ ranking, it was found that Bivariate Realized GARCH (partial and complete versions) and Bivariate Realized EGARCH models performed the best, followed by the Bivariate Realized GARCH(2,2), Bivariate EGARCH and Bivariate EGARCHX models. When the bivariate versions were compared to the univariate ones in order to investigate whether using night volatility measurements in the models’ equations improves volatility estimation, it was found that the bivariate models surpassed the univariate ones when specific methodology, ranking criteria and stocks were used. The results were mixed, allowing us to conclude that the bivariate models did not prove totally inferior to their univariate counterparts, proving as good alternative options to be used in the forecasting exercise, together with the univariate models, for more reliable estimates. Finally, the PC realized models and PC bivariate realized models were estimated and their performances were ranked; improvements the PC methodology brought in high frequency multivariate modeling of stock returns were also discussed. PC models were found to be highly effective in estimating multivariate volatility of highly correlated stock assets and suggestions on how investors could use them for portfolio selection were made.
APA, Harvard, Vancouver, ISO, and other styles
35

Gonçalves, Maria Ivanda Silva. "Aplicações de imagens digitais e análise multivariada para classificação e determinação de parâmetros de qualidade em plumas de algodão." Universidade Federal da Paraíba, 2015. http://tede.biblioteca.ufpb.br:8080/handle/tede/8193.

Full text
Abstract:
Submitted by Maike Costa (maiksebas@gmail.com) on 2016-05-11T12:40:39Z No. of bitstreams: 1 arquivo total.pdf: 6105657 bytes, checksum: 8404a0fcb54e3893c95fdfb017f0ac96 (MD5)
Made available in DSpace on 2016-05-11T12:40:39Z (GMT). No. of bitstreams: 1 arquivo total.pdf: 6105657 bytes, checksum: 8404a0fcb54e3893c95fdfb017f0ac96 (MD5) Previous issue date: 2015-08-31
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES
In recent years, commercial cotton lint have been developed with better quality, presenting different characteristics, but with similar coloring. This can be a problem because these samples is identified, large-scale, performed by a visual inspection, which is a very subjective method and error prone. Another way available for classification of samples is the use of HVI system (High Volume Instruments) to determine physical quality parameters. However, this apparatus has a high cost when compared to digital imaging technique, furthermore has the need for adequate infrastructure and a trained analyst for analysis procedure. This work proposes the development of a novel analytical method based on the use of digital image and multivariate analysis to (1) naturally colored cotton plumes classification according to the type of cultivar and (2) simultaneous determination of degree of yellowness (+b), reflectance (Rd) and wax content (WAX). The acquisition of digital images of cotton lints was carried out through a webcam and histograms containing distributions in levels of colors in standard RGB (red-green-blue), grayscale and HSV system (hue-saturation-value) they were obtained. In the classification of samples, models based discriminant analysis by partial least squares (PLS-DA) and linear discriminant analysis (LDA) with variable selection by the successive projections algorithm (SPA) or stepwise (SW) were evaluated. For the determination of the parameters +b, Rd and WAX, PLS models and multiple linear regression (MLR) with variable selection by the SPA were developed and compared. The best classification results were obtained with LDA / SW model with a correct classification rate (TCC) of 96% for the test group using the HSV combination. As the calibration methods, satisfactory prediction results were obtained for both models (PLS and MLR-SPA) with values of RMSEP near repeatability of the reference method. Furthermore, no systematic error was observed and there were no significant differences between the predicted values and reference, according to a paired t-test at 95% confidence. As advantages of the method is simple, low cost, does not use reagent, does not destroy the sample and realizes analysis at short time intervals.
Nos últimos anos, plumas de algodão comerciais têm-se desenvolvido com melhor qualidade, apresentando características diferentes, mas com coloração similar. Isto pode ser um problema porque a identificação destas amostras é, em larga escala, realizada por meio de uma inspeção visual, que é um método subjetivo e sujeito a erros. Outra forma disponível para classificação dessas amostras consiste no uso do sistema HVI (High Volume Instruments) na determinação de parâmetros físicos de qualidade. Contudo, tal equipamento apresenta um alto custo, se comparado a técnica de imagens digitais, além do mais tem-se a necessidade de uma infraestrutura adequada e de um analista treinado para o procedimento de análise. Este trabalho propõe o desenvolvimento de uma nova metodologia analítica baseada na utilização de imagens digitais e análise multivariada para (1) classificação de plumas de algodão naturalmente colorido de acordo com o tipo de cultivar e (2) determinação simultânea de grau de amarelamento (+b), reflectância (Rd) e teor de cera (WAX). A aquisição das imagens digitais das plumas de algodão foi realizada por meio de uma webcam e foram obtidos os histogramas contendo as distribuições nos níveis de cores no padrão RGB (vermelho-verde-azul), escala de cinza e o sistema HSV (matiz-saturação-valor). Na classificação das amostras, modelos baseados na análise discriminante pelos mínimos quadrados parciais (PLS-DA) e análise discriminante linear (LDA) com seleção de variáveis pelo algoritmo das projeções sucessivas (SPA) ou pelo stepwise (SW) foram avaliados. Para a determinação dos parâmetros de +b, Rd e WAX, modelos PLS e regressão linear múltipla (MLR) com seleção de variáveis pelo SPA foram desenvolvidos e comparados. Os melhores resultados de classificação foram obtidos com o modelo LDA/SW, com uma taxa de classificação correta (TCC) de 96% para o conjunto de teste utilizando a combinação HSV. Quanto aos métodos de calibração, resultados de previsão satisfatórios foram obtidos para ambos os modelos (PLS e MLR-SPA), com valores de RMSEP próximos à repetitividade do método de referência. Além disso, nenhum erro sistemático foi observado e não foram encontradas diferenças significativas entre os valores previstos e de referência, de acordo com um teste t-pareado ao nível de confiança de 95%. Como vantagens o método é simples, de baixo custo, não utiliza reagente, não destrói a amostra e realiza análise em curtos intervalos de tempo.
APA, Harvard, Vancouver, ISO, and other styles
36

Ferreira, Francini Piccolo. "Utilização de técnicas multivariadas na remodelação cardíaca em ratos com estenose aórtica induzida e submetidos a treinamento físico." Universidade Estadual Paulista (UNESP), 2018. http://hdl.handle.net/11449/153429.

Full text
Abstract:
Submitted by Francini Piccolo Ferreira null (francini.estatistica@gmail.com) on 2018-04-03T23:16:34Z No. of bitstreams: 1 Dissertação.pdf: 639951 bytes, checksum: 206253fce58059514913e1a69acab9bd (MD5)
Rejected by ROSANGELA APARECIDA LOBO null (rosangelalobo@btu.unesp.br), reason: Solicitamos que realize uma nova submissão seguindo as orientações abaixo: problema 1: Corrigir a informação colocada na Capra e folha de rosto De: Texto apresentado `a Universidade Estadual... Para: Dissertação apresentada à Universidade Estadual ... problema 2: Falta ficha catalográfica. A ficha deve ser inserida no arquivo PDF logo após a folha de rosto do seu trabalho. Assim que tiver efetuado essa correção submeta o arquivo, em PDF, novamente. Agradecemos a compreensão. on 2018-04-05T19:38:24Z (GMT)
Submitted by Francini Piccolo Ferreira null (francini.estatistica@gmail.com) on 2018-04-06T17:15:12Z No. of bitstreams: 1 Dissertação Francini versão final.pdf: 760805 bytes, checksum: 819324cafda873d3eebae84919c69deb (MD5)
Approved for entry into archive by ROSANGELA APARECIDA LOBO null (rosangelalobo@btu.unesp.br) on 2018-04-06T19:40:00Z (GMT) No. of bitstreams: 1 ferreira_fp_me_bot.pdf: 760805 bytes, checksum: 819324cafda873d3eebae84919c69deb (MD5)
Made available in DSpace on 2018-04-06T19:40:00Z (GMT). No. of bitstreams: 1 ferreira_fp_me_bot.pdf: 760805 bytes, checksum: 819324cafda873d3eebae84919c69deb (MD5) Previous issue date: 2018-03-23
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Nas áreas de Ciências da Saúde e Biológicas, encontram-se vários estudos, considerando as mais variadas patologias. Contudo, os procedimentos de análise estatística utilizados nos dados não têm relevado a estrutura de variação envolvida no conjunto das variáveis biológicas, quando se procede o fracionamento para discutir cada variável isoladamente. No presente texto, será abordada a Remodelação Cardíaca em ratos com Estenose Aórtica induzida e submetidos a um determinado protocolo de Treinamento Físico, sob o aspecto de não fracionamento do conjunto de variáveis, a fim de considerar toda a estrutura de variação envolvida nas respostas biológicas. A Insuficiência Cardíaca (IC) é uma das principais causas de morte na atualidade. Em estudos experimentais, uma maneira de induzir a IC em um rato, para posteriormente estudar medidas que atenuem tal quadro clínico, é simulando uma Estenose Aórtica (EAo), por meio da implantação de um clipe milímetros acima de sua válvula aórtica. Estudos sugerem que treinamento físico suaviza os sintomas antecedentes à insuficiência cardíaca. A fim de comprovar tal hipótese, um grupo de pesquisadores da Cardiologia Experimental da Faculdade de Medicina de Botucatu - UNESP realizou alguns experimentos, em que ratos da variedade Wistar foram induzidos à Estenose Aórtica e, posteriormente, submetidos a um específico protocolo de treinamento físico. Para a avaliação da contribuição do treinamento na resposta cardíaca desses animais, outros ratos, aqui denominados Sham (sem implantação do clipe), também foram submetidos ao protocolo de treinamento. Portanto, quatro grupos foram formados: EAo (ratos induzidos à estenose aórtica); EAoTF (ratos induzidos à estenose aórtica e submetidos ao treinamento físico); Sham (sem treinamento físico); ShamTF (submetidos ao treinamento físico). Para o presente estudo, foram considerados apenas dois experimentos em que, no primeiro, foram mensuradas algumas variáveis a partir do ecocardiograma e do cardiomiócito isolado e, no segundo, do ecocardiograma e do músculo papilar. O objetivo foi utilizar técnicas multivariadas que considerem o estudo simultâneo das variáveis em cada experimento, visando concluir a respeito da inserção do treinamento físico como medida de atenuação do quadro clínico cardiológico. Os resultados das análises dos dados coletados, tanto do primeiro quanto do segundo experimento, mostraram que, de uma maneira geral, o treinamento físico ocasionou amenização das modificações cardiológicas presentes em animais induzidos à estenose aórtica, reaproximando em algumas características estes animais aos considerados saudáveis.
Heart failure (HF) is a leading cause of death nowadays. In experimental studies a way to induce the HF in a rats for subsequently studying measures that mitigate such clinical picture is simulating an aortic stenosis (EAo) through the implantation of a clip above the aortic valve. Studies suggest that physical training improves symptoms prior to heart failure. In order to prove this hypothesis, a group of researchers from the Experimental Cardiology of the Medical School of Unesp, Botucatu Campus, has made some experiments in which Wistar rats were induced to aortic stenosis and subsequently submitted to a specific protocol of physical training. For the assessment of the training contribution in cardiac response of these animals, other rats, here called Sham (without implantation of clip), also underwent the training protocol. Therefore, four groups were formed: EAo (rats induced to xv aortic stenosis); EAoTF (rats induced to aortic stenosis and submitted to physical training); Sham (without physical training); ShamTF (submitted to physical training). For this study were considered only two experiments in which at first were measured some variables from the echocardiogram and cardiomyocyte isolated and, in the second, the echocardiogram and papillary muscle. The goal of this research was to use multivariate techniques that consider the simultaneous study of the variables in each experiment aiming to conclude about the insertion of physical training as a mitigation of clinical cardiology. The results of the analyzes of both the first and the second experiments showed that, in general, physical training caused a slight alleviation of the cardiological changes present in animals induced to aortic stenosis, bringing closer in some characteristics these animals to those considered healthy
APA, Harvard, Vancouver, ISO, and other styles
37

Ribeiro, Diorginis Bueno Montrazi. "Desenvolvimento de metodologias analiticas multivariadas empregando espectroscopia Raman de baixa resolução amplificada por superficie." [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/249331.

Full text
Abstract:
Orientadores: Ronei Jesus Poppi, Cesar Alexandre de Mello
Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Quimica
Made available in DSpace on 2018-08-14T13:51:34Z (GMT). No. of bitstreams: 1 Ribeiro_DiorginisBuenoMontrazi_D.pdf: 1788617 bytes, checksum: f8b9685d4131466922bc03a5fa000661 (MD5) Previous issue date: 2009
Resumo: Nesta tese metodologias analíticas foram desenvolvidas empregando espectroscopia Raman de baixa resolução amplificada por superfície (SERS) e calibração multivariada baseada no método dos mínimos quadrados parciais (PLS) para determinação dos pesticidas endosulfan e metamidofos (e misturas deles) em água, e do hormônio tireoestimulante (TSH) em plasma. Para a construção dos modelos de calibração dos pesticidas, um total de 70 e 30 amostras compuseram os conjuntos de calibração e validação, respectivamente, sendo a divisão realizada pelo algoritmo de Kennard-Stone. Já na construção dos modelos de calibração para a determinação quantitativa dos pesticidas nas misturas, um total de 38 e 11 amostras foram utilizadas na calibração e validação respectivamente. Para construção dos modelos de calibração para quantificação de TSH, um total de 39 mostras foram utilizadas na calibração e 14 amostras de plasma foram utilizadas na validação. As amostras também foram divididas pelo algoritmo de Kennard-Stone. Os modelos foram desenvolvidos utilizando diferentes tipos de pré-processamentos de sinais e comparados através dos erros de previsão (RMSEP). Foram utilizados como pré-processamento, o filtro de transformada de Fourier, a correção de espalhamento multiplicativa, a transformação padrão normal de variação, a ortogonalização de espectros pelo metodo de Gram-Schmidt, a centralização e autoescalamento dos dados. Os melhores modelos foram validados através da determinação de figuras de merito. Foram avaliados a exatidão, sensibilidade, sensibilidade analítica, seletividade, ajuste, razão sinal/ruído, limites de detecção e quantificação. A metodologia proposta mostrou-se rápida, de baixo custo e apresentou erros abaixo de 10mg/L para os pesticidas e abaixo de 0,8 mUI/mL para TSH, podendo facilmente ser adaptada para o monitoramento de pesticidas em águas e também em análises laboratoriais de rotina para determinação de TSH.
Abstract: In this thesis analytical methodologies were developed employing low resolution surface enhanced Raman spectroscopy (SERS) and multivariate calibration based on partial least squares method (PLS) for determination of the pesticides endosulfan and methamidophos (and mixtures of them) in water and the thyroid stimulating hormone (TSH) in plasma. For the pesticides calibration model development, a total of 70 and 30 samples composed the calibration and validation sets, respectively, using the Kennard-Stone algorithm for samples separation. In the model development for the mixture of pesticides, a total of 38 and 11 samples were used in the calibration and validation sets, respectively. For the model development in the TSH determination, 39 samples were used in the calibration set and 14 in the validation set. Also the Kennard-Stone algorithm was used to split the samples into the two data sets. The models were developed using different preprocessing methods and compared by using the prediction errors (RMSEP). The following pre-processing were tested: Fourier transform filter, multiplicative scatter correction, standard normal variate, spectra orthogonalization by Gram-Schmidt method, mean center and autoscaling. The best models were validated by figures of merit determination. It was assessed the accuracy, sensibility, analytical sensibility, selectivity, fit, signal/noise ratio, detection and quantification limits. The proposed methodology is fast, has low cost and presented prediction errors below to 10 mg/L for the pesticides and below to 0.8mìUI/mL for TSH. It may easily be adapted for the pesticides monitoring in waters and also for routine laboratory analysis in TSH determination.
Doutorado
Quimica Analitica
Doutor em Ciências
APA, Harvard, Vancouver, ISO, and other styles
38

Lucato, Melissa Umata. "Analise quantitativa por tecnicas de reflectancia e fotoacustica no infravermelho medio com transformada de Fourier e utilização de calibração multivariada." [s.n.], 2005. http://repositorio.unicamp.br/jspui/handle/REPOSIP/250007.

Full text
Abstract:
Orientador: Celso Ulysses Davanzo
Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Quimica
Made available in DSpace on 2018-08-05T16:24:43Z (GMT). No. of bitstreams: 1 Lucato_MelissaUmata_D.pdf: 2256384 bytes, checksum: fd4564569486d21c7ee858263e6a0d83 (MD5) Previous issue date: 2005
Resumo: O presente trabalho teve como principal objetivo a elaboração de metodologias analíticas que fornecessem informações diretas referentes aos problemas analisados, utilizando simultaneamente métodos não destrutivos de obtenção de espectros (FTIR) e calibração multivariada (PLS) com seleção de variáveis (AIgoritmo Genético e AIgoritmo das Projeções Sucessivas). Para efetivar tal objetivo foram estudados dois diferentes sistemas analíticos: I-Análise dos combustíveis comerciais (diesel, gasolina e álcool etílico automotivo): Foram analisadas propriedades de amostras comerciais dos combustíveis como: densidade, tipos de hidrocarbonetos, curva de destilação, propriedades de octanagem, entre vários outros, a partir de espectros de FTIR-ATR. Os valores de referência foram obtidos a partir de normas ASTM, que foram correlacionados com resultados da calibração multivariada através do método PLS e MLR, com e sem seleção de variáveis. Os erros obtidos apresentaram valores inferiores aos da reprodutibilidade do método padrão para a maioria das propriedades. Além disso, os resultados entre os modelos propostos foram comparados estatisticamente pelo testeF. II -Estudo das propriedades de degradação do PET, Poli(tereftalato de etileno): Foram determinadas a viscosidade intrínseca [h] e a concentração de grupos carboxílicos terminais (CEG) através da técnica de refletância difusa e técnica fotoacústica no infravermelho com calibração multivariada (PLS). Os modelos foram comparados estatisticamente pelo teste-F. Os resultados apontaram um método alternativo às laboriosas análises convencionais que empregam reagentes tóxicos, gerando resíduos
Abstract: This research project was mainly intended to elaborate analytical methodologies that supplied referring direct information to the analyzed problems, using simultaneously non destructive methods of attainment of spectroscopy (FTIR) and multivaried calibration (PLS) with variable selection (Genetic Algorithm and Successive Projections Algorithm). To accomplish this objective, two different analytical systems had been studied: 1- Analysis of commercial fuels (diesel, gasoline and automotive etílic alcohol): - Properties of commercial samples of fuels had been analyzed as: density, types of hydrocarbons, curve of destillation, octane number properties, among several others, from spectra of FTIR. The foundation values had been gotten from ASTM norms, that had been correlated with results of the multivariate calibration through PLS and MLR methods, using or not variable selection. The obtained errors had presented inferior values to the ones for reprodutibilidade of the standard method for the majority of the properties. Moreover, the results among the considered models were statistically compared by the F test . II- Study of the Properties of PET's degradation, Poly(ethylene therphtalate) : - Intrinsic viscosity [h] and the concentration of terminal carboxylic groups had been determined (CEG) by the technique of diffuse reflectance and photoacoustic technique in the infrared region with multivaried calibration (PLS). The models were statistically compared by the F test. The results point to an alternative method for the laborious conventional analyses that use toxic reagents and generates residues
Doutorado
Quimica Analitica
Doutor em Ciências
APA, Harvard, Vancouver, ISO, and other styles
39

Batistuti, Marina Ribeiro. "Classificação de fungos através da espectroscopia no infravermelho por transformada de Fourier." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/59/59135/tde-31012013-094052/.

Full text
Abstract:
A identificação de isolados dentro de algumas espécies de fungos filamentosos é de interesse médico, agrícola e industrial. Dentro do gênero Metarhizium, por exemplo, a identificação de espécies vêm sendo constantemente modificada devido a análise genética. Nesse contexto, o desenvolvimento de novas estratégias para a identificação rápida e confiável de microrganismos de maneira geral, e de fungos especificamente, é desejável. A espectroscopia no infravermelho por transformada de Fourier (FTIR) tornou-se amplamente difundida na medicina e biologia por fornecer rapidamente informações capazes de caracterizar bioquimicamente uma amostra. Assim, o objetivo desta pesquisa foi utilizar a espectroscopia de FTIR para a caracterização e classificação de linhagens e de espécies dos gêneros Aspergillus e Metarhizium, além da comparação entre diferentes metodologias para classificação. Foram selecionadas duas espécies do gênero Aspergillus: Aspergillus nidulans (ATCC 10074); Aspergillus flavus (ATCC 1410) com conídios verde e branco, obtidas da ATCC \"American Type Culture Collection\"(Manassas, VA), e seis espécies do gênero Metarhizium: Metarhizium acridum (ARSEF 324); Metarhizium acridum (ARSEF 3391); Metarhizium acridum (ARSEF 7486); Metarhizium anisopliae (ARSEF 5749); Metarhizium brunmeum (ARSEF 1095) e Metarhizium brunmeum (ARSEF 5626), obtidas da \"USDA-ARSEF collection of Entomopathogenic Fungal Cultures\"(U.S. Plant, Soil and Nutrition Laboratory, Ithaca, NY). O cultivo de todas as espécies foi feito em laboratório. As espécies A. nidulans ATCC 10074 e M. acridum ARSEF324 foram usadas para avaliar a influência da luz e do pH do meio de cultura sobre o crescimento dos fungos. Os valores de pH do meio estudados variaram ente 5 e 8. Para obter os espectros de absorção, os conídios foram delicadamente retirados e depositados sobre o cristal de ATR do espectrômetro do FTIR. Os espectros foram normalizados vetorialmente e subdivididos em quatro intervalos: 910-1178 cm-1 , 1178-1490 cm-1 , 1490-1790 cm-1 e 2810-2990 cm-1 . Parâmetros espectroscópicos como o deslocamento do pico de absorção e as razões entre áreas sob as bandas foram calculadas para todos os espectros coletados. O teste estatístico t-Student foi aplicado a estes parâmetros para diferenciar as amostras. Ambas as análises foram realizadas pelo programa Origin 8.5. A análise de componentes principais e agrupamento foram realizada usando o programa Minitab 16. As técnicas utilizadas para análise foram capazes de diferenciar as amostras de Aspergillus crescidas na presença e na ausência de luz, mas o mesmo não foi possível para o Metarhizium. Dentre os valores de pH do meio de cultura foi possível apenas a diferenciação do pH 8. O A. flavus com conídios brancos e verdes foram diferenciados entre si assim como entre eles e os A. nidulans. Entre as espécies foi possível obter a classificação de acordo com a taxonomia através da região espectral 1178-1490 cm-1. As quatro metodologias foram consideradas adequadas para análise dos espectros de absorção, entretanto o deslocamento de pico e a razão entre as áreas são viáveis apenas para um número pequeno de amostras enquanto o PCA e o cluster são viáveis para um número grande de amostras.
The identification of isolates within some species of filamentous fungi has medical, agricultural and industrial interest. Within the genus Metarhizium, for example, species identification is being constantly changed due to genetic analysis. In this context, the development of new strategies for the rapid and reliable identification of microorganisms in general, and specifically of fungi is desirable. Fourier Transform Infrared Spectroscopy (FTIR) has become widespread in medicine and biology by providing information quickly able to biochemically characterize a sample. The aim of this research was to use FTIR spectroscopy for characterization and classification of strains and species of the genera Aspergillus and Metarhizium and compare different methods for classification. We selected two strains of the genus Aspergillus: Aspergillus nidulans (ATCC 10074), Aspergillus flavus (ATCC 1410) with green and white conidia, obtained from ATCC \"American Type Culture Collection\"(Manassas, VA), and six strains of Metarhizium: Metarhizium acridum (ARSEF 324); Metarhizium acridum (ARSEF 3391); Metarhizium acridum (ARSEF 7486), Metarhizium anisopliae (ARSEF 5749); Metarhizium brunmeum (ARSEF 1095) and Metarhizium brunmeum (ARSEF 5626), obtained the \"USDA-ARSEF collection of Entomopathogenic Fungal Cultures \"(U.S. Plant, Soil and Nutrition Laboratory, Ithaca, NY). The cultivation of all species were made in the laboratory. The species A. nidulans (ATCC 10074) and M. acridum (ARSEF 324) were used to evaluate the influence of light and pH of the culture medium on the growth of fungi. The pH values of the medium studied ranged between 5 and 8. To obtain the absorption spectra, the conidia were gently removed and deposited on the ATR crystal of FTIR spectrometer. The absorption spectra were vector normalized and divided in four ranges: 910-1178 cm-1, 1178-1490cm-1, 1490-1790cm-1 and 2810-2990cm-1. Spectroscopic parameters as the displacement of the absorption peak and the ratios of the areas under the bands were calculated for all spectra collected. The statistical test t-Student was applied on these parameters to differentiate the samples. Both analyzes were performed by the program Origin 8.5. The principal component analysis and cluster analysis were performed using Minitab 16. The techniques used for analysis were able to differentiate samples of Aspergillus grown in the presence and absence of light, but it was not possible to Metarhizium. Among the pH of the culture medium was only possible to identify the pH 8. The A. flavus with white and green conidia were differentiated among themselves and between them and the A. nidulans. Among the strains of the same specie it was possible to obtain the correct classification according to the taxonomy through spectral region 1178-1490 cm-1. The four methods were considered appropriate for the analysis of absorption spectra, however displacement of the absorption peak and the ratios of the areas are feasible for a small number of samples and the multivariate analysis are feasible for a large number of samples.
APA, Harvard, Vancouver, ISO, and other styles
40

Ribeiro, Rogério Baria. "Caracterização físico-química da cerâmica do sítio arqueológico São Paulo II." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/85/85131/tde-04072013-170829/.

Full text
Abstract:
A arqueometria é uma área consolidada, com ampla utilização de métodos analíticos nucleares destrutivos e não destrutivos para caracterização, proteção e restauração de peças arqueológicas. O presente projeto teve como objetivo estudar a composição química elementar de amostras de fragmentos cerâmicos encontradas no sítio arqueológico São Paulo II localizado na calha do rio Solimões, próximo ao município de Coari na Amazônia Brasileira. Realizou-se a caracterização das amostras pela determinação de Ce, Co, Cr, Cs, Eu, Fe, Hf, K, La, Lu, Na, Nd, Sb, Sm, Rb, Sc, Ta, Tb, Th, U, Yb and Zn por meio da análise por ativação com nêutrons (NAA). A partir da composição química da cerâmica, foi possível definir o agrupamento de amostras em função da similaridade/dissimilaridade da composição química presente no material cerâmico. O agrupamento foi interpretado por métodos estatísticos multivariados como análise de cluster, análise de componentes principais e análise de discriminante. Foram selecionadas, a partir da formação dos grupos, 7 cerâmicas com o objetivo de elaborar o horizonte temporal do sítio, realizado por termoluminescência (TL) e ressonância paramagnética eletrônica (EPR). A temperatura de queima da cerâmica foi determinada em 6 fragmentos por meio da técnica de EPR. Os resultados apresentados neste trabalho podem contribuir com os estudos arqueológicos sobre a dinâmica da ocupação da Amazônia Central anterior à colonização Brasileira.
Archaeometry is currently a well established field in the archaeological sciences. The nuclear method for analysis of chemical elements is one of the important instruments for the characterization of the archaeological materials and has influences on the preservation and restoration. From the chemical and physical analyses it is possible to infer technical processes in ceramics manufacture and tools used by ancient people. Therefore, it contributes to the typology and to understand the roles of materials available in the archaeological sites, such as clays and lythic sources. Evidently, all the archaeological materials and sites are related to people that lived there a long time ago, and studies, as outlined above, reconstruct at least partially the history of such a population. This project aimed at studying the elementary chemical composition of 70 ceramic fragments samples from São Paulo II archaeological site, located along the Solimões River channel, next to Coari city, in Brazilian Amazon. The characterization of samples was performed by neutron activation analysis (NAA). By the determination of 22 elements in the ceramic fragments ( Ce, Co, Cr, Cs, Eu, Fe, Hf, K, La, Lu, Na, Nd, Sb, Sm, Rb, Sc, Ta, Tb, Th, U, Yb and Zn), it was possible to define groups of samples regarding the similarity/dissimilarity in elementary chemical composition. For such a task, the multivariate statistical methods employed were cluster analysis (CA), principal component analysis (PCA) and discriminant analysis (DA). Afterwards, seven ceramic fragments have been selected to elaborate the site temporal horizon using thermoluminescence (TL) and electron paramagnetic resonance (EPR) dating results. The EPR technique was also used to find the average firing temperature to produce the ceramics. The results of this research may contribute to the study on the occupation dynamics in the pre-colonial Brazilian Amazon.
APA, Harvard, Vancouver, ISO, and other styles
41

Muniz, Rodrigo de Almeida. "Integridade do ecossistema, avaliada a partir da dinâmica de temperatura de superfície e estoque de carbono no solo, na Bacia do Rio Corumbataí, SP." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/11/11152/tde-04122014-090516/.

Full text
Abstract:
Este trabalho objetivou pesquisar a relação da temperatura de superfície (LST) e do estoque de carbono no solo (ECS) com os diferentes tipos de uso e cobertura do solo (UCT). Sabe-se que tais parâmetros podem ser influenciados pelas atividades antrópicas, podendo afetar a integridade do agroecossistema (IAG) da bacia do Rio Corumbataí (BRC). Entende-se por IAG, a capacidade de manutenção de suas propriedades \"primitivas\" e prestação de serviços ecossistêmicos à sociedade. Para alcançar o objetivo proposto, a dinâmica de UCT foi mapeada, a partir da classificação de imagens do satélite Landsat e fotografias aéreas, dos anos de 1962 a 2011. A LST foi obtida por técnicas de sensoriamento remoto, utilizando a banda termal do sensor TM (Thematic Mapper) do Landsat, para os anos de 1985, 1990, 1995, 1999, 2002 e 2011. A análise do ECS foi feita a partir da coleta de amostras de solo, em diferentes UCT: mata nativa, cana-de-açúcar, pastagem e fruticultura, na profundidade de 0-10 e 10-20 cm. Os resultados indicaram que a LST e os ECS da área de estudo são influenciados pelo UCT e pelo manejo das culturas. Verificou-se ainda que algumas políticas agrícolas, adotadas no período de 1962 a 2011, influenciaram a dinâmica de UCT e, consequentemente, a capacidade do agroecossistema da BRC no fornecimento de serviços ecossistêmicos e também geraram custos ambientais. A abordagem interdisciplinar adotada neste trabalho, com o emprego das geotecnologias, mostrou ser capaz de avaliar a integridade do agroecossistema da BRC, podendo subsidiar o planejamento de uso do solo visando a maximizar a relação benefício/custo das atividades antrópicas, considerando a LST e o ECS. Tal abordagem pode ser aplicada em diferentes áreas do conhecimento para a análise da sustentabilidade e integridade ambiental dos agroecossistemas.
In this work, the aim was search the relationship between both surface temperature (LST) and soil organic carbon (SOC) with several sort of land use cover (LUC). We know such a parameters can be influenced by anthropic activities, it can affects the Corumbataí River basin (CRB) agro ecosystem integrity (AGI). AGI means, the capacity of both maintenance of its \"primitive\" properties and supplies public ecosystem service. Reaching the proposed goal, the LUC dynamic was mapping through both Landsat-TM image classification and aerial photography from 1962 to 2011. The LST has been obtained by remote sensing technique through Lansat-TM thermal band to the years 1985, 1990, 1995, 1999, 2002 and 2011. The ECS analyze was carried out by soil sample collected in different type of LUC: forest native, sugar cane, pasture and orchard, in the 0-10 and 10-20 cm depths. The results have indicated both the BRC of the LST and SOC are influenced by both together LUC and crop tillage. Furthermore, some agricultural policy adopted during from 1962 to 2011 influenced the LUC dynamic, thus the CRB agro ecosystem capacity of supply agro ecosystem services as well as provided environmental cost. The interdisciplinary approach employed, with the use of geotechnologies, has shown to be able to assessment the CRB agro ecosystem integrity, it can supports the LUC planning in order to maximize the benefit/cost ratio anthropic activities, considering both the LST and ECS. Such an approach can be applied in several knowledge areas to evaluation of sustainability and agro ecosystem environmental integrity.
APA, Harvard, Vancouver, ISO, and other styles
42

Ximenes, Lucas Cunha. "Avalia??o de m?todos de agrupamento para a classifica??o da capacidade produtiva de um trecho da Floresta Nacional do Tapaj?s ? PA." UFVJM, 2016. http://acervo.ufvjm.edu.br/jspui/handle/1/1380.

Full text
Abstract:
Submitted by Jos? Henrique Henrique (jose.neves@ufvjm.edu.br) on 2017-06-09T17:17:51Z No. of bitstreams: 2 lucas_cunha_ximenes.pdf: 2578435 bytes, checksum: 674c742b7551f13345ff22f59b8220c5 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Approved for entry into archive by Rodrigo Martins Cruz (rodrigo.cruz@ufvjm.edu.br) on 2017-06-22T15:04:07Z (GMT) No. of bitstreams: 2 lucas_cunha_ximenes.pdf: 2578435 bytes, checksum: 674c742b7551f13345ff22f59b8220c5 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2017-06-22T15:04:07Z (GMT). No. of bitstreams: 2 lucas_cunha_ximenes.pdf: 2578435 bytes, checksum: 674c742b7551f13345ff22f59b8220c5 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2017
Coordena??o de Aperfei?oamento de Pessoal de N?vel Superior (CAPES)
O estudo teve como objetivo definir a melhor combina??o de m?todo de agrupamento com medida de similaridade para a classificar a capacidade produtiva de um trecho na Floresta Nacional do Tapaj?s. O invent?rio florestal amostral foi realizado no ano de 2012 e para a loca??o das parcelas foram abertas 12 faixas de, aproximadamente, 1,5 m de largura, equidistantes 4,0 km, na dire??o leste-oeste, e com comprimento variando de 4 km a 13,75 km. A instala??o das parcelas, com dimens?es de 30 x 250 m, distribu?das sistematicamente por 500 m em cada linha. Foi levado em considera??o para a defini??o das classes de tamanho (CT): CT 1 (classe de regenera??o) - 10 cm ? DAP < 25 cm nos primeiros 50 m da parcela (30 m x 50 m); CT 2 (classe de crescimento) - 25 cm ? DAP < 50 cm nos primeiros 100 m (30 m x 100 m); e CT 3 (classe de colheita) - DAP ? 50 cm em toda a parcela (30 m x 250 m). Para a classifica??o da capacidade produtiva, realizou-se um filtro no banco de dados original por classe de tamanho, no qual foram selecionados os indiv?duos com qualidade de fuste 1 (fuste reto) e 2 (fuste com pequenas tortuosidades) e que t?m valor no mercado regional. As 204 parcelas foram agrupadas em grupos homog?neos, no qual foram produzidos 40 dendrogramas do tipo vertical para cada uma das 3 classes de tamanho (totalizando 120 dendrogramas), baseados na combina??o de 5 medidas de dist?ncia (Euclidiana Simples, Euclidiana Quadrada, Manhattan, Canberra e Mahalanobis), com 8 m?todos de agrupamento hier?rquicos, sendo: Ward1, Ward2 Liga??o Simples, Liga??o Completa, UPGMA, WPGMA, Mediana e Centroide. Com o intuito de verificar a valida??o dos m?todos de agrupamento testados, foram confeccionadas 120 tabelas de an?lise discriminante linear de Fisher, sendo 40 para cada classe de tamanho, contendo as probabilidades para cada classe de estoque, bem como a porcentagem de classifica??o das combina??es testadas na an?lise de agrupamento. As an?lises de agrupamento e discriminante possibilitaram estratificar as parcelas heterog?neas de uma floresta inequi?nea em ?reas com parcelas homog?neas em termos de volume, densidade b?sica da madeira e grupo de comercializa??o. A combina??o entre medida de dist?ncia de Manhattan e m?todo de Ward2 mostrou-se ser a mais eficiente para estratificar florestas inequi?neas em classes de estoque volum?trico.
Disserta??o (Mestrado) ? Programa de P?s-Gradua??o em Ci?ncia Florestal, Universidade Federal dos Vales do Jequitinhonha e Mucuri, 2016.
The study aimed to determine the best combination of clustering method with similarity measure to classify the productive capacity of a stretch at Tapaj?s National Forest. The sample forest inventory was carried out in 2012 and for plot allocations we opened 12 tracks of approximately 1.5 m wide, 4.0 km equidistant in east-west direction, and length ranging from 4 km to 13.75 km. The plot installation, with dimensions of 30 x 250 m, systematically distributed in 500 m in each row. We took into account for the definition of size classes (CT): CT 1 (regeneration class) - 10 cm ? DBH <25 cm in the first 50 m of the plot (30 m x 50 m); CT 2 (growth class) - 25 cm ? DBH <50 cm in the first 100 m (30 m x 100 m); and CT 3 (harvesting class) - DBH ? 50 cm in the whole plot (30 m x 250 m). For the classification of productive capacity, there was a filter in the original database by size class, in which individuals were selected with bole quality 1 (straight bole) and 2 (bole with small tortuosities) and which have value in the regional market. The 204 plots were grouped into homogeneous groups, which were produced 40 dendrograms of the vertical type for each of the three size classes (totaling 120 dendrograms), based on the combination of five measures of distance (Euclidean Simple, Squared Euclidean, Manhattan, Canberra and Mahalanobis) with 8 hierarchical clustering methods, namely: Ward1, Ward2 Simple Link, Complete Link, UPGMA, WPGMA, Median and Centroid. In order to check the validation of the tested clustering methods, we produced 120 Fisher linear discriminant analysis tables, with 40 for each size class containing the probabilities for each stock class as well as the percentage of the combinations tested in the cluster analysis. The cluster and discriminant analysis made it possible to stratify the heterogeneous plots of a native forest in areas with homogeneous portions in terms of volume, wood density and commercialization group. The combination of measure distance of Manhattan and Ward2 method proved to be the most efficient to stratify uneven-aged stands in forest stock volume classes.
APA, Harvard, Vancouver, ISO, and other styles
43

Gonçalves, Fabricio Mota. "Ferramentas para análise de autogestão e sustentabilidade do uso da água em perímetros irrigados." reponame:Repositório Institucional da UFC, 2015. http://www.repositorio.ufc.br/handle/riufc/16880.

Full text
Abstract:
GONÇALVES, Fabricio Mota. Ferramentas para análise de autogestão e sustentabilidade do uso da água em perímetros irrigados. 2015. 113 f. Tese (doutorado em engenharia agrícola)- Universidade Federal do Ceará, Fortaleza-CE, 2015.
Submitted by Elineudson Ribeiro (elineudsonr@gmail.com) on 2016-03-31T19:11:29Z No. of bitstreams: 1 2016_tese_fmgoncalves.pdf: 1801241 bytes, checksum: 6c8bbd3fdae12aa4493cdfc63f9a0cbd (MD5)
Approved for entry into archive by José Jairo Viana de Sousa (jairo@ufc.br) on 2016-05-18T20:52:14Z (GMT) No. of bitstreams: 1 2016_tese_fmgoncalves.pdf: 1801241 bytes, checksum: 6c8bbd3fdae12aa4493cdfc63f9a0cbd (MD5)
Made available in DSpace on 2016-05-18T20:52:14Z (GMT). No. of bitstreams: 1 2016_tese_fmgoncalves.pdf: 1801241 bytes, checksum: 6c8bbd3fdae12aa4493cdfc63f9a0cbd (MD5) Previous issue date: 2015
This work aims to characterize the current stage of Irrigated Perimeters Federal government with a view to self-management process and present alternative of allocating water distribution in secondary irrigation canals. The research was divided into two themes. The first addressed the development of a methodology for evaluating the performance of Irrigated Perimeters from the creation of a statistical model Multivariate discriminant and an Artificial Neural Network using the performance indicators of irrigated public areas of the National Department of Works Against Drought (Dnocs) and Development Company of the São Francisco and Parnaíba (Codevasf) as a way to evaluate the prospect of self-management of the same. The second dealt with the optimization of water use, a case study at the Experimental Farm Curu Valley, belonging to the Federal University of Ceará, in the area adjacent to the irrigated Curu Pentecost were accomplished. Based on information provided by the National Department of Works Against Drought (Dnocs) and Development Company of the São Francisco and Parnaíba (Codevasf), the key performance indicators relating to Self-Management of Irrigated Perimeters were evaluated. The Multivariate and discriminant analysis (AMD) technique Artificial Neural Networks (ANN) were used to separate the standards relating to the performance of Irrigated Perimeters linear character or not. RNA yielded the automatic identification of the pattern that belongs to each perimeter over time. Based on the results obtained in the multivariate discriminant analysis, we observed the Generation Revenue per Hectare (HRM) as the most important indicator in discriminatory process between Irrigated Perimeters regarding self-management. The perimeters with the best performance in relation to self-management were: Nilo Coelho, Curaçá I Pirapora and Maniçoba. Regarding the operationalization of water use, we used a mathematical model of linear programming to determine the most rational way to release water for irrigated areas. The allocation defined by mathematical modeling proved adequate for the needs of established cultures, showing the most rational use of water.
Este trabalho tem como objetivo caracterizar o estágio atual dos Perímetros Irrigados Públicos Federais com vistas ao processo de autogestão e apresentar alternativa de alocar a distribuição de água em canais secundários de irrigação. A pesquisa foi dividida em dois temas. O primeiro abordou o desenvolvimento de uma metodologia de avaliação de desempenho de Perímetros Irrigados a partir da criação de um modelo estatístico Discriminante Multivariado e de uma Rede Neural Artificial utilizando os indicadores de desempenho dos perímetros públicos irrigados do Departamento Nacional de Obras Contra as Secas (Dnocs) e da Companhia de Desenvolvimento do Vale do São Francisco e Parnaíba (Codevasf), como forma de avaliar a perspectiva da autogestão dos mesmos. O segundo tratou da otimização do uso da água, tendo sido realizado um estudo de caso na Fazenda Experimental Vale do Curu, pertencente à Universidade Federal do Ceará, em área contígua ao Perímetro Irrigado Curu Pentecoste. Com base nas informações disponibilizadas pelo Departamento Nacional de Obras Contra as Secas (Dnocs) e a Companhia de Desenvolvimento do Vale do São Francisco e Parnaíba (Codevasf), foram avaliados os principais indicadores de desempenho relativos à Autogestão dos Perímetros Irrigados. A Análise Multivariada Discriminante (AMD) e a técnica de Redes Neurais Artificiais (RNA) foram utilizadas para separar os padrões referentes ao desempenho dos Perímetros Irrigados de caráter linear ou não. A RNA proporcionou a identificação automática do padrão a que pertence cada perímetro no decorrer do tempo. Com base nos resultados obtidos na Análise Multivariada Discriminante, observou-se o indicador Geração de Receita por Hectare (GRH) como mais importante no processo discriminatório entre os Perímetros Irrigados quanto à Autogestão. Os Perímetros com os melhores desempenhos em relação à Autogestão foram: Nilo Coelho, Curaçá I, Pirapora e Maniçoba. Com relação à operacionalização do uso da água, utilizou-se um modelo matemático de programação linear para determinar a forma mais racional de liberar água para as áreas irrigadas. A alocação definida pela modelagem matemática mostrou-se adequada para as necessidades das culturas estabelecidas, mostrando a utilização mais racional da água.
APA, Harvard, Vancouver, ISO, and other styles
44

NERI, Patrícia Maria da Silva. "Extração de compostos fenólicos de Maytenus rigida MART. (BOMNOME): planejamento fatorial e atividade antimicrobiana." Universidade Federal de Pernambuco, 2016. https://repositorio.ufpe.br/handle/123456789/20124.

Full text
Abstract:
Submitted by Fabio Sobreira Campos da Costa (fabio.sobreira@ufpe.br) on 2017-07-28T14:37:58Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO PATRÍCIA NERI (PPGCF) - VERSÃO DIGITAL.pdf: 2349213 bytes, checksum: 73f2d950a1240688c94ba3d7578fe8e4 (MD5)
Made available in DSpace on 2017-07-28T14:37:58Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) DISSERTAÇÃO PATRÍCIA NERI (PPGCF) - VERSÃO DIGITAL.pdf: 2349213 bytes, checksum: 73f2d950a1240688c94ba3d7578fe8e4 (MD5) Previous issue date: 2016-02-29
CNPQ
Os compostos fenólicos são um grupo de substâncias facilmente encontradas na natureza, presentes em várias espécies vegetais. A forma de retirada e obtenção destes compostos presentes nas matrizes das células vegetais é através dos métodos extrativos. A extração é a primeira etapa dos estudos com plantas e pode sofrer interferência de vários fatores como temperatura, tempo de extração, solvente e parte da planta utilizada e tem se tornado um dos principais alvos nos estudos com planejamento fatorial. Maytenus rigida Mart., espécie considerada nativa do nordeste brasileiro, é rica em compostos fenólicos e apresenta atividades farmacológicas conhecidas, entre elas a atividade antimicrobiana. Desta forma, o presente trabalho tem por objetivo analisar as condições extrativas de compostos fenólicos de cascas e folhas desta espécie através de ensaios fitoquímicos e microbiológicos. As amostras foram submetidas à extração hidroetanólica (70%) através de cinco métodos extrativos: maceração, decocção sob refluxo, turbólise, ultrassom e micro-ondas, dos quais um foi escolhido para realização do planejamento fatorial. Esta escolha baseou-se nos doseamentos de fenóis totais, taninos, flavonoides e cumarinas; e nos ensaios antimicrobianos por testes de difusão em disco. Após determinação do método a ser utilizado, foi feito um planejamento fatorial 23, para analisar a interferência do teor alcóolico, do tempo de extração e da proporção massa/solvente nos teores dos metabólitos analisados. O método por decocção sob refluxo foi o escolhido por ter se mostrado mais vantajoso na extração de compostos fenólicos, não havendo diferença significativa entre os métodos para a atividade antimicrobiana. No planejamento fatorial, as variáveis analisadas não exerceram influência sobre os teores de fenóis totais e taninos, já para flavonoides e cumarinas observou-se que o aumento da proporção de etanol aumentou a extração destes metabólitos. Para atividade antimicrobiana, as variáveis exerceram influência significativa frente a M. luteus. Os extratos também foram testados frente a cepas de S. aureus isolados clínicos, apresentando halos entre 12-15 mm, sendo considerados ativos.
Phenolic compounds are a group of substances easily found in nature, present in several plant species. The form of withdrawal and obtaining these compounds in matrices of plant cells is through extractive methods. Extraction is the first stage of studies with plants and can be interfered with by many factors such as temperature, extraction time, solvent and part of the plant used and has become a major target in studies with factorial design. Maytenus rigida Mart., considered native to northeastern Brazil, is rich in phenolic compounds and has known pharmacological activities, including antimicrobial activity. Thus, this study aims to analyze the conditions extraction of phenolic compounds from barks and leaves of this specie through phytochemical and microbiological tests. The samples were submitted to extraction hydroethanol (70%) through five extractive methods: maceration, decoction under reflux, turbo-extraction, ultrasound and microwave, one of which was chosen to perform the factorial design. This choice was based on measurements of total phenols, tannins, flavonoids and coumarins; and antimicrobial tests for disk diffusion test. After determining the method to be used a factorial design 23 was done to analyze the interference of the alcoholic contents, the extraction time and the ratio mass/ solvent in the levels metabolites analyzed. The method by decoction under reflux was chosen for having been more advantageous in extracting of phenolic compounds, with no significant difference between methods for antimicrobial activity. In the factorial design, the analyzed variables did not influence on the contents of total phenols and tannins, flavonoids and coumarins have to be observed that the increase in the proportion of ethanol increased the extraction of these metabolites. To antimicrobial activity, the variables exercised significant influence against M. luteus. The extracts were also tested strains of S. aureus clinical isolates, showing halos between 12-15 mm, and are considered assets.
APA, Harvard, Vancouver, ISO, and other styles
45

LOPES, José Ricardo Ferreira. "Variabilidade espaço-temporal da pluviometria no semiárido brasileiro e sua relação com a produtividade do milho." Universidade Federal de Campina Grande, 2016. http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/1386.

Full text
Abstract:
Submitted by Lucienne Costa (lucienneferreira@ufcg.edu.br) on 2018-08-08T19:09:40Z No. of bitstreams: 1 JOSÉ RICARDO FERREIRA LOPES – DISSERTAÇÃO (PPGMET) 2016.pdf: 1642791 bytes, checksum: b97ad8aa861572c2f7c9073f1a750cff (MD5)
Made available in DSpace on 2018-08-08T19:09:40Z (GMT). No. of bitstreams: 1 JOSÉ RICARDO FERREIRA LOPES – DISSERTAÇÃO (PPGMET) 2016.pdf: 1642791 bytes, checksum: b97ad8aa861572c2f7c9073f1a750cff (MD5) Previous issue date: 2016-12-02
A produtividade de diversas culturas agrícolas é intensamente dependente da oferta pluviométrica, bem como de sua frequência e intensidade. O objetivo deste trabalho foi avaliar o comportamento espaço-temporal da precipitação e da produtividade do milho na região semiárida brasileira (SAB). Para isso foram utilizadas as técnicas da Análise dos Componentes Principais (ACP), Análise de Agrupamento (AA) e o teste de Mann-Kendall para identificar tendências das variáveis para o período de 1990 a 2014. Os resultados mostraram que não há uma uniformidade na distribuição espaço-temporal da precipitação, haja vista que diversos fatores, sejam eles a atuação de sistemas atmosféricos ou posição geográfica influenciam nos totais pluviométricos da região. Na maior parte do território do SAB a produtividade do milho é inferior a 1000 kg/ha. A AA possibilitou dividir a região do SAB em 4 grupos. Os grupos 1 e 4 apresentaram uma pequena tendência negativa na precipitação, mas com valores positivos na tendência de produtividade do milho. Já os grupos 2 e 3 apresentaram tendências positivas tanto na precipitação como na produtividade do milho. A produtividade média do milho nas últimas décadas tem sido variada e está intimamente relacionado com a variabilidade climática. O efeito das chuvas sobre a produtividade do milho foi estatisticamente positivo, ou seja, na maior parte da região SAB, a eficiência da produção do grão é dependente das precipitações pluviométricas locais.
The productivity of various agricultural crops is strongly dependent on the rainfall supply, as well as on its frequency and intensity. The objective of this work was to evaluate the spatio-temporal behavior of corn rain and yield in the Brazilian semi-arid region (BSA). The Principal Component Analysis (PCA), Grouping Analysis (AA) and Mann-Kendall tests were used to identify trends of the variables for the period from 1990 to 2014. The results showed that there is no uniformity in the distribution of precipitation, given that several factors, whether the performance of atmospheric systems or geographic position influence the region's total rainfall. In most of the BSA territory maize productivity is less than 1000 kg / ha. AA allowed the BSA region to be divided into 4 groups. Groups 1 and 4 presented a small negative trend in precipitation, but with positive values in maize productivity trend. Groups 2 and 3 presented positive trends in both rain and corn yield. The average maize yield in the last decades has been varied and is closely related to climatic variability. The effect of rainfall on maize productivity was statistically positive, that is, in most of the BSA region, grain yield efficiency is dependent on local rain.
APA, Harvard, Vancouver, ISO, and other styles
46

Callegaro, Cássio José. "Previsão de consumo e percepção de utilização da internet no Brasil: uma abordagem multivariada." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/12/12136/tde-26032012-151518/.

Full text
Abstract:
Com a inclusão digital no Brasil, houve um grande crescimento não só do número de pessoas com acesso à Internet, como também do número de pessoas que realizam compras por esse meio. Esta investigação, cuja temática situa-se na área do Comportamento do Consumidor no ambiente online no momento da realização de uma compra, pretende construir um modelo de compreensão e verificação da propensão, ou predisposição, de um indivíduo para realizar compras online, a partir da análise das variáveis socioeconômicas e comportamentais. Por meio de análises estatísticas multivariadas - análise fatorial, análise de homogeneidade e análise de regressão logística -, concluiu-se que, entre os usuários da Internet pesquisados, há heterogeneidade na forma do comportamento de consumo e que existem diversas variáveis que influenciam o consumo por meio da Internet que dependem, em parte, de alguma característica, qualidade ou opinião singular. Este resultado aponta para a possibilidade de entendimento do processo de tomada de decisão pelos consumidores online, que facilitará as estratégias de marketing de forma a realizar uma captação de visitantes para os sites e, consequentemente, melhor conversão de visitantes em consumidores, quaisquer que sejam os produtos ou serviços.
The digital inclusion in Brazil has leveraged not only the number of individuals who access Internet, but also the amount of online shoppers. This essay, which delves into the area of Online Consumer Behavior at the moment of purchase, aims to design a model to verify and comprehend the tendency or inclination to shop online, regarding the analysis of social, economic and behavioral variables. Through multivariate analysis - factorial analysis, HOMALS and logistic regression -, it could be argued that, among the researched internet users, the web consumption behavior is influenced by an array of variables, resulting in a heterogenic pattern of e-shopping. The outcome points out a better understanding of online buyers\' decision making process, allowing marketing strategies to increase the number of online visitors and improve the conversion from visitors to consumers, whatever the product or service may be.
APA, Harvard, Vancouver, ISO, and other styles
47

Stroieke, Renato Eduardo. "Agrupamentos de trabalhadores através da modelagem de curvas de aprendizado." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2012. http://hdl.handle.net/10183/62065.

Full text
Abstract:
O presente trabalho apresenta proposições para criação de agrupamentos homogêneos de trabalhadores, através de suas curvas de aprendizado e utilizando técnicas de análise multivariada. Desta forma, os objetivos desta dissertação são: (i) Apresentar o estado da arte das principais aplicações das curvas de aprendizado; (ii) Estudar os principais modelos matemáticos para curvas de aprendizado; (iii) Propor metodologias de formação de agrupamentos homogêneos de trabalhadores utilizando as curvas de aprendizado; e (iv) Integrar técnicas de análise multivariada com teorias sobre curvas de aprendizado. São apresentados três artigos que contemplam os objetivos citados. São propostos dois métodos para formação de agrupamentos homogêneos de trabalhadores. Os métodos desenvolvidos foram avaliados através da aplicação de estudos de caso. Os métodos aplicados apresentaram bons resultados, obtendo-se agrupamentos de trabalhadores com perfis homogêneos de aprendizado. De tal forma, deseja-se diminuir a formação de gargalos de produção em linhas de montagem baseadas em procedimentos manuais. Conclui-se que os métodos propostos são adequados para a formação de agrupamentos de trabalhadores com perfis de aprendizado similares.
This dissertation presents new approaches to create homogeneous groups of workers based on their learning curves and multivariate analysis tools. The objectives of this dissertation are: (i) Unveil the state of the art of the main applications of learning curves, (ii) Study the main learning curves models, (iii) Propose methods for creating homogeneous groups of workers using learning curves, and (iv) Integrate multivariate analysis with learning curve theory. There are three articles that address the objectives outlined. Two methods are proposed for the formation of homogeneous groups of workers. The proposed methods were evaluated through case studies on examples with real data. The proposed methods yielded good results, creating homogeneous groups of workers in production lines and reducing the formation of bottlenecks in manual-based assembly lines. Results displayed the proposed methods as suitable for the formation of groups of workers with similar learning profiles.
APA, Harvard, Vancouver, ISO, and other styles
48

Santana, Fernanda Alves de. "Desenvolvimento de estratégias analíticas visando determinação de gálio em bauxita e sedimento empregando a espectrometria de emissão óptica com plasma indutivamente acoplado." Instituto de Química, 2013. http://repositorio.ufba.br/ri/handle/ri/16252.

Full text
Abstract:
Submitted by Ana Hilda Fonseca (anahilda@ufba.br) on 2014-10-03T13:55:54Z No. of bitstreams: 1 Fernanda Alves de Santana - Dissertação.pdf: 967399 bytes, checksum: d09bf5806cc31b2adfa893bc979c0de5 (MD5)
Approved for entry into archive by Fatima Cleômenis Botelho Maria (botelho@ufba.br) on 2014-10-03T15:54:21Z (GMT) No. of bitstreams: 1 Fernanda Alves de Santana - Dissertação.pdf: 967399 bytes, checksum: d09bf5806cc31b2adfa893bc979c0de5 (MD5)
Made available in DSpace on 2014-10-03T15:54:21Z (GMT). No. of bitstreams: 1 Fernanda Alves de Santana - Dissertação.pdf: 967399 bytes, checksum: d09bf5806cc31b2adfa893bc979c0de5 (MD5)
CAPES, FAPESP e CNPq
Este trabalho propõe um método analítico para a determinação de gálio em bauxita e sedimento empregando a espectrometria de emissão óptica com plasma indutivamente acoplado (ICP OES). A determinação de gálio em amostras de bauxita usando ICP OES é complicada porque essa matriz contém alumínio em altas concentrações que interfere fortemente nesta análise. Portanto, para amostras de bauxita é proposta nesta pesquisa o emprego da técnica de elemento de referência para correção da interferência de alumínio em ICP OES, obtendo melhores precisões e exatidões. O estudo foi estabelecido para as seguintes linhas de emissão: 294,363, 287,423, 294,418 e 417,204 nm. Sendo selecionada a linha 294,363 nm devido a essa obter a melhor relação sinal/ruído e espectro mais bem definido. Dois nebulizadores (V-groove e Seaspray) e dois tipos de ácidos (HNO3 e HCl) foram utilizado no trabalho. Os parâmetros experimentais: concentração de ácido usado para preparação de soluções padrões de gálio e soluções de amostras, vazão do nebulizador e potência de radio frequência do espectrômetro foram estabelecidos para as técnicas de otimização multivariada. Planejamentos fatoriais completos 23 foram realizados variando o nebulizador e o tipo de ácido, tendo-se no total quatro planejamentos fatoriais completo. Os resultados demonstraram que todas as variáveis ou suas interações foram significativas para os quatro planejamentos. Diante disto, planejamentos Box-Behnken foram realizados visando obter as condições criticas utilizando ambos nebulizadores e ácidos. O método analítico com ácido clorídrico e o nebulizador Seaspray foi o que apresentou melhor sensibilidade. Esse método apresentou valores de limites de detecção e quantificação de 0,042 e 0,14 mg Kg-1 e precisão de 5,06, 3,97 e 1,85 % em termos de desvio padrão relativo referentes, às soluções de gálio 0,05, 0,1 e 1,5 mg L-1, respectivamente. O método proposto nas condições otimizadas, em presença de ítrio ou escândio como elementos de referencia, permite a determinação de gálio em bauxita. Para a análise de sedimento não foi necessário elemento de referência. O método de preparação das amostras empregado foi estabelecido utilizando ácidos clorídrico e nítrico em sistema de radiação por micro-ondas. A exatidão do método foi avaliada e confirmada usando material de referência certificado de alumina (NIST 699) e sedimento marinho (NIST 2702), cujo valor obtido não apresentou diferença significativa do valor certificado. O método analítico foi aplicado para a determinação de gálio em cinco amostras de bauxita e cinco amostras de sedimento. As concentrações de gálio foram abaixo do LQ para quatro amostras, tendo um único resultado apresentado o valor de 4,67 mg Kg-1. Para as amostras de bauxita a faixa de concentração encontrada foi de 20,0 – 100,0 mg Kg-1.
This paper proposes an analytical method for the determination of gallium in bauxite and sediment employing inductively coupled plasma optical emission spectrometry (ICP OES). The determination of gallium in bauxite samples using ICP OES is complicated because this matrix contains high concentrations of aluminum that interfere strongly in this analysis. Therefore, for samples of bauxite is proposed in this research the use of the reference element technique for correcting the interference of aluminum in ICP OES, obtaining better precisions and accuracies. The study was established for the following emission lines: 294.363, 287.423, 294.418 and 417.204 nm. Being selected line 294.363 nm due this get the best signal / noise ratio and spectrum better defined. Two nebulizers (V-groove and SeaSpray) and two types of acids (HNO3 and HCl) were used in the study. The experimental parameters: concentration of acid used for preparation of standard solutions of gallium and sample solutions, the nebulizer flow and power radio frequency spectrometer were established for multivariate optimization techniques. 23 complete factorial designs were performed varying the nebulizer and the type of acid, having a total of four factorial designs. The results demonstrated that all the variables or their interactions were significant for all four plans. Ahead of this Box-Behnken planning were made to obtain the critical conditions using both nebulizers and acids. The analytical method with hydrochloric acid and Seaspray nebulizer showed the best sensitivity. This method had values of detection and quantification limit of 0.042 and 0.14 mg kg-1 and precision of 5.06, 3.97 and 1.85% in terms of relative standard deviation relating, to the solutions of gallium 0.05 , 0.1 and 1.5 mg L-1, respectively. The method proposed in the optimized conditions in the presence of yttrium or scandium as reference elements allows the determination of gallium in bauxite. To analyze the sediment was not necessary reference element. The method of sample preparation employed was established using hydrochloric and nitric acids in system by microwave radiation. The accuracy was evaluated and confirmed using certified reference material alumina (NIST 699) and marine sediment (NIST 2702), whose value obtained was not significantly different from the certified value. The analytical method was applied for the determination of gallium in five samples of bauxite and five sediment samples. The concentration of gallium were below LOQ for the four samples, with the results presented a single value of 4.67 mg kg-1. For samples of bauxite the concentration range found was from 20.0 to 100.0 mg kg-1.
APA, Harvard, Vancouver, ISO, and other styles
49

Andersson, Markus. "Multivariate Financial Time Series and Volatility Models with Applications to Tactical Asset Allocation." Thesis, KTH, Matematisk statistik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-175326.

Full text
Abstract:
The financial markets have a complex structure and the modelling techniques have recently been more and more complicated. So for a portfolio manager it is very important to find better and more sophisticated modelling techniques especially after the 2007-2008 banking crisis. The idea in this thesis is to find the connection between the components in macroeconomic environment and portfolios consisting of assets from OMX Stockholm 30 and use these relationships to perform Tactical Asset Allocation (TAA). The more specific aim of the project is to prove that dynamic modelling techniques outperform static models in portfolio theory.
Den finansiella marknaden är av en väldigt komplex struktur och modelleringsteknikerna har under senare tid blivit allt mer komplicerade. För en portföljförvaltare är det av yttersta vikt att finna mer sofistikerade modelleringstekniker, speciellt efter finanskrisen 2007-2008. Idéen i den här uppsatsen är att finna ett samband mellan makroekonomiska faktorer och aktieportföljer innehållande tillgångar från OMX Stockholm 30 och använda dessa för att utföra Tactial Asset Allocation (TAA). Mer specifikt är målsättningen att visa att dynamiska modelleringstekniker har ett bättre utfall än mer statiska modeller i portföljteori.
APA, Harvard, Vancouver, ISO, and other styles
50

Filleti, Juliana de Paula. "Contagio em mercados financeiros emergentes." [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/305869.

Full text
Abstract:
Orientadores: Luiz Koodi Hotta, Mauricio Enrique Zevallos Herencia
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Matematica, Estatistica e Computação Cientifica
Made available in DSpace on 2018-08-06T01:07:19Z (GMT). No. of bitstreams: 1 Paula_Julianade_M.pdf: 3543274 bytes, checksum: 420906ec38aaafeee50d465a68850a25 (MD5) Previous issue date: 2006
Resumo: O conceito de contagio tem sido um dos mais discutidos na literatura de finanças internacionais a partir da ultima década do século XX. Embora não exista uma forte concordância em relação à sua definição, todos concordam em que ele esta relacionado ao fato de que crises econômicas iniciadas em um período podem propagarem-se por outros países através do aumento das conexões entre os países envolvidos. Neste sentido, um dos indicadores utilizados para verificar a existência de contágio e o aumento da correlação condicional em um período de crise com relação a períodos tranqüilos. Neste trabalho são estudadas algumas técnicas estatísticas para estimar a correlação condicional. São considerados estimativas através do método do alisamento exponencial, de modelos da família GARCH multivariada e utilizando a analise fatorial com modelos de volatilidade estocástica. Estas técnicas são empregadas para estudar o contagio que envolvam países latino-americanos e alguns países asiáticos, quais sejam, Brasil, México, Argentina, Malásia e Rússia ao longo do período de 05/09/1995 a 30/12/2004. Nota-se que existe unanimidade nos resultados com relação a existência ou não de contagio entre as técnicas para alguns países em determinados período de tempo, principalmente durante a crise asiática, mas existem períodos onde essas técnicas levam a conclusões diferentes
Abstract: The issue of contagion has been one of the most debated in the international finance literature in the last years. Although there is no general agreement regarding the definition of contagion, it is known that this issue is related to the fact that crisis started in one country tend to propagate to other countries. Therefore, a measure used as an indication of the presence of contagion is the growth of the conditional correlation during crisis periods. This dissertation review some of the statistical techniques used to estimate conditional correlation: the exponential smoothing method, multivariate GARCH type models and factor analysis with stochastic volatility model. These techniques are applied in order to study contagion among Latin American and some asian market countries, i.e. Brazil, Mexico, Argentina, Malaysia and Russia covering the period from 05/09/1995 until 30/12/2004. In some crisis period, mainly during the Asian crisis there is a general agreement among all techniques, but there also cases where they lead to different conclusions
Mestrado
Mestre em Estatística
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography