To see the other types of publications on this topic, follow the link: Hauptkomponentenanalyse.

Dissertations / Theses on the topic 'Hauptkomponentenanalyse'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 dissertations / theses for your research on the topic 'Hauptkomponentenanalyse.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Schmid, Martin. "Anwendung der Principal Component Analysis auf die Commodity-Preise." St. Gallen, 2007. http://www.biblio.unisg.ch/org/biblio/edoc.nsf/wwwDisplayIdentifier/02282663001/$FILE/02282663001.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Lu, Yun. "Risikoprämien von Unternehmensanleihen." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2013. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-125739.

Full text
Abstract:
Die Risikoprämie einer Unternehmensanleihe dient prinzipiell der wirtschaftlichen Kompensation für die Übernahme zusätzlicher Risiken gegenüber den Risiken der Benchmark. Allerdings findet sich in der bisher veröffentlichen Literatur eine Vielzahl von den praktischen Messkonzepten, die in vielen Fällen nicht fehlerfrei und problemlos zustande gekommen sind. Daher ist die präzise und quantitative Messung der Risikoprämien von Unternehmensanleihen eine betriebswirtschaftliche Notwendigkeit. In der vorliegenden Arbeit werden im Hinblick auf die Erreichbarkeit drei alternative Messkonzepte bezüglich der Risikoprämien von Unternehmensanleihen vorgestellt und miteinander verglichen. Einige bisherige Studien sind der Auffassung, dass die Risikoprämien von Unternehmensanleihen zumeist von den Nicht-Kreditkomponenten beeinflusst werden. Um diese Marktanomalien zu erklären, verwenden die vorliegenden Untersuchungen das statistische lineare Faktor-Modell. In diesem Zusammenhang wird die Untersuchung von LITTERMAN/SCHEINKMAN (1991) auf die risikobehafteten Unternehmensanleihen übertragen. Im Kern steht die Frage, welche Risikoarten bzw. wie viele Einflussfaktoren wirken sich auf die Risikoprämien von Unternehmensanleihen in wieweit aus. Das Ziel ist ein sparsames lineares Faktor-Modell mit wirtschaftlicher Bedeutung aufzubauen. Somit leistet diese Dissertationsschrift einen wesentlichen Beitrag zur Gestaltung der Anleiheanalyse bzw. zur Portfolioverwaltung.
APA, Harvard, Vancouver, ISO, and other styles
3

Khawaja, Antoun. "Automatic ECG analysis using principal component analysis and wavelet transformation." Karlsruhe Univ.-Verl. Karlsruhe, 2007. http://www.uvka.de/univerlag/volltexte/2007/227/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Lücke-Janssen, Daniela. "Integration von Kern-Methoden in das medizinische Monitoring /." Düsseldorf : VDI-Verl, 2008. http://d-nb.info/991643704/04.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Alexandris, Nikos [Verfasser], and Steffen [Akademischer Betreuer] Kuntz. "Burned area mapping via non-centered PCA using Public Domain Data and Free Open Source Software = Kartierung abgebrannter Flächen durch nicht-zentrierte Hauptkomponentenanalyse bei Benutzung von Public Domain Dateien und Free Open Source Software." Freiburg : Universität, 2011. http://d-nb.info/1123465053/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Aurich, Allan. "Modelle zur Beschreibung der Verkehrssicherheit innerörtlicher Hauptverkehrsstraßennetze unter besonderer Berücksichtigung der Umfeldnutzung." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2013. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-125311.

Full text
Abstract:
In der Arbeit wird eine Methodik einer zusammenhängenden Analyse und modellhaften Beschreibung der Verkehrssicherheit in städtischen Hauptstraßennetzen am Beispiel der Stadt Dresden entwickelt. Die dabei gewonnenen Modelle dienen der Abschätzung von Erwartungswerten von Unfallhäufigkeiten mit und ohne Personenschaden unter Berücksichtigung der Verkehrsbeteiligungsart. Die Grundlage bilden multivariate Regressionsmodelle auf Basis verallgemeinerter linearer Modelle (GLM). Die Verwendung verallgemeinerter Regressionsmodelle erlaubt eine Berücksichtigung von Verteilungen, die besser geeignet sind, den Unfallentstehungsprozess wiederzugeben, als die häufig verwendete Normalverteilung. Im konkreten Fall werden hierzu die Poisson-Verteilung sowie die negative Binomialverteilung verwendet. Um Effekte im Hauptverkehrsstraßennetz möglichst trennscharf abbilden zu können, werden vier grundsätzliche Netzelemente differenziert und das Netz entsprechend zerlegt. Unterschieden werden neben Streckenabschnitten und Hauptverkehrsknotenpunkten auch Annäherungsbereiche und Anschlussknotenpunkte. Die Kollektive der Knotenpunkte werden ferner in signalisierte und nicht-signalisierte unterteilt. Es werden zunächst Modelle unterschiedlicher Unfallkollektive getrennt für alle Kollektive der vier Netzelemente berechnet. Anschließend werden verschiedene Vorgehensweisen für eine Zusammenfassung zu Netzmodellen entwickelt. Neben der Verwendung verkehrstechnischer und infrastruktureller Größen als erklärende Variable werden in der Arbeit auch Kenngrößen zur Beschreibung der Umfeldnutzung ermittelt und im Rahmen der Regression einbezogen. Die Quantifizierung der Umfeldnutzung erfolgt mit Hilfe von Korrelations-, Kontingenz- und von Hauptkomponentenanalysen (PCA). Im Ergebnis werden Modelle präsentiert, die eine multivariate Quantifizierung erwarteter Unfallhäufigkeiten in Hauptverkehrsstraßennetzen erlauben. Die vorgestellte Methodik bildet eine mögliche Grundlage für eine differenzierte Sicherheitsbewertung verkehrsplanerischer Variantenabschätzungen
A methodology is developed in order to predict the number of accidents within an urban main road network. The analysis was carried out by surveying the road network of Dresden. The resulting models allow the calculation of individual expectancy values for accidents with and without injury involving different traffic modes. The statistical modelling process is based on generalized linear models (GLM). These were chosen due to their ability to take into account certain non-normal distributions. In the specific case of accident counts, both the Poisson distribution and the negative binomial distribution are more suitable for reproducing the origination process than the normal distribution. Thus they were chosen as underlying distributions for the subsequent regressions. In order to differentiate overlaying influences, the main road network is separated into four basic elements: major intersections, road sections, minor intersections and approaches. Furthermore the major and minor intersections are additionally subdivided into signalised and non-signalised intersections. Separate models are calculated for different accident collectives for the various types of elements. Afterwards several methodologies for calculating aggregated network models are developed and analysed. Apart from traffic-related and infrastructural attributes, environmental parameters are derived taking into account the adjacent building structure as well as the surrounding land-use, and incorporated as explanatory variables within the regression. The environmental variables are derived from statistical analyses including correlation matrices, contingency tables and principal components analyses (PCA). As a result, a set of models is introduced which allows a multivariate calculation of expected accident counts for urban main road networks. The methodology developed can serve as a basis for a differentiated safety assessment of varying scenarios within a traffic planning process
APA, Harvard, Vancouver, ISO, and other styles
7

Osunmadewa, Babatunde A., E. Csaplovics, A. Majdaldin R, D. Aralova, and C. O. Adeofun. "Regional assessment of trends in vegetation change dynamics using principal component analysis." SPIE, 2016. https://tud.qucosa.de/id/qucosa%3A35111.

Full text
Abstract:
Vegetation forms the basis for the existence of animal and human. Due to changes in climate and human perturbation, most of the natural vegetation of the world has undergone some form of transformation both in composition and structure. Increased anthropogenic activities over the last decades had pose serious threat on the natural vegetation in Nigeria, many vegetated areas are either transformed to other land use such as deforestation for agricultural purpose or completely lost due to indiscriminate removal of trees for charcoal, fuelwood and timber production. This study therefore aims at examining the rate of change in vegetation cover, the degree of change and the application of Principal Component Analysis (PCA) in the dry sub-humid region of Nigeria using Normalized Difference Vegetation Index (NDVI) data spanning from 1983-2011. The method used for the analysis is the T-mode orientation approach also known as standardized PCA, while trends are examined using ordinary least square, median trend (Theil-Sen) and monotonic trend. The result of the trend analysis shows both positive and negative trend in vegetation change dynamics over the 29 years period examined. Five components were used for the Principal Component Analysis. The results of the first component explains about 98 % of the total variance of the vegetation (NDVI) while components 2-5 have lower variance percentage (< 1%). Two ancillary land use land cover data of 2000 and 2009 from European Space Agency (ESA) were used to further explain changes observed in the Normalized Difference Vegetation Index. The result of the land use data shows changes in land use pattern which can be attributed to anthropogenic activities such as cutting of trees for charcoal production, fuelwood and agricultural practices. The result of this study shows the ability of remote sensing data for monitoring vegetation change in the dry-sub humid region of Nigeria.
APA, Harvard, Vancouver, ISO, and other styles
8

Scholz, Matthias. "Approaches to analyse and interpret biological profile data." Phd thesis, [S.l.] : [s.n.], 2006. http://deposit.ddb.de/cgi-bin/dokserv?idn=980988799.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Richter, Tom. "Einsatz der FT-IR-Mikrospektroskopie und multivariater Auswertealgorithmen zur Identifizierung und Klassifizierung von Tumorgeweben." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2002. http://nbn-resolving.de/urn:nbn:de:swb:14-1031654874828-52789.

Full text
Abstract:
Das erste gestellte Ziel war es, die histologischen Strukturen eines Gewebedünnschnittes anhand der aufgenommenen FT-IR-Spektren sichtbar zu machen und diese mit dem konventionell gefärbten Schnitt und der autoradiographischen Aufnahme zu vergleichen. Dazu wurde ein Messsystem bestehend aus einem FT-IR-Spektrometer mit Mikroskop und einem computergesteuerten XY-Tisch aufgebaut und die notwendige Steuer- und Auswerte-Software entwickelt. Es konnte gezeigt werden, dass sich die FT-IR-Spektren mit geeigneten Auswerteverfahren zur Darstellung der histologischen Strukturen nutzen lassen. Dazu wurden zwei verschiedene Methoden eingesetzt, die PCA und die Fuzzy-Clusterung (FCM). Im zweiten Teil dieser Arbeit sollte ein Klassifikations-Algorithmus gefunden werden, mit dessen Hilfe sich Spektren von unbekannten Gewebeproben vorher definierten Modellen zuordnen lassen. Dazu wurde eine Spektren-Datenbank aus mehr als einhundert Gewebeproben angelegt. Aus dieser Datenbank wurden einige zehntausend Spektren ausgewählt und zu Modell-Datensätzen für sechs verschiedene Gewebetypen zusammengefasst. Für die Zuordnung unbekannter Spektren zu diesen Modellen wurde ein SIMCA-Klassifikations-Algorithmus entwickelt sowie ein LDA-Algorithmus eingesetzt. Für beide Methoden wurde die Klassi-fikations-Leistung anhand der Spezifität und Sensitivität bestimmt. Beide Klassifikations-Algorithmen führten zu guten Ergebnissen. Der SIMCA-Algorithmus erreichte eine Spezifität zwischen 97 % und 100 %, sowie eine Sensitivität zwischen 62 % und 78 % (bei einem Vertrauensintervall von 97,5 %). Der LDA-Algorithmus ermöglichte eine etwas bessere Sensitivität von 72 % bis 90 %, auf Kosten der Spezifität, welche zwischen 90 % und 98 % lag. Zusammenfassend kann festgestellt werden, dass sich die FT-IR-Mikrospektroskopie und die vorgestellten Auswerte-Algorithmen sehr gut zur Klassifizierung von Gewebedünnschnitten eignen.
APA, Harvard, Vancouver, ISO, and other styles
10

Galan, Roberto Fernandez. "Odor coding and memory traces in the antennal lobe of honeybee." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät I, 2003. http://dx.doi.org/10.18452/14997.

Full text
Abstract:
In dieser Arbeit werden zwei wesentliche neue Ergebnisse vorgestellt. Das erste bezieht sich auf die olfaktorische Kodierung und das zweite auf das sensorische Gedaechtnis. Beide Phaenomene werden am Beispiel des Gehirns der Honigbiene untersucht. In Bezug auf die olfaktorische Kodierung zeige ich, dass die neuronale Dynamik waehrend der Stimulation im Antennallobus duftspezifische Trajektorien beschreibt, die in duftspezifischen Attraktoren enden. Das Zeitinterval, in dem diese Attraktoren erreicht werden, betraegt unabhaengig von der Identitaet und der Konzentration des Duftes ungefaehr 800 ms. Darueber hinaus zeige ich, dass Support-Vektor Maschinen, und insbesondere Perzeptronen, ein realistisches und biologisches Model der Wechselwirkung zwischen dem Antennallobus (dem kodierenden Netwerk) und dem Pilzkoerper (dem dekodierenden Netzwerk) darstellen. Dieses Model kann sowohl Reaktionszeiten von ca. 300 ms als auch die Invarianz der Duftwahrnehmung gegenueber der Duftkonzentration erklaeren. In Bezug auf das sensorische Gedaechtnis zeige ich, dass eine einzige Stimulation ohne Belohnung dem Hebbschen Postulat folgend Veraenderungen der paarweisen Korrelationen zwischen Glomeruli induziert. Ich zeige, dass diese Veranderungen der Korrelationen bei 2/3 der Bienen ausreichen, um den letzten Stimulus zu bestimmen. In der zweiten Minute nach der Stimulation ist eine erfolgreiche Bestimmung des Stimulus nur bei 1/3 der Bienen moeglich. Eine Hauptkomponentenanalyse der spontanen Aktivitaet laesst erkennen, dass das dominante Muster des Netzwerks waehrend der spontanen Aktivitaet nach, aber nicht vor der Stimulation das duftinduzierte Aktivitaetsmuster bei 2/3 der Bienen nachbildet. Man kann deshalb die duftinduzierten (Veraenderungen der) Korrelationen als Spuren eines Kurzzeitgedaechtnisses bzw. als Hebbsche "Reverberationen" betrachtet werden.
Two major novel results are reported in this work. The first concerns olfactory coding and the second concerns sensory memory. Both phenomena are investigated in the brain of the honeybee as a model system. Considering olfactory coding I demonstrate that the neural dynamics in the antennal lobe describe odor-specific trajectories during stimulation that converge to odor-specific attractors. The time interval to reach these attractors is, regardless of odor identity and concentration, approximately 800 ms. I show that support-vector machines and, in particular perceptrons provide a realistic and biological model of the interaction between the antennal lobe (coding network) and the mushroom body (decoding network). This model can also account for reaction-times of about 300 ms and for concentration invariance of odor perception. Regarding sensory memory I show that a single stimulation without reward induces changes of pairwise correlation between glomeruli in a Hebbian-like manner. I demonstrate that those changes of correlation suffice to retrieve the last stimulus presented in 2/3 of the bees studied. Succesful retrieval decays to 1/3 of the bees within the second minute after stimulation. In addition, a principal-component analysis of the spontaneous activity reveals that the dominant pattern of the network during the spontaneous activity after, but not before stimulation, reproduces the odor-induced activity pattern in 2/3 of the bees studied. One can therefore consider the odor-induced (changes of) correlation as traces of a short-term memory or as Hebbian reverberations.
APA, Harvard, Vancouver, ISO, and other styles
11

Wedekind, Daniel, Alexander Trumpp, Frederik Gaetjen, Stefan Rasche, Klaus Matschke, Hagen Malberg, and Sebastian Zaunseder. "Assessment of blind source separation techniques for video-based cardiac pulse extraction." SPIE, 2017. https://tud.qucosa.de/id/qucosa%3A35267.

Full text
Abstract:
Blind source separation (BSS) aims at separating useful signal content from distortions. In the contactless acquisition of vital signs by means of the camera-based photoplethysmogram (cbPPG), BSS has evolved the most widely used approach to extract the cardiac pulse. Despite its frequent application, there is no consensus about the optimal usage of BSS and its general benefit. This contribution investigates the performance of BSS to enhance the cardiac pulse from cbPPGs in dependency to varying input data characteristics. The BSS input conditions are controlled by an automated spatial preselection routine of regions of interest. Input data of different characteristics (wavelength, dominant frequency, and signal quality) from 18 postoperative cardiovascular patients are processed with standard BSS techniques, namely principal component analysis (PCA) and independent component analysis (ICA). The effect of BSS is assessed by the spectral signal-tonoise ratio (SNR) of the cardiac pulse. The preselection of cbPPGs, appears beneficial providing higher SNR compared to standard cbPPGs. Both, PCA and ICA yielded better outcomes by using monochrome inputs (green wavelength) instead of inputs of different wavelengths. PCA outperforms ICA for more homogeneous input signals. Moreover, for high input SNR, the application of ICA using standard contrast is likely to decrease the SNR.
APA, Harvard, Vancouver, ISO, and other styles
12

Alouini, Olfa. "Country size, growth and the economic and monetary union." Doctoral thesis, Humboldt-Universität zu Berlin, Wirtschaftswissenschaftliche Fakultät, 2012. http://dx.doi.org/10.18452/16609.

Full text
Abstract:
Der Zweck dieser Arbeit ist es, die Beziehung zwischen die Größe des Landes und das Wachstum auf internationaler Ebene und vergleichsweise in der Wirtschafts-und Währungsunion zu untersuchen und erarbeiten ihre Folgen für das Verhalten der wachstumsorientierte Finanzpolitik. Um ein globales Verständnis des Zusammenhangs zwischen Größe des Landes und das Wachstum in der EWU weiter verfolgen wir einen interdisziplinären Ansatz, einschließlich der makroökonomischen Modellierung (DSGE), Ökonometrie und Analyse der politischen Ökonomie. Die Kombination dieser Untersuchungen schließen wir, dass die Größe des Landes einen Einfluss auf die wirtschaftlichen Strukturen der Nationen, die Auswirkungen ihrer Politik und damit auf ihre Wachstumsdynamik hat. Aus diesem Grund ist es notwendig, die Bedeutung der Größe des Landes und ihre Folgen für die WWU wieder.
The purpose of this dissertation is to investigate the relationship between country size and growth at the international level and comparatively in the Economic and Monetary Union, and to draw up its consequences for the conduct of growth-orientated fiscal policies. To further a global understanding of the link between country size and growth in the EMU, we follow an interdisciplinary approach, including macro-economic modelling (DSGE), econometrics and political economy analysis. Combining these analyses, we conclude that country size has an incidence on the economic structures of nations, the effects of their policies and therefore on their pace of growth. For this reason there is a need to reinstate the importance of country size and its consequences for the EMU.
APA, Harvard, Vancouver, ISO, and other styles
13

Benko, Michal. "Functional data analysis with applications in finance." Doctoral thesis, Humboldt-Universität zu Berlin, Wirtschaftswissenschaftliche Fakultät, 2007. http://dx.doi.org/10.18452/15585.

Full text
Abstract:
An vielen verschiedenen Stellen der angewandten Statistik sind die zu untersuchenden Objekte abhängig von stetigen Parametern. Typische Beispiele in Finanzmarktapplikationen sind implizierte Volatilitäten, risikoneutrale Dichten oder Zinskurven. Aufgrund der Marktkonventionen sowie weiteren technisch bedingten Gründen sind diese Objekte nur an diskreten Punkten, wie zum Beispiel an Ausübungspreise und Maturitäten, für die ein Geschäft in einem bestimmten Zeitraum abgeschlossen wurde, beobachtbar. Ein funktionaler Datensatz ist dann vorhanden, wenn diese Funktionen für verschiedene Zeitpunkte (z.B. Tage) oder verschiedene zugrundeliegende Aktiva gesammelt werden. Das erste Thema, das in dieser Dissertation betrachtet wird, behandelt die nichtparametrischen Methoden der Schätzung dieser Objekte (wie z.B. implizierte Volatilitäten) aus den beobachteten Daten. Neben den bekannten Glättungsmethoden wird eine Prozedur für die Glättung der implizierten Volatilitäten vorgeschlagen, die auf einer Kombination von nichtparametrischer Glättung und den Ergebnissen der arbitragefreien Theorie basiert. Der zweite Teil der Dissertation ist der funktionalen Datenanalyse (FDA), speziell im Zusammenhang mit den Problemen, der empirischen Finanzmarktanalyse gewidmet. Der theoretische Teil der Arbeit konzentriert sich auf die funktionale Hauptkomponentenanalyse -- das funktionale Ebenbild der bekannten Dimensionsreduktionstechnik. Ein umfangreicher überblick der existierenden Methoden wird gegeben, eine Schätzmethode, die von der Lösung des dualen Problems motiviert ist und die Zwei-Stichproben-Inferenz basierend auf der funktionalen Hauptkomponentenanalyse werden behandelt. Die FDA-Techniken sind auf die Analyse der implizierten Volatilitäten- und Zinskurvendynamik angewandt worden. Darüber hinaus, wird die Implementation der FDA-Techniken zusammen mit einer FDA-Bibliothek für die statistische Software Xplore behandelt.
In many different fields of applied statistics an object of interest is depending on some continuous parameter. Typical examples in finance are implied volatility functions, yield curves or risk-neutral densities. Due to the different market conventions and further technical reasons, these objects are observable only on a discrete grid, e.g. for a grid of strikes and maturities for which the trade has been settled at a given time-point. By collecting these functions for several time points (e.g. days) or for different underlyings, a bunch (sample) of functions is obtained - a functional data set. The first topic considered in this thesis concerns the strategies of recovering the functional objects (e.g. implied volatilities function) from the observed data based on the nonparametric smoothing methods. Besides the standard smoothing methods, a procedure based on a combination of nonparametric smoothing and the no-arbitrage-theory results is proposed for implied volatility smoothing. The second part of the thesis is devoted to the functional data analysis (FDA) and its connection to the problems present in the empirical analysis of the financial markets. The theoretical part of the thesis focuses on the functional principal components analysis -- functional counterpart of the well known multivariate dimension-reduction-technique. A comprehensive overview of the existing methods is given, an estimation method based on the dual problem as well as the two-sample inference based on the functional principal component analysis are discussed. The FDA techniques are applied to the analysis of the implied volatility and yield curve dynamics. In addition, the implementation of the FDA techniques together with a FDA library for the statistical environment XploRe are presented.
APA, Harvard, Vancouver, ISO, and other styles
14

Tomowski, Daniel. "Kombiniert integrierte Veränderungsanalyse zur Schadenskartierung in urbanen Gebieten auf Basis sehr hoch auflösender multispektraler Bilddaten." Doctoral thesis, 2011. https://repositorium.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-201107298216.

Full text
Abstract:
Die vorliegende Arbeit gibt einen Überblick in gängige Verfahren, Texturen sprachlich und mathematisch zu beschreiben sowie über häufig genutzte Methoden der fernerkundlichen Veränderungsanalyse. Ferner werden grundlegende Ansätze zur Qualitätsbewertung erläutert. Darauf aufbauend wird ein neues, dreigliedriges, kombiniertes Verfahren der Veränderungsanalyse für die Anwendung in urbanen Katastrophengebieten vorgestellt. Nach einer Anforderungsanalyse zur Determinierung der genauen Spezifikationen wird hierfür zuerst die Eignung von Texturmerkmalen zur Charakterisierung unterschiedlicher Oberflächen untersucht mit dem Ergebnis, dass das haralicksche Texturmerkmal „Energy“ eine gute Möglichkeit zur Differenzierung von Landbedeckungsklassen darstellt. Im Anschluss wird ein neuer Verfahrensansatz einer kombinierten Veränderungsanalyse vorgestellt und exemplarisch evaluiert, mit dem Resultat, dass die durch eine Farbtexturanalyse und Hauptkomponententransformation automatisiert abgeleitete texturelle Veränderungsinformationen allein zu viele Veränderungen in urbanen Katastrophengebieten anzeigen. Aus diesem Grund werden die texturbasierten Veränderungsinformationen mit spektralen, korrelationsbasierten Veränderungsinformationen über ein entscheidungsbasiertes Netzwerk miteinander kombiniert, um die Veränderung an einzelnen Gebäuden zu determinieren. Basierend auf diesen binären Veränderungsinformationen wird das Ausmaß des Schadens regionsbasiert in Schadensintervallen visualisiert und klassenbasiert evaluiert. Im Ergebnis konnte die exemplarische Einsetzbarkeit und Übertragbarkeit des entwickelten Verfahrens an zwei unterschiedlichen Fallbeispielen demonstriert werden, wobei Gesamtgenauig-keiten von 80,19 % bis 97,69 % erzielt worden sind.
APA, Harvard, Vancouver, ISO, and other styles
15

Bornschein, Jens. "Effiziente Einbringung von statistischem Formwissen in die Segmentierung von ATPase gefärbten Muskelfaserbildern." 2009. https://tud.qucosa.de/id/qucosa%3A70555.

Full text
Abstract:
Diese Arbeit beschäftigt sich mit dem statistischen Mittel der Hauptkomponentenanalyse zur Nutzung bei der Segmentierung von ATPase eingefärbten Muskelfaserzellen. Vorhandenes a priori Wissen wird hierdurch effzient nutzbar gemacht. Dabei wird die Segmentierung durch einen Energieminimierungsprozess auf Level-Set-Funktionen realisiert und eine Konturevolution auf wenigen formbeschreibenden Parametern ermöglicht.:1. Einführung 2. Medizinische Grundlagen 2.1. Muskelfasern 2.2. Myofibrilläre ATPase-Färbung 3. Hauptkomponentenanalyse 3.1. Mathematische Grundlagen und praktische Realisierung 3.1.1. Begriffsbestimmung 3.1.2. Ermittlung der Hauptkomponenten 3.1.3. Approximation und Rücktransformation 3.2. Hauptkomponentenanalyse für hochdimensionale Daten 3.3. Schwachstellen der PCA 3.4. Ein Beispiel 3.5. Zusammenfassung 4. Segmentierung 4.1. Segmentierungsansätze 4.2. Formdaten und statistische Auswertung 4.2.1. Beispieldaten 4.2.2. Formrepräsentation 4.3. Umsetzung der Hauptkomponentenanalyse 4.4. Energieminimierung 4.5. Gradientenabstieg 4.5.1. Probleme und deren Lösungsansätze 4.6. Seeded-Region-Growing-Ansatz 4.7. Zusammenfassung 5. Ergebnisse 6. Zusammenfassung und Ausblick
APA, Harvard, Vancouver, ISO, and other styles
16

Wagner, Silvia. "Identifizierung von Biomarkern mittels LC-MS-basiertem Metabonomics - Merkaptursäuren als Indikatoren für die Bildung toxischer Intermediate." Doctoral thesis, 2008. https://nbn-resolving.org/urn:nbn:de:bvb:20-opus-35760.

Full text
Abstract:
Metabonomics bildet das Ende der Omics-Kaskade und stellt eine top-down-Strategie zur Erfassung und Interpretation des Metaboloms, d. h. der Gesamtheit aller niedermolekularen Metaboliten in einem intakten Organismus, dar. Ziel der Technik ist es, mittels geeigneter ungerichteter Screeningverfahren in nicht-invasiv zu gewinnenden biologischen Proben wie Urin oder Blut charakteristische Metabolitenprofile zu bestimmen. Im Kontext des Metabonomics wurde in Anlehnung an den Geno- bzw. Phänotyp hierfür der Begriff „Metabotyp“ geprägt. Durch biostatistische Methoden, die auf Mustererkennung (pattern recognition) basieren, können Signaturen gegenübergestellt und auf diesem Weg gruppenspezifische Metaboliten, d. h. Biomarker bzw. Metabolitenmuster, extrahiert werden. Metabonomics kann folglich als Fusion klassischer bioanalytischer und biostatistischer Verfahren aufgefasst werden. Seit der Einführung im Jahr 1999 hat sich das Konzept des Metabonomics in mehrere Richtungen weiterentwickelt. So gab es Bestrebungen, die Technik, die ursprünglich zur Prädiktion von toxischen Effekten bei der Arzneistoffentwicklung etabliert wurde, auf Fragestellungen zu übertragen, die den Menschen im Mittelpunkt haben. Neben präklinischen Anwendungen verfolgt man mit Metabonomics zunehmend das Ziel, einer personalisierten Medizin und Ernährung einen Schritt näher zu kommen. Da sich die ursprünglich eingesetzte NMR-Technik als zu unempfindlich und die resultierenden Metabolitenprofile als zu anfällig gegenüber biologischen und analytischen Einflussgrößen (Confoundern) erwiesen haben, wurde parallel auf sensitivere Verfahren wie die Massenspektrometrie gesetzt. Insbesondere die Kopplung mit der Hochdruckflüssigchromatographie erwies sich hierbei für das Metabolitenscreening als geeignet. Schnell wurde allerdings klar, dass aus den klassischen full scan/TOF-Methoden Datensätze resultierten, die häufig zu komplex waren, um mit nachgeschalteten chemometrischen Verfahren die „Spreu vom Weizen trennen“ zu können. Da sich Metabolitendatenbanken bisher noch im Aufbau befinden, ist die Identifizierung der Marker mit zusätzlichen Schwierigkeiten verbunden und bedarf aufwändiger analytischer Verfahren. Eine Strategie stellt daher die Beschränkung auf ein Metabolitensubset dar. Indem man sich auf Metabolitenklassen fokussiert, die einen Bezug zum untersuchten Mechanismus haben, können die Erfolgsaussichten bei der Identifizierung charakteristischer Biomarker deutlich erhöht werden. Aufgrund zahlreicher exogener und endogener Faktoren (Arzneistoffe, Industriechemikalien, Nahrungsbestandteile, Tabakrauchbestandteile, Produkte der Lipidperoxidation etc.) ist der menschliche Organismus stets einer Vielzahl an elektrophilen Verbindungen ausgesetzt. Oxidative Schädigungen an Strukturen wie der DNA, Proteinen und Lipiden werden mit einer Reihe von Krankheitsbildern in Zusammenhang gebracht, darunter Parkinson, Alzheimer, Krebs und Volkskrankheiten wie Arteriosklerose, Allergien und koronare Herzerkrankungen. Mit dem Glutathionsystem verfügt der Körper über einen wirksamen Detoxifizierungsmechanismus. Das Tripeptid Glutathion reagiert als Nukleophil mit den exogen oder endogen gebildeten elektrophilen Intermediaten. Endprodukte sind Merkaptursäuren (N-Acetyl-L-Cystein-Addukte) bzw. deren Sulfoxide, die in erster Linie mit dem Urin ausgeschieden werden. Folglich besteht zwischen diesen Merkaptursäurederivaten und der elektrophilen Belastung eines Organismus ein direkter Zusammenhang. Vor diesem Hintergrund war es das Ziel der Arbeit, einen nicht-invasiven Metabonomicsansatz zur Anwendung am Menschen zu entwickeln. Durch die Fokussierung des Metabolitenscreenings auf die Effekt-, Dosis- und Suszeptibilitätsmarkerklasse der Merkaptursäuren sollten hierbei die Erfolgsaussichten im Hinblick auf die Identifizierung potentieller Biomarker für diverse toxikologische sowie medizinische Endpunkte erhöht werden
Metabonomics forms the end of the omics-cascade and represents a top-down strategy for the interpretation of the metabolome, i. e. all the low molecular weight metabolites in an intact organism. The aim of the approach is to analyse characteristic metabolite profiles by suitable untargeted screening methods in biological samples like urine or blood that can be obtained in a non-invasive manner. In the context of metabonomics, the term “metabotype” was defined according to the geno- and phenotype, respectively. Biostatistical methods based on pattern recognition techniques allow comparing metabolic signatures and extracting group specific metabolites and biomarkers. Therefore, metabonomics can be regarded as the fusion of bioanalytical and biostatistical techniques. Since its introduction in 1999, the concept of metabonomics has permanently gained importance in many fields of scientific research. One aim was to transfer the methodology, which was originally established to predict toxic effects in drug development processes, to human issues. Apart from preclinical questions, metabonomics is increasingly applied in the area of personalised medicine and nutrition. As the NMR technique used by pioneers of the field was too insensitive and the resulting metabolite profiles were too susceptible to biological and analytical confounders, more sensitive techniques like mass spectrometry were more and more applied. Especially mass spectrometry in combination with high performance liquid chromatography showed great promise for the screening of metabolites. However, after a very short time, it was clear that the data sets resulting from full scan/TOF-methods were too complex to “separate the wheat from the chaff” with chemometric procedures. Metabolite databases are still under construction, and therefore marker identification is challenging and requires complex analytical techniques. Thus, one strategy is to concentrate on a certain metabolite subset. The focus on a metabolite class with a close relation to the mechanism under investigation can considerably increase the prospects of success in the biomarker identification process. Due to a variety of exogenous and endogenous factors (drugs, industrial chemicals, food ingredients, and tobacco smoke) the human organism is steadily confronted with a multitude of electrophilic compounds. Oxidative damage of the DNA, proteins, and lipids is associated with the development of diseases like Parkinson’s, Alzheimer’s, cancer and widespread diseases like arteriosclerosis, allergies and coronary heart diseases. With the glutathione system the human organism is equipped with an efficient detoxification mechanism. The tripeptide glutathione reacts as nucleophile with exogenously and endogenously formed electrophilic intermediates. End products are mercapturic acids (N-acetyl-L-cysteine-adducts) and respective sulfoxides that are predominantly excreted with urine. Therefore, there is a close relationship between these mercapturic acid patterns and the electrophilic burden of an organism. In this context, the aim of this thesis was to develop a non-invasive human metabonomics approach that focuses the metabolite screening on the effect, dose and susceptibility marker class of the mercapturic acids. Thus, the prospects of success regarding the identification of potential biomarkers for various toxicological and pathological endpoints should be increased
APA, Harvard, Vancouver, ISO, and other styles
17

Aurich, Allan. "Modelle zur Beschreibung der Verkehrssicherheit innerörtlicher Hauptverkehrsstraßennetze unter besonderer Berücksichtigung der Umfeldnutzung." Doctoral thesis, 2012. https://tud.qucosa.de/id/qucosa%3A27205.

Full text
Abstract:
In der Arbeit wird eine Methodik einer zusammenhängenden Analyse und modellhaften Beschreibung der Verkehrssicherheit in städtischen Hauptstraßennetzen am Beispiel der Stadt Dresden entwickelt. Die dabei gewonnenen Modelle dienen der Abschätzung von Erwartungswerten von Unfallhäufigkeiten mit und ohne Personenschaden unter Berücksichtigung der Verkehrsbeteiligungsart. Die Grundlage bilden multivariate Regressionsmodelle auf Basis verallgemeinerter linearer Modelle (GLM). Die Verwendung verallgemeinerter Regressionsmodelle erlaubt eine Berücksichtigung von Verteilungen, die besser geeignet sind, den Unfallentstehungsprozess wiederzugeben, als die häufig verwendete Normalverteilung. Im konkreten Fall werden hierzu die Poisson-Verteilung sowie die negative Binomialverteilung verwendet. Um Effekte im Hauptverkehrsstraßennetz möglichst trennscharf abbilden zu können, werden vier grundsätzliche Netzelemente differenziert und das Netz entsprechend zerlegt. Unterschieden werden neben Streckenabschnitten und Hauptverkehrsknotenpunkten auch Annäherungsbereiche und Anschlussknotenpunkte. Die Kollektive der Knotenpunkte werden ferner in signalisierte und nicht-signalisierte unterteilt. Es werden zunächst Modelle unterschiedlicher Unfallkollektive getrennt für alle Kollektive der vier Netzelemente berechnet. Anschließend werden verschiedene Vorgehensweisen für eine Zusammenfassung zu Netzmodellen entwickelt. Neben der Verwendung verkehrstechnischer und infrastruktureller Größen als erklärende Variable werden in der Arbeit auch Kenngrößen zur Beschreibung der Umfeldnutzung ermittelt und im Rahmen der Regression einbezogen. Die Quantifizierung der Umfeldnutzung erfolgt mit Hilfe von Korrelations-, Kontingenz- und von Hauptkomponentenanalysen (PCA). Im Ergebnis werden Modelle präsentiert, die eine multivariate Quantifizierung erwarteter Unfallhäufigkeiten in Hauptverkehrsstraßennetzen erlauben. Die vorgestellte Methodik bildet eine mögliche Grundlage für eine differenzierte Sicherheitsbewertung verkehrsplanerischer Variantenabschätzungen.
A methodology is developed in order to predict the number of accidents within an urban main road network. The analysis was carried out by surveying the road network of Dresden. The resulting models allow the calculation of individual expectancy values for accidents with and without injury involving different traffic modes. The statistical modelling process is based on generalized linear models (GLM). These were chosen due to their ability to take into account certain non-normal distributions. In the specific case of accident counts, both the Poisson distribution and the negative binomial distribution are more suitable for reproducing the origination process than the normal distribution. Thus they were chosen as underlying distributions for the subsequent regressions. In order to differentiate overlaying influences, the main road network is separated into four basic elements: major intersections, road sections, minor intersections and approaches. Furthermore the major and minor intersections are additionally subdivided into signalised and non-signalised intersections. Separate models are calculated for different accident collectives for the various types of elements. Afterwards several methodologies for calculating aggregated network models are developed and analysed. Apart from traffic-related and infrastructural attributes, environmental parameters are derived taking into account the adjacent building structure as well as the surrounding land-use, and incorporated as explanatory variables within the regression. The environmental variables are derived from statistical analyses including correlation matrices, contingency tables and principal components analyses (PCA). As a result, a set of models is introduced which allows a multivariate calculation of expected accident counts for urban main road networks. The methodology developed can serve as a basis for a differentiated safety assessment of varying scenarios within a traffic planning process.
APA, Harvard, Vancouver, ISO, and other styles
18

Dodel, Silke. "Data driven analysis of brain activity and functional connectivity in fMRI." Doctoral thesis, 2002. http://hdl.handle.net/11858/00-1735-0000-0006-B562-D.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Kubitzki, Marcus. "Enhanced Conformational Sampling of Proteins Using TEE-REX." Doctoral thesis, 2007. http://hdl.handle.net/11858/00-1735-0000-000D-F123-4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Schnellen, Marina. "Analysis of Implied Volatility Surfaces." Doctoral thesis, 2007. http://hdl.handle.net/11858/00-1735-0000-000D-F225-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Griesbach, Karoline. "Lane Change Prediction in the Urban Area." 2019. https://monarch.qucosa.de/id/qucosa%3A34546.

Full text
Abstract:
The development of Advanced Driver Assistance Systems and autonomous driving is one of the main research fields in the area of vehicle development today. Initially the research in this area focused on analyzing and predicting driving maneuvers on highways. Nowadays, a vast amount of research focuses on urban areas as well. Driving maneuvers in urban areas are more complex and therefore more difficult to predict than driving maneuvers on highways. The goals of predicting and understanding driving maneuvers are to reduce accidents, to improve traffic density, and to develop reliable algorithms for autonomous driving. Driving behavior during different driving maneuvers such as turning at intersections, emergency braking or lane changes are analyzed. This thesis focuses on the driving behavior around lane changes and thus the prediction of lane changes in the urban area is applied with an Echo State Network. First, existing methods with a special focus on input variables and results were evaluated to derive input variables with regard to lane change and no lane change sequences. The data for this first analyses were obtained from a naturalistic driving study. Based on theses results the final set of variables (steering angle, turn signal and gazes to the left and right) was chosen for further computations. The parameters of the Echo State Network were then optimized using the data of the naturalistic driving study and the final set of variables. Finally, left and right lane changes were predicted. Furthermore, the Echo State Network was compared to a feedforward neural network. The Echo State Network could predict left and right lane changes more successful than the feedforward neural network.
Fahrerassistenzsysteme und Algorithmen zum autonomen Fahren stellen ein aktuelles Forschungsfeld im Bereich der Fahrzeugentwicklung dar. Am Anfang wurden vor allem Fahrmanöver auf der Autobahn analysiert und vorhergesagt, mittlerweile hat sich das Forschungsfeld auch auf den urbanen Verkehr ausgeweitet. Fahrmanöver im urbanen Raum sind komplexer als Fahrmanöver auf Autobahnen und daher schwieriger vorherzusagen. Ziele für die Vorhersage von Fahrmanövern sind die Reduzierung von Verkehrsunfällen, die Verbesserung des Verkehrsflusses und die Entwicklung von zuverlässigen Algorithmen für das autonome Fahren. Um diese Ziele zu erreichen, wird das Fahrverhalten bei unterschiedlichen Fahrmanövern analysiert, wie z.B. beim Abbiegevorgang an Kreuzungen, bei der Notbremsung oder beim Spurwechsel. In dieser Arbeit wird der Spurwechsel im urbanen Straßenverkehr mit einem Echo State Network vorhergesagt. Zuerst wurden existierende Methoden zur Spurwechselvorhersage bezogen auf die Eingaben und die Ergebnisse bewertet, um danach die spurwechselbezogenen Variableneigenschaften bezüglich Spurwechsel- und Nicht-Spurwechselsequenzen zu analysieren. Die Daten, die Basis für diese ersten Untersuchungen waren, stammen aus einer Realfahrstudie. Basierend auf diesen Resultaten wurden die finalen Variablen (Lenkwinkel, Blinker und Blickrichtung) für weitere Berechnungen ausgewählt. Mit den Daten aus der Realfahrstudie und den finalen Variablen wurden die Parameter des Echo State Networks optimiert und letztendlich wurden linke und rechte Spurwechsel vorhergesagt. Zusätzlich wurde das Echo State Network mit einem vorwärtsgerichteten neuronalen Netz verglichen. Das Echo State Network konnte linke und rechte Spurwechsel erfolgreicher vorhersagen als das vorwärtsgerichtete neuronale Netz.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography