To see the other types of publications on this topic, follow the link: Digitale Daten.

Dissertations / Theses on the topic 'Digitale Daten'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 32 dissertations / theses for your research on the topic 'Digitale Daten.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Margulies, Simon B. "Digitale Daten als Quelle der Geschichtswissenschaft : eine Einführung /." Hamburg : Kovač, 2009. http://www.verlagdrkovac.de/978-3-8300-4136-8.htm.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Margulies, Simon B. "Digitale Daten als Quelle der Geschichtswissenschaft eine Einführung." Hamburg Kovač, 2008. http://d-nb.info/991373200/04.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bárány, Balázs. "Informationsverlust durch Digitalisierung Grundlagen und Konzepte zur Langzeitsicherung digitaler Informationen." Saarbrücken VDM, Müller, 2004. http://deposit.ddb.de/cgi-bin/dokserv?id=2826865&prov=M&dok_var=1&dok_ext=htm.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Suchodoletz, Dirk von. "Funktionale Langzeitarchivierung digitaler Objekte : Erfolgsbedingungen des Einsatzes von Emulationsstrategien." Göttingen Cuvillier, 2009. http://d-nb.info/994852312/04.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Suchodoletz, Dirk von. "Funktionale Langzeitarchivierung digitaler Objekte Erfolgsbedingungen des Einsatzes von Emulationsstrategien." Göttingen Cuvillier, 2008. http://d-nb.info/994852312/04.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Maass, Wolfgang. "Elektronische Wissensmärkte Handel von Information und Wissen über digitale Netze." Wiesbaden Gabler, 2009. http://d-nb.info/994355661/04.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Neuroth, Heike. "DARIAH-DE." Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-96560.

Full text
Abstract:
Tradition von Bibliotheken ist es, die Forschung und ihre Prozesse zu unterstützen, durch die Aufbereitung, Bereitstellung und Langzeitsicherung von Information sowie durch die Unterstützung bei der Suche nach Daten und Quellen. Während es in vergangenen Zeiten dabei hauptsächlich um gedruckte Zeitschriften oder Bücher ging, werden heute und in Zukunft digitale Texte und Objekte wie Bild-, Audio- oder Videoangebote vermehrt zum Gegenstand der Forschung und rücken damit auch mehr in den Fokus von (wissenschaftlichen) Bibliotheken. Somit besteht ein direkter Zusammenhang zwischen den Veränderungsprozessen in der Forschung und dem Aufgabenprofil von wissenschaftlichen Bibliotheken. Werden die veränderten Forschungsprozesse in einzelnen wissenschaftlichen Disziplinen näher betrachtet, so hilft dies, die neuen Herausforderungen wissenschaftlicher Bibliotheken besser zu verstehen.
APA, Harvard, Vancouver, ISO, and other styles
8

Thiesen, Michael [Verfasser]. "Daten in der Erbmasse : Der digitale Nachlass zwischen Erbgang und Rechtsdurchsetzung / Michael Thiesen." Frankfurt a.M. : Peter Lang GmbH, Internationaler Verlag der Wissenschaften, 2017. http://d-nb.info/1140368508/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Hoffmann, Andrea. "Neue Ansätze zur Auswertung und Klassiffizierung von sehr hochauflösenden Daten." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2001. http://dx.doi.org/10.18452/14581.

Full text
Abstract:
Auf dem Luftbildsektor vollziehen sich seit einigen Jahren grundsätzliche Veränderungen. Digitale flugzeuggetragene Kamerasysteme und hochauflösende Satellitensysteme bieten neue Potentiale der Datenakquise und -auswertung. Diese digitalen Datensätze werden in absehbarer Zeit das herkömmliche Luftbild ersetzen und Kartographie, Photogrammetrie und Fernerkundung erheblich verändern. Die neue Generation von digitalen Kameras wird zwei zentrale Bereiche der Kartographie einschneidend beeinflussen: Die Orthokartenherstellung und die Kartenaktualisierung. Der Bedarf aktueller Geobasisdaten macht Orthobilder besonders für Geoinformationssysteme interessant. Bisher standen als Basisdaten für Orthobildkarten großer Auflösung (> 1:10 000) lediglich Luftbilder zur Verfügung. Es wird gezeigt, daß die digitalen Daten der neuen Kamerageneration zur Erstellung von Orthobildkarten operationell einsetzbar sind. Durch die automatisierte Prozessierung werden sie den Anforderungen an schnelle aktuelle Kartenprodukte gerecht, mit ihrer hochgenauen Navigation bieten die digitalen Systeme die automatisierte Erstellung geometrisch sehr genauer Datensätze, die mit herkömmlichen Mitteln nur sehr aufwendig erreicht werden könnten. Ein Vergleich mit Luftbildern zeigt und bewertet die Unterschiede beider Aufnahmesysteme. Untersucht wurden Datensätze der digitalen Kamera HRSC-A des DLR Adlershof. Mit der HRSC-A (High Resolution Stereo Camera - Airborne) und der speziell für die Prozessierung dieser Daten entwickelten Software steht den Geoinformationsnutzern erstmals ein operationelles System zur Verfügung, das vollständig digital und vollautomatisch hochauflösende Orthobilddaten produziert. Die Pixelauflösung liegt zwischen 10 und 40 cm (Flughöhe von 2500 bis 10 000 m). Als vorteilhaft für die Analyse erweist sich die gleichzeitige Verfügbarkeit von hochauflösenden panchromatischen und multispektralen Datensätzen, die Verfügbarkeit eines hochauflösenden Geländemodells (x,y: 50 cm bzw. 1m, z: 10 cm) und die hohe Genauigkeit der Datensätze. Die Arbeit diskutiert die Problematik einer automatisierten Auswertung hochauflösender Daten. Diese Datensätze stellen neue Anforderungen an Auswertungsverfahren. Der Detailreichtum erschwert die Interpretation, gröbere räumliche Auflösungen glätten die Komplexität innerhalb heterogener Landnutzungen (besonders in urbanen Gebieten) und erleichtern so eine automatische Interpretation. Es wird gezeigt, daß "klassische" Auswertungsmethoden wie pixelbasierte Klassifizierungen (überwacht oder unüberwacht) zur Auswertung der hochauflösenden Daten nur bedingt geeignet sind. Im Rahmen der Arbeit werden zwei neue Ansätze entwickelt und untersucht, die nicht mehr pixelweise, sondern flächenhaft und objektorientiert arbeiten. Ein per-parcel-Ansatz zeigt gute Ergebnisse bei der Auswertung. Das Verfahren ermittelt zunächst mittels einer unüberwachten Klassifizierung Szenekomponenten in definierten Untereinheiten (parcel), die den Inhalt des Datensatzes repräsentieren. Die klassifizierten Pixel innerhalb der definierten parcel-Einheiten werden anschließend extrahiert und ihr Verhältnis zueinander weiter ausgewertet. Ergebnis ist zunächst die prozentuelle Verteilung der Szenekomponenten in den Einheiten, anschließend werden Zusammenhänge zwischen den vorhandenen Komponenten und der Landoberfläche definiert. Untersucht wurde ferner ein objektorientierter Ansatz, der die Interpretation von Einzelobjekten erlaubt. Hierbei wird das Bild in homogene Objekte segmentiert, die die Grundlage für die weitere Analyse bilden. Der diskutierte Ansatz besteht aus zwei Strategien: Mittels multiskalarer Segmentierung wird der Bilddatensatz zunächst in Einheiten strukturiert, verschiedene Maßstabsebenen sind gleichzeitig verfügbar. Grundidee ist die Schaffung eines hierarchischen Netzes von Bildobjekten. Diese gefundenen Einheiten werden anschließend spektral mittels Nearest Neighbour oder wissensbasiert mittels Fuzzy Logic Operatoren klassifiziert. Der Ansatz zeigt überzeugende Ergebnisse bei einer automatisierten Hauserkennung und der Aktualisierung bestehender Vektordatensätze. Die Einteilung der Bilddaten in Segmente, also zunächst eine Abstrahierung der Information vom Einzelpixel zu größeren semantischen Einheiten und die weitere Bearbeitung dieser Segmente erwies sich als sinnvoll. Es wurde ferner gezeigt, daß für die Analyse in städtischen Räumen die Einbeziehung von Oberflächeninformation unbedingt erforderlich ist. Durch die spektrale Ähnlichkeit von Bildelementen bietet die Einbeziehung des Oberflächenmodells die Möglichkeit, mittels einer zusätzlich bekannten Information über die Höhe der Objekte, diese Klassen zu trennen.<br>Remote sensing goes through times of fundamental changes. New digital airborne camera systems offer new potentials for data aquisition and interpretation. These data sets will replace aerial photography in the near future and change photogrammetry, cartography and remote sensing. The new camera generation will influence two central domains of cartography: Orthomap production and map updating. As a base for in-time updating orthomaps became more and more important. Up to now large scale mapping (scales > 1:10,000) is done nearly exclusively with aerial photographs. It can be shown that the digital data sets of the new camera generation can be used operationally for the production of orthomaps. A fully automated processing line provides the ortho images very shortly after aquisition, due to the used high precision navigation system the accuracy of the data is very high, even very big scales can be realized. A comparison of digital cameras and aerial photos discusses and rates the properties of the different aquisition systems and data sets. For interpretation data sets of the digital camera HRSC-A were used. The High Resolution Stereo Camera - Airborne (HRSC-A) digital photogrammetric camera and its processing software provides the geoinformation industry for the first time with an entirely digital and fully automatic process to produce highly accurate digital image data. The pixel size ranges between 10 and 40 cm (flight altitude 2500 - 10,000 m). The airborne camera combines high resolution, photogrammetric accuracy and all-digital acquisition and provides both multispectral and elevation information. The pushbroom instrument provides digital ortho-images and digital surface models with an accuracy of 10-20 cm. The use of this wide range of image information showed to be very helpful for data analysis. This investigation focuses on the problems of automated interpretation of high-resolution data. These data sets make high demands on automated interpretation procedures. The richness of details depicted in the data sets complicates the interpretation, coarser spatial resolutions smooth out spatial complexity within heterogeneous land cover types, such as urban, and make an automated interpretation easier. This report shows that conventional interpretation techniques like pixelbased classification (supervised or unsupervised) do not lead to satisfactory results. Two new object-oriented and region-oriented approaches for the interpretation of high resolution data sets were developped and discussed. The parcel-based approach showed good results in interpretation of the data. The proposed methodology begins with an unsupervised per-pixel classification to identify spectral clusters which represent the range of scene components present in the pre-defined land parcels. The per-parcel analysis extracts the pixels classified as scene components within the land parcel under examination and calculates the total numbers and fractions for each scene component present. To identify land cover types not represented by scene components at the land parcel level, it is necessary to process the scene component information and infer relationships between the scene components present and land cover type. A set of rules was devised to identify a range of land cover types from the mixtures of scene components found within each land parcel. Secondly an object-oriented and multi-scale image analysis approach was used for the interpretation of single objects. The procedure contains two basic domains. The strategy is to build up a hierarchical network of image objects which allows to represent the image information content at different resolutions (scales) simultaneously. In a second step the image objects were classified by means of fuzzy logic, either on features of objects and/or on relations between networked objects operating on the semantic network. The procedure showed very good results in detecting houses and updating vector data sets. Segmenting the data in semantic units and performing further analysis on these units showed to be very helpful for interpretation. It could be shown that for analysis of urban areas the use of a Digital Surface Model is necessary. Due to the spectral similarities of image elements the elevation information offers an important additional tool for analysis.
APA, Harvard, Vancouver, ISO, and other styles
10

Spieker, Ira, Sarah Kleinmann, Christian Schuffels, and Nadine Kulbe. "Forschungsdesign 4.0: Zur Kontextualisierung wissenschaftlichen Arbeitens im digitalen Zeitalter." Institut für Sächsische Geschichte und Volkskunde, 2019. https://slub.qucosa.de/id/qucosa%3A35919.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Prielipp, Riccardo, Carlo Emanuel, Nadine Göhlert, et al. "Abschlussbericht des Verbundvorhabens „Adaptive Smart Service Systeme zur Optimierung und Steuerung von Produktionssystemen auf Basis bedarfsorientiert konfigurierbarer Smart Data Bausteine (Plug_and_Control)“." Technische Universität Chemnitz, 2021. https://monarch.qucosa.de/id/qucosa%3A75007.

Full text
Abstract:
Ziel des Forschungsvorhabens 'Plug_and_Control' war die Erarbeitung und prototypische Umsetzung eines Konzepts für flexibel konfigurierbare, standardisierte Datenbausteine zur Erfassung und Verarbeitung von Daten aus unterschiedlichen internen und externen Datenquellen von Produktionsunternehmen. Durch diese Datenbausteine sollte zum einen die Auftrennung des betrieblichen Datenstroms in Informationen, die unbedenklich bspw. in einer Cloud gespeichert werden können, und in sensible Daten, die zwingend im Unternehmen verbleiben müssen, realisiert werden. Zum anderen sollte durch den modularen Bausteinansatz die notwendige Flexibilität für eine Anwendung für verschiedene Problemstellungen in beliebigen Unternehmen geschaffen werden. Im entwickelten Konzept wurden fachlich zusammengehörige Daten in Datenbausteinen aggregiert, um eine Standardisierung, Qualitätssicherung sowie Echtzeit-Auswertung zu ermöglichen. Ergänzend wurden Lösungen zur Datenakquise aus Sensorik- und Maschinensteuerungsdaten sowie zur cloudbasierten Speicherung und bedarfsorientierten Verarbeitung der Daten generiert. Auf Basis der so entstandenen flexibel kombinierbaren Daten- und Methodenbausteine wurde ein modulares Dienstleistungsangebot geschaffen sowie prototypisch für verschiedene Anwendungsszenarien umgesetzt und validiert. Durch die im Projekt entwickelten Datenbausteine und deren individuelle Verknüpfung können technikbasierte Dienstleistungsprozesse zukünftig effizienter, flexibler und nutzenorientierter gestaltet werden. Der generierte Bausteinansatz stellt ein Bindeglied zwischen notwendiger Standardisierung und spezifischen Anforderungen für individualisierte Dienstleistungen dar. Neben den prototypischen Lösungen für konkrete Anwendungsfälle im Sonder- und Textilmaschinenbau, der Teilefertigung und des Metallbaus entstanden im Projekt auch allgemeingültige Ergebnisse für flexibel konfigurierbare Dienstleistungen zur Produktionsoptimierung in verschiedenen Branchen. Produktionsunternehmen können somit ihre Daten nicht nur flexibel nutzen, sie sind gleichzeitig auch in die Lage, ihren Kunden modulare, technische Dienstleistungen anzubieten. Diese Dienstleistungen können dabei einerseits auf das Produkt bezogen sein, indem Kunden z.B. in der Entwicklungs-/ Beauftragungsphase die Konfiguration einer Anlage mitgestalten oder während der Erstellung den Auftragsfortschritt verfolgen und Änderungen bewerten können. Andererseits sind Dienstleistungen, die sich auf den Produktionsprozess beziehen, möglich – bspw. die Optimierung von Prozessen, des Ressourceneinsatzes oder der Verfügbarkeit sowie die Ergänzung bestehender bzw. Entwicklung neuer Geschäftsmodelle. Der vorliegende Schlussbericht fasst die erreichten Ergebnisse und Erkenntnisse zusammen.:1 Das Projekt Plug_and_Control 1.1 Problemstellung und Motivation 1.2 Status Quo 1.3 Strategie & Forschungsfrage 1.4 Ziele des Projektes 2 Grundlagen digitaler Dienstleistungen 2.1 Definitionsrahmen digitaler Dienstleistungen 2.2 Beschreibung dienstleistungsbasierter Geschäftsmodelle mittels Gemini 4.0 Business Model Canvas 3 Projektkonsortium 3.1 Professur Fabrikplanung und Intralogistik der TU Chemnitz 3.2 ERMAFA Sondermaschinen- und Anlagenbau GmbH 3.3 KRS - SEIGERT GmbH 3.4 Terrot GmbH 3.5 ICM - Institut Chemnitzer Maschinen- und Anlagenbau e.V. 3.6 Hörmann Rawema Engineering & Consulting GmbH 3.7 Simba n³ GmbH 3.8 com2m GmbH 4 Digitales Dienstleistungskonzept 4.1 Anforderungen an die Methode 4.2 Modulares digitales Dienstleistungskonzept 4.3 Systembeschreibung 4.4 Zusammenhang von Servicekonzept & SDU-SMU-Sammlung 4.5 SDU-SMU-Bibliothek 5 Transfer in die Praxis 5.1 Prototypische Umsetzung des Anwendungsfalls „Maschineneinstellungen für 3D-Drucker bestimmen“ 5.2 Prototypische Umsetzung zum Anwendungsfall „Instandhaltungsmanagement“ bei der ERMAFA Sondermaschinen- und Anlagenbau GmbH 5.3 Prototypische Umsetzung zum Anwendungsfall „Maschineneinstellungen für die Kugelproduktion bestimmen“ bei der KRS - SEIGERT GmbH 5.4 Prototypische Umsetzung des Anwendungsfalls „Auftragsmonitoring“ bei der Terrot GmbH 5.5 Prototypische Umsetzung des Anwendungsfalls „Parameterbestimmung für den IHU-Prozess“ 5.6 Validierung und Verifikation 6 Methode zur Implementierung von Geschäftsmodellen 6.1 Prototyp ableiten 6.2 Prototyp implementieren 6.3 Prototyp testen 7 Zusammenfassung & Ausblick 8 Danksagung 9 Autorenverzeichnis 10 Veröffentlichungen & Vorträge 11 Quellenverzeichnis<br>The aim of the research project “Plug_and_Control” was the development and prototypical implementation of a concept for flexibly configurable, standardized data modules for the acquisition and processing of data from different internal and external data sources of production companies. On the one hand, these data modules should separate the operational data stream into information that can be safely stored – for example in a cloud – and into sensitive data that must remain in the company. On the other hand, the modular building block approach should create the necessary flexibility for an application for various problems in any company. In the developed concept, related technical data were aggregated in data modules in order to enable standardization, quality assurance and real-time evaluation. In addition, solutions for data acquisition from sensor and machine control data as well as for cloud-based storage and demand-oriented processing of the data were generated. Based on the flexibly combinable data and method modules a modular range of services was created, implemented and validated as prototypes for various application scenarios. Due to the data modules and their individual linkage that were developed in the project, technology-based service processes can be made more efficient, flexible and user-oriented in the future. The generated building block approach represents a link between the necessary standardization and specific requirements for individualized services. In addition to the prototype solutions for specific applications in companies of textile and special mechanical engineering, parts manufacturing and metal construction, the research project also provides general results for flexibly configurable services for production optimization usable in various industries. So, production companies can not only use their data more flexibly, they are also able to offer their customers modular, technical services. This present final documentation of the research project “Plug_and_Control” summarizes the most important results and findings.:1 Das Projekt Plug_and_Control 1.1 Problemstellung und Motivation 1.2 Status Quo 1.3 Strategie & Forschungsfrage 1.4 Ziele des Projektes 2 Grundlagen digitaler Dienstleistungen 2.1 Definitionsrahmen digitaler Dienstleistungen 2.2 Beschreibung dienstleistungsbasierter Geschäftsmodelle mittels Gemini 4.0 Business Model Canvas 3 Projektkonsortium 3.1 Professur Fabrikplanung und Intralogistik der TU Chemnitz 3.2 ERMAFA Sondermaschinen- und Anlagenbau GmbH 3.3 KRS - SEIGERT GmbH 3.4 Terrot GmbH 3.5 ICM - Institut Chemnitzer Maschinen- und Anlagenbau e.V. 3.6 Hörmann Rawema Engineering & Consulting GmbH 3.7 Simba n³ GmbH 3.8 com2m GmbH 4 Digitales Dienstleistungskonzept 4.1 Anforderungen an die Methode 4.2 Modulares digitales Dienstleistungskonzept 4.3 Systembeschreibung 4.4 Zusammenhang von Servicekonzept & SDU-SMU-Sammlung 4.5 SDU-SMU-Bibliothek 5 Transfer in die Praxis 5.1 Prototypische Umsetzung des Anwendungsfalls „Maschineneinstellungen für 3D-Drucker bestimmen“ 5.2 Prototypische Umsetzung zum Anwendungsfall „Instandhaltungsmanagement“ bei der ERMAFA Sondermaschinen- und Anlagenbau GmbH 5.3 Prototypische Umsetzung zum Anwendungsfall „Maschineneinstellungen für die Kugelproduktion bestimmen“ bei der KRS - SEIGERT GmbH 5.4 Prototypische Umsetzung des Anwendungsfalls „Auftragsmonitoring“ bei der Terrot GmbH 5.5 Prototypische Umsetzung des Anwendungsfalls „Parameterbestimmung für den IHU-Prozess“ 5.6 Validierung und Verifikation 6 Methode zur Implementierung von Geschäftsmodellen 6.1 Prototyp ableiten 6.2 Prototyp implementieren 6.3 Prototyp testen 7 Zusammenfassung & Ausblick 8 Danksagung 9 Autorenverzeichnis 10 Veröffentlichungen & Vorträge 11 Quellenverzeichnis
APA, Harvard, Vancouver, ISO, and other styles
12

Jushaninowa, Julia. "E-learning Kurs "Verarbeitung digitaler Daten in der Ägyptologie"." Universitätsbibliothek Leipzig, 2016. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-201651.

Full text
Abstract:
Seit 2013 bin ich Teil des Teams zur Bereitstellung eines online Kurses für die Ägyptologie Studenten der Universität Leipzig im Weiterbildungsmoodle. Dieser Moodlekurs wurde von Prof. Dr. Kai-Christian Bruhn (FH Mainz), Dr. Franziska Naether und Dr. Dietrich Raue konzipiert und gestaltet und ist obligatorischer Teil des Moduls \"Einführung in die Ägyptologie\" an der Universität Leipzig. Daher richtet sich der Kurs vorrangig an Bachelor-Studenten, aber auch Studenten höherer Semester und sonstige Interessenten nehmen an dem zusätzlichen Angebot teil. Der Online-Kurs fand in diesem Jahr bereits zum vierten Mal statt und startet zum Wintersemester (WS 2015/16) in die fünfte Runde. Die Lehrveranstaltung findet komplett im Internet statt und die Teilnehmer entscheiden selbst wann und wo sie den Unterrichtsstoff im Laufe der zwei Semester erfüllen. Mittels dieser neuen Lernform werden die Teilnehmer zum Umgang mit digitalen Daten und deren automatisierten Verarbeitung angeleitet, die für die Studenten der Ägyptologie bereits während des Studiums Verwendung finden, z.B. bei der Auswertung des archäologischen Materials. Darüber hinaus setzen sie sich mit seriösen und unverzichtbaren Internet-Ressourcen auseinander. Hierbei liefert die Übung eine Einweisung im Umgang mit unterschiedlichen frei verfügbaren Programmen zur Textverarbeitung, Betrachtung und Bearbeitung von Grafiken und Geoinformationssystemen, die eine selbstständige Vertiefung ermöglichen. Die neuartige Lehrveranstaltung richtet sich somit auf die in den vergangenen Jahren zunehmend angewachsene Nachfrage auf die langfristige Speicherung wissenschaftlicher Daten (z.B. aus Datenbanken u. Bildarchiven, kartographische Daten v. Satelliten) sowie deren interdisziplinärer Nutzung. Sie hat somit seit ihrer Anlegung weiterhin Pioniercharakter an der Uni Leipzig. So soll der fertig aufbereitete Kurs künftig im IANUS-Forschungsdatenzentrum einem breiteren Publikum zur Verfügung gestellt werden. Wie das in unserem Falle im Hochschulalltag konkret erfolgt soll mit Hilfe einer Power-Point Präsentation an einigen praktischen Beispielen veranschaulicht werden. Es gilt nun Schlüsse aus den bereits erfolgten Kurs-Durchläufen zu ziehen sowie Probleme und Anregungen zu besprechen. Gerne würde ich mich mit den anderen Teilnehmern der Tagung über Innovative Lehr- und Lernmethoden austauschen.
APA, Harvard, Vancouver, ISO, and other styles
13

Pockrandt, Carolin [Verfasser]. "Digitaler Nachlass : Die Übergangsfähigkeit und -weise digitaler Daten unter Berücksichtigung der Rechte Dritter / Carolin Pockrandt." Baden-Baden : Nomos Verlagsgesellschaft mbH & Co. KG, 2020. http://d-nb.info/1220161470/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Reiz, Stefan Dan [Verfasser]. "Überlagerungsgenauigkeit dreidimensionaler Oberflächen- und digitaler Volumentomographie-Daten zur virtuellen Implantatplanung / Stefan Dan Reiz." Köln : Deutsche Zentralbibliothek für Medizin, 2013. http://d-nb.info/1037400100/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Eifrig, Sven. "Herstellung eines Satellitenbildmosaiks von Palpa/Peru mit Daten des Satelliten QuickBird." Master's thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2007. http://nbn-resolving.de/urn:nbn:de:swb:14-1192113183122-39663.

Full text
Abstract:
Die vorliegende Arbeit beschreibt die Herstellung eines Satellitenbildmosaiks von Palpa (Peru) mit Daten des Satelliten QuickBird. Die zur Verfügung gestellten Kartenmaterialien werden hinsichtlich ihrer Genauigkeit untersucht. Die Arbeit beschäftigt sich weiterhin mit dem zur Verfügung gestellten digitalen Geländemodell (SRTM-Daten). Als Ergebnis wird ein umfangreiches Kartenmaterial präsentiert, welches zur GPS Messgrundlage in Palpa dienen soll.
APA, Harvard, Vancouver, ISO, and other styles
16

Pippig, Karsten. "Verfahren zur Ableitung kleinerer Maßstäbe aus Daten der Digitalen Übersichtskarte der Stadt Dresden 1:25.000." Master's thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2011. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-69325.

Full text
Abstract:
Die kartographische Generalisierung ist eines der zentralen Themengebiete der Kartographie. Seit den 1960er Jahren vollzieht sich ein Entwicklungsprozess in der Generalisierung vom freien praktischen Generalisieren in Abhängigkeit von den Fähigkeiten des Kartenbearbeiters hin zur regelhaften rechengestützten Automation. Bis heute sind viele Fragen in Bezug auf die vollautomatische Generalisierung offen. Die vorliegende Arbeit widmet sich dieser Thematik und liefert einen Lösungsansatz für die automatische Ableitung der Daten des Städtischen Vermessungsamtes Dresden in 1:25.000 und des ATKIS Basis-DLMs in kleinere Folgemaßstäbe. Dabei werden die einzelnen Generalisierungsprozeduren und -abläufe im Einzelnen sowie in ihrer gesamten Komplexität betrachtet. Elementare Vorgänge beim Generalisieren, wie das Auswählen, Klassifizieren, Zusammenfassen, Überdimensionieren, Verdrängen und Vereinfachen (insbesondere Linienglättung) werden beschrieben und zu einem Gesamtablauf zusammengefügt. Der Schwerpunkt liegt hierbei auf der Flächenaggregation benachbarter Flächen unter Wahrung der topologischen Verhältnisse zu linienhaften Objekten. Das Ergebnis der Arbeit ist eine eigenständige Applikation, die zukünftig das Städtische Vermessungsamt Dresden bei der Laufendhaltung seiner Daten unterstützen wird<br>Cartographic generalization is one of the most pivotal issues in cartography. From the 1960s on, a development from free practical map generalization depending on the abilities of the mapmaker towards a scale-determined computer assisted automation has taken place. By today, many open questions concerning the entirely automatic generalization are still remaining. This thesis addresses the issue of automatic generalization and provides a solution for the automatic derivation of data from Dresden’s Municipal Survey Office in 1:25.000 and ATKIS Base DLM into smaller scales. The generalization procedures will be considered both in detail and as a whole. Elementary generalization procedures, such as selection, classification, regrouping, amplification, displacement and simplification (particularly line smoothing) will be described and combined to form a complete process. The focus is set on aggregation of adjacent areas, while maintaining the topological relationship to line objects. The result is a stand-alone application being capable of supporting Dresden’s Municipal Survey Office in revising its data
APA, Harvard, Vancouver, ISO, and other styles
17

Pippig, Karsten. "Verfahren zur Ableitung kleinerer Maßstäbe aus Daten der Digitalen Übersichtskarte der Stadt Dresden 1:25.000." Master's thesis, Städtisches Vermessungsamt Dresden, 2010. https://tud.qucosa.de/id/qucosa%3A24565.

Full text
Abstract:
Die kartographische Generalisierung ist eines der zentralen Themengebiete der Kartographie. Seit den 1960er Jahren vollzieht sich ein Entwicklungsprozess in der Generalisierung vom freien praktischen Generalisieren in Abhängigkeit von den Fähigkeiten des Kartenbearbeiters hin zur regelhaften rechengestützten Automation. Bis heute sind viele Fragen in Bezug auf die vollautomatische Generalisierung offen. Die vorliegende Arbeit widmet sich dieser Thematik und liefert einen Lösungsansatz für die automatische Ableitung der Daten des Städtischen Vermessungsamtes Dresden in 1:25.000 und des ATKIS Basis-DLMs in kleinere Folgemaßstäbe. Dabei werden die einzelnen Generalisierungsprozeduren und -abläufe im Einzelnen sowie in ihrer gesamten Komplexität betrachtet. Elementare Vorgänge beim Generalisieren, wie das Auswählen, Klassifizieren, Zusammenfassen, Überdimensionieren, Verdrängen und Vereinfachen (insbesondere Linienglättung) werden beschrieben und zu einem Gesamtablauf zusammengefügt. Der Schwerpunkt liegt hierbei auf der Flächenaggregation benachbarter Flächen unter Wahrung der topologischen Verhältnisse zu linienhaften Objekten. Das Ergebnis der Arbeit ist eine eigenständige Applikation, die zukünftig das Städtische Vermessungsamt Dresden bei der Laufendhaltung seiner Daten unterstützen wird.:Kurzfassung IV Abstract V Inhaltsverzeichnis VI Abbildungsverzeichnis IX Tabellenverzeichnis X Abkürzungsverzeichnis XII 1 Einleitung und Motivation 1 1.1 Allgemeine Einführung 1 1.2 Ziele und Abgrenzung der Arbeit 2 2 Grundlagen der Generalisierung 3 2.1 Generalisierung in der Kartographie 3 2.2 Kartographische Modelltheorie und Modellbildung im digitalen Umfeld 5 2.3 Modell- und kartographische Generalisierung 7 2.4 Rahmenmodelle der digitalen Generalisierung 8 2.4.1 Brassel-Weibel-Modell 9 2.4.2 McMaster-Shea-Modell 10 2.5 Elementare Generalisierungsvorgänge 11 2.5.1 Klassifikation 15 2.5.2 Flächenaggregation 15 2.5.3. Flächenexpansion und -reduktion durch morphologische Operatoren 16 2.5.4 Verdrängung 18 2.5.4.1 Nickerson-Algorithmus 19 2.5.4.2 Linienverdrängung mittels Energieminimierung 22 2.5.5 Geometrietypwechsel 26 2.5.5.1 Dimensionswechsel von Fläche zu Linie 27 Inhaltsverzeichnis 2.5.5.2 Dimensionswechsel von Fläche zu Punkt 29 2.5.6 Linienvereinfachung und Linienglättung 30 2.5.6.1 Douglas-Algorithmus 31 2.5.6.2 McMaster-Algorithmus 32 2.5.7 Generalisierungsoperatoren in ausgewählten kommerziellen GIS 33 3 Datenmodelle der Digitalen Übersichtskarte der Stadt Dresden 35 3.1 Datenmodelle des Städtischen Vermessungsamtes Dresden 35 3.1.1 Erweitertes Straßenknotennetz (ESKN) 35 3.1.2 Erweiterte Blockkarte (EBK) 36 3.2 ATKIS Basis-DLM 38 4 Generalisierungsverfahren und Parametrisierung 40 4.1 Anforderungen an das Generalisierungsergebnis und -verfahren 40 4.2 Gesamtablauf des Generalisierungsverfahren 41 4.3 Algorithmen- und Parameterwahl für die Generalisierungsoperatoren 44 4.3.1 Anpassung der Selektion 44 4.3.2 Anpassung der Klassifikation 47 4.3.3 Anpassung der Zusammenfassung 48 4.3.4 Anpassung der Überzeichnung 51 4.3.5 Anpassung des Geometrietypwechsels 52 4.3.6 Anpassung der Linienglättung und Linienvereinfachung 54 4.3.7 Anpassung der Verdrängung 56 5 Programmtechnische Umsetzung 58 5.1 Weiterentwicklungsmöglichkeiten von GIS-Applikationen durch objektorientiertes Programmieren 58 5.2 ArcObjects und FMEObjects 60 5.3 Programmaufbau 61 5.3.1 Oberflächengestaltung 61 5.3.2 Module 62 5.3.3 Prozeduren 64 5.3.3.1 Button1_Click 64 5.3.3.2 Prozeduren des Modules FMEObj 66 Inhaltsverzeichnis 5.3.3.3 Klassifikationsprozeduren 67 5.3.3.4 Zusammenfassungsprozeduren 70 5.3.3.5 Vergrößerungsprozedur 71 5.3.3.6 Morphologieprozeduren 72 5.3.3.7 Geometrietypwechsel- und Flächenaggregationsprozeduren 73 5.3.3.8 Kantenmodellprozedur 80 5.3.3.9 Punktsignaturenableitungsprozeduren 81 5.3.3.10 Linienglättungs- und Punktneuorientierungsprozeduren 82 5.4 Tabellen der Parameterdatenbank und ihre Strukturen 84 5.5 Handlungsanweisungen für den Nutzer 87 6 Evaluation der Ergebnisse 89 6.1 Evaluierung zur Nachbearbeitung 90 6.2 Numerisch beschreibende Evaluierung 91 6.3 Evaluierung zur Gütebestimmung 94 6.4 Individuelle subjektive Bewertung 96 6.5 Vergleich mit der amtlich-topographischen Karte 98 7 Fehleranalyse und Dokumentation interaktiv zu lösender Konflikte 100 8 Zusammenfassung und Ausblick 102 Literaturverzeichnis 104 Anhangsverzeichnis 110<br>Cartographic generalization is one of the most pivotal issues in cartography. From the 1960s on, a development from free practical map generalization depending on the abilities of the mapmaker towards a scale-determined computer assisted automation has taken place. By today, many open questions concerning the entirely automatic generalization are still remaining. This thesis addresses the issue of automatic generalization and provides a solution for the automatic derivation of data from Dresden’s Municipal Survey Office in 1:25.000 and ATKIS Base DLM into smaller scales. The generalization procedures will be considered both in detail and as a whole. Elementary generalization procedures, such as selection, classification, regrouping, amplification, displacement and simplification (particularly line smoothing) will be described and combined to form a complete process. The focus is set on aggregation of adjacent areas, while maintaining the topological relationship to line objects. The result is a stand-alone application being capable of supporting Dresden’s Municipal Survey Office in revising its data.:Kurzfassung IV Abstract V Inhaltsverzeichnis VI Abbildungsverzeichnis IX Tabellenverzeichnis X Abkürzungsverzeichnis XII 1 Einleitung und Motivation 1 1.1 Allgemeine Einführung 1 1.2 Ziele und Abgrenzung der Arbeit 2 2 Grundlagen der Generalisierung 3 2.1 Generalisierung in der Kartographie 3 2.2 Kartographische Modelltheorie und Modellbildung im digitalen Umfeld 5 2.3 Modell- und kartographische Generalisierung 7 2.4 Rahmenmodelle der digitalen Generalisierung 8 2.4.1 Brassel-Weibel-Modell 9 2.4.2 McMaster-Shea-Modell 10 2.5 Elementare Generalisierungsvorgänge 11 2.5.1 Klassifikation 15 2.5.2 Flächenaggregation 15 2.5.3. Flächenexpansion und -reduktion durch morphologische Operatoren 16 2.5.4 Verdrängung 18 2.5.4.1 Nickerson-Algorithmus 19 2.5.4.2 Linienverdrängung mittels Energieminimierung 22 2.5.5 Geometrietypwechsel 26 2.5.5.1 Dimensionswechsel von Fläche zu Linie 27 Inhaltsverzeichnis 2.5.5.2 Dimensionswechsel von Fläche zu Punkt 29 2.5.6 Linienvereinfachung und Linienglättung 30 2.5.6.1 Douglas-Algorithmus 31 2.5.6.2 McMaster-Algorithmus 32 2.5.7 Generalisierungsoperatoren in ausgewählten kommerziellen GIS 33 3 Datenmodelle der Digitalen Übersichtskarte der Stadt Dresden 35 3.1 Datenmodelle des Städtischen Vermessungsamtes Dresden 35 3.1.1 Erweitertes Straßenknotennetz (ESKN) 35 3.1.2 Erweiterte Blockkarte (EBK) 36 3.2 ATKIS Basis-DLM 38 4 Generalisierungsverfahren und Parametrisierung 40 4.1 Anforderungen an das Generalisierungsergebnis und -verfahren 40 4.2 Gesamtablauf des Generalisierungsverfahren 41 4.3 Algorithmen- und Parameterwahl für die Generalisierungsoperatoren 44 4.3.1 Anpassung der Selektion 44 4.3.2 Anpassung der Klassifikation 47 4.3.3 Anpassung der Zusammenfassung 48 4.3.4 Anpassung der Überzeichnung 51 4.3.5 Anpassung des Geometrietypwechsels 52 4.3.6 Anpassung der Linienglättung und Linienvereinfachung 54 4.3.7 Anpassung der Verdrängung 56 5 Programmtechnische Umsetzung 58 5.1 Weiterentwicklungsmöglichkeiten von GIS-Applikationen durch objektorientiertes Programmieren 58 5.2 ArcObjects und FMEObjects 60 5.3 Programmaufbau 61 5.3.1 Oberflächengestaltung 61 5.3.2 Module 62 5.3.3 Prozeduren 64 5.3.3.1 Button1_Click 64 5.3.3.2 Prozeduren des Modules FMEObj 66 Inhaltsverzeichnis 5.3.3.3 Klassifikationsprozeduren 67 5.3.3.4 Zusammenfassungsprozeduren 70 5.3.3.5 Vergrößerungsprozedur 71 5.3.3.6 Morphologieprozeduren 72 5.3.3.7 Geometrietypwechsel- und Flächenaggregationsprozeduren 73 5.3.3.8 Kantenmodellprozedur 80 5.3.3.9 Punktsignaturenableitungsprozeduren 81 5.3.3.10 Linienglättungs- und Punktneuorientierungsprozeduren 82 5.4 Tabellen der Parameterdatenbank und ihre Strukturen 84 5.5 Handlungsanweisungen für den Nutzer 87 6 Evaluation der Ergebnisse 89 6.1 Evaluierung zur Nachbearbeitung 90 6.2 Numerisch beschreibende Evaluierung 91 6.3 Evaluierung zur Gütebestimmung 94 6.4 Individuelle subjektive Bewertung 96 6.5 Vergleich mit der amtlich-topographischen Karte 98 7 Fehleranalyse und Dokumentation interaktiv zu lösender Konflikte 100 8 Zusammenfassung und Ausblick 102 Literaturverzeichnis 104 Anhangsverzeichnis 110
APA, Harvard, Vancouver, ISO, and other styles
18

Mandal, Ranju. "Signature and Date-Based Document Image Retrieval." Thesis, Griffith University, 2017. http://hdl.handle.net/10072/368179.

Full text
Abstract:
It is a common organisational practice nowadays to store and maintain large digital databases in an effort to move towards a paperless office. Large quantities of administrative documents are often scanned and archived as images (e.g. the ‘Tobacco’ dataset [1]) without adequate indexing information. Consequently, such practices have created a tremendous demand for robust ways to access and manipulate the information that such images contain. Manual processing (i.e. indexing, sorting or retrieval) of documents from these huge collections need substantial human effort and time. So, automatic processing of documents is required for office automation. In this context, Document Image Analysis (DIA) has enjoyed many decades of popularity as a research area to address these issues because of its huge application potential in many fields such as academics, banking and in industry. A document repository available for analysis in such a domain contains a large collection of heterogeneous documents. Automatic analysis of such large document database has been an interesting and challenging research field for many years, specifically due to the diverse layouts and contents. One way to efficiently search and retrieve documents from a large repository is to fully convert the documents to an editable representation (i.e. through Optical Character Recognition) and index them based on their content. There are many factors (e.g. high cost, low document quality, non-text components, etc.) which prohibit complete conversion of a document to an editable form. Hence, other components of a document, namely signatures, dates, logos, stamps/seals, etc. are worthy consideration for indexing, without the requirement for complete OCR.<br>Thesis (PhD Doctorate)<br>Doctor of Philosophy (PhD)<br>School of Information and Communication Technology<br>Science, Environment, Engineering and Technology<br>Full Text
APA, Harvard, Vancouver, ISO, and other styles
19

Katzwinkel, Tim, Bhavinbhai Patel, Alexander Schmid, et al. "Kosteneffiziente Technologien zur geometrischen Datenaufnahme im digitalen Reverse Engineering." Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2016. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-215118.

Full text
Abstract:
Zusammenfassung Der vorliegende Beitrag schlägt eine Auswahlmethode vor, die geeignete Verfahren zur kosteneffizienten Rekonstruktion geometrischer Daten von Baugruppen und Bauteilen aufzeigt. Dabei werden verschiedene objektbezogene Einflussfaktoren wie beispielsweise die Bauteilkomplexität, vorhandene Standardfeatures (z.B. genormte Gewindebohrungen) oder besondere Oberflächengeometrien berücksichtigt. Darüber hinaus werden verschiedene Techniken anhand der Kriterien zeitlicher Aufwand, technologischer Aufwands und erzielbarer Maßgenauigkeit quantitativ verglichen. Dadurch kann der Anwender einen erforderlichen Kompromiss zwischen kostenmäßigem Aufwand und erzielbarer Maßgenauigkeit abschätzen.
APA, Harvard, Vancouver, ISO, and other styles
20

Hoffmann, Andrea. "Neue Ansätze zur Auswertung und Klassifizierung von sehr hochauflösenden Daten Methoden der Segmentierung, der hierarchischen Klassifizierung und der Per-Parcel-Methode mit Daten der digitalen Kamera HRSC-A und ihre Anwendbarkeit für die Aktualisierung topographischer Karten /." [S.l. : s.n.], 2001. http://deposit.ddb.de/cgi-bin/dokserv?idn=962672173.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Dander, Valentin [Verfasser], Kai-Uwe [Gutachter] Hugger, and Sandra [Gutachter] Aßmann. "Zurück in die Zukunft der Medienpädagogik. «Subjekt», «Bildung» und «Medien*Kritik» im Lichte | im Schatten digitaler Daten / Valentin Dander ; Gutachter: Kai-Uwe Hugger, Sandra Aßmann." Köln : Universitäts- und Stadtbibliothek Köln, 2017. http://d-nb.info/1157009468/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Larsson, Sophia. "Fånga dagen : En kvalitativ studie om hur lärare i grundskolans F-3 uppfattar användandet av digitala verktyg för att komma åt skrivinlärningens mysterium." Thesis, Högskolan för lärande och kommunikation, Högskolan i Jönköping, HLK, Ämnesforskning, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-45542.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Auer, Sören. "Von Open Access zu Open Knowledge - wie wir Informationsflüsse der Wissenschaft in der Digitalen Welt organisieren können." Technische Informationsbibliothek TIB, 2019. https://monarch.qucosa.de/id/qucosa%3A35998.

Full text
Abstract:
Trotz eines verbesserten digitalen Zugangs zu wissenschaftlichen Publikationen in den letzten Jahren bleiben die Grundprinzipien der wissenschaftlichen Kommunikation unverändert und sind weiterhin weitgehend dokumentenbasiert. Die dokumentorientierten Arbeitsabläufe in der Wissenschaft haben die Grenzen der Angemessenheit erreicht, wie die jüngsten Diskussionen über das ungebremste Wachstum wissenschaftlicher Literatur, die Mängel des Peer-Review und die Reproduzierbarkeitskrise zeigen. Open Access ist eine wichtige Voraussetzung diesen Herausforderungen zu begegnen, aber auch nur der erste Schritt. Wir müssen die wissenschaftliche Kommunikation stärker wissensbasiert organisieren, indem wir wissenschaftliche Beiträge und verwandte Artefakte durch semantisch reichhaltige, vernetzte Wissensgraphen ausdrücken und miteinander vernetzen. In diesem Vortrag werden wir mit der Open Research Knowledge Graph Initiative erste Schritte in diese Richtung vorstellen.
APA, Harvard, Vancouver, ISO, and other styles
24

Schmidt, Anne [Verfasser], and Carolin [Verfasser] Hagin. "Okklusales Verteilungsmuster bei festsitzenden und herausnehmbaren prothetischen Versorgungen mit dem "Greifswald Digital Analyzing System" GEDAS - Erste orientierende Auswertung von bevölkerungsrepräsentativen Daten im Rahmen der "Study of Health in Pomerania 1" / Anne Schmidt ; Carolin Hagin." Greifswald : Universitätsbibliothek Greifswald, 2015. http://d-nb.info/1078125708/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Eskina, Ksenija, and Ali Watoot. "En jämförelsestudie mellan punktmoln framställda med UAS-fotogrammetri och Laserdata NH på ett industriområde i Västsverige." Thesis, Högskolan Väst, Avdelningen för Matematik, Data- och Lantmäteriteknik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:hv:diva-15321.

Full text
Abstract:
Framställning av digitala terrängmodell (Digital Terrain Model, DTM) är en viktig del för projekteringsunderlag vid markrelaterade frågor. Grunden för en DTM är punktmolnet som innehåller grunddata från mätningen. DTM är användbara i många olika områden, kvalitén bestäms beroende på vilken uppdrag som DTM gäller för. UAS-fotogrammetri är en av metoder som tillämpas för att framställa en DTM, det går även att framställa en DTM utifrån punktmoln från Laserdata NH. En DTM är en modell av endast markyta, där data samlas genom mätning av ett visst objekt. Syftet med detta examensarbete som är utfört vid Institutionen för ingenjörsvetenskap vid Högskolan Väst var att jämföra två olika metoder för framställning av ett punktmoln som är till underlag för en DTM. Punktmoln som framställs med egna mätningar från UASfotogrammetri och ett färdigt punktmoln från Laserdata NH. Målet med jämförelsen är att undersöka om det går att ersätta UAS-fotogrammetri med den kostnadseffektiva Laserdata NH i projektet för ett industriområde (Lödöse varvet) i Lilla Edets kommun, samt om det går att ersätta den överlag. Med hjälp av Agisoft Metashape programvaran framställdes det punktmolnet från mätning från UAS av modellen DJI Phantom 4 Advanced, sedan jämfördes den mot det färdiga punktmolnet från Laserdata NH i CloudCompare programmet. Resultatet på denna studie visar att det går att ersätta UAS-fotogrammetri mot Laserdata NH i just denna och andra liknande projekt som har samma syfte och viss bestämd noggrannhet då punktmolnen inte avviker signifikant från varandra. Medan det inte går att ersätta de mot varandra överlag, då UAS-fotogrammetri erhåller högre noggrannhet när det gäller framställning av ett punktmoln jämfört med vad Laserdata NH har för noggrannhet på sina mätningar<br>Generation of Digital Terrain Model (DTM) is an essential part in project planning in questions related to spatial planning. Basis for the DTM is the point cloud which obtains initial data from the measurement. DTM can be used in different areas, accepted quality level is depending on the assignment for which DTM is produced. UAS-photogrammetry is one of the methods which is used for DTM generation, but it is possible to produce DTM from point cloud originated from Laserdata NH. A DTM is a model representing entirely terrain surface, where the data used for its generation gathers from measuring of a certain object. The purpose of this study accomplished at Department of Engineering Science at University West was to compare two different methods for point cloud generation as a basis for DTM. First point cloud generated comes from own measurement with UAS-photogrammetry and second is a point cloud from acquired Laserdata NH. The goal of the comparison is to examine if it is possible to replace UAS-photogrammetry with the cost effective Laserdata NH in the project for the industrial area (Lödöse varvet) in Lilla Edet municipality, and if it is possible to replace it generally. With help of Agisoft Metashape software the point cloud from UAS-measurement with DJI Phantom 4 Advanced was generated and then compared to Laserdata NH point cloud in CloudCompare program. Result of this study is showing that it is possible to replace UAS-photogrammetry with Laserdata NH in this specific and others similar projects which have same purpose and certain decided precision since point clouds are not significantly deviating from each other. While it is not possible to replace them generally, as UAS-photogrammetry obtains higher precision concerning point cloud generation compared to accuracy that Laserdata NH has in its measurements.
APA, Harvard, Vancouver, ISO, and other styles
26

Barreau, Emilie. "Accès aux droits sociaux et numérique : les enjeux de la digitalisation dans l’accès aux aides sociales départementales." Electronic Thesis or Diss., Angers, 2024. http://www.theses.fr/2024ANGE0012.

Full text
Abstract:
La dématérialisation des procédures est un fait général qui revêt une portée spécifique en matière de droits sociaux. En matière d’aide sociale, ces droits s’adressent à un public vulnérable qui peut cumuler des facteurs de difficultés. La dématérialisation des procédures qui se traduit par l’absence de guichets et d’interlocuteurs, se déploie sans que la particularité des droits sociaux ou de la vulnérabilité des personnes concernées ne soient prises en compte. Les potentialités du numérique permettent d’envisager des moyens pour renforcer l’accès aux droits sociaux desdites personnes. Néanmoins, ces solutions constituent une forme d’incertitude quant à l’effectivité des droits sociaux. Il en va particulièrement ainsi des plateformes qui constituent des interfaces entre le demandeur ou le bénéficiaire de l’aide sociale et l’autorité qui doit en assurer la garantie et le suivi, tels les conseils départementaux. Le caractère innovant de ces outils ne doit pourtant pas faire perdre de vue leur fonction sociale initiale. Si un encadrement plus inclusif des pratiques se développe, le cadre juridique actuel semble toutefois être mobilisé en faveur du numérique (dématérialisation, ouverture des données publiques, mise en place de divers algorithmes, etc.). À cet égard, le rapport entre l’accès aux droits sociaux et le numérique dévoile des points de divergences eu égard à l’organisation de proximité des conseils départementaux, à la sensibilité des données concernées, aux conséquences de l’automatisation des décisions administratives individuelles et à la valeur économique de la donnée. Dès lors, la posture adoptée dans le cadre de cette recherche consiste à mettre en exergue l’ensemble des conditions permettant d’assurer, face à ces évolutions, le respect des droits sociaux<br>The dematerialization of administrative procedures is a general fact that has a specific scope in terms of social rights. When it comes to social assistance, these rights are aimed at a vulnerable public that can combine difficulty factors. The dematerialization of administrative procedures, which results in the lack of offices/desks and interlocutors, is deployed without the particularity of social rights or the vulnerability of the persons concerned being considered. Consequently, the desired objective of strengthening access to social rights through the potential of digital technology quickly gives way to uncertainty about the effectiveness of social rights. This is particularly the case in the context of platforms that constitute interfaces between the applicant or the beneficiary of social assistance and the authority that must ensure and monitor it, such as departmental councils. The innovative nature of these tools must not, however, lose sight of their initial social function. While a more inclusive framework of practices is developing, the current legal framework seems to be mobilized in favor of digital (dematerialization, open data, algorithms, etc.). In this respect, the relationship between access to social rights and digital reveals differences such as the local organization of departmental councils, the sensitivity of personal data, the consequences of automating individual administrative decisions and the economic value of data. Therefore, the position adopted in this research is to highlight all the conditions allowing to ensure the respect of social rights in the face of these changes
APA, Harvard, Vancouver, ISO, and other styles
27

Grimm, Ulrike. "Digitale Modellierung des innerstädtischen Paläoreliefs von Leipzig mittels öffentlich zugänglicher Daten der Landesämter." 2018. https://ul.qucosa.de/id/qucosa%3A32277.

Full text
Abstract:
In der vorliegenden Dissertation wird gezeigt, dass es möglich ist mittels öffentlich zugänglicher Daten der Landesämter Paläooberflächen im Zentrum einer Großstadt zu modellieren. Auf der Suche nach dem anthropogen unbeeinflussten Georelief des heutigen Stadtgebietes Leipzigs ist nicht nur die Rekonstruktion ursprünglicher, natürlicher Gegeben-heiten das Ziel, sondern auch die Auseinandersetzung damit, wie der Mensch seine Umwelt in diesem Gebiet bis heute formte und strukturierte. Die Thematik vereint verschiedene geographische Disziplinen, wie z. B. Geomorphologie, Geoarchäologie und Geoinformatik, indem das verbindende Element der Untersuchungsraum in der Innenstadt von Leipzig ist. Zur Rekonstruktion der Erdoberfläche als Digitales Geländemodell (DGM) vor etwa 1.000 Jahren (DGM 1015) und 11.000 Jahren (DGM BASIS) sind hauptsächlich Daten des Sächsischen Landesamtes für Archäologie und des Sächsischen Landesamtes für Umwelt, Landwirtschaft und Geologie ausgewertet worden. Um die heterogenen Ausgangsdaten mit Hilfe von Leitprofilen verarbeiten zu können, erfolgt vorab das Aufstellen von Arbeitshypothesen. Alle Daten sind so aufbereitet, dass sie in einer Gesamtdatenbank zusammengefasst dargestellt und in einem Geographischen Informationssystem (GIS) auswertbar sind. Ausgehend von der Gesamtdatenbank fand auf Grundlage der Arbeitshypothesen die Generierung von Teildatenbanken statt. Demnach entspricht der Aufschlussansatzpunkt dem rezenten Relief (DGM HEUTE) und die erste anthropogen unbeeinflusste Sedimentschicht bzw. die Schicht mit den ältesten Siedlungsspuren dem Paläorelief vor ca. 1.000 Jahren (DGM 1015ROH bzw. DGM 1015). Des Weiteren präsentiert die Basis der holozänen Sedimente das Paläorelief vor ca. 11.000 Jahren (DGM BASIS). Basierend auf den Modellen DGM 1015ROH und DGM HEUTE findet eine Evaluierung der Datengrundlagen und der Methodik statt. Dafür erfolgt eine Gegenüberstellung des DGM HEUTE mit dem auf LiDAR-Daten basierendem DGM 2 des Staatsbetriebes Geobasisinformation und Vermessung Sachsen. Denn es besteht in der vorliegenden Dissertation die Annahme, dass es möglich ist, ein DGM 1015 bzw. DGM BASIS zu erstellen, wenn es gelingt mit denselben Daten das DGM 2 annähernd zu reproduzieren. Nach der »Observed vs. Predicted Analyse« besteht offensichtlich ein von der Datenherkunft unabhängiger, signifikanter, monotoner Zusammenhang, zwischen dem DGM HEUTE und dem DGM 2, welcher nicht zufällig ist. Folglich ist es möglich, mit den Daten und der Methodik auch ein DGM 1015 bzw. DGM BASIS zu erstellen. Weiterhin konnte mit Hilfe von multivariater Statistik nachgewiesen werden, dass die Heterogenität der Datengrundlagen in Bezug auf das Jahr der Datenerhebung und die Art der Koordinatenbestimmung (xi, yi, zi) einen vernachlässigbaren Einfluss auf die Abweichung zwischen dem DGM HEUTE und dem DGM 2 im Testdatensatz haben. Nachdem die Datengrundlagen evaluiert und teilweise u. a. mit Hilfe der Leitprofile, historischen Aufnahmen und dem DGM 2 an umgebende Profile angepasst wurden, findet die Extraktion der finalen Teildatenbanken DGM 1015 und DGM BASIS aus dem Gesamtdatensatz statt. Der Vorteil dieses für Leipzig entwickelten Untersuchungsdesigns liegt darin, dass durch den Vergleich zwischen dem DGM HEUTE und dem DGM 2 eine Evaluierung der Datengrundlagen messbar wird und nicht ausschließlich auf qualitative Kriterien zurückzuführen ist. Es wird somit auch quantitativ bewiesen, dass diese Methodik zur Paläoreliefmodellierung für die Innenstadt von Leipzig sehr gut angewendet werden kann. Prinzipiell ist es nicht möglich abschließend eine Realität der interpolierten Paläooberflächen zu präsentieren, sondern es können lediglich verschiedene Realitäten und deren Wahrscheinlichkeiten vorgestellt werden. Neben geostatistischen Methoden kommen auch deterministische Interpolationsverfahren zum Einsatz. Zur Quantifizierung der Ergebnisse erfolgt u. a. eine Kreuzvalidierung, auf deren Grundlage die Auswahl der finalen Interpolationsdarstellungen stattfindet. Das DGM BASIS und DGM 1015 stellen die Ausgangssituation der Reliefverhältnisse bei der Siedlungsgründung Leipzigs dar. Grundsätzlich ist es mit der vorliegenden Arbeit gelungen eine neue, fundierte Perspektive zur kritischen Diskussion der Landschafts- und Siedlungsgenese im Untersuchungsgebiet bereitzustellen. Neben einer detailgetreuen Abbildung der geomorphologischen und geologischen Gegebenheiten im heutigen Zentrum Leipzigs im Jahr 1015 und zu Beginn des Holozäns, ist es möglich, den Flurabstand zwischen den DGM zu bestimmen, um Veränderungen zu quantifizieren. In diesem Kontext ist es weiterhin möglich natürliche von anthropogenen Prozessen zu trennen und diese zeitlich aufzuschlüsseln. Auf dieser Basis können detailliertere Aussagen zum Relief zwischen Weiße Elster- und Parthetal um das Jahr 1015 gemacht werden. Des Weiteren lassen die Paläomodelle Rückschlüsse auf die raumbezogenen Gunstfaktoren bei der Siedlungsplatzwahl und -gestaltung zu. Zudem existiert das Potenzial zur Entwicklung einer visuell reizvollen Grundlage, um geowissenschaftliche und geoarchäologische Sachverhalte im Bildungsbereich für die Öffentlichkeit zu nutzen. Die Thematik hat durch den Charakter einer Fallstudie zunächst einen lokalen Bezug zu Leipzig (Sachsen). Das dabei entwickelte Untersuchungsdesign eröffnet jedoch eine neue, fundierte und transparente Möglichkeit zur Paläoreliefrekonstruktion in weiteren Untersuchungsgebieten.:Bibliografische Daten I Zitat II Danksagung III Zusammenfassung IV Abstract VI Abbildungs- & Tabellenverzeichnis XII Abkürzungsverzeichnis XVIII 1. Einleitung 1 1.1 Fragestellung und Zielführung 1 1.2 Abgrenzung des Untersuchungsgebietes 3 1.3 Grundlagen 7 1.3.1 Fachliche Einordnung der Thematik 7 1.3.2 Begriffe und Definitionen 9 1.3.2.1 »Natürlich gewachsener Boden« 9 1.3.2.2 Zeitangaben 9 1.3.2.3 Digitale Erdoberflächenmodelle 12 1.3.2.4 Lage- und Höhenbezugssystem 13 1.3.2.5 Unsicherheiten und Fehler 13 1.4 Forschungsgeschichtlicher Überblick 16 1.5 Ähnliche Forschungen außerhalb Leipzigs 24 2. Stand des Wissens im Untersuchungsgebiet 26 2.1 Naturräumliche Einordnung 26 2.1.1 Klima 29 2.1.2 Geologie 31 2.1.2.1 Leitprofil der Leipziger Tieflandsbucht 31 2.1.2.2 Geologischer Aufbau des Untersuchungsgebietes 34 2.1.3 Boden 36 2.1.4 Vegetation 40 2.1.5 Gewässernetz 41 2.1.5.1 Auengenese der Weißen Elster 43 2.1.5.2 Auengenese der Parthe 47 2.1.5.3 Zusammenfluß der Weißen Elster und Parthe 49 2.2 Siedlungsgeschichtliche Einordnung 50 2.2.1 Allgemeiner Überblick 51 2.2.2 Die im Jahr 1015 erwähnte »urbs Libzi« 56 2.2.3 Die Zwillingssiedlung der »urbs Libzi« 59 2.2.4 Wasserbauliche Einschnitte im Untersuchungsgebiet 63 3. Methodik 67 3.1 Generierung der Datenbasis 71 3.1.1 Formulieren der Arbeitshypothesen 72 3.1.2 Datengrundlagen und deren Aufbereitung 75 3.1.3 Zusammenfassung: Gesamtdatenbank 77 3.2 Zwischenergebnisse »DGM 1015ROH« und »DGM HEUTE« 78 3.2.1 Generierung der Teildatenbanken 78 3.2.2 Interpolation und qualitative Auswertung der Zwischenergebnisse 78 3.2.3 Definition von Teiluntersuchungsgebieten 82 3.3 Evaluation der Methodik 82 3.3.1 Deskriptive Statistik 83 3.3.2 »Observed vs. predicted Analyse« 84 3.3.3 Multivariate Statistik 86 3.3.4 Validation der Methodik 91 3.4 Evaluation der Datengrundlagen und Generierung der finalen Teildatenbanken 92 3.4.1 Evaluation der Datengrundlagen 94 3.4.2 Finale Teildatenbanken »DGM 1015« und »DGM BASIS« 95 3.4.3 Interpolation und qualitative Auswertung der Ergebnisse 95 3.4.4 Validation der Datengrundlage 96 3.5 Geostatistische Auswertung des »DGM 1015« und »DGM BASIS« 96 3.5.1 Objektive Auswahl der Rasterzellengröße 98 3.5.2 Simulation und Analyse der Paläooberflächen 102 3.5.3 Simulation und Analyse der Fließgewässer 104 3.5.4 Evaluation der vorhergesagten Unsicherheiten 105 3.6 Abschließende Interpolation und räumliche Validierung 106 3.6.1 Weitere Interpolationsmöglichkeiten und finale Modelle 106 3.6.2 Flurabstandsberechnungen zwischen den DGM 110 3.6.3 Anstehende geologische Substrate der finalen DGM 111 4. Ergebnisse und Diskussion 114 4.1 Generierung der Datenbasis 114 4.1.1 Arbeitshypothesen 114 4.1.2 Datengrundlagen 114 4.1.2.1 Höhenfestpunkte 114 4.1.2.2 LiDAR Daten 118 4.1.2.3 Historische Archive 120 4.1.2.4 Leitprofile 123 4.1.2.5 Geologische Aufschlüsse 126 4.1.2.6 Archäologische Dokumentationen 131 4.1.3 Zusammenfassung: Gesamtdatenbank 141 4.2 Zwischenergebnisse »DGM 1015ROH« und »DGM HEUTE« 143 4.2.1 Generierung der Teildatenbanken 143 4.2.2 Interpolation und qualitative Auswertung der Zwischenergebnisse 144 4.2.3 Definition von Teiluntersuchungsgebieten 150 4.3. Evaluierung der Methodik 152 4.3.1 Deskriptive Statistik 152 4.3.2 »Observed vs. Predicted Analyse« 154 4.3.3 Multivariate Statistik 157 4.3.4 Validation der Methodik 163 4.4. Evaluierung der Datengrundlagen 166 4.4.1 Evaluation und ggf. Anpassung der Datengrundlagen 168 4.4.1.1 Geologische Aufschlüsse 168 4.4.1.2 Archäologische Dokumentationen 169 4.4.1.3 Fallbeispiel: Teiluntersuchungsgebiet Matthäikirchhof 173 4.4.2 Finale Teildatenbanken »DGM 1015« und »DGM BASIS« 176 4.4.3 Interpolation und qualitative Auswertung der Ergebnisse 179 4.4.4 Validation der Datengrundlage 182 4.5 Geostatistische Auswertung des »DGM 1015« und »DGM BASIS« 184 4.5.1 Objektive Auswahl der Rasterzellengröße 184 4.5.2 Simulation und Analyse der Paläooberflächen 186 4.5.3 Simulation und Analyse der Fließgewässer 193 4.5.4 Evaluation der vorhergesagten Unsicherheiten 197 4.6 Abschließende Interpolation und räumliche Validierung 198 4.6.1 Weitere Interpolationsmöglichkeiten und finale Modelle 199 4.6.2 Flurabstandsberechnungen zwischen den DGM 207 4.6.3 Anstehende geologische Substrate der finalen DGM 210 4.7 Landschafts- und Siedlungsgenetische Interpretation der Paläomodelle 218 5. Synthese und Ausblick 233 6. Literaturverzeichnis 248 7. Anlagen i<br>In search of the anthropogenically undisturbed palaeo-surface of the city of Leipzig, the main goals are the reconstruction of the specific natural conditions during the Holocene and a deduction about how the environment has been shaped and structured by humans in this area over the last 1,000 years. In the present doctoral thesis, the possibility to model palaeo-surfaces for the central part of a big city by means of publicly accessible data of the state offices is demonstrated. The topic combines various geographical disciplines with a focus on the interface between Geosciences and Archaeology (often termed Geoarchaeology). For the reconstruction of the earth's surface as a Digital Elevation Model (DEM) about 1,000 years ago (DEM 1015) and 11,000 years ago (DEM BASIS) mainly data from the Archaeological Heritage Office Saxony and the Saxon State Office for Environment, Agriculture and Geology have been evaluated. The qualitative data are linked by using GIS through surveying techniques. To be able to process the heterogeneous data, working hypotheses are established in advance. According to them, the elevation of the top of a geological drill or archaeological excavation represents the current surface (DEM HEUTE). In addition, the first anthropogenically undisturbed layer of a geological drill or the layer with the oldest settlement trace of an archaeological excavation represents the data basis for the DEM 1015ROH and the DEM 1015, respectively. Furthermore, the basis in transition to Holocene sediments represents the palaeo-relief approximately 11,000 years ago (DEM BASIS). All data are summarized in an overall database. Hence, the data can be analyzed in a Geographical Information System (GIS). Based on the models DEM 1015ROH and DEM HEUTE the data basis and the methodology are evaluated. For this purpose, a comparison between the DEM HEUTE and another recent DEM, which was generated with LiDAR data provided by the State Operation Geobasisinformation and Surveying Saxony (DEM 2), is conducted. Therefore, it is assumed that it is possible to create a DEM 1015 or DEM BASIS, if it is possible to reproduce approximately the DEM 2 with the same data. The Observed vs. Predicted Analysis shows, that between the DEM HEUTE and the DEM 2 a non-data-independent, significant, monotonic relationship exists, which is not random. Consequently, based on the mentioned assumption above, it is possible to use the data and methodology to create a DEM 1015 or DEM BASIS. Furthermore, the multivariate statistic for the data set demonstrated, that the heterogeneity of the data bases in relation to the year of data collection and the type of coordinate determination (xi, yi, zi) had a negligible influence on the deviation between the DEM HEUTE and the DEM 2. Nevertheless, a check and, if necessary, a correction of the original data is necessary. If there are anomalies, the correction of the original data will be adapted to the surroundings by means of representative soil profiles, historical recordings and the DEM 2. After the data basis and methodology are validated the final sub databases DEM 1015 and DEM BASIS are extracted from the overall database. By means of the developed investigation design the comparison between the DEM HEUTE and the DEM 2 can be based on a quantitative evaluation of the data basis and not exclusively to qualitative criteria. Thus, it is also proved quantitatively that the methodology to model the palaeo-surface works very well for the inner city of Leipzig. However, models represent only a limited picture of reality. In principle, there is no unique interpolation result. That´s why, it is mandatory to present different realities of the palaeo-surfaces and their probabilities. Therefore, in addition to geostatistical interpolation methods, deterministic methods are also used. To quantify the results, among other things, a cross validation is performed. On this basis the selection of the most likely interpolation for the final representation takes place. The DGM BASIS and DGM 1015 show the highest possible approximation of the palaeo-surfaces. In general, the present dissertation has succeeded in providing a new, well-founded perspective for the critical discussion of landscape and settlement genesis in the study area. In addition to a detailed mapping of the geomorphological and geological conditions in the center of Leipzig at the time of 1015 and at the beginning of the Holocene, it is possible to determine the differences between the DEMs to quantify changes. In this context, it was also possible to separate natural from anthropogenic processes and to date the changes. On that basis, more detailed statements about the relief between the river valleys of Weiße Elster and Parthe around the year 1015 can now be made. In addition, the palaeo-models allow conclusions on the space-related favorable factors in settlement site selection and design. Finally, there is the possibility to represent the palaeo-surfaces as a visually appealing basis for geoarchaeological questions in public education. Due to its´ nature of being a case study, the topic has a local connection to Leipzig (Saxony). However, the developed investigation design will open new, well-founded, transparent options for the reconstruction of palaeo-reliefs in further study areas.:Bibliografische Daten I Zitat II Danksagung III Zusammenfassung IV Abstract VI Abbildungs- & Tabellenverzeichnis XII Abkürzungsverzeichnis XVIII 1. Einleitung 1 1.1 Fragestellung und Zielführung 1 1.2 Abgrenzung des Untersuchungsgebietes 3 1.3 Grundlagen 7 1.3.1 Fachliche Einordnung der Thematik 7 1.3.2 Begriffe und Definitionen 9 1.3.2.1 »Natürlich gewachsener Boden« 9 1.3.2.2 Zeitangaben 9 1.3.2.3 Digitale Erdoberflächenmodelle 12 1.3.2.4 Lage- und Höhenbezugssystem 13 1.3.2.5 Unsicherheiten und Fehler 13 1.4 Forschungsgeschichtlicher Überblick 16 1.5 Ähnliche Forschungen außerhalb Leipzigs 24 2. Stand des Wissens im Untersuchungsgebiet 26 2.1 Naturräumliche Einordnung 26 2.1.1 Klima 29 2.1.2 Geologie 31 2.1.2.1 Leitprofil der Leipziger Tieflandsbucht 31 2.1.2.2 Geologischer Aufbau des Untersuchungsgebietes 34 2.1.3 Boden 36 2.1.4 Vegetation 40 2.1.5 Gewässernetz 41 2.1.5.1 Auengenese der Weißen Elster 43 2.1.5.2 Auengenese der Parthe 47 2.1.5.3 Zusammenfluß der Weißen Elster und Parthe 49 2.2 Siedlungsgeschichtliche Einordnung 50 2.2.1 Allgemeiner Überblick 51 2.2.2 Die im Jahr 1015 erwähnte »urbs Libzi« 56 2.2.3 Die Zwillingssiedlung der »urbs Libzi« 59 2.2.4 Wasserbauliche Einschnitte im Untersuchungsgebiet 63 3. Methodik 67 3.1 Generierung der Datenbasis 71 3.1.1 Formulieren der Arbeitshypothesen 72 3.1.2 Datengrundlagen und deren Aufbereitung 75 3.1.3 Zusammenfassung: Gesamtdatenbank 77 3.2 Zwischenergebnisse »DGM 1015ROH« und »DGM HEUTE« 78 3.2.1 Generierung der Teildatenbanken 78 3.2.2 Interpolation und qualitative Auswertung der Zwischenergebnisse 78 3.2.3 Definition von Teiluntersuchungsgebieten 82 3.3 Evaluation der Methodik 82 3.3.1 Deskriptive Statistik 83 3.3.2 »Observed vs. predicted Analyse« 84 3.3.3 Multivariate Statistik 86 3.3.4 Validation der Methodik 91 3.4 Evaluation der Datengrundlagen und Generierung der finalen Teildatenbanken 92 3.4.1 Evaluation der Datengrundlagen 94 3.4.2 Finale Teildatenbanken »DGM 1015« und »DGM BASIS« 95 3.4.3 Interpolation und qualitative Auswertung der Ergebnisse 95 3.4.4 Validation der Datengrundlage 96 3.5 Geostatistische Auswertung des »DGM 1015« und »DGM BASIS« 96 3.5.1 Objektive Auswahl der Rasterzellengröße 98 3.5.2 Simulation und Analyse der Paläooberflächen 102 3.5.3 Simulation und Analyse der Fließgewässer 104 3.5.4 Evaluation der vorhergesagten Unsicherheiten 105 3.6 Abschließende Interpolation und räumliche Validierung 106 3.6.1 Weitere Interpolationsmöglichkeiten und finale Modelle 106 3.6.2 Flurabstandsberechnungen zwischen den DGM 110 3.6.3 Anstehende geologische Substrate der finalen DGM 111 4. Ergebnisse und Diskussion 114 4.1 Generierung der Datenbasis 114 4.1.1 Arbeitshypothesen 114 4.1.2 Datengrundlagen 114 4.1.2.1 Höhenfestpunkte 114 4.1.2.2 LiDAR Daten 118 4.1.2.3 Historische Archive 120 4.1.2.4 Leitprofile 123 4.1.2.5 Geologische Aufschlüsse 126 4.1.2.6 Archäologische Dokumentationen 131 4.1.3 Zusammenfassung: Gesamtdatenbank 141 4.2 Zwischenergebnisse »DGM 1015ROH« und »DGM HEUTE« 143 4.2.1 Generierung der Teildatenbanken 143 4.2.2 Interpolation und qualitative Auswertung der Zwischenergebnisse 144 4.2.3 Definition von Teiluntersuchungsgebieten 150 4.3. Evaluierung der Methodik 152 4.3.1 Deskriptive Statistik 152 4.3.2 »Observed vs. Predicted Analyse« 154 4.3.3 Multivariate Statistik 157 4.3.4 Validation der Methodik 163 4.4. Evaluierung der Datengrundlagen 166 4.4.1 Evaluation und ggf. Anpassung der Datengrundlagen 168 4.4.1.1 Geologische Aufschlüsse 168 4.4.1.2 Archäologische Dokumentationen 169 4.4.1.3 Fallbeispiel: Teiluntersuchungsgebiet Matthäikirchhof 173 4.4.2 Finale Teildatenbanken »DGM 1015« und »DGM BASIS« 176 4.4.3 Interpolation und qualitative Auswertung der Ergebnisse 179 4.4.4 Validation der Datengrundlage 182 4.5 Geostatistische Auswertung des »DGM 1015« und »DGM BASIS« 184 4.5.1 Objektive Auswahl der Rasterzellengröße 184 4.5.2 Simulation und Analyse der Paläooberflächen 186 4.5.3 Simulation und Analyse der Fließgewässer 193 4.5.4 Evaluation der vorhergesagten Unsicherheiten 197 4.6 Abschließende Interpolation und räumliche Validierung 198 4.6.1 Weitere Interpolationsmöglichkeiten und finale Modelle 199 4.6.2 Flurabstandsberechnungen zwischen den DGM 207 4.6.3 Anstehende geologische Substrate der finalen DGM 210 4.7 Landschafts- und Siedlungsgenetische Interpretation der Paläomodelle 218 5. Synthese und Ausblick 233 6. Literaturverzeichnis 248 7. Anlagen i
APA, Harvard, Vancouver, ISO, and other styles
28

Burda, Daniel. "Aufbewahrung digitaler Daten im Kontext des Informationszeitalters und aktueller Entwicklungen im Cloud Computing: Eine multiperspektivische Analyse aus Sicht von Unternehmen und Endanwendern." Doctoral thesis, 2015. https://repositorium.ub.uni-osnabrueck.de/handle/urn:nbn:de:gbv:700-2015110513645.

Full text
Abstract:
Daten bilden im Informationszeitalter die Grundlage unternehmerischen, gesellschaftlichen und individuellen Handelns und werden häufig auch als ein immaterielles (Wirtschafts-)Gut verstanden. Die globale Datenmenge wächst dabei exponentiell und verdoppelt sich laut Schätzungen ca. alle zwei Jahre. Gleichzeitig mit diesem rasanten Datenwachstum und resultierend aus den technologischen Fortschritten verändert sich auch die zur Darstellung und Speicherung von digitalen Daten notwendige Hard- und Software. Dies führt zu der Situation, dass Daten in großen Mengen beinahe beiläufig erzeugt werden, wogegen deren langfristige Nutzbarkeit und Erhaltung jedoch aktiv sichergestellt werden muss. Während diese Problematik bereits seit geraumer Zeit auf der Forschungsagenda der Bibliothekswissenschaftler und Archivare steht, dringt sie in zunehmendem Maße auch in den Kontext der Wirtschaftsinformatik und in den Fokus von Unternehmen vor, welche sich mit verschärften Compliance-Anforderungen, Aufbewahrungsanforderungen und Rechtsstreitigkeiten konfrontiert sehen, wodurch die langfristige Verfügbarkeit von digitalen Informationen erforderlich wird. Aber nicht nur Unternehmen sind mit den Herausforderungen konfrontiert, die mit dem langfristigen Erhalt digitaler Informationen verbunden sind. Auch im privaten Bereich stellt sich die Frage, wie Endanwender den Zugriff auf ihre persönlichen und für sie zum Teil unersetzlichen Daten wie Fotos oder Dokumente langfristig sicherstellen können. Die vorliegende Dissertation soll einen Erkenntnisbeitrag zum skizzierten Spannungsfeld und den Herausforderungen der Archivierung im Informationszeitalter leisten. Dazu werden Fragestellungen sowohl aus der Perspektive von Unternehmen als auch aus derjenigen von privaten Endanwendern und Cloud-Dienstleistern im Rahmen von einzelnen Forschungsbeiträgen untersucht.
APA, Harvard, Vancouver, ISO, and other styles
29

Meißner, Anne. "Verwendung digitaler Daten zur Auswertung von wissenschaftlichen Fragestellungen im Bereich der Krankenhaushygiene und Infektionserfassung: Erarbeitung einer algorithmischen Definition von relevanten Endpunkten für die EFFECT-Studie." 2018. https://ul.qucosa.de/id/qucosa%3A32168.

Full text
Abstract:
Publikationsdissertation zum Thema 'Verwendung digitaler Daten zur Auswertung von wissenschaftlichen Fragestellungen im Bereich der Krankenhaushygiene und Infektionserfassung: Erarbeitung einer algorithmischen Definition von relevanten Endpunkten für die EFFECT-Studie'
APA, Harvard, Vancouver, ISO, and other styles
30

Gonçalves, Sofia Valença Enes. "The moderating role of digital coupon vehicles and expiration dates on purchase intent." Master's thesis, 2018. http://hdl.handle.net/10400.14/26228.

Full text
Abstract:
Marketing has become one of the main tools for retailers’ success. Among their marketing strategies, promotions have been proven to increase purchase intent and, thus, to boost sales. However, times are changing in a fast manner due to technological advances. Hence, the digital world is becoming more advanced and consumers are getting more and more interested in obtaining product’s information and promotions online. Owing to that, and to the fact that the retailing world is full of competition, retailers need to adjust their strategies to guarantee they remain afloat. Therefore, the purpose of this dissertation is to study the effect of different couponing promotions on consumers’ purchase intent. The study will be focused on Laundry Detergents and Ice Creams and both monetary and non-monetary coupon promotions will be studied. The dissertation methodology was derived from both secondary and primary data; being that the first is composed by renowned journals’ findings and the second is resulting from an online survey. Results obtained through the data do indicate that there is a dependency of purchase intent on coupon promotions. This relationship is also verified to be moderated by the effect of the different digital coupons studied – mobile phones and email coupons – and by the length of coupons’ expirations dates.<br>Um dos fatores que tem influenciado o sucesso dos retalhistas é o marketing. De entre as estratégias de marketing, as promoções têm vindo a demonstrar a sua influência positiva na intenção de compra o que aumenta as vendas. No entanto, devido a avanços tecnológicos, o mundo está a sofrer alterações. De facto, o mundo digital está a tornar-se mais avançado e os consumidores estão cada vez mais interessados em obter informação de produtos e promoções online. Devido a essas alterações, e ao facto de o universo do retalho ser bastante competitivo, os retalhistas têm que alterar as suas estratégias para se manterem competitivos. Por esse motivo, o propósito deste estudo é o de estudar o efeito de diferentes cupões na intenção de compra dos consumidores. O foco deste estudo é em Detergentes da Roupa e Gelados sendo que promoções monetárias e não monetárias serão estudadas. A metodologia deste estudo deriva da recolha de dados secundários e primários; sendo que os dados secundários são compostos por conclusões de jornais de renome e os dados primários advêm de um questionário distribuído online. Os resultados provenientes dos dados recolhidos indicam que existe uma relação de dependência entre a intenção de compra e os cupões. Esta relação é também moderada pelo efeito dos diferentes cupões digitais estudados – por telemóvel e por email – e pela data de validade dos cupões.
APA, Harvard, Vancouver, ISO, and other styles
31

KO, CHING-YI, and 葛靜毅. "Study on Digital Activation of Aboriginal Tribe-Daren Township for Spreading its Elegance." Thesis, 2018. http://ndltd.ncl.edu.tw/handle/e3u86g.

Full text
Abstract:
碩士<br>南榮科技大學<br>工程科技研究所碩士班<br>106<br>United Nations Educational, Scientific and Cultural Organization (UNESC) has revealed that the global citizen has the obligation and responsibility to protect the cultural and natural heritage, set off a trend to promote the protection of world cultural heritage by countries around the world, respect and preserve indigenous and traditional knowledge and customs of the communities. . Taiwan’s Indigenous people are the important source of our history and culture as well as the unique beautiful treasure. Under the promotion of both revitalization of the aboriginal culture and the concept of community museum, the overall results have been created in the aboriginal tribal communities. The original tribal people of Daren township in Taitung county who belong to Paiwan ethnic group of the Taiwanese aborigines. And they made Daren becomes a town of slow movement with full of aboriginal culture due to its unique traditional ancestor worship combining with the ecological tourism. With the advent of the information age and the popularity of smart mobile carriers, this paper applies digital technology creativity to collect and activate the original culture, and through Google Maps integrated marketing platform, and AR augmented reality navigation guides and interactive experiences, the community’s public awareness of the historical track and cultural connotation of the original folk tribe in Daren Township was enhanced. At the same time, the centripetal force of the hometown was consolidated to achieve activation. The purpose of integrating the marketing culture with the preservation of the culture of the people, and the transmission and exchange of information will be further achieved for the goal of marketing integration. iv This study will introduce the amorous feelings of original folk tribal style for Daren Township by four main divisions with creative bonus, such as the “forest to gather the tribe " libraries in the history of the tribal cultural tour, "religious belief god ancestors" records of the connotation of traditional beliefs, "follow the way of universe forever" includes Daren’s unexplored ancient tribes region and natural ecological industries, and "art feast made by original township society", showing tribal clubs made products, art heritage and inject new elements to the community. Establishing the Google Maps information integration platform for indigenous tribe - Daren township’s landscape mood to worship ancestors soul harvest festival" to integrate Daren townships by the following five aspects - "Tribal Humanity", "Core Beliefs", "Explore secrets", "Art Festival" and "Rural Scenery” for information presentation as well as marketing the native tribes. Finally we apply augmented reality (AR) technology to design the "Wandering the scenery between mountain and sea in Daren Tribe" Scenic Spot Action Guide App and the "Daren Township Tribe Catch Treasure Fun" Interactive Treasure APP to allow users to carry out an immersive and interactive interaction through action to answer questions, capture photos and other experience learning. Hope to allow more people know the Paiwan Tribe - Daren township’s amorous feelings, traditional festival and ceremony through the result of this research and also attract more young people who are out of their hometown will return back to continue their legacy and re-engine the community through Internet application for economic development promotion and launch to the realm of the international community as well as keep its elegance forever.
APA, Harvard, Vancouver, ISO, and other styles
32

Hoffmann, Andrea [Verfasser]. "Neue Ansätze zur Auswertung und Klassifizierung von sehr hochauflösenden Daten : Methoden der Segmentierung, der hierarchischen Klassifizierung und der Per-Parcel-Methode mit Daten der digitalen Kamera HRSC-A und ihre Anwendbarkeit für die Aktualisierung topographischer Karten / von Andrea Hoffmann." 2001. http://d-nb.info/962672173/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography