Academic literature on the topic 'Paralleles und verteiltes Rechnen'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Paralleles und verteiltes Rechnen.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Paralleles und verteiltes Rechnen"

1

Schulze Darup, Moritz. "Verschlüsselte Regelung in der Cloud – Stand der Technik und offene Probleme." at - Automatisierungstechnik 67, no. 8 (2019): 668–81. http://dx.doi.org/10.1515/auto-2019-0022.

Full text
Abstract:
Zusammenfassung Zukünftige Regelungskonzepte werden verstärkt auf Cloud-Computing und verteiltes Rechnen setzen. In den resultierenden vernetzten Regelungssystemen werden sensible Daten über öffentliche Netzwerke kommuniziert und auf Plattformen Dritter verarbeitet. Verschlüsselte Regelungen zielen darauf ab, die Vertraulichkeit dieser Daten im gesamten Regelkreis zu sichern. Um dieses Ziel zu erreichen, werden klassische Regelungsalgorithmen so modifiziert, dass sie verschlüsselte Regeleingriffe basierend auf verschlüsselten Systemzuständen berechnen. Zum Einsatz kommen dabei homomorphe Verschlüsselungsverfahren, die einfache mathematische Operationen auf verschlüsselten Daten ermöglichen. Der Artikel erläutert die Implementierung verschlüsselter Regelungen anhand von drei wegweisenden Realisierungen in der Cloud.
APA, Harvard, Vancouver, ISO, and other styles
2

Koch, Frank A. "Weltweit verteiltes Rechnen im Grid Computing Eine Untersuchung der wesentlichen vertrags- und kollisionsrechtlichen Aspekte." Computer und Recht 22, no. 1 (2006). http://dx.doi.org/10.9785/ovs-cr-2006-42.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Paralleles und verteiltes Rechnen"

1

Karl, Holger. "Responsive Execution of Parallel Programs in Distributed Computing Environments." Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 1999. http://dx.doi.org/10.18452/14455.

Full text
Abstract:
Vernetzte Standardarbeitsplatzrechner (sog. Cluster) sind eine attraktive Umgebung zur Ausf"uhrung paralleler Programme; f"ur einige Anwendungsgebiete bestehen jedoch noch immer ungel"oste Probleme. Ein solches Problem ist die Verl"asslichkeit und Rechtzeitigkeit der Programmausf"uhrung: In vielen Anwendungen ist es wichtig, sich auf die rechtzeitige Fertigstellung eines Programms verlassen zu k"onnen. Mechanismen zur Kombination dieser Eigenschaften f"ur parallele Programme in verteilten Rechenumgebungen sind das Hauptanliegen dieser Arbeit. Zur Behandlung dieses Anliegens ist eine gemeinsame Metrik f"ur Verl"asslichkeit und Rechtzeitigkeit notwendig. Eine solche Metrik ist die Responsivit"at, die f"ur die Bed"urfnisse dieser Arbeit verfeinert wird. Als Fallstudie werden Calypso und Charlotte, zwei Systeme zur parallelen Programmierung, im Hinblick auf Responsivit"at untersucht und auf mehreren Abstraktionsebenen werden Ansatzpunkte zur Verbesserung ihrer Responsivit"at identifiziert. L"osungen f"ur diese Ansatzpunkte werden zu allgemeineren Mechanismen f"ur (parallele) responsive Dienste erweitert. Im Einzelnen handelt es sich um 1. eine Analyse der Responsivit"at von Calypsos ``eager scheduling'' (ein Verfahren zur Lastbalancierung und Fehlermaskierung), 2. die Behebung eines ``single point of failure,'' zum einen durch eine Responsivit"atsanalyse von Checkpointing, zum anderen durch ein auf Standardschnittstellen basierendes System zur Replikation bestehender Software, 3. ein Verfahren zur garantierten Ressourcenzuteilung f"ur parallele Programme und 4.die Einbeziehung semantischer Information "uber das Kommunikationsmuster eines Programms in dessen Ausf"uhrung zur Verbesserung der Leistungsf"ahigkeit. Die vorgeschlagenen Mechanismen sind kombinierbar und f"ur den Einsatz in Standardsystemen geeignet. Analyse und Experimente zeigen, dass diese Mechanismen die Responsivit"at passender Anwendungen verbessern.
Clusters of standard workstations have been shown to be an attractive environment for parallel computing. However, there remain unsolved problems to make them suitable to some application scenarios. One of these problems is a dependable and timely program execution: There are many applications in which a program should be successfully completed at a predictable point of time. Mechanisms to combine the properties of both dependable and timely execution of parallel programs in distributed computing environments are the main objective of this dissertation. Addressing these properties requires a joint metric for dependability and timeliness. Responsiveness is such a metric; it is refined for the purposes of this work. As a case study, Calypso and Charlotte, two parallel programming systems, are analyzed and their shortcomings on several abstraction levels with regard to responsiveness are identified. Solutions for them are presented and generalized, resulting in widely applicable mechanisms for (parallel) responsive services. Specifically, these solutions are: 1) a responsiveness analysis of Calypso's eager scheduling (a mechanism for load balancing and fault masking), 2) ameliorating a single point of failure by a responsiveness analysis of checkpointing and by a standard interface-based system for replication of legacy software, 3) managing resources in a way suitable for parallel programs, and 4) using semantical information about the communication pattern of a program to improve its performance. All proposed mechanisms can be combined and are suitable for use in standard environments. It is shown by analysis and experiments that these mechanisms improve the responsiveness of eligible applications.
APA, Harvard, Vancouver, ISO, and other styles
2

Hofmann, Michael. "Effiziente parallele Sortier- und Datenumverteilungsverfahren für Partikelsimulationen auf Parallelrechnern mit verteiltem Speicher." Doctoral thesis, Universitätsbibliothek Chemnitz, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:ch1-qucosa-86229.

Full text
Abstract:
Partikelsimulationen repräsentieren eine Klasse von daten- und rechenintensiven Simulationsanwendungen, die in unterschiedlichen Bereichen der Wissenschaft und der industriellen Forschung zum Einsatz kommen. Der hohe Berechnungsaufwand der eingesetzten Lösungsmethoden und die großen Datenmengen, die zur Modellierung realistischer Probleme benötigt werden, machen die Nutzung paralleler Rechentechnik hierfür unverzichtbar. Parallelrechner mit verteiltem Speicher stellen dabei eine weit verbreitete Architektur dar, bei der eine Vielzahl an parallel arbeitenden Rechenknoten über ein Verbindungsnetzwerk miteinander Daten austauschen können. Die Berechnung von Wechselwirkungen zwischen Partikeln stellt oft den Hauptaufwand einer Partikelsimulation dar und wird mit Hilfe schneller Lösungsmethoden, wie dem Barnes-Hut-Algorithmus oder der Schnellen Multipolmethode, durchgeführt. Effiziente parallele Implementierungen dieser Algorithmen benötigen dabei eine Sortierung der Partikel nach ihren räumlichen Positionen. Die Sortierung ist sowohl notwendig, um einen effizienten Zugriff auf die Partikeldaten zu erhalten, als auch Teil von Optimierungen zur Erhöhung der Lokalität von Speicherzugriffen, zur Minimierung der Kommunikation und zur Verbesserung der Lastbalancierung paralleler Berechnungen. Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines effizienten parallelen Sortierverfahrens und der dafür benötigten Kommunikationsoperationen zur Datenumverteilung in Partikelsimulationen. Hierzu werden eine Vielzahl existierender paralleler Sortierverfahren für verteilten Speicher analysiert und mit den Anforderungen von Seiten der Partikelsimulationsanwendungen verglichen. Besondere Herausforderungen ergeben sich dabei hinsichtlich der Aufteilung der Partikeldaten auf verteilten Speicher, der Gewichtung zu sortierender Daten zur verbesserten Lastbalancierung, dem Umgang mit doppelten Schlüsselwerten sowie der Verfügbarkeit und Nutzung speichereffizienter Kommunikationsoperationen. Um diese Anforderungen zu erfüllen, wird ein neues paralleles Sortierverfahren entwickelt und in die betrachteten Anwendungsprogramme integriert. Darüber hinaus wird ein neuer In-place-Algorithmus für der MPI_Alltoallv-Kommunikationsoperation vorgestellt, mit dem der Speicherverbrauch für die notwendige Datenumverteilung innerhalb der parallelen Sortierung deutlich reduziert werden kann. Das Verhalten aller entwickelten Verfahren wird jeweils isoliert und im praxisrelevanten Einsatz innerhalb verschiedener Anwendungsprogramme und unter Verwendung unterschiedlicher, insbesondere auch hochskalierbarer Parallelrechner untersucht.
APA, Harvard, Vancouver, ISO, and other styles
3

Dramlitsch, Thomas. "Distributed computations in a dynamic, heterogeneous Grid environment." Phd thesis, Universität Potsdam, 2002. http://opus.kobv.de/ubp/volltexte/2005/79/.

Full text
Abstract:
Die immer dichtere und schnellere Vernetzung von Rechnern und Rechenzentren über Hochgeschwindigkeitsnetzwerke ermöglicht eine neue Art des wissenschaftlich verteilten Rechnens, bei der geographisch weit auseinanderliegende Rechenkapazitäten zu einer Gesamtheit zusammengefasst werden können. Dieser so entstehende virtuelle Superrechner, der selbst aus mehreren Grossrechnern besteht, kann dazu genutzt werden Probleme zu berechnen, für die die einzelnen Grossrechner zu klein sind. Die Probleme, die numerisch mit heutigen Rechenkapazitäten nicht lösbar sind, erstrecken sich durch sämtliche Gebiete der heutigen Wissenschaft, angefangen von Astrophysik, Molekülphysik, Bioinformatik, Meteorologie, bis hin zur Zahlentheorie und Fluiddynamik um nur einige Gebiete zu nennen.

Je nach Art der Problemstellung und des Lösungsverfahrens gestalten sich solche "Meta-Berechnungen" mehr oder weniger schwierig. Allgemein kann man sagen, dass solche Berechnungen um so schwerer und auch um so uneffizienter werden, je mehr Kommunikation zwischen den einzelnen Prozessen (oder Prozessoren) herrscht. Dies ist dadurch begründet, dass die Bandbreiten bzw. Latenzzeiten zwischen zwei Prozessoren auf demselben Grossrechner oder Cluster um zwei bis vier Grössenordnungen höher bzw. niedriger liegen als zwischen Prozessoren, welche hunderte von Kilometern entfernt liegen.

Dennoch bricht nunmehr eine Zeit an, in der es möglich ist Berechnungen auf solch virtuellen Supercomputern auch mit kommunikationsintensiven Programmen durchzuführen. Eine grosse Klasse von kommunikations- und berechnungsintensiven Programmen ist diejenige, die die Lösung von Differentialgleichungen mithilfe von finiten Differenzen zum Inhalt hat. Gerade diese Klasse von Programmen und deren Betrieb in einem virtuellen Superrechner wird in dieser vorliegenden Dissertation behandelt. Methoden zur effizienteren Durchführung von solch verteilten Berechnungen werden entwickelt, analysiert und implementiert. Der Schwerpunkt liegt darin vorhandene, klassische Parallelisierungsalgorithmen zu analysieren und so zu erweitern, dass sie vorhandene Informationen (z.B. verfügbar durch das Globus Toolkit) über Maschinen und Netzwerke zur effizienteren Parallelisierung nutzen. Soweit wir wissen werden solche Zusatzinformationen kaum in relevanten Programmen genutzt, da der Grossteil aller Parallelisierungsalgorithmen implizit für die Ausführung auf Grossrechnern oder Clustern entwickelt wurde.
In order to face the rapidly increasing need for computational resources of various scientific and engineering applications one has to think of new ways to make more efficient use of the worlds current computational resources. In this respect, the growing speed of wide area networks made a new kind of distributed computing possible: Metacomputing or (distributed) Grid computing. This is a rather new and uncharted field in computational science. The rapidly increasing speed of networks even outperforms the average increase of processor speed: Processor speeds double on average each 18 month whereas network bandwidths double every 9 months. Due to this development of local and wide area networks Grid computing will certainly play a key role in the future of parallel computing.

This type of distributed computing, however, distinguishes from the traditional parallel computing in many ways since it has to deal with many problems not occurring in classical parallel computing. Those problems are for example heterogeneity, authentication and slow networks to mention only a few. Some of those problems, e.g. the allocation of distributed resources along with the providing of information about these resources to the application have been already attacked by the Globus software.

Unfortunately, as far as we know, hardly any application or middle-ware software takes advantage of this information, since most parallelizing algorithms for finite differencing codes are implicitly designed for single supercomputer or cluster execution. We show that although it is possible to apply classical parallelizing algorithms in a Grid environment, in most cases the observed efficiency of the executed code is very poor.

In this work we are closing this gap. In our thesis, we will
- show that an execution of classical parallel codes in Grid environments is possible but very slow
- analyze this situation of bad performance, nail down bottlenecks in communication, remove unnecessary overhead and other reasons for low performance
- develop new and advanced algorithms for parallelisation that are aware of a Grid environment in order to generelize the traditional parallelization schemes
- implement and test these new methods, replace and compare with the classical ones - introduce dynamic strategies that automatically adapt the running code to the nature of the underlying Grid environment.

The higher the performance one can achieve for a single application by manual tuning for a Grid environment, the lower the chance that those changes are widely applicable to other programs. In our analysis as well as in our implementation we tried to keep the balance between high performance and generality. None of our changes directly affect code on the application level which makes our algorithms applicable to a whole class of real world applications.

The implementation of our work is done within the Cactus framework using the Globus toolkit, since we think that these are the most reliable and advanced programming frameworks for supporting computations in Grid environments. On the other hand, however, we tried to be as general as possible, i.e. all methods and algorithms discussed in this thesis are independent of Cactus or Globus.
APA, Harvard, Vancouver, ISO, and other styles
4

Alrutz, Thomas [Verfasser]. "Parallele dynamische Adaption hybrider Netze für effizientes verteiltes Rechnen / vorgelegt von Thomas Alrutz." 2008. http://d-nb.info/993153593/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Hofmann, Michael. "Effiziente parallele Sortier- und Datenumverteilungsverfahren für Partikelsimulationen auf Parallelrechnern mit verteiltem Speicher." Doctoral thesis, 2011. https://monarch.qucosa.de/id/qucosa%3A19701.

Full text
Abstract:
Partikelsimulationen repräsentieren eine Klasse von daten- und rechenintensiven Simulationsanwendungen, die in unterschiedlichen Bereichen der Wissenschaft und der industriellen Forschung zum Einsatz kommen. Der hohe Berechnungsaufwand der eingesetzten Lösungsmethoden und die großen Datenmengen, die zur Modellierung realistischer Probleme benötigt werden, machen die Nutzung paralleler Rechentechnik hierfür unverzichtbar. Parallelrechner mit verteiltem Speicher stellen dabei eine weit verbreitete Architektur dar, bei der eine Vielzahl an parallel arbeitenden Rechenknoten über ein Verbindungsnetzwerk miteinander Daten austauschen können. Die Berechnung von Wechselwirkungen zwischen Partikeln stellt oft den Hauptaufwand einer Partikelsimulation dar und wird mit Hilfe schneller Lösungsmethoden, wie dem Barnes-Hut-Algorithmus oder der Schnellen Multipolmethode, durchgeführt. Effiziente parallele Implementierungen dieser Algorithmen benötigen dabei eine Sortierung der Partikel nach ihren räumlichen Positionen. Die Sortierung ist sowohl notwendig, um einen effizienten Zugriff auf die Partikeldaten zu erhalten, als auch Teil von Optimierungen zur Erhöhung der Lokalität von Speicherzugriffen, zur Minimierung der Kommunikation und zur Verbesserung der Lastbalancierung paralleler Berechnungen. Die vorliegende Dissertation beschäftigt sich mit der Entwicklung eines effizienten parallelen Sortierverfahrens und der dafür benötigten Kommunikationsoperationen zur Datenumverteilung in Partikelsimulationen. Hierzu werden eine Vielzahl existierender paralleler Sortierverfahren für verteilten Speicher analysiert und mit den Anforderungen von Seiten der Partikelsimulationsanwendungen verglichen. Besondere Herausforderungen ergeben sich dabei hinsichtlich der Aufteilung der Partikeldaten auf verteilten Speicher, der Gewichtung zu sortierender Daten zur verbesserten Lastbalancierung, dem Umgang mit doppelten Schlüsselwerten sowie der Verfügbarkeit und Nutzung speichereffizienter Kommunikationsoperationen. Um diese Anforderungen zu erfüllen, wird ein neues paralleles Sortierverfahren entwickelt und in die betrachteten Anwendungsprogramme integriert. Darüber hinaus wird ein neuer In-place-Algorithmus für der MPI_Alltoallv-Kommunikationsoperation vorgestellt, mit dem der Speicherverbrauch für die notwendige Datenumverteilung innerhalb der parallelen Sortierung deutlich reduziert werden kann. Das Verhalten aller entwickelten Verfahren wird jeweils isoliert und im praxisrelevanten Einsatz innerhalb verschiedener Anwendungsprogramme und unter Verwendung unterschiedlicher, insbesondere auch hochskalierbarer Parallelrechner untersucht.
APA, Harvard, Vancouver, ISO, and other styles
6

Gleichmar, Reiner [Verfasser]. "Approximationen und paralleles Rechnen bei der multidisziplinären Strukturoptimierung / Reiner Gleichmar." 2004. http://d-nb.info/977699099/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Paralleles und verteiltes Rechnen"

1

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Parallele und verteilte Programmierung. Springer Berlin Heidelberg, 2000.

APA, Harvard, Vancouver, ISO, and other styles
3

Vorlesungen über Informatik: Paralleles Rechnen und nicht-analytische Lösungsverfahren. Springer Berlin Heidelberg, 1998.

APA, Harvard, Vancouver, ISO, and other styles
4

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. Verteiltes und Paralleles Datenmanagement: Von verteilten Datenbanken zu Big Data und Cloud. Springer Vieweg, 2015.

APA, Harvard, Vancouver, ISO, and other styles
5

Goos, Gerhard. Vorlesungen über Informatik: Band 4: Paralleles Rechnen und nicht-analytische Lösungsverfahren (Springer-Lehrbuch). Springer, 1998.

APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Paralleles und verteiltes Rechnen"

1

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Schemaarchitektur und Katalogverwaltung." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_4.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Einleitung." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Parallele Analyse großer Datenmengen mit MapReduce." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_10.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Verteilte Transaktionsausführungen." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_11.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Synchronisationsverfahren." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_12.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Replikation." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_13.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Transaktionsverarbeitung für Shared Disk." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_14.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Konsistenz in Cloud-Datenbanken." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_15.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Grundlagen zu Datenbanken und verteilten Systemen." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Rahm, Erhard, Gunter Saake, and Kai-Uwe Sattler. "Architekturen für verteiltes und paralleles Datenmanagement." In Verteiltes und Paralleles Datenmanagement. Springer Berlin Heidelberg, 2015. http://dx.doi.org/10.1007/978-3-642-45242-0_3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography