Titelaufnahme

Titel
Ersatzmodelltraining für Turbomaschinenoptimierungen: Entwicklung eines verteilten Systems zur Auslagerung rechenintensiver Algorithmen auf GPUs / F. Küppers, A. Schmitz, Deutsches Zentrum für Luft- und Raumfahrt e.V., Köln, Deutschland ; Deutscher Luft- und Raumfahrtkongress 2016
VerfasserKüppers, F. In der Gemeinsamen Normdatei der DNB nachschlagen In Wikipedia suchen nach F. Küppers ; Schmitz, A. In der Gemeinsamen Normdatei der DNB nachschlagen In Wikipedia suchen nach A. Schmitz
KörperschaftDeutscher Luft- und Raumfahrtkongress <65., 2016, Braunschweig> In der Gemeinsamen Normdatei der DNB nachschlagen In Wikipedia suchen nach Deutscher Luft- und Raumfahrtkongress
Erschienen[Bonn] : [Deutsche Gesellschaft für Luft- und Raumfahrt - Lilienthal-Oberth e.V.], 2016
Ausgabe
Elektronische Ressource
Umfang1 Online-Ressource (6 Seiten) : Diagramme
URNurn:nbn:de:hbz:5:2-114270 Persistent Identifier (URN)
Zugriffsbeschränkung
 Das Dokument ist aus lizenzrechtlichen Gründen nur an den Service-PCs der ULB zugänglich.
Links
Nachweis
Verfügbarkeit In meiner Bibliothek
Zusammenfassung

Eine große Rolle in der Entwicklung und dem Design neuer Konzepte für Turbomaschinen spielen moderne Optimierungs- und Simulationsverfahren. Das Institut für Antriebstechnik des DLR verwendet in diesem Rahmen Multifidelity- und Gradient-Enhanced-Kriging-Ersatzmodelle, welche ein aufwändiges Training benötigen. In solch einem Training sind verschiedene Matrizenoperationen der Komplexität O(n) notwendig. Bei aufwändigen Problemstellungen kann das Kriging-Training allerdings zum Flaschenhals einer Optimierung werden. Mittelfristiges Ziel ist es, solch ein Training auch für sehr große Matrizen (~20.000) in annehmbarer Zeit umzusetzen. Für Optimierungen wird im Institut für Antriebstechnik des DLR meistens ein eigenes Rechencluster mit zahlreichen Knoten verwendet. Das Kriging-Training lässt sich aber nur teilweise auf mehrere Knoten verteilen. Die höchste Rechenleistung bei gleichzeitig bestem Preis-/Leistungsverhältnis bieten derzeit GPGPUs (General Purpose Computation on Graphics Processing Unit, nachfolgend GPU). Diese sind allerdings auf dem Rechencluster derzeit nicht vorhanden. Aus diesem Grund wurde für das Kriging-Training ein externer Server zur Verfügung gestellt, der solch eine GPU verwendet. Zur Auslagerung der wichtigsten Matrix-operationen in einer 1:1 Client-Server-Verbindung war darüber hinaus die Entwicklung einer geeigneten Netz-werkschnittstelle notwendig. Bei derzeitiger Infrastruktur konnte so ein Speedup um den Faktor 2 erreicht werden. Die gleiche Netzwerkschnittstelle wurde in einem zweiten Schritt dazu verwendet, um die parallelisierbaren Berechnungen des Kriging-Trainings unabhängig von der Verwendung einer GPU auf verschiedene Cluster-knoten zu verteilen. Mit solch einer Verteilung konnte ein Speedup erreicht werden, der in begrenztem Maße beinahe linear mit der Anzahl an Clusterknoten wächst.