Verbundprojekt ExaOcean - Leistungsverbesserung des ICON-O Ozeanmodells auf heterogenen Exascale-Supercomputern mit Methoden des Maschinellen Lernens

Loading...
Thumbnail Image

Volume

Issue

Journal

Series Titel

Book Title

Publisher

Hannover : Technische Informationsbibliothek

Link to publishers version

Abstract

Computersimulationen auf Hochleistungsrechnern sind ein unverzichtbares Werkzeug in den Natur- und Ingenieurwissenschaften. Die in vielen Problemen auftretenden, stark unterschiedlichen Raum- und Zeitskalen übersetzen sich in immer komplexer werdende mathematische Modelle, zu deren numerischer Lösung zunehmend leistungsstärkere Rechnersysteme notwendig sind. Die neueste Generation von Hochleistungsrechnern wie JUPITER am Jülich Supercomputing Centre mit Rechenleistungen im Exascale Bereich erlauben es, Modelle mit nie dagewesener Auflösung zu rechnen und somit völlig neue Einblicke und Erkenntnisse zu gewinnen. Essentiell ist hierbei aber die Entwicklung moderner numerischer Algorithmen, welche die durch die Hardware dieser Systeme bedingten Besonderheiten berücksichtigen. Hierbei stehen insbesondere zwei Herausforderungen im Vordergrund. Zum einen der extreme Grad an Parallelität, den eine Simulationssoftware für die Nutzung solcher Systeme ermöglichen muss, zum anderen die zunehmend heterogene Natur moderner Hochleistungsrechner, welche CPUs, Grafikarten (GPUs) und andere Beschleuniger kombinieren. Ziel von ExaOcean war es, mittels einer Kombination von klassischen diskreten Algorithmen und Methoden des maschinellen Lernens (ML) den Durchsatz des ICON-O Ozeanmodells, gemessen in simulierten Tagen pro 24h Laufzeit, um mindestens einen Faktor sechs zu verbessern. Über die Laufzeitreduktion hinaus sollte auch gezeigt werden, dass dieser Ansatz durch die Kombination von ML- und gitter-basierten Verfahren die effizientere Nutzung heterogener HPC-Systeme ermöglicht. Speziell sollten zwei neue algorithmische Ansätze entwickelt werden: ein „parallel spectral deferred correction“ (PSDC) genanntes numerisches Zeitschrittverfahren, welches eine bessere Ausnutzung von Mehrkern-CPUs mittels kleinskaliger Parallelisierung in der Zeit ermöglicht und ein „dynamic super-resolution“ (DSR) Ansatz, welcher Techniken aus der Bildverarbeitung zur ML-gestützten Auflösungsverbesserung für dynamische Simulationen adaptiert. Das Ziel war eine Verbesserung der parallelelen Skalierbarkeit durch PSDC und eine Reduktion des Gesamtrechenaufwands durch DSR dadurch, dass die ML-basierte Korrektur die Verwendung gröberer Gitter ohne Genauigkeitsverlust der Simulation ermöglicht.

Description

Keywords

License

Creative Commons Attribution-NonDerivs 3.0 Germany