Forschungsbericht 2014 - Deutsches Klimarechenzentrum

Speicherung großer Datenmengen und Energieeffizienz

Autoren
Ludwig, Thomas; Dolz, Manuel; Kuhn, Michael; Kunkel, Julian; Lenhart, Hermann
Abteilungen

Deutsches Klimarechenzentrum, Hamburg
Abteilung „Forschungsgruppe - Wissenschaftliches Rechnen“

Zusammenfassung
Die Forschungsgruppe „Wissenschaftliches Rechnen“ von Thomas Ludwig am DKRZ und der Universität Hamburg befasst sich schwerpunktmäßig mit der Speicherung sehr großer Datenmengen in Hochleistungsrechnersystemen und der Frage, wie diese energieeffizient betrieben werden können. Neu entwickelte Kompressionsverfahren senken bei datenintensiven Klimasimulationen sowohl den Platzbedarf für die Daten als auch den Energieverbrauch der beteiligten Speichersysteme. Zusätzlich zur Forschung bildet die Gruppe Studierende zu technischen und methodischen Fragen des Hochleistungsrechnens aus.

Im Rahmen der Neubesetzung der Stelle des Geschäftsführers des Deutschen Klimarechenzentrums (DKRZ) durch Thomas Ludwig wurde 2009 eine Abteilung für die neu etablierte Forschungsgruppe „Wissenschaftliches Rechnen“ eingerichtet. Der gleichzeitig von Thomas Ludwig besetzte Lehrstuhl „Wissenschaftliches Rechnen“ im Fachbereich Informatik der Universität Hamburg ist mit seinen Mitarbeiterinnen und Mitarbeitern im Gebäude des DKRZ untergebracht und bildet gemeinsam mit der Forschungsgruppe eine Einheit. Im Jahr 2014 bestand die Gruppe aus zwölf Mitarbeitern, wovon acht über Drittmittelprojekte finanziert waren.

In sechs Förderprojekten wird aktuell zu den folgenden Themen geforscht:

  • Konzepte zur Speicherung hoher Datenmengen  mittels paralleler Ein-/Ausgabe
  • Leistungsevaluierung und -optimierung paralleler Ein-/Ausgabe
  • Energieeffizienz bei Hochleistungsrechnern und ihren Ein-/Ausgabesystemen
  • Kostenanalysen zum Betrieb von Hochleistungsrechnersystemen
  • Anwendungen im Bereich der Erdsystemforschung

Zukünftige Rechner und ihre Speichersysteme

Die aktuelle technische Entwicklung der Hochleistungsrechner von Petascale-Systemen hin zu Exascale-Systemen bringt neue Herausforderungen mit sich: Die Leistungsfähigkeit der Speichersysteme  hält nicht Schritt mit der Leistungssteigerung in der Prozessortechnologie; außerdem stellen die Energiekosten bei diesen Systemen ein großes Problem für den Betreiber dar. Mittels eines formalen Kostenmodells wurde untersucht, wie hier die Entwicklung bis zum Ende des Jahrzehnts am DKRZ aussehen könnte [1]. Ausgangspunkt sind die historischen sowie projizierten Daten der Entwicklung von Rechen- und Speicherleistung und des Ressourcenverbrauchs in großen Klimaprojekten wie z.B. CMIP5. Drei Methoden zur Reduktion der Datenmenge und damit der Investitions- und Betriebskosten wurden verglichen: Neuberechnung von Daten anstelle ihrer Langzeitarchivierung, Reduktion von Datenduplikaten in Speichersystemen und die Kompression von Daten. Zum gegenwärtigen Zeitpunkt stellt die Kompression die beste Methode zur Kostenreduktion dar. Sie reduziert Investitionen in das Speichersystem und in das Verbrauchsmaterial Magnetband.

Auch der Ansatz der Neuberechnung von Ergebnissen anstelle ihrer Speicherung ist Erfolg versprechend, jedoch noch komplettes Neuland in der Forschung.

Datenkompression spart Betriebskosten

Ein wichtiger Arbeitsschwerpunkt liegt folglich in der weiteren Untersuchung von Datenkompression als Mittel zur Effizienzsteigerung und Kostensenkung bei datenintensiven Klimasimulationen.

Die Gruppe untersuchte dabei, welche bestehenden Algorithmen sich für die Anwendung auf Klimadaten eignen. Hierfür spielen ein hoher Datendurchsatz und eine hohe Kompressionsrate bei gleichzeitig geringer Rechenzeit und niedrigem Energieverbrauch eine Rolle. In modernen Dateisystemen besteht bereits die Möglichkeit, die Daten zu komprimieren, was die effektive Speicherkapazität bei Klimadaten bei gleichbleibender Leistung um 33% erhöht [2]. Vorangegangene Untersuchungen konzentrierten sich auch auf die anwendungsseitige Kompression [4]. Während die Kompression im Dateisystem transparent für den Benutzer durchgeführt werden kann, macht die anwendungsseitige Kompression Änderungen an den Simulationen notwendig. Eine betriebswirtschaftliche Analyse zeigt: Würden die Klimadaten auf Magnetband mit der für die Daten am besten geeigneten Kompression abgespeichert, könnten die ersparten Aufwendungen in zusätzliches Servicepersonal umgewidmet werden. Durch eine Reduktion der Genauigkeit der abgespeicherten Daten kann eine weitere deutliche Steigerung der Kompressionsrate erzielt werden [5]. Bei dieser sogenannten verlustbehafteten Kompression muss allerdings genau analysiert werden, welche Genauigkeit für den wissenschaftlichen Erkenntnisgewinn nötig ist. Zusammen mit den Klimaforschern sollte hier analysiert werden, welche Reduktion von numerischer Genauigkeit im Rahmen von Simulationsszenarien akzeptiert werden kann.

Energieeffizienz spart Betriebskosten

Ein weiterer Schwerpunkt befasst sich mit der Evaluierung der elektrischen Leistungsaufnahme und der Steigerung der Energieeffizienz bei Hochleistungsrechnern und ihren Speichersystemen. In den letzten Jahren sind die Energiekosten deutlich gestiegen und stellen einen signifikanten Anteil der Gesamtkosten eines solchen Rechners dar. Gleichzeitig wurden viele Forschungsinitiativen gestartet, die sich diesem Problem zuwenden. Mehrere Ansätze nutzen die Eigenschaften moderner Prozessoren, auch mit geringeren Spannungen und Frequenzen betrieben werden zu können (dynamic voltage and frequency scaling, DVFS). Die Leistung des Prozessors kann so optimal an die Struktur des Programms angepasst werden. Insbesondere Anwendungen aus der Klimaforschung können hier energieeffizienter ablaufen, ohne dass die Laufzeit der Programme ansteigt. Bei den Speichersystemen können durch Kompression ebenfalls bedeutende Energieeinsparungen erzielt werden [2]. Dazu wird das parallele Dateisystem Lustre gemeinsam mit dem darunterliegenden Dateisystem ZFS verwendet, bei dem Kompression als Standard aktiviert wurde. Für Experimente mit realen Datensätzen kann so der Energieverbrauch um 30% und der Speicherbedarf um 50% gesenkt werden. Beide Ansätze helfen, hohe Betriebskosten zu senken. Gleichzeitig wird analysiert, wie künftige Speichersysteme konstruiert sein sollten. Auf der Ebene der Hardware existieren bereits viele Umsetzungen zur Reduktion der Leistungsaufnahme, für die Softwareschichten muss aber noch intensiv geforscht werden, um alle Möglichkeiten optimal auszunutzen. Die Arbeitsgruppe ist hier in verschiedenen Förderprojekten aktiv [3].

Kooperationen und Gremien

Die Schwerpunkte der Forschungsgruppe liegen im Bereich der systemnahen Informatikforschung. Ein wichtiges Ziel hierbei besteht in der Nutzbarkeit der Forschungsergebnisse − einerseits zur Effizienzsteigerung von Klimasimulationen für die Anwender und gleichzeitig zur Optimierung des Rechenzentrumbetriebs und zur Senkung der Kosten. Hierzu pflegt die Gruppe vielfältige intra- und interdisziplinäre Zusammenarbeiten. Auf den oben dargestellten Gebieten kooperiert das Team von Thomas Ludwig in Förderprojekten und auf informeller Basis mit Wissenschaftlern des Max-Planck-Instituts für Meteorologie. Zu Fragen der parallelen Ein-/Ausgabe gibt es Zusammenarbeiten mit dem Deutschen Wetterdienst sowie mit Partnerrechenzentren in den USA (NCAR) und in Japan (Riken). Auf europäischer Ebene beteiligt sich die Gruppe in Gremien wie dem European Open File System (EOFS) und seiner Exascale I/O Working Group, um Anforderungen aus dem Bereich der Klimaanwendungen in die Weiterentwicklung der Konzepte von Speichersystemen einzubringen. Die Arbeitsgruppe hat die internationale Konferenzserie Energy-Aware High Performance Computing (EnA-HPC) initiiert und mehrfach in Hamburg durchgeführt und organisiert seit vielen Jahren den wissenschaftlichen Teil der renommierten Konferenz International Supercomputing Conference (ISC).

Lehre und Ausbildung

Neben einer anwendungsorientierten Forschung gehört eine vielfältige Lehre zu den wichtigen Aufgaben der Gruppe. Die Vorlesung „Hochleistungsrechnen“ wendet sich an Informatiker sowie Geowissenschaftler und ist jeweils in die Modulhandbücher der Studiengänge eingefügt. Sie schafft die Grundlagen, um die Methoden des parallelen Rechnens auf Hochleistungsrechnersystemen effizient zu beherrschen. Studierende der Informatik können sich in die speziellen Fragestellungen von Hardware und Software vertiefen. Die Forschungsgruppe bildet als eine der wenigen in Deutschland gezielt zu Fragen der effizienten Nutzung paralleler Speichersysteme aus. Ein erster Absolvent wurde 2014 in der Abteilung Systeme des DKRZ eingestellt und befasst sich dort mit dem Aufbau eines Cloud-Speichersystems zur weltweiten Bereitstellung von Klimasimulationsdaten.

Literaturhinweise

Kunkel, Julian; Kuhn, Michael; Ludwig, Thomas
Exascale Storage Systems – An Analytical Study of Expenses
Supercomputing Frontiers and Innovations, Editors: Jack Dongarra, Vladimir Voevodin, Series: Volume 1, Number 1,  pp. 116-134 (2014-06)
Chasapis, Konstantinos; Dolz, Manuel; Kuhn, Michael; Ludwig, Thomas
Evaluating Power-Performance Benefits of Data Compression in HPC Storage Servers
IARIA Conference, Best Paper Award., pp. 29-34, Editors: Steffen Fries, Petre Dini, IARIA XPS Press, ENERGY 2014, Chamonix, France (2014-04-20)
ISBN: 978-1-61208-332-2
ISSN: 2308-412X
Kunkel, Julian; Aguilera, Alvaro; Hübbe, Nathanael; Wiedemann, Marc; Zimmer, Michaela
Monitoring Energy Consumption with SIOX: Autonomous Monitoring Triggered by Abnormal Energy Consumption
EnA-HPC 2014, Springer, Technische Universität Dresden, Dresden, pp. 8 (2014)
Hübbe, Nathanel; Kunkel, Julian
Reducing the HPC-Datastorage Footprint with MAFISC – Multidimensional Adaptive Filtering Improved Scientific data Compression
Computer Science - Research and Development, Springer, Series: Volume 28, Issue 2-3, pp. 231-239 (2013-05)
Hübbe, Nathanael; Wegener, Al; Kunkel, Julian; Ling, Yi; Ludwig, Thomas
Evaluating Lossy Compression on Climate Data
Supercomputing, Lecture Notes in Computer Science (7905), Editors: Julian Martin Kunkel, Thomas Ludwig, Hans Werner Meuer, Springer Berlin/Heidelberg, ISC 2013, Leipzig, Germany, pp. 343-356 (2013-06)
ISBN: 978-3-642-38749-4
ISSN: 0302-9743
Go to Editor View