Hochleistungs­rechenzentrum Uni Göttingen: Rechenpower kann man nie genug haben

Gefällt mir
Bookmark
Intro

Seit zwei Jahren versorgt das High-Performance Datacenter (HPDC) der Göttinger Georg-August-Universität diverse Uni- und Max-Planck-Institute mit zusätzlicher Speicherkapazität und Rechenpower und dient auch als nationaler Hub für daten- und rechenintensive Forschung. Ein Großteil der Lösungen für Elektrifizierung und Messtechnik stammt aus dem Portfolio von ABB. Professor Dr. Ramin Yahyapour, Geschäftsführer der Gesellschaft für wissenschaftliche Datenverarbeitung Göttingen (GWDG) und Leiter der Anlage, spricht im Interview über die technischen und koordinatorischen Herausforderungen, die Betrieb und Ausbau mit sich bringen.

Sehen Sie sich eigentlich eher als Wissenschaftler oder als Manager, Herr Yahyapour? 

Als Leiter eines Hochleistungsrechenzentrums befindet man sich an einer Schnittstellenposition, die von einer hohen Dynamik geprägt ist. Das gilt sowohl für die unterschiedlichen Kundenansprüche als auch für die Transformationen, die technische Neuerungen mit sich bringen. Mein Funktionsbereich, der auch die Geschäftsführung der GWDG umfasst, bringt da ganz besondere Anforderungen mit sich, was aber auch seinen eigenen Reiz hat. Wissenschaftler bin ich aber nach wie vor und halte derzeit unter anderem im Rahmen meines Lehrdeputats eine Vorlesung über Cloud Computing sowie eine Praktische Übung zur Parallelverarbeitung.  

 

Bei Planung und Bau des HPDC waren Sie von Anfang an involviert? 

Als ich nach Göttingen kam, war bereits klar, dass die bestehenden Rechnerraumkapazitäten am oberen Ende angekommen waren und die vorhandene Technik für ein modernes Rechenzentrum nicht mehr dem aktuellen Stand entsprach. Die Realisierung einer neuen Lösung wurde mir damals beim Antritt der Position somit mit ins Buch geschrieben. Das betraf auch die Sicherstellung der Finanzierung des Projekts. Teil der Aufgabe war zudem, die technische Ausstattung und deren Skalierbarkeit sicherzustellen. Die entsprechende Management-Erfahrung konnte ich bei einem vorigen Projekt in Dortmund sammeln, wo mir ebenfalls die Planung des Rechenzentrums übertragen worden war. 

Welche IT-Leistungen stellt die GWDG bereit? 

Die Leistungen zerfallen in zwei Kategorien. Zum einen decken wir den Bereich der IT-Basisdienste ab. Das ist das Netzwerk, Dienste wie Mail oder Speicher – Leistungen, die mit einer hohen Verfügbarkeit und Sicherheit einhergehen und ohne die unsere Kundengruppen nicht arbeitsfähig wären. Die andere Kategorie umfasst Dienste, die sehr spezifisch für die Wissenschaft sind. Die GWDG ist eines von insgesamt neun nationalen Hochleistungsrechenzentren, arbeitet eng mit dem Deutschen Zentrum für Luft- und Raumfahrt (DLR) zusammen und wurde letzten Herbst als nationales KI-Service-Zentrum ausgewählt.  

 

Die passgenaue Zuteilung der jeweiligen Rechenkapazitäten ist sicher keine einfache Aufgabe … 

Grundsätzlich handelt es sich um Dienste, die man nicht von der Stange bekommen kann. Man muss also sehr genau verstehen, was die Wissenschaftler mit ihren Berechnungen erreichen wollen, mit welchen Daten sie umgehen und wie diese ausgewertet werden sollen. Im Vorfeld müssen wir uns intensiv mit den Anwendungsszenarien auseinandersetzen, um diese dann für unsere Systeme adaptieren und anbieten zu können. 

Bekommt jeder sofort ein Ergebnis oder gibt es Wartezeiten? 

Der Zugriff auf Systeme kann sehr unterschiedlich erfolgen. Beim Supercomputing beantragt man für seine Projekte Rechenzeit und kann dann seine Anwendung in das System einreichen. Dieses versucht dann durch automatische Lastverteilung die richtigen Knoten zur passenden Zeit zu finden. Das bedeutet, dass man Rechenkapazität nicht sofort zugeteilt bekommt, sondern einige Stunden – manchmal auch Tage – warten muss, bis eine Anwendung berechnet wird. In anderen Bereichen wiederum ist es entscheidend, instantan auf bestimmte Dienste zugreifen zu können. Das ist immer dort der Fall, wo Daten in Echtzeit verarbeitet werden müssen. Das gilt etwa für Cloudanwendungen, bei denen etwa eine Route berechnet werden soll oder für Wettersimulationen. Auch hierfür muss man passende Infrastrukturen und geeignete Betriebsmodelle entwickeln und vorhalten, zumal die GWDG selbst auch ein Forschungszentrum ist, das sich um innovative Lösungen kümmert. 

„Sind höhere Rechenkapazitäten vorhanden, wollen Wissenschaftler auch größere Probleme lösen“

Was sind die besonderen technischen Anforderungen an Infrastrukturen für das Hochleistungsrechnen und welche Rolle spielen Lösungen von ABB hierbei? 

Die Infrastruktur, die wir betreiben, ist kostenintensiv und muss entsprechend gut ausgelastet sein. Zugleich gilt es, den Anforderungen an eine hohe Umweltverträglichkeit gerecht zu werden – immerhin betreiben wir hier Infrastrukturen im Bereich mehrerer Megawatt. Dafür eignet sich keine Standardware. Unsere Anforderung war, einen Partner zu haben, der sowohl im Bereich der Mittel- als auch Niederspannung über entsprechende Kompetenzen verfügt und uns auch Perspektiven für künftige Skalierungen aufzeigen kann. Bei uns gibt es immer wieder neue Anforderungen, die auch Überlegungen beinhalten, wie das nächste Megawatt angebunden werden kann. ABB verfügt über Erfahrungen in diesen Bereichen und konnte uns darüber hinaus auch mit Materialien und Lösungen für Emissionsschutz und Klimafreundlichkeit unterstützen. Um möglichst selten aktiv kühlen zu müssen, nutzen wir etwa einen Eisspeicher und haben Rechnersysteme, die mit einer Heißwasserkühlung ausgestattet sind. Die Abwärme, die wir produzieren, wird zudem auf der gegenüberliegenden Straßenseite für Gewächshäuser und das Fernwärmesystem der Universität genutzt. 

 

Wird sich der Bedarf an immer größeren Speicher- und Rechenkapazitäten irgendwann abschwächen? 

In der Forschungswissenschaft orientieren sich die Bedarfe nach dem, was gerade technisch möglich ist. Sind leistungsfähigere Infrastrukturen vorhanden, wollen Wissenschaftler auch größere Probleme lösen. Die Grenze liegt also eigentlich nur bei dem Angebot, das wir bieten können und wo es Fördermittel gibt, um solche Systeme zu beschaffen und aufzubauen. Allerdings wachsen wir nicht inkrementell und kaufen ab und zu ein paar Server hinzu, sobald wir an bestimmte Leistungsgrenzen stoßen. In unserem Bereich vollziehen sich derartige Transformationsprozesse vielmehr in großen Sprüngen, denn sobald es eine neue Rechnergeneration gibt, haben wir nicht viele Jahre Zeit, darüber nachzudenken. Es muss aber vorher geklärt sein, ob wir geeignet sind, solche Systeme aufzunehmen. Denn damit ist immer gleich ein Mehrbedarf von einem halben oder ganzen Megawatt verbunden, der von entsprechenden Skalierungsmaßnahmen bei der Spannungsversorgung oder der Beschaffung neuer Trafos begleitet werden muss.