c't 15/2017
S. 18
News
Supercomputer

Heiße Rechner

Die International Supercomputing Conference 2017 in Frankfurt am Main

Mit über 3200 Teilnehmern legte die ISC17 abermals zu. Sie konnten auf der Konferenz zu aktuellen Themen des High Performance Computings vor allem auch die begleitende Ausstellung genießen – rund um Intel Xeon, IBM Power9, Cavium ThunderX2, AMD Epyc, NEC Aurora …

Traditionell wird zur Eröffnung der ISC die neue Top500-Liste der Supercomputer vorgestellt. Hier ragte, wie schon in der letzten Ausgabe berichtet, Europas schnellster Supercomputer Piz Daint vom schweizerischen Supercomputerzentrum (CSCS) in Lugano heraus – nicht nur in der Performance, sondern vor allem auch in der Energieeffizienz. Mit 10,4 GFlops/Watt kam Piz Daint auf Platz 6. Das CSCS war bislang allerdings auch der einzige Betreiber, der einen nach den Regeln der Green500-Liste erlaubten, speziell auf Energieeffizienz optimierten Lauf eingereicht hatte. Dieser war zwar um 13 Prozent langsamer, verbrauchte dafür aber um 28 Prozent weniger Energie. Bei voller Linpack-Performance wären es 9,2 GFlops/Watt gewesen, damit hätte Piz Daint Platz 12 auf der Green500-Liste erreicht.

Green500-Sieger wurde mit 14,1 GFlops/Watt der mit Nvidia P100 bestückte Tsubame 3.0 am GCIC-Center in Tokio. Das Siegersystem HPE SGI 8600 mit SGIs ICE-XA-Architektur stellte HPE stolz am Stand aus. Nach Aufkauf von SGI entschied sich HPE für diese wassergekühlte SGI-Linie und opferte dafür die hauseigene Apollo 8000. Das Besondere der Kühltechnik der ICE-XA-Architektur ist die Durchflutung der Kühlkörper mit eng aneinanderliegenden Zu- und Rückläufen. Dieser Trick soll für etwa gleiche Temperaturen der zu kühlenden Chips sorgen. Bei kleineren Servern setzt HPE auf die mit Kunststoffverbindungen arbeitende Kühltechnik von CoolIT.

Nein, kein schneller „Kupfer-Interconnect“ zwischen den beiden Xeon-Phi-Knoten, sondern die spezielle SGI-Kühltechnik mit dicht aneinanderliegenden Zu- und Rückläufen, so wie sie in der HPE SGI 8600 zum Einsatz kommt

Heißwassergekühlte Systeme sah man allüberall, von Lenovo, IBM, Dell, Bull … Auch das Chemnitzer HPC-Haus Megware ist mit seiner Kühltechnik ColdCon gut dabei. Es hat im Rahmen der Slice-LC-Serie zudem wassergekühlte Netzteile und als Erster auch heißwassergekühlte Omni-Path-Switches im Programm. Aus dieser Serie wird derzeit der CoolMUC3 am Leibniz-Rechenzentrum mit 148 Knoten aufgebaut.