c't 13/2020
S. 132
Wissen
Rechenzentrums-Beschleuniger
Bild: Nvidia

Alles auf KI

Nvidias Ampere-Architektur fürs Rechenzentrum im Detail

Mit seinem neuesten Chip, dem A100, will Nvidia seine Stellung im Rechenzentrum festigen, bevor die angekündigte Armada spezialisierter Beschleunigungschips für maschinelles Lernen eintrudelt. Ein genauerer Blick auf die Ampere-Architektur zeigt, was an Nvidias Versprechen von 20-facher Leistung im Vergleich zum Vorgänger dran ist.

Von Carsten Spille

Der A100 ist Nvidias neuer Beschleuniger für das Rechenzentrum und der erste Chip mit der neuen Ampere-Architektur. Er ist mit spezialisierten, aber flexiblen Tensor-Kernen sowohl für das rechenaufwendigere Training als auch die vergleichsweise einfache Anwendung bereits trainierter neuronaler Netze (Inferencing) geeignet. Dadurch soll er für Betreiber von Rechenzentren schmackhaft werden, die sich beim A100 nicht auf eine einzige Anwendungsmöglichkeit wie bei spezialisierten und hocheffizienten Inferencing-Chips wie etwa Googles TPU v3 festlegen müssen.

Außerdem eignet sich der A100 dank hoher Leistung bei doppeltgenauen Gleitkommaberechnungen auch für klassisches High-Performance-Computing (HPC), wie es Supercomputer häufig durchführen. In veränderter Ausrichtung soll die grundlegende Architektur später auch Basis für die GeForce-Spielergrafikkarten werden. 9,7 Billionen Rechenschritte pro Sekunde (TFlops) bei doppeltgenauen Berechnungen sind schon einmal 25 Prozent mehr als beim V100 – und da kämpft der A100 noch mit stumpfen Waffen: Der Hauptfortschritt bei der Rechenleistung steckt mit Faktor 2 bis 256 in den Tensor-Kernen.

Kommentieren