c't 1/2021
S. 38
Aktuell
Prozessoren

Bit-Rauschen

Qualcomm enttäuscht, Apple verwirrt, schnelle Falter und neue RISC-V-Chips

Qualcomms Snapdragon 888 bringt den ARM-Kern Cortex-X1. Apple verkauft alten UMA-Wein in neuen Schläuchen. Google hat eine KI-Abkürzung zum ­Proteinfalten gefunden und es gibt neue RISC-V-Chips.

Von Christof Windeck

Qualcomm hat den Smartphone-Prozessor Snapdragon 888 angekündigt, den ersten Chip mit dem starken ARM-Kern Cortex-X1. Der Snapdragon 888 soll rund 25 Prozent schneller rechnen als sein Vorgänger Snapdragon 865 – das ist zwar schön, aber viel zu wenig, um mit Apples M1 mithalten zu können. Denn der Snapdragon 888 – seine Typenbezeichnung verweist auf die chinesische Glückszahl acht – enthält zwar vier starke Kerne, aber nur einer davon ist ein Cortex-X1, die anderen sind rund 18 Prozent schwächere Cortex-A78. Anders als 2018 und 2019 hat Qualcomm in diesem Jahr auch keinen neuen Snapdragon für Windows-Notebooks angekündigt.

Der Riesenprozessor Cerebras CS-1 ist fast so groß wie eine Vinyl-Schallplatte und nicht nur bei KI-Algorithmen stark.
Bild: Cerebras

Apple entwickelte mit dem M1 zwar den bisher beeindruckendsten ARM-Chip für Notebooks, verwirrt die treue Gefolgschaft aber mit nebulösen Versprechungen zu dessen Unified Memory Architecture (UMA). Alle internen Rechenwerke des M1 – CPU-Kerne, GPU und Neural Engine – können demnach auf RAM-Adressen zugreifen, ohne Daten zunächst in separate Speicherbereiche kopieren zu müssen (Zero Copy). Das ist tatsächlich eine sehr gute Idee, weil sie Zwischenschritte vermeidet und dadurch die Leistung steigern kann, bloß ist sie weder neu noch einzigartig. AMD hat das Konzept seit 2011 als Heterogeneous System Architecture (HSA) seiner „Accelerated Processing Units“ (APU) vorangetrieben, die CPU- und GPU-Kerne kombinieren. Dabei ließ AMD großzügig unter den Tisch fallen, dass Intel schon zuvor CPU- und GPU-Kerne kombinierte. Und in Intel-Dokumenten von 2014 zur Nutzung der eingebauten „HD Graphics“ als OpenCL-Rechenbeschleuniger kann man nachlesen, wie dort der gemeinsame „Zero Copy“-Zugriff von CPU-Kernen und GPU auf dieselben Speicherbereiche funktioniert. Bleibt zu hoffen, dass Apple die schönen UMA-Vorteile unter macOS besser für Programmierer nutzbar macht, denn unter Windows kommen sie wohl eher selten zur Anwendung.

Intelligent falten

Freunde des verteilten Rechnens für die Wissenschaft via Folding@Home (F@H) müssen jetzt ganz stark sein: Google hat rechts überholt, und zwar mit künstlicher Intelligenz (KI). Googles Forschungssparte DeepMind hat mit einem AlphaFold getauften KI-System den Wettbewerb CASP souverän gewonnen (siehe S. 50). Das könnte die Suche nach Proteinverbindungen etwa für neue Medikamente drastisch beschleunigen. Denn statt mit nackter Rechengewalt möglichst viele Molekülfaltungen durchzurechnen, kürzt ­AlphaFold den Weg durch KI-Vorhersagen ab – sozusagen mit Köpfchen statt Kraft. Wann daraus für Wissenschaftler praktisch nutzbare Anwendungspakete entstehen, ist aber noch offen.

Ebenfalls für KI-Algorithmen hat Art Swift von der Firma Esperanto Technologies einen PCI-Express-Rechenbeschleuniger mit über 1000 RISC-V-Kernen ­angekündigt. Allerdings hatte Esperanto – dort arbeitet auch der einstige Transmeta-Gründer Dave Ditzel – seine ET-­Maxion- und ET-Minion-Kerne bereits 2017 schon einmal angekündigt und nannte auch jetzt weder konkrete Liefertermine noch Preise. Geplant sind jedenfalls irgendwann auch ET-Graphics-Kerne für eine RISC-V-GPU.

Die Firma Micro Magic behauptet, dass ihr hauseigener 64-Bit-RISC-V-Kern der effizienteste sei und problemlos 5 GHz schafft. Der Ankündigung fehlen aber viele Details, um den Erfolg einordnen zu können – beispielsweise ist nicht klar, welche Variante der 64-Bit-RISC-V-Technik überhaupt zum Einsatz kommt.

Wie sich der Markt für die vielen neuen KI-Beschleuniger entwickelt, scheint ungewisser als je zuvor. Einerseits wächst zwar der Bedarf an KI-Rechenleistung immer weiter, andererseits entwickeln Cloud-Riesen wie Google, Amazon, Alibaba und Baidu eigene KI-Chips, statt sie bei Zulieferern einzukaufen. Amazon stellte auf der Hauskonferenz re:invent den eigenen „Trainium“-Beschleuniger zum Trainieren von KI-Algorithmen vor; der „Inferentia“ für KI-Anwendungen ist bereits in den AWS-Instanzen EC2 Inf1 nutzbar. Vor diesem Hintergrund meldet die Firma Cerebras, dass ihr riesiger CS-1-Prozessor, der fast so groß ist wie ein 30-Zentimeter-Wafer, nicht nur bei KI schnell ist, sondern auch bei der Lösung bestimmter linearer Gleichungssysteme. Die Grenzen zwischen KI und High-Performance Computing (HPC) verschwimmen also.

Die tollsten neuen Chips nutzen ­freilich wenig, wenn man sie nicht kaufen kann. Derzeit wird die IT-Branche von Lieferengpässen geplagt (siehe S. 42), die sich vielleicht noch weit ins Jahr 2021 ­hineinziehen. Wer in dieser Situation liefern kann, sichert sich Marktanteile – und so wird Intel anscheinend noch haufenweise 14-Nanometer-Prozessoren los. Es kommt also nicht nur darauf an, den Schnellsten zu haben, sondern auch genug davon. (ciw@ct.de)

Kommentieren