c't 11/2023
S. 124
Wissen
KI-Beschleuniger

Intelligenzbestien

So funktionieren Rechenwerke für KI-Algorithmen

Anscheinend entwickelt jeder Chiphersteller, der etwas auf sich hält, hauseigene KI-Beschleuniger. Die Folge ist eine verwirrende Vielfalt von KI-Chips. Wir erläutern, wie sie arbeiten und weshalb es so viele verschiedene gibt.

Von Christof Windeck

Rechenwerke für künstliche Intelligenz (KI) stecken in aktuellen Smartphones, Supercomputern, Autos und Fernsehgeräten. Sie dienen ganz unterschiedlichen Aufgaben: In Handys verschönern sie etwa Fotos oder erkennen Sprachbefehle, in Supercomputern trainieren sie große KI-Modelle, in Autos analysieren sie Kamerabilder und in Smart-TVs oder Gaming-PCs skalieren sie Bilder in 4K-Auflösung. Deshalb gibt es ganz verschiedene KI-Beschleuniger, die sich nicht nur in ihrer Rechenleistung unterscheiden, sondern in vielen weiteren Details.

KI-Systematik

Das Wirrwarr beginnt mit den Bezeichnungen: Unter KI – im Englischen Artificial Intelligence (AI) – versteht offenbar jeder etwas anderes. Manche meinen Machine Learning (ML), andere Deep Learning (DL) oder Deep Neural Networks (DNN) oder etwas ganz anderes. Weil es bei KI-Algorithmen häufig um künstliche neuronale Netze geht, beziehen sich die Namen vieler Beschleuniger darauf: Neural Processing Unit (NPU) oder Neural Engine. Andere Firmen schreiben einfach „AI Engine“. Google und Nvidia benennen ihre Tensor Processing Units (TPUs) beziehungsweise Tensor Cores wiederum nach dem Begriff des Tensors, mit dem Informatiker mehrdimensionale Felder (Arrays) meinen. All diese Bezeichnungen folgen keinen Standards und lassen selten Rückschlüsse auf den technischen Aufbau der eigentlichen Rechenwerke zu.

Kommentieren