c't 23/2022
S. 124
Wissen
KI: Skalierungshypothese
Bild: Albert Hulm

Skalierungshypothese vs. Neurosymbolik

Welche nächsten Schritte muss die KI-Forschung gehen?

In einem ist sich die Forschung einig: Neuronale Netze sind bislang keine allgemeinen künstlichen Intelligenzen, die beliebige intellektuelle Aufgaben meistern. Möglicherweise müssen Forscher dafür noch ganz neue Technik erfinden, vielleicht reicht es aber auch, die aktuellen Netze auf Gehirngröße zu skalieren. Über die Frage lohnt es sich zu streiten, weil die beiden Ansätze nach verschiedenen Strategien verlangen.

Von Philipp Bongartz und Pina Merkert

Neuronale Netze scheinen der perfekte Ansatz für künstliche Intelligenz: Sie brauchen lediglich einen großen Datensatz und lernen daraus die nötigen Muster. Als Mensch gibt man nur vor, was herauskommen soll und die simulierten Neuronen (und der Optimierungsalgorithmus fürs Trainieren der Parameter) kümmern sich um den Rest. Theoretisch können neuronale Netze jede beliebige logische Struktur abbilden. Sie sind „Turing-vollständig“, was bedeutet, dass sie im Prinzip alles lernen können, was irgendein Computer jemals können wird. Sie können jede berechenbare Funktion berechnen, wenn sie groß genug sind.

In der Praxis stießen Forscher beim Training neuronaler Netze aber immer wieder an Grenzen. Beispielsweise waren zunächst wegen des „Vanishing Gradient-Problems“ nur Netze mit einer Handvoll Schichten trainierbar. Abhilfe schafften dann sogenannte Residual-Verbindungen, mit denen über hundert Schichten möglich wurden. Solche Tricks können zwar bei manchen KI-Problemen erstaunliche Fortschritte bringen, funktionieren aber nicht bei jeder Problemstellung gleich gut. Dass KI momentan immer auf einzelne Probleme zugeschnitten sein muss, macht sie zur „schwachen KI“. Der Begriff bezeichnet KI-Lösungen mit Inselbegabungen, die nur eine einzelne Anwendung beherrschen.

Kommentare lesen (1 Beitrag)