"Gesunder Menschenverstand" für Maschinen: Metas Weg zur allgemeinen KI

Seite 2: Weltmodell und Konfigurator

Inhaltsverzeichnis

LeCun ist davon überzeugt, dass so etwas wie ein Konfigurator benötigt wird, aber er weiß nicht, wie man ein neuronales Netz für diese Aufgabe trainieren kann. "Wir müssen ein gutes Rezept finden, damit es funktioniert, und dieses Rezept haben wir noch nicht", sagt er.

In LeCuns Vision sind das Weltmodell und der Konfigurator zwei Schlüsselelemente in einem größeren System, das als kognitive Architektur bezeichnet wird und weitere neuronale Netze umfasst, z. B. ein Wahrnehmungsmodell, das die Welt wahrnimmt, und ein Modell, das die KI mit Hilfe von Belohnungen motiviert, die Welt zu erkunden oder ihr Verhalten anzupassen.

Jedes neuronale Netz entspricht in etwa einem Teil des Gehirns, sagt LeCun. So sollen beispielsweise der Konfigurator und das Weltmodell die Funktionen des präfrontalen Kortex nachbilden. Das Motivationsmodell entspricht bestimmten Funktionen der Amygdala, und so weiter.

Die Idee von kognitiven Architekturen, insbesondere von solchen, die vom Gehirn inspiriert sind, gibt es schon seit Jahrzehnten. Das gilt auch für viele von LeCuns Ideen zur Vorhersage mithilfe von Modellen mit unterschiedlichen Detailgraden. Doch als Deep Learning zum dominierenden Ansatz in der KI wurde, kamen viele dieser älteren Ideen aus der Mode. "Die Menschen in der KI-Forschung haben sie ein wenig vergessen", sagt er.

LeCun hat diese älteren Ideen aufgegriffen und quasi rehabilitiert, indem er Wege aufzeigte, wie sie mit Deep Learning kombiniert werden können. Für LeCun ist es wichtig, diese veralteten Ideen wieder aufzugreifen, da er die beiden vorherrschenden Ansätze der modernen KI für Sackgassen hält.

Wenn es darum geht, eine universelle KI – also eine AGI – zu entwickeln, gibt es zwei große Lager. Auf der einen Seite sind viele Forscher der Meinung, dass der bemerkenswerte Erfolg von sehr großen Sprach- oder Bilderzeugungsmodellen wie OpenAIs GPT-3 und DALL-E demonstriert, dass wir einfach nur immer größere Modelle bauen müssen.

Auf der anderen Seite stehen die Verfechter des Verstärkungslernens (Reinforcement Learning), einer KI-Technik, bei der bestimmte Verhaltensweisen belohnt werden, damit neuronale Netze durch Versuch und Irrtum lernen. Dies ist der Ansatz, den DeepMind verwendet, um seine Spiel-KIs wie AlphaZero zu trainieren. Wenn man die Belohnungen richtig einsetzt, so das Argument, wird das verstärkende Lernen schließlich eine allgemeinere Intelligenz hervorbringen.

LeCun lässt das nicht gelten: "Die Vorstellung, dass wir einfach die aktuellen großen Sprachmodelle vergrößern und schließlich eine KI auf menschlichem Niveau entsteht - daran glaube ich keine Sekunde." Diese großen Modelle manipulieren lediglich Wörter und Bilder, sagt er. Sie haben keine direkte Erfahrung mit der Welt.

Ebenso skeptisch ist er gegenüber dem Verstärkungslernen, da es riesige Datenmengen erfordert, um Modelle selbst für einfache Aufgaben zu trainieren. "Ich denke, das hat überhaupt keine Chance zu funktionieren", sagt LeCun.

David Silver von DeepMind, der die Arbeit an AlphaZero leitete und ein großer Befürworter von dessen Ansatz ist, stimmt dieser Einschätzung nicht zu, begrüßt aber LeCuns Gesamtvision. "Es ist ein aufregender neuer Vorschlag, wie ein Weltmodell dargestellt und von einer KI erlernt werden könnte", sagt er.

Melanie Mitchell, eine KI-Forscherin am Santa Fe Institute, ist ebenfalls gespannt auf diesen neuen Ansatz. "Das haben wir in der Deep-Learning-Community noch nicht so oft gesehen", sagt sie. Sie stimmt mit LeCun darin überein, dass große Sprachmodelle nicht alles sein können. "Ihnen fehlen das Gedächtnis und interne Modelle der Welt, die eigentlich sehr wichtig sind", sagt sie.

Natasha Jaques, eine Forscherin bei der Initiative Google Brain, ist jedoch der Meinung, dass Sprachmodelle dennoch eine Rolle spielen sollten. Sie findet es seltsam, dass Sprache in LeCuns Vorschlägen nicht vorkommt: "Wir wissen, dass große Sprachmodelle sehr effektiv sind und einen Haufen von menschlichem Wissen einbinden."

Googe-Frau Jaques, die an Möglichkeiten arbeitet, KI-Systeme dazu zu bringen, Informationen und Fähigkeiten untereinander auszutauschen, weist darauf hin, dass Menschen keine direkte Erfahrung mit etwas haben müssen, um etwas darüber zu lernen. Wir können unser Verhalten ändern, wenn uns etwas gesagt wird, z. B. dass wir eine heiße Pfanne nicht anfassen sollen. "Wie kann ich dieses Weltmodell, das Yann vorschlägt, aktualisieren, wenn ich keine Sprache habe?", fragt sie.

Es gibt noch ein weiteres Problem. Wenn sie funktionieren, würden LeCuns Ideen eine mächtige Technologie schaffen, die so transformativ sein könnte wie das Internet. In seinem Vorschlag wird jedoch nicht erörtert, wie das Verhalten und die Motivationen seines Modells kontrolliert werden würde – oder wer diese AGI kontrolliert. Das sei ein merkwürdiges Versäumnis, meint Abhishek Gupta, Gründer des Montreal AI Ethics Institute und Experte für ethische KI bei der Boston Consulting Group.

"Wir sollten mehr darüber nachdenken, was nötig ist, damit KI in einer Gesellschaft gut funktioniert. Und das erfordert unter anderem, über ethisches Verhalten nachzudenken", sagt er. Jaques merkt jedoch an, dass es sich bei LeCuns Vorschlägen noch stark um Ideen und nicht um praktische Anwendungen handelt. Mitchell stimmt zu: "Es besteht sicherlich kaum die Gefahr, dass dieses System in absehbarer Zeit zu einer Intelligenz auf menschlichem Niveau wird."

LeCun sieht das ähnlich. Sein Ziel sei es, die Saat für einen neuen Ansatz auszubringen, in der Hoffnung, dass andere darauf aufbauen. "Dies ist etwas, das viele Menschen in Anspruch nehmen wird", sagt er. Er setze sich dafür ein, weil er glaube, dass dies letztendlich der richtige Weg ist. Zumindest möchte er die Leute davon überzeugen, dass große Sprachmodelle und Reinforcement Learning nicht die einzigen Möglichkeiten sind. "Ich hasse es, wenn Menschen ihre Zeit verschwenden", sagt er.

(jle)