c't 19/2023
S. 132
Wissen
40 Jahre c’t

c’t zeigt Nerven

1988 klärte die c’t über künstliche neuronale Netze auf

Heutige KIs wie ChatGPT, Midjourney und Stable Diffusion fußen auf alten Ideen wie künstlichen neuronalen Netzen und assoziativem Speicher. Schon 1988 erklärten Forscher in der c’t, wie Computer Fehler tolerieren können und Bilder erkennen.

Von Rudolf Opitz

Computer sind strohdoof, aber sauschnell – das war nicht nur in den Anfängen des PCs ein beliebtes Bonmot. Der typische PC führt eine Anweisungsliste – ein Programm – Schritt für Schritt aus, arbeitet extrem schnell und hochgenau. Fehler und Ungenauigkeiten toleriert er nicht. Auch das menschliche Gehirn erreicht Höchstleistungen: Ein kurzer Blick auf die entgegenkommende Frau reicht und man ist sich sicher: „Sie sieht aus wie Tante Martha.“ Für die Erkenntnis braucht das Gehirn dank massiver Parallelverarbeitung eine Sekunde. Ein Computer würde am Erkennen von Ähnlichkeiten scheitern – bisher.

Bei Mustern, Ähnlichkeiten und beim Wiederherstellen verstümmelter Daten ist das Gehirn dem herkömmlichen Computer überlegen. Doch was ist, wenn man die Gehirnstrukturen analysiert und sie auf den Computer überträgt? Die Idee, Nervenzellen als ein für den Computer erfassbares Modell nachzubilden und daraus künstliche neuronale Netze zu erstellen, stammt schon aus den 1940er-Jahren. Im Oktoberheft 1988 erklärten die c’t-Autoren Heinz Werntges und Rolf Eckmiller, wie neuronale Computer funktionieren, beschrieben den damaligen Stand der Forschung und wagten auch Ausblicke:

„Weniger pessimistisch denkende Zeitgenossen sehen endlich den richtigen Weg beschritten, einen wirklich intelligenten Rechner zu schaffen, mit dem man sich zum Beispiel in Umgangssprache unterhalten kann, der Simultanübersetzungen beherrscht, der kreativ handelt, kurz: der all die Versprechungen erfüllt, nach denen die symbolisch arbeitenden Methoden der Künstlichen Intelligenz (KI) schon seit Jahrzehnten weitgehend vergeblich streben.“

Schon 1988 berichtete c’t über neuronale Netze, die Grundlage heutiger KIs.
Schon 1988 berichtete c’t über neuronale Netze, die Grundlage heutiger KIs.

Mangels Rechenleistung blieb es vorerst bei kleineren Testnetzen und Experimenten mit verschiedenen Netztopologien: Ein- und Ausgabeschichten, Zwischenschichten mit Zellen ohne direkte Ein- und Ausgabe (Hidden Layer) oder korrigierende Rückkopplungen (Error Backpropagation). Ende der 1980er Jahre träumten die Forscher von Parallelrechnern wie Transputer-Systemen (siehe c’t 6/2023, S. 140) oder optischen Neurocomputern (c’t 12/1989, S. 38). Unsere Autoren schrieben aber auch:

„Der mit Bällen jonglierende Roboter aus der netten Amiga-Grafikdemo ist immer noch ein Traum – erst recht der Roboter, der sich dies selbst beibringt.“

Dreißig Jahre später stellt das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) ein solches Projekt vor, bei dem ein Roboter mittels neuester Deep-Learning-Verfahren das Jonglieren lernt (ct.de/y3k2). In anderen Bereichen haben künstliche neuronale Netze längst den Weg in den Alltag gefunden. Sie übertragen als Kernbestandteil einer Texterkennung Schriften, helfen beim Analysieren von Daten und identifizieren per Kamera und Gesichtserkennung den Smartphone-Besitzer. Selbstlernende Computer standen damals aber noch am Anfang:

„Die Schwelle zur nächst höheren Organisationsebene ließe sich überschreiten mit flexiblen, lernfähigen ’Universalprogrammen‘, die für ihre spezifische Aufgabe nicht in allen Einzelheiten programmiert, sondern anhand vieler Beispiele TRAINIERT werden und sich dadurch selbst organisieren.“

Heute bilden mehrschichtige neuronale Netze, eine Voraussetzung für Deep-Learning-Systeme, den Kern zahlreicher KIs, die von leistungsfähigen Multicore-Prozessoren angetrieben werden. Die Grundlagen des Artikels – Sie finden ihn als PDF über ct.de/y3k2 – von 1988 gelten aber heute noch. Sehr lesenswert ist auch der Folgeartikel „Ein Gehirn für den PC“ aus demselben Heft über assoziative Speicher, den wir ebenfalls beifügen. (rop@ct.de)

Artikel über neuronale Netze und assoziative Speicher zum Nachlesen: ct.de/y3k2

Kommentieren