MIT Technology Review 4/2020
S. 97
Fundamente
Rückschau/Vorschau
Technology Review 4/2015: Selbsterkenntnis mit Robotern.

Lernen wie ein Kind

An dieser Stelle blicken wir zurück auf ­Artikel, die vor fünf Jahren in Technology Review erschienen sind. Diesmal: sich entwickelnde Roboter.

Mit den großen Fortschritten in der künstlichen Intelligenz stellten wir uns 2015 die Frage: Was verraten diese Fortschritte über den Menschen und sein Denken? Die noch junge Disziplin der „Developmental Robotics“ versprach, Antworten geben zu können. In den Laboren von Verena Hafner, Professorin an der Humboldt-Universität Berlin, und ihren Kollegen sollen Roboter lernen wie kleine Kinder. „Menschliche Intelligenz ist viel zu komplex, um sie einfach in ein System einzuprogrammieren“, erklärte sie gegenüber TR. Echte maschinelle Intelligenz müsse daher, „durch Interaktion eines Agenten mit seiner Umwelt“ entstehen.

Ganz ähnlich wie Kinder müssen auch Maschinen bestimmte Entwicklungsstufen durchlaufen, um weitergehende, höhere kognitive Fähigkeiten zu erreichen. Für die erste, grundlegende dieser Stufen prägte der Schweizer Entwicklungspsychologe Jean Piaget den Ausdruck „sensomotorische Stufe“.

Hafner und ihr Team brachten ihren Robotern also zunächst die Koordi­nation von Hand und Augen bei. Die Roboter führten zunächst rein zufällige Bewegungen aus und lernten so nach und nach, welche Motorkommandos sinnvoll sind, um die Hand an eine bestimmte Stelle zu lenken. Myon, ein ­radikal nach biologischem Vorbild designter Roboter von Manfred Hild von der Beuth Hochschule für Technik in Berlin, sollte zudem seine Fähigkeiten mithilfe einer Art künstlichem, episodischem Gedächtnis ausbauen.

Noch lernen kleine Kinder allerdings erheblich schneller als ihre künst­lichen Gefährten: Für Myon existieren zwar ehrgeizige Pläne, um eine sehr viel schnellere, dezentrale und biologisch inspirierte Steuerung mithilfe von Memristoren zu entwickeln. Die Pläne sind allerdings noch nicht verwirklicht. Die Roboter von Hafner sind immerhin einen kleinen, aber ­wichtigen Schritt weiter: Sie haben gelernt, zukünftige Handlungen „mental zu simulieren“. Sie können vorhersagen, welchen sensorischen Input sie als Nächstes erwarten. Entspricht die Sensorwahrnehmung nicht der ­Prognose, erzeugt das eine erhöhte Aufmerksamkeit – also eine Art künstliche Neugier. Dieses Konzept wird gerade auch im maschinellen Lernen heiß diskutiert, denn es könnte lernenden Maschinen ermög-lichen, aus dem engen Korsett ihrer Spezialfähigkeiten auszubrechen. Wolfgang Stieler