Navigation, menschlich gesehen

Das EU-Projekt "Decisions in Motion" hat einen Roboter entwickelt, dessen visuelles System ohne innere Landkarte auskommt.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 6 Min.
Von
  • Anne-Marie Corley
  • Niels Boeing

Roboter können heutzutage schon viele erstaunliche Dinge. Dazu gehören auch das Sehen und das Navigieren durch den Raum. An die Perfektion des menschlichen Gesichtssinns reichen die bisherigen Technologien allerdings noch nicht heran. Einen wichtigen Schritt dorthin hat jetzt das EU-Forschungsprojekt „Decisions in Motion“ geschafft: einen Roboter, dessen Verarbeitung visueller Daten eng an die Vorgänge im menschlichen Gehirn angelehnt ist.

Der Roboter besteht aus einer Plattform mit Rädern zur Fortbewegung und einem beweglichen „Kopf“. Der ist mit zwei Kameras ausgestattet, die stereoskopisches, also räumliches Sehen ermöglichen. Mit ihnen erfasst der Roboter nicht nur seine Umgebung, sondern auch seine eigene Geschwindigkeit.

Die Verarbeitung der Daten unterscheidet sich jedoch völlig von dem Verfahren, das bislang in den meisten Robotern eingesetzt wird – etwa in den autonomen Autos bei der DARPA Urban Challenge. Die arbeiten mit einer inneren Landkarte der Umgebung, einem so genannten Weltmodell, und aktualisieren darin anhand der einlaufenden Daten ihren eigenen Standort in Bezug auf Hindernisse und das zu erreichende Ziel. „Unser Ansatz baut auf der Informationsverarbeitung im visuellen Cortex in den Gehirnen von Primaten auf“, beschreibt Mark Greenlee, Experimentalpsychologe an der Uni Regensburg und Koordinator des Projekts, den neuen Ansatz.

Das bedeutet: Der Roboter navigiert ohne jede innere Landkarte. Stattdessen werden mittels Software verschiedene Funktionen des Sehsystems nachgebildet, in die die visuellen Daten eingespeist werden. Sie erledigen dann die nötigen Aufgaben der Objekterkennung, der Geschwindigkeitsabschätzung, der Pfadplanung und der Entscheidungsfindung.

An dem Projekt sind zehn verschiedene Forschungsgruppen aus Neurowissenschaft, Informatik und Robotik in Europa beteiligt. Ziel sei gewesen, auch verschiedene Gebiete der Hirnforschung einzubinden und ihre jeweiligen Ansätze in einer „zusammenhängenden Modell-Architektur“ zu integrieren, sagt Heiko Neumann, Leiter des Vision and Perception Science Lab an der Uni Ulm. Der Neuroinformatiker entwickelte mit seinem Team die Algorithmen, die die Bewegung des Roboters steuern.

Normalerweise würden sich Neurowissenschaftler auf einzelne Aspekte des Sehens und des Bewegens konzentrieren, sagt Neumann. Einige untersuchen den „ventralen Pfad“ der visuellen Informationsverarbeitung in der Sehrinde des Großhirns, der mit der Objekterkennung in Verbindung gebracht wird. Andere studieren den „dorsalen Pfad“, auf dem aus den visuellen Daten die Bewegung und die Lage von Dingen im Raum erschlossen werden soll. Ein weiterer Forschungsgegenstand ist, wie aufgrund des Inputs dieser beiden Pfade Entscheidungen getroffen werden. Im menschlichen Gehirn sind all diese Teile jedoch zu einem funktionierenden Ganzen verschaltet – und das wollten die Forscher des Projekts „Decision in Motion“ in einem Computermodell nachbilden.

Die Gruppe von Mark Greenlee machte zunächst mittels funktionaler Magnetresonanz-Tomografie (fMRI) Hirnscans von Personen, die sich in einem Raum um Hindernisse herum bewegten. Die Ergebnisse wurden dann der Gruppe von Heiko Neumann übergeben, die daraus Algorithmen entwickelten, die die Fähigkeit des Gehirns nachahmen, die eigene und die Bewegung von Objekten in der Umgebung zu erfassen.

Die wurden mit der SpikeNet-Software des Neuroforschers Simon Thorpe vom Nationalen Französischen Forschungszentrum CNRS kombiniert. Thorpe hatte Ende der neunziger Jahre einen neuen Ansatz entwickelt, um die Geschwindigkeit der visuellen Datenverarbeitung im Hirn zu erklären. Entscheidend für das Verständnis sei nicht, mit welcher Rate verschiedene Neuronen feuern, sondern welches Muster feuernde Neuronen bilden.

Als die Software schließlich im Roboter installiert war, bewegte der sich denn auch anders als Roboter, die mit Weltmodellen operieren. Sein Verhalten ähnelte dem eines Menschen: Wenn er sich langsam auf ein Hindernis zubewegte, fuhr er dicht dran vorbei, bei höherem Tempo jedoch in einigem Abstand. Der Grund ist offensichtlich: Je höher die Geschwindigkeit, desto weniger Zeit bleibt, um den Bewegungspfad (die „Trajektorie“) neu zu berechnen.

Ganz ohne Voraussetzungen, was ihn in der Umgebung erwartet, fährt der Roboter allerdings nicht los. Dem System werden bestimmte Objektmuster mitgegeben, mit denen es Hindernisse vergleichen kann. Das gilt auch für das Ziel. Es ist kein Punkt auf einer inneren Landkarte, sondern eher eine Charakterisierung seiner Form. „So autonom ist auch unser Roboter noch nicht“, sagt Mark Greenlee lachend.

Roboter, die Laserscanner und herkömmliche Algorithmen zur Planung ihrer Trajektorie benutzen, seien schon noch effizienter, verlässlicher und schneller, fügt Antonio Frisoli vom PERCERO-Labor in Pisa hinzu. Seine Gruppe hat den Kopf des Roboters gebaut. Geschwindigkeit und Effizienz seien aber auch nicht das Ziel des Projektes gewesen. Vielmehr sei es darum gegangen, besser zu verstehen, wie Menschen sich in einer Umgebung zurechtfinden und bewegen.

Dennoch haben die Forscher durchaus praktische Anwendungen vor Augen. Eine könnte ein „intelligenter“ Rollstuhl sein, der selbständig navigiert, sagt Greenlee. Einige Gruppen wollen dieses Konzept in einem Folgeprojekt entwickeln. Einer der Projektpartner, Cambridge Research Systems, plant, mit der Technologie ein tragbares Gerät zu bauen, das Sehbehinderte unterstützen könnte.

Für Tomaso Poggio, Künstliche-Intelligenz- Forscher am MIT, ist das Projekt „Decisions in Motion“ Teil eines Trends in der KI-Forschung, verstärkt Erkenntnisse aus der Neurowissenschaft für die Konstruktion von autonomen Systemen zu nutzen. „Es gibt auf jeden Fall Bereiche der Intelligenz wie das Sehen, die Spracherkennung oder die Bewegungssteuerung, in der unsere Algorithmen den Fähigkeiten des Gehirns noch dramatisch unterlegen sind.“

Auf der Seite des Projekts "Decisions in Motion" gibt es ein Video zur Funktionsweise des Roboters sowie Videosequenzen, die parallel das Sichtfeld eines Menschen und das des Roboters zeigen. (nbo)