c't 26/2023
S. 36
Forschung & KI
Forschung
Bild: TU-München, NASA, University of California San Francisco, TSMC | Collage: c't

Die Welt von morgen

Highlights aus Wissenschaft und Forschung

Schon jetzt geben Forscher Einblicke in faszinierende Zukunftsprojekte. Nukleare Antriebe befördern Menschen zum Mars, Passagierkapseln sausen in Hyperloop-Röhren statt auf Gleisen dahin. Nicht zuletzt versprechen Hirn-Computer-Schnittstellen blitzschnelle digitale Kommunikation.

Von Arne Grävemeyer

Als das nächste große Fernziel der bemannten Raumfahrt gilt der Mars, unser direkter äußerer Nachbar im Sonnensystem. Auf seiner Umlaufbahn nähert sich der rote Planet unserer Erde bis auf etwa 56 Millionen Kilometer Entfernung – kein Vergleich zu den knapp 400.000 Kilometern, die unsere Heimatwelt vom Mond trennt.

Nach Berechnungen der amerikanischen Raumfahrtbehörde NASA benötigt eine Rakete mit herkömmlichem chemischem Antrieb zwischen 1000 und 4000 Tonnen Treibstoff, also neben Sauerstoff etwa Methangas oder Flüssigwasserstoff, um zum Mars und zurück zu fliegen. Solche Mengen an Treibstoff müssten in einem gigantischen und sehr schweren Raumschiff untergebracht werden.

Zudem müsste ein solches Raumschiff mit seinem Treibstoff haushalten und könnte deshalb die Triebwerke nicht dauerhaft einsetzen. Bei der NASA rechnet man daher für ein chemisch angetriebenes Raumschiff mit einer Reisedauer von acht bis neun Monaten bis zum Mars – für die Besatzung bedeutet das eine schwere gesundheitliche und psychische Belastung. Allein der Dauerbeschuss durch kosmische Strahlung kann längerfristig dazu führen, dass die DNA der Raumfahrer permanent beschädigt wird.

Uran im Tank

Einen Ausweg aus dem Dilemma verspricht die Nuklearenergie. Im Januar dieses Jahres gab die NASA mit der Forschungsagentur des US-Militärs DARPA (Defense Advanced Research Projects Agency) bekannt, gemeinsam für künftige Mond- und Marsmissionen einen nuklearthermischen Antrieb zu entwickeln. Dafür kündigten die Amerikaner einen ersten Test bis zum Jahr 2027 unter der Bezeichnung DRACO (Demonstration Rocket for Cislunar Operations) an.

Ein nuklearer Raketenantrieb erzeugt große Hitze wie ein Atomreaktor in einem Kraftwerk: Neutronen werden auf das spaltbare Material gefeuert und stoßen einen Zerfallsprozess an, der wiederum Neutronen mit hoher Energie freisetzt. So entsteht eine Kettenreaktion.

Als Kernbrennstoff plant man im DARPA sogenanntes hochgradig schwach angereichertes Uran (high-assay, low-enriched uranium; HALEU) einzusetzen. Für den Einsatz im All sieht die NASA vor, den Anteil des spaltbaren Isotops Uran-235 auf etwa 20 Prozent anzureichern. Der aktivierte Kernbrennstoff erreicht Temperaturen bis zu 2700 °C und kann ein Triebwerk über Jahrzehnte befeuern.

Für einen kräftigen Schub soll im DRACO-Projekt die große Hitze der Brennstäbe einen hindurchgeleiteten Flüssigkraftstoff explosionsartig in ein sich ausdehnendes Gas umwandeln. Nach derzeitigen Plänen wird die NASA dafür (ähnlich wie bei klassischen chemischen Antrieben) Wasserstoff einsetzen, der dann über eine Düse am Korpus des Raumschiffs mit hoher Geschwindigkeit austritt. Zusätzlicher Sauerstoff ist dafür nicht erforderlich.

Der nuklearthermische Antrieb verbraucht nach ersten Berechnungen weniger als die Hälfte der Treibstoffmenge, die ein chemischer Antrieb benötigt. Die Planer haben überschlagen, dass eine Rakete damit den Mars drei- bis fünfmal so schnell erreichen kann wie ein chemisch angetriebenes Raumschiff. Die Flugzeit ließe sich nach ihren Berechnungen von sechs bis neun Monaten auf weniger als zwei bis höchstens drei Monate verkürzen.

Nuklearantriebe gehen sparsam mit Treibstoff um. Ein derart angetriebenes Raumschiff – hier eine Designstudie – muss allerdings das Habitat der menschlichen Crew gut vor der Strahlung des Reaktorkerns am hinteren Ende abschirmen., Bild: NASA
Nuklearantriebe gehen sparsam mit Treibstoff um. Ein derart angetriebenes Raumschiff – hier eine Designstudie – muss allerdings das Habitat der menschlichen Crew gut vor der Strahlung des Reaktorkerns am hinteren Ende abschirmen.
Bild: NASA

Parallel zum DRACO-Projekt gibt es einen Ansatz von Ryan Gosse an der University of Florida in Gainsville. Sein Team will einen bimodularen Nuklearantrieb aufbauen, der die Vorteile von Plasma- und Ionenantrieb kombiniert. Bei diesem Ansatz nutzt ein Wellenrotor den beim Erwärmen entstehenden Druck, um den eingesetzten Treibstoff zu verdichten und gleichzeitig Strom zu erzeugen, der einen Ionenantrieb speist. Ionenantriebe gehen sehr sparsam mit ihrem Treibstoff um, da sie einzelne Ionen im elektrischen Feld nahezu beliebig hoch beschleunigen können. Das Team um Gosse hat für seinen Kombiantrieb einen im Vergleich zu chemischen Raketenantrieben doppelt so hohen Impuls errechnet. Demnach könnten Astronauten mit diesem Antrieb in gerade einmal 45 Tagen zum Mars fliegen.

Gefahren im All

Doch ein nuklearer Antrieb birgt selbst im Weltall Gefahren. Zusätzlich zum Risiko durch Strahlung wird den zuständigen Ingenieuren vor allem das Problem der immensen Hitze zu schaffen machen, welche die Kernspaltung freisetzt. Sollten mehrere Brennstäbe nötig sein, müssen diese selbst bei Erschütterungen, wie sie etwa beim Raketenstart auftreten, sicher voneinander getrennt bleiben, um eine Kernschmelze zu vermeiden. Vor allem in der Startphase könnte eine Kernschmelze nicht nur den Verlust des Raumschiffs bedeuten, sondern überdies das angereicherte Uran über weite Landstriche auf der Erde verteilen.

NASA und DARPA wollen das Risiko eines nuklearen Unfalls durch das DRACO-Programm auch dadurch eindämmen, dass der Reaktor erst im Orbit aktiviert wird – eine konventionelle Rakete müsste das nuklear bestückte Raumschiff zunächst dorthin transportieren. Draußen im All, weit außerhalb der Erdatmosphäre, müssen die Konstrukteure nur noch die Astronauten vor der radioaktiven Neutronenstrahlung des Antriebs beschützen. Schon deswegen ist in allen Entwürfen das Raumfahrerhabitat möglichst weit vom Nuklearantrieb entfernt platziert.

Passagiere als Rohrpost

Interplanetar oder terrestrisch: Überall kommt es auf möglichst hohe Reisegeschwindigkeiten an. Wo heute schienengestützte Hochleistungszüge bereits als schnell gelten, dürfte das Konzept des Hyperloop völlig neue Maßstäbe setzen. In Röhren und bei starkem Unterdruck könnten Passagierkapseln dereinst auf über 900 Kilometer pro Stunde beschleunigen und dabei gegenüber heutigen Bahnen noch Energie sparen.

Am 26. Juli dieses Jahres hat die TU München (TUM) in Ottobrunn eine erste für den Passagierbetrieb zertifizierte Teststrecke eröffnet. Allerdings zeigt diese Röhre schon aufgrund ihrer Maße ganz klar, dass es sich noch um ein Forschungsprojekt handelt: Sie ist lediglich 24 Meter lang. Aber immerhin hat sie einen Durchmesser von vier Metern und erlaubte Tests mit einer Passagierkapsel in Originalgröße, die im Innenraum eine Höhe bis zu zwei Metern bietet.

Die Hyperloop-Passagierkapsel wird in die Teströhre der TUM eingesetzt. Bereits im Juli sind damit zwei Passagiere im extremen Unterdruck der Röhre bewegt worden., Bild: TUM
Die Hyperloop-Passagierkapsel wird in die Teströhre der TUM eingesetzt. Bereits im Juli sind damit zwei Passagiere im extremen Unterdruck der Röhre bewegt worden.
Bild: TUM

Die Münchner entwickeln ein Transportsystem mit Magnetschwebetechnik. Bei dieser Technik steckt der eigentliche Antrieb in Magnetspulen in der Röhre. Beim Münchner System schwebt der Pod zwischen zwei Betonträgern mit Stahlschienen. Mit Elektromagneten zieht sich der Pod von unten an diese Schienen heran, hält aber einen festen Abstand zu ihnen ein. Von außen gesteuert zieht zusätzlich ein Linearmotor die Transportkapsel und beschleunigt sie in die eine oder die andere Richtung. Der Pod gleitet berührungslos durch die Röhre.

Der große Unterschied zur herkömmlichen Magnetschwebetechnik, die einst für den Transrapid entwickelt worden ist, besteht im sehr geringen Luftwiderstand. In der Demonstratorröhre testen die Münchner den Umgang mit Vakuumtechnik, ihr System ist auf einen Betrieb im Unterdruck bei ein bis zehn Millibar ausgelegt. Bereits im Juli haben die Forscher in einem solch extremen Unterdruck eine kurze Testfahrt mit zwei Passagieren durchgeführt.

Mit geringem Abstand folgt den Münchnern ein Forschungsteam um Walter Neu und Thomas Schüning an der Hochschule Emden/Leer. Auf deren Campus soll bis Mitte 2024 ebenfalls eine Teströhre entstehen, in diesem Fall 26 Meter lang, aus verschweißtem Stahl mit einer Druckschleuse in der Mitte. Der Durchmesser dieses Demonstrators wird allerdings nur 1626 Millimeter betragen; er ist auf Frachttransporte etwa von Gitterboxen und Europaletten ausgelegt. Ein Forschungsschwerpunkt dieser Anlage ist das Ein- und Ausschleusen in den Unterdruckbereich.

„Der Personentransport lohnt sich auf lange Sicht mehr, aber bei der Entwicklung sollten wir zunächst weniger sicherheitskritische Cargosysteme beherrschen, bevor wir Passagiersysteme entwickeln“, sagt Schüning im Gespräch mit c’t.

420-Meter-Hyperloop

Die Ostfriesen kooperieren mit der niederländischen Hardt Hyperloop, die im Juli mit dem Bau einer 420-Meter-Teströhre in der angrenzenden Provinz Groningen begonnen hat. Das holländische Magnetschwebesystem ist mit Elektromagneten an der Röhrendecke konzipiert, die Pods anziehen und wie Gondeln von oben halten, allerdings auch berührungslos. Dieses System vereinfacht den Bau von Verzweigungen und Weichen.

Über die technisch sinnvolle Höchstgeschwindigkeit eines Hyperloop-Systems herrscht noch keine Einigkeit. Klar ist, dass im Bereich der Schallgeschwindigkeit bei etwa 1200 Kilometer pro Stunde in einer geschlossenen Röhre problematische aerodynamische Effekte eintreten. Während man aber an der TU München mit einer Spitzenreisegeschwindigkeit von 900 Kilometer pro Stunde rechnet, was wesentlich größere Kurvenradien als bei heutigen Hochgeschwindigkeitsbahntrassen verlangt, konzipieren die Hardt-Entwickler ihr System mit Blick auf die Flächenverhältnisse in Europa für Geschwindigkeiten zwischen 600 und 800 Kilometer pro Stunde.

Bei den Beschleunigungen würde man sich an den Höchstwerten von Verkehrsflugzeugen orientieren, sagt Gabriele Semino, Projektleiter des Forschungsprogramms TUM Hyperloop. Wie in der Start- oder Landephase wären das also maximal 0,3 g. Wo Reisen ohne Anschnallpflicht möglich sein soll, müsste man sich wie im heutigen Bahnverkehr auf 0,1 g beschränken, also auf ein Zehntel der Erdbeschleunigung.

Das Hyperloop-System ist nicht nur schnell, sondern auch energieeffizient und Anwohner werden wenig dadurch gestört. Das berührungslose Antriebssystem erzeugt fast keinen Abrieb. Von Fahrgeräuschen kann kaum etwas nach außen dringen. Die in der Röhre eingeschlossenen Kapseln haben im annähernden Vakuum zudem nur wenig Luft zu verdrängen, was entstehende Geräusche ohnehin minimiert.

Bei anderen Hochgeschwindigkeitszügen wie dem ICE oder dem Shinkansen in Japan sind über 80 Prozent der aufgewendeten Energie nötig, um den Luftwiderstand zu überwinden. Eine Hyperloop-Kapsel hingegen häuft durch den drastisch verringerten Luftwiderstand in der Röhre nur sehr wenig Verlustenergie an. Beim Abbremsen aus hoher Geschwindigkeit kann die Technik sogar durch Rekuperation Strom zurückgewinnen. Schüning schätzt, dass der Hyperloop auf diese Weise lediglich 20 Prozent des Energieaufwands anderer Bahnsysteme erfordert. Dabei ist der Stromverbrauch der an der Strecke erforderlichen Vakuumpumpen bereits eingerechnet.

Gedanken lesen

Einen Geschwindigkeitsrekord ganz anderer Art haben eigens entwickelte KI-Systeme im Zusammenspiel mit implantierten Gehirn-Computer-Schnittstellen (Brain-Computer-Interface, BCI) aufgestellt, wie zwei Veröffentlichungen im August 2023 belegen. Unabhängig voneinander lasen zwei Forscherteams aus den Hirnströmen von gelähmten, sprechunfähigen Patientinnen das aus, was diese sagen wollten. Dabei erreichten sie Erkennungsraten von über 60 und sogar über 70 Wörtern pro Minute – ein gesunder Mensch kann etwa 150 Wörter in einer Minute sprechen.

Die eingesetzte Technik erfordert allerdings invasive Eingriffe unter dem geöffneten Schädelknochen. Dabei platzieren Chirurgen Elektrodenfelder direkt im Gehirn, und zwar in jenen Windungen, die bei Bewegungen der Gesichts- und Mundmuskulatur besonders aktiv sind. Dort erfassen die Elektroden wie bei einem herkömmlichen EEG (Elektroenzephalografie) die Verteilung der Hirnströme, nur eben direkt im Organ und dadurch sehr genau.

Die unter der Schädeldecke eingepflanzte Gehirn-Computer-Schnittstelle einer sprechunfähigen Schlaganfallpatientin ist per Kabel mit dem Computer verbunden. Ein individuell trainiertes neuronales Netz liest Wörter, die nur gedacht sind, aus den Hirnströmen ab und legt sie einem Avatar in den Mund., Bild: UCSF
Die unter der Schädeldecke eingepflanzte Gehirn-Computer-Schnittstelle einer sprechunfähigen Schlaganfallpatientin ist per Kabel mit dem Computer verbunden. Ein individuell trainiertes neuronales Netz liest Wörter, die nur gedacht sind, aus den Hirnströmen ab und legt sie einem Avatar in den Mund.
Bild: UCSF

Eine Gruppe um Edward Chang an der University of California in San Francisco (UCSF) hatte ihrer Probandin, einer Schlaganfallpatientin, ein flexibles Silikonimplantat mit feinen Drähten und 253 Elektroden auf die Gehirnhaut gelegt. Eine vergleichbare Technik entwickelt auch das Unternehmen Neuralink, mit dem der Visionär, Tesla- und SpaceX-Gründer Elon Musk die Kommunikation zwischen Mensch und Maschine radikal verändern will.

Auch das Forscherteam um Francis Willet an der Stanford University ist mit Neuralink verflochten. Es hat einer Patientin mit der nicht heilbaren degenerativen Nervenerkrankung ALS eine feste Platine mit insgesamt 128 Nadelelektroden eingepflanzt, die in die Hirnrinde hineinstechen. Diese Technik ist ein Abkömmling des sogenannten Utah-Arrays: Jenes invasive BCI wurde bereits 1993 patentiert und wird seitdem bei vielen klinischen Studien eingesetzt. Auch diese Elektroden sind sehr nah an den Hirnströmen des Patienten dran, möglicherweise sogar noch etwas näher als die eines flexiblen Implantats auf der Hirnhaut.

KI liest in den Hirnströmen

Deep Learning hat nun große Leistungssprünge bei der Aufgabe ermöglicht, Wörter direkt aus Hirnaktivitäten herauszulesen. Beide Forschergruppen setzten eigens entwickelte Recurrent Neural Networks (RNN) ein, wie die jüngsten Veröffentlichungen in Nature im August 2023 belegen. Bei diesen neuronalen Netzen laufen die Eingangssignale nicht nur von einer Neuronenschicht zur nächsten, sondern es existieren auch Verschaltungen innerhalb einer Neuronenschicht und zu vorangegangenen Schichten. Durch diese Architektur haben RNN die Möglichkeit, zeitliche Abläufe in Signalen zu berücksichtigen.

Um die neuronalen Netze auf die individuellen Hirnströme trainieren zu können, mussten die Patientinnen zunächst viele Stunden lang Vokabeln lesen, wobei die Wissenschaftler die Signatur der EEG-Signale aufnahmen. Diese EEGs repräsentierten also die Hirnaktivität, wenn eine Testperson an bestimmte Wörter dachte. Die EEG-Wort-Paare bilden dann das Trainingsmaterial, mit dem das RNN angelernt wird. Wenn sie schließlich versucht, Wörter zu bilden, erkennt das neuronale Netz die Muster wieder und kann die Wörter zuordnen. Der große Sprung nach vorn besteht in der Geschwindigkeit, mit der das nun möglich ist. Stanford-Forscher hatten 2021 einen Rekord mit 18 Wörtern pro Minute aufgestellt, die heutige Technik arbeitet bis zu viermal so schnell.

Der ALS-Patientin in Stanford gelang es, bis zu 62 Wörter in der Minute über ihr BCI an die KI zu übermitteln. Wenn sie sich dabei auf ein einfaches Vokabular mit 50 Wörtern beschränkte, wies die Erkennung laut Studie eine Fehlerquote unter zehn Prozent auf. Aber selbst in einem 125.000-Wörter-Vokabular erkannte das System mehr als drei von vier Wörtern korrekt: Die Fehlerquote lag bei 23,8 Prozent.

Das Team um Chang an der UCSF ging etwas anders an das Problem heran. Es trainierte sein RNN darauf, Wortlaute – die sogenannten Phoneme – zu erkennen und daraus Wörter zusammenzusetzen. Damit stand der Schlaganfallpatientin, mit der die Chang-Gruppe arbeitete, ein Wortschatz von 1024 Begriffen zur Verfügung. Wenn die Frau sich vorstellte, mit diesem Vokabular zu sprechen, gelang es der KI, bis zu 78 Wörter in der Minute zu erfassen. Die Fehlerrate bei der Erkennung der gedachten Wörter lag der Studie zufolge bei 25 Prozent.

Als zusätzlichen Clou begannen die Forscher an der UCSF, aus den Hirnströmen ihrer Patientin auch Gesichtsausdrücke auszulesen. Die erkannten Wörter und Sätze gaben sie nicht nur als Text aus. Stattdessen schufen sie einen Avatar, der die Sätze der Patientin möglichst mit der passenden Mimik ausspricht. In weiteren Studien wollen die Forscher den Wortschatz ihres Systems ausbauen und dem Avatar sogar die ursprüngliche Stimme ihrer Patientin verleihen.

Angesichts der schnellen Fortschritte, die die BCI-Forschung heute zeigt, kann man ins Grübeln kommen, wie lange die Menschheit wohl noch mit zwei Daumen Nachrichten in Handys eintippen wird. Wäre es nicht praktischer, mit digitalen Medien direkt im Gedankentempo zu kommunizieren? Heute ist Neuralink der stärkste Entwicklungstreiber, wenn es darum geht, Menschen durch Implantate einen direkteren Computerzugang zu eröffnen.

Diese Anwendungen sind durch medizinische Forschungen mit schwerwiegend beeinträchtigten Patienten seit Jahren etabliert. Neuralink setzt auf Implantationsmethoden, die angeblich verträglicher sind und bei denen man von außen keine großen Wunden mehr wahrnehmen soll. Zudem sieht das Unternehmen einen Elektroden-Patch mit über 1000 Kontakten vor. Die US-Zulassungsbehörde FDA hat in diesem Jahr klinische Tests mit Neuralink-Implantaten genehmigt.

Aber BCI sind entwickelt worden für Menschen, die sonst keine Kommunikationswege haben. Momentan sind diese Schnittstellen noch nicht so leistungsfähig, dass es sich lohnt, sie bei einem gesunden Menschen einzusetzen. Es gebe immer das Risiko, das Gehirn dabei zu verletzen, warnen Mediziner. Außerdem stellen die offenen Drähte am Kopf jederzeit ein Infektionsrisiko dar.

Es droht noch eine weitere Gefahr: Zusätzlich zur Hirnaktivität kann eine leistungsfähige BCI auch Biosignale aufzeichnen, beispielsweise Pupillenreaktionen, Herzschlag oder verschiedene Stresssymptome. Daraus könnte ein Computermodell in Form eines digitalen Zwillings entstehen, das über die Denkvorgänge auch Einblick in den Zustand einer Person gibt. Daraus könnte eine künstliche Intelligenz ablesen, was einem Menschen gefällt und was nicht. Ein Privatunternehmen, dass seinen Kunden BCI in die Köpfe pflanzt, würde so mehr über sie erfahren, als die Kunden wissentlich verraten wollen.

Öffentlicher Zugang zum Webwissen

Gegen zu viel Marktmacht und damit zu viel Wissen über jeden einzelnen Webnutzer wendet sich die Open Search Foundation, die zu ihrem fünfjährigen Gründungsjubiläum am 29. September erstmals den #FreeWebSearch-Day ausgerufen hat.

Was könnte man mit einem großen Web-Index alles machen, wenn dieser öffentlich frei verfügbar wäre? Man könnte alternative Suchmaschinen aufbauen oder fachlich tiefe Suchdienste etablieren, die auf ausgewählte Themen spezialisiert sind. Anwender hätten die freie Wahl und könnten ihre privaten Nutzerprofile besser schützen. Sprachforscher könnten in dem Datenpool eines großen Web-Index verfolgen, wie sich unsere Sprache entwickelt, und Soziologen könnten beobachten, wie wir in den sozialen Medien miteinander umgehen. Webdienste könnten darin Hinweise auf beginnende Pandemien oder andere Katastrophenfälle suchen und damit ein Frühwarnsystem aufbauen.

Suchmaschinen wie Bing oder Google beherrschen den Markt und behindern dadurch kleinere Dienste, die Websuche mit neuen Ideen weiterzuentwickeln.
Suchmaschinen wie Bing oder Google beherrschen den Markt und behindern dadurch kleinere Dienste, die Websuche mit neuen Ideen weiterzuentwickeln.

Ein umfangreicher, auf europäische Quellen fokussierter Index würde zudem die Chance eröffnen, neue Sprachmodelle zu entwickeln. Davon könnten insbesondere wenig gesprochene Sprachen oder ausgewählte Sprachkombinationen wie etwa Tschechisch und Slowakisch profitieren, die bei den global ausgerichteten US-Diensten leicht durchs Raster fallen.

Das sieht auch die Europäische Kommission so, die zudem mehr digitale Souveränität anstrebt. Im September 2022 startete das EU-Projekt OpenWebSearch. Das Ziel besteht im Aufbau eines öffentlich zugänglichen Open Web Index (OWI) und in einer nachhaltigen, also auf Dauerbetrieb angelegten Infrastruktur. Bis 2025 soll ein Web-Index entstehen, der immerhin die Hälfte aller im Internet veröffentlichten Texte verzeichnet. Die beteiligten Partner rechnen dafür mit einem Speicherbedarf von etwa 5 Petabyte (5 Millionen Gigabyte). Im Vergleich zu den Indizes von Google oder Bing wäre das zunächst ein vergleichsweise kleiner Datenpool. Die etablierte Konkurrenz kommt mit Texten, Bilddateien, Multimedia, Nutzungsdaten und Logfiles aus dem Internet auf jeweils Hunderte von Petabyte.

„Wir sind kein europäisches Google“, sagt Michael Granitzer, Inhaber des Lehrstuhls für Data Science an der Universität Passau, der das OpenWebSearch-Projekt koordiniert. Es gehe dabei nicht um den Aufbau einer großen Suchmaschine, sondern viel grundlegender darum, eine Infrastruktur zu etablieren, mit der später Suchmaschinen und andere Dienste arbeiten können. Googles Größe sei zunächst sicherlich unerreichbar. „Es wird eher wie bei Wikipedia sein, die im Vergleich zu großen Verlagen zunächst mit einem kleinen Kern startete und dann kontinuierlich wuchs.“

14 Projektpartner entwickeln Crawling-Techniken, wählen Metadaten aus, die der Index zusätzlich aufnehmen soll, und konzipieren eine dezentrale Aufteilung des OWI auf verschiedene Server und Standorte in Europa. So beteiligen sich etwa Infrastrukturpartner wie das Leibniz-Rechenzentrum in München, das CSC in Espoo, Finnland, das Europas größten Supercomputer betreibt, das tschechische National Supercomputing Center IT4Innovations sowie das CERN bei Genf.

Das Ende von SEO?

Langfristig könnte ein öffentlicher, transparent aufgebauter Web-Index die SEO-Landschaft komplett verändern. Heute versucht fast jeder Betreiber, seine Website für das Ranking in der Google-Suche zu optimieren. Wenn anstelle dieses Monopols eine Vielzahl von spezialisierten Suchdiensten treten sollte, würde sich die Situation grundlegend ändern. „Aus meiner Sicht sollten sich die Webseiten-Betreiber und die Web-User auf die Inhaltserstellung konzentrieren“, sagt Christian Gütl, Leiter des Cognitive and Digital Science Lab an der TU Graz. Wenn die Websuche nicht mehr durch einen Monopolisten beherrscht werde, komme es nur noch darauf an, Inhalte möglichst strukturiert aufzubereiten und mit aussagekräftigen Metadaten zu unterstützen.

Welche Suchfaktoren der neue Web-Index aufnehmen soll, ist noch nicht entschieden. Die Partner diskutieren zudem darüber, wie sie etwa Inhaltsqualität, Genres und Verlinkungen für das Ergebnisranking gewichten wollen. Forschungsprojekte untersuchen Möglichkeiten der Georeferenzierung, die Webdienste für einzelne Städte oder Gemeinden unterstützen soll. Allerdings erfordert die räumliche Einordnung von Weblinks zunächst eine semantische Analyse, denn schließlich ist Paris Hilton etwas anderes als das Hilton in Paris.

Ein sehr wichtiger Unterschied zu den heutigen großen Indizes: User-Clicks und weitere Nutzeranalysen finden keinen Eingang in den OWI. Das können sie auch kaum, denn die Projektpartner planen nicht, selbst Suchmaschinen zu betreiben und damit Nutzerdaten einzusammeln.

Jagd auf Chip-Trojaner

Ob Netzsuche, Anlagensteuerung, Signalverarbeitung oder Kommunikation, all diese Schaltstellen des digitalen Alltagslebens sind auf Prozessoren und andere Mikrochips angewiesen. Die entstehen heute im arbeitsteiligen Prozess zwischen internationalen Partnern. Wie können Entwickler aber sicherstellen, dass nicht jemand in ihre Chipdesigns Trojaner oder Hintertüren einschleust? Ein Angreifer könnte das Design auf dem Weg zum Auftragsfertiger abfangen oder es direkt in der dortigen Produktion manipulieren.

In einem gemeinsamen Projekt hat eine Gruppe von Experten der Ruhr-Universität Bochum (RUB) und des ebenfalls in Bochum ansässigen Max-Planck-Instituts für Sicherheit und Privatsphäre (MPI-SP) frisch gefertigte Mikrochips mit dem Rasterelektronenmikroskop untersucht. Das Ziel bestand darin, Manipulationen im Vergleich mit den ursprünglichen Bauplänen aufzuspüren.

Ein Staubkorn auf einem Mikrochip unter dem Rasterelektronenmikroskop: Der Analyst erkennt schnell, dass er es hier nicht mit einem Hardware-Trojaner zu tun hat., Bild: RUB
Ein Staubkorn auf einem Mikrochip unter dem Rasterelektronenmikroskop: Der Analyst erkennt schnell, dass er es hier nicht mit einem Hardware-Trojaner zu tun hat.
Bild: RUB

Die Forscher um Steffen Becker an der RUB zeigten damit, dass Hardware-Trojaner als Abweichung des gefertigten Chips vom ursprünglichen Layout nachweisbar sind.

Das Team aus Bochum untersucht Chips buchstäblich auf einer anderen Ebene. Um an die unterste Schicht der Transistoren, Dioden und Kondensatoren (Front End of Line, FEOL) direkt auf dem Siliziumchip heranzukommen, frästen sie zunächst den größten Teil der zugrundeliegenden Siliziumplatte weg und lösten den Rest chemisch auf. Anstatt also sämtliche höheren Schichten der Kontaktierung und metallischen Verbindungen des Chips nacheinander abzutragen, das sogenannte Delayering, arbeiteten sich die Wissenschaftler von unten durch das Substratmaterial.

Nach dem Präparieren der Unterseite konnten die Forscher die Schicht der aktiven Elemente auf dem Chip mit dem Rasterelektronenmikroskop (REM) aufnehmen. Für eine Chipfläche von etwa 1,5 Quadratmillimetern benötigten sie ungefähr 4000 Aufnahmen. Anschließend bearbeiteten sie die REM-Aufnahmen und beseitigten zunächst störende Effekte wie etwa Rotationen oder sie glichen die Schieflagen nicht planarer Bereiche optisch aus. Ein Automatismus ordnete die Aufnahmen nebeneinander an und filterte die Überlappungen heraus. Danach konnte der Vergleich mit dem Chipdesign beginnen.

Der Bauplan verrät leider nicht, wie die unterschiedlichen Zelltypen auf dem Chip physikalisch aussehen. So muss also jemand für jeden Typ wie etwa Flipflop, NAND- und NOR-Gatter zunächst ein Referenzmodell auf den REM-Aufnahmen heraussuchen. Jedes dieser Beispiele stellt dann ein sogenanntes Golden Model dar, mit dem jedes weitere Auftreten des entsprechenden Zelltyps abgeglichen wird. Weist das Template Matching eine deutliche Abweichung aus, gilt das als Modifikation.

Echte Manipulationen versteckt

Dass es tatsächlich Manipulationen zu entdecken gab, dafür hatte Thorben Moos von der RUB als „Red Team“ gesorgt. Er veränderte nachträglich das Chipdesign leicht, fügte einzelne Zellen hinzu, tauschte da und dort ein NAND- gegen ein NOR-Gatter und Ähnliches. Auf vier Mikrochips mit insgesamt etwa 3,4 Millionen Zellen hatte er in den Bauplänen 40 unauffällige Manipulationen versteckt, eine Quote von wenig mehr als 0,001 Prozent. Chipdesign und gefertigte Chips stimmten also nicht überein.

Konkret lagen dem „Blue Team“ vier Mikrochips vor, gefertigt in verschiedenen Technologien mit Strukturgrößen von 90, 65, 40 und 28 Nanometern. Bei den Chipgrößen von 90 bis 40 Nanometern entdeckte der Matching-Algorithmus zuverlässig alle Veränderungen. Im realen Fall hätte man jeden dieser Chips danach als manipuliert klassifiziert.

Gleichzeitig ermittelte der Algorithmus allerdings 500 False Positives. Dabei handelte es sich um Staubkörner oder Rückstände von der Präparation des Chips. Hinzu kamen Bildaufnahmeschwächen wie Verzerrungen, Rauschen oder zu wenig Kontrast. Ein Mensch kann diese Fälle relativ schnell in einer nachgeschalteten Analyse der Fehlermeldungen erkennen, das kostete die Beteiligten pro Chip etwa eine Stunde.

Bei sehr ähnlichen Zellen in der 28-Nanometer-Technik schwächelte das Verfahren allerdings: Drei subtile Veränderungen entdeckte der Algorithmus nicht. Bei diesen Strukturgrößen zeigten die Aufnahmen der Zellen in der verfügbaren Auflösung einfach zu wenige Details.

Die Forscher vermuten, dass verbesserte Analysealgorithmen und insbesondere Deep-Learning-Algorithmen noch bessere Ergebnisse liefern können, um auch die letzten False Negatives noch zu detektieren. In weiteren Versuchen planen sie, die Chipprüfung auf kleinere Strukturgrößen auszuweiten. Allerdings steht zu befürchten, dass REM-Aufnahmen mit 4,8 Nanometer pro Pixel dann einfach nicht mehr genug Auflösung für die Detektionsalgorithmen bieten können. Kommende REM-Generationen mit einer höheren Bildauflösung können hier weiterhelfen – letztlich genau die Technik, die auf der Seite der Lithografiesysteme für die Halbleiterindustrie die Entwicklungssprünge zu immer kleineren Strukturen ermöglicht. (agr@ct.de)

Kommentieren