"Das ist der Beginn des Personal Supercomputing"

David Turek, Vice President Deep Computing bei IBM im Interview mit Technology Review über die nächste Generation von Supercomputern.

In Pocket speichern vorlesen Druckansicht
Lesezeit: 8 Min.
Inhaltsverzeichnis

David Turek, Vice President Deep Computing bei IBM, im Interview mit Technology Review über die nächste Generation von Supercomputern, den Wert von Benchmarks und den Supercomputer-Markt in Europa.

Technology Review: Eines der Geheimnisse für einen wirklich dauerhaften Erfolg besteht meiner Meinung nach darin, der Konkurrenz immer um einen Schritt voraus zu sein. Wie sieht also der nächste Schritt von IBM, die nächste Generation von Blue Gene, aus?

David Turek: Die Idee für Blue Gene stammt etwa aus dem Jahr 1999. Die Entwicklung einer solchen Idee erfordert immer eine Menge Planung und Zeit.

Ich würde sagen, wir haben ein Hand voll Ideen, wie es weiter gehen könnte. Der Grund dafür, dass wir nicht auf eine einzelne Idee setzen, ist der, dass wir in der Vergangenheit gesehen haben, wie dramatisch der Markt sich verändern kann. Wenn man nur auf ein einzelnes Pferd setzt und verliert, kann das die eigene Geschäftsgrundlage schwer beschädigen.

Eine der Ideen, die wir mit Blue Gene verfolgen, ist die Idee des "Dense Computing" -- ein anderes Beispiel dafür sind unsere Blade-Server. Dabei geht es darum, das Problem der Abwärme zu lösen, das Problem des Energie- und Platzbedarfs, ohne Abstriche bei der Rechenleistung machen zu müssen. Wir haben in den vergangenen Jahren sicherlich Supercomputer mit einer fantastischen Rechenleistung gesehen, aber die sind auch schrecklich teuer, was den Betrieb angeht.

Ich glaube, dass der Trend zum "Dense Computing" weiter anhalten wird. Und in dem Maße, wie die Kosten für diese Technologie weiter fallen, werden auch mehr und mehr kleine und mittlere Unternehmen, Arbeitsgruppen -- bis hin zu einzelnen Individuen -- Zugriff auf diese Rechenleistung bekommen. Das ist der Beginn des "Personal Supercomputing".

Die zweite Frage ist, durch welche Faktoren wird die technologische Entwicklung der Supercomputer in Zukunft angetrieben. In den vergangenen Jahren war diese in hohem Maße die technische Entwicklung im Bereich der PCs -- deshalb haben wir die Entwicklung all dieser Linux-Cluster gesehen. Ich denke, in Zukunft wird die Technologie aus dem Spiele-Sektor angetrieben.

Zum einen kann man sehen, dass dieser Sektor wirtschaftlich gesehen rapide wächst. Zum anderen sind Computerspiele technisch sehr anspruchsvoll und stellen hohe Anforderungen an die Rechenleistung. Textverarbeitung bietet keinen technologischen Anreiz für die Enwicklung von Supercomputern. Der Cell-Prozessor ist ein Beispiel dafür. Er hat eine enorme Rechenleistung, und mit der Zeit werden sich dafür eine ganze Reihe weiterer Anwendungen ergeben.

Der dritte Faktor ist unser Engagement in einer ganzen Reihe internationaler Projekte. Wir arbeiten sehr eng mit der DARPA zusammen an Projekten, die möglicherweise 2010 zu marktfähigen Produkten führen -- so wie die Entwicklung von Blue Gene ja auch bereits vor fünf oder sechs Jahren begonnen hat. Um in diesem Geschäft erfolgreich zu sein, muss man sich auch zu langfristigen Projekten bekennen.

TR: Wie wird diese neue Maschine dann aussehen? Einfach eine noch größere Version von Blue Gene?

Turek: Wenn wir von einer größeren Blue-Gene-Maschine reden, müssen wir unterscheiden, ob sie eine Maschine meinen, die mehr Platz einnimmt, oder die mehr Rechenleistung hat.

Es ist kein Geheimnis, dass wir an Petaflops-Computern arbeiten. Ich bin zuversichtlich, dass wir die Petaflops-Grenze bis zum Ende des Jahrzehnts locker durchbrechen werden.

Wir arbeiten mit einer ganzen Reihe von Kunden, um zu sehen, wie und wofür sie Petaflop-Rechner einsetzen würden. Wenn Sie sich erinnern -- es war erst 1999, als wir zum ersten Mal Teraflops Rechenleistung zur Verfügung hatten. Das war damals eine Sache für Regierungen und einige Forscher. Jetzt müssen wir uns Gedanken machen über die Programmierbarkeit, Service, die Bedienerfreundlichkeit und die möglichen Anwendungen. Die Technologie, die wir entwickeln, muss auch nach unten skalierbar sein. Sehen Sie, wir haben ein System im Lawrence Livermore Labor mit über hundert Teraflops, aber die Kunden kaufen auch einzelne Maschinen mit einem Teraflop. Und die Technologie ist dieselbe, wie auf der großen Maschine, die Software, die Entwicklungsumgebung. Man muss die Technologie so entwerfen, dass man sie für sehr große Systeme genauso verwenden kann, wie für kleinere Anwendungen.