Titelgeschichte

Wettrennen um Teraflops

Uhr | Aktualisiert
von Coen Kaat

Schnell, schneller, Supercomputer. Wenn normale PCs nicht mehr ausreichen, müssen die Rennboliden unter den Rechnern her. Eine der schnellsten Maschinen der Welt steht im Tessin. Die Redaktion warf einen Blick auf den schnellen Schweizer.

Wer grosse Datenmengen verarbeiten will, braucht eine grosse Maschine. Obwohl PCs ständig schneller und ­leistungsstärker werden, genügt dies nicht immer. So braucht es heute hochleistungsfähige Spezialrechner. Diese sogenannten Supercomputer sind oft Aushängeschilder und der Stolz von Universitäten und öffentlichen Einrichtungen, die sie betreiben.

In diesem High-Performance-Computing-Bereich (HPC) muss sich die Schweiz nicht zu verstecken. Kein anderes europäisches Land übertrumpft sie im Wettrennen um die meisten Teraflops. Flops steht für Floating Point Operations per Second – zu Deutsch: Gleitkommaoperationen pro Sekunde. In der Welt der Supercomputer gehört diese Zahl zu den wichtigsten Kennziffern, um die Leistungen von Rechnern untereinander zu vergleichen.

Der schnellste "Schweizer" heisst Piz Daint und steht in Lugano im Nationalen Hochleistungsrechenzentrum der Schweiz – Centro Svizzero di Calcolo Scientifico (CSCS). Das CSCS ist eine Einheit der ETH Zürich. Der Tessiner Supercomputer erreicht eine Spitzengeschwindigkeit von 7789 Teraflops. Gemäss der "Top 500"-Liste rechnen weltweit nur sechs Supercomputer schneller.

Die Rennwagen unter den Rechnern

Aber was genau macht einen Supercomputer eigentlich super? Diese Hochleistungsmaschinen sind quasi die Formel-1-Boliden unter den Rechnern. Beide orientieren sich an maximaler Leistung und Geschwindigkeit. Und: Renn- und Rechenmaschine werden auf höchste Effizienz getrimmt. So auch der Piz Daint im Tessin.

Die rechnenden Rennboliden sind ein Kollektiv aus tausenden einzelnen Rechenknoten. "Jeder einzelne dieser Knoten ist eigentlich eine High-End-Workstation", sagt Thomas Schulthess, Direktor des CSCS. Mit einem leistungsstarken Netzwerk wird die Rechenleistung aller Knoten auf ein einzelnes Ziel gelenkt. Hier liegt gemäss Schult­hess ein entscheidender Unterschied zwischen einem Supercomputer und einer vernetzten Architektur wie die einer Cloud. Bei einem Supercomputer misst man die Latenzzeit in Mikrosekunden. Eine Cloud braucht also 1000 Mal mehr Zeit, zu reagieren. Gleichzeitig müssen die Bandbreiten so hoch wie möglich sein. Im Piz Daint tauschen die Knoten 5 bis 10 Gigabyte pro Sekunde aus. So können alle Rechenknoten synchron zu einem einzelnen Zweck eingesetzt werden.

In diesem Orchester aus tausenden Rechenknoten ist die Qualität jeder einzelnen Komponente wichtig. "Bei einem Supercomputer werden die einzelnen Bauteile extrem belastet", sagt Franklin Dallmann, Vorstandsvorsitzender bei Dalco, einem Schweizer Hersteller von Supercomputern. Schliesslich forderten Kunden eine maximale Leistung. Eine Maschine von Dalco belegt den 462. Platz auf der Top-500-Liste.

Ein gewöhnlicher Rechner läuft gemäss Dallmann im täglichen Einsatz mit einer sehr viel tieferen Belastung. Bei den einzelnen Bauteilen solcher Rechner ist die Qualität daher nicht so wichtig. "Bei Supercomputern müssen sie jedoch optimal aufeinander abgestimmt sein", sagt er. Aus diesem Grund prüft der Schweizer Hersteller Bauteile ständig durch. Nur die besten Bauteile werden in die Supercomputer verbaut. Mit Erfolg. Gemäss der Top-500-Liste verbrauchen Dalcos Lösungen bei gleicher Rechenleistung weniger Strom.

Prozessoren sollen "aufpassen"

"Wenn man von Hand viel rechnen muss, will man natürlich möglichst effiziente Algorithmen verwenden", sagt Schulthess. "Lässt man eine Maschine rechnen, kümmert man sich weniger um diese Effizienz." Ein Supercomputer rechnet aber in derart grossen Dimensionen, dass auch elektronische Geräte zu lange brauchen würden, erklärt der CSCS-Direktor. Darum feilen die Entwickler im Wettrennen um die schnellsten Supercomputer nicht nur an der Hardware.

"Wenn die Prozessoren miteinander kommunizieren müssen, will man natürlich, dass sie aufpassen", sagt Schulthess. Die Rolle des Oberlehrers spielt das Betriebssystem. Bei Supercomputern handelt es sich in der Regel um Linux-Systeme. Während man bei einem Rennwagen versucht, jedes unnötige Gramm über Bord zu werfen, will man bei einem Supercomputer das Hintergrundrauschen im Prozessor minimieren. "Alle Prozesse, die wir nicht brauchen, werden abgeschaltet." So sollen sich die Prozessoren auf die eigentliche Auf­gabe konzentrieren und keine unnötigen Operationen erledigen.

Die Prozessorarchitekturen, auf denen das Betriebssystem läuft, sind im Wesentlichen die gleichen wie die regulären Rechner. Das CSCS verwendet für seine Rechner Xeon-Prozessoren von Intel, wie sie auch in Servern und Workstations verbaut werden. Diese vergleichbare Architektur kommt den Softwareentwicklern zugute. "Ich kann also eine Applikation auf meinem Laptop entwickeln und ohne grössere Probleme auf einen Supercomputer portieren", sagt Schulthess. Voraussetzung ist jedoch, dass man eine interaktive Programmiersprache wie Python verwendet. Probleme könnten eher beim Skalieren auftreten, nicht beim Portieren. Ein kleines System toleriert gewisse Fehler, die bei einem komplexen System mit unzähligen Rechenknoten schwer ins Gewicht fallen können.

Viel Strom für viel Leistung

Ein Supercomputer sorgt auch für eine Superstromrechnung. "Der derzeit schnellste Rechner verbraucht so viel Strom wie eine Kleinstadt", sagt Stefan Kraemer, Director Business Development HPC EMEA bei Nvidia. Das aktuelle Prunkstück im HPC-Bereich ist der Tianhe-2 – die Nummer eins auf der Top-500-Liste. Er steht im National Super Computer Center in Guangzhou, China. Die Maschine vereint gemäss der Top-500-Liste mehr als 3 Millionen Rechenkerne und erreicht eine Spitzengeschwindigkeit von 54 902 Teraflops. Sie kann also nahezu 55 Billiarden Operationen pro Sekunde ausführen. Hierfür verbraucht der Superrechner 17 Megawatt Strom. Dem versuchen Ingenieure gegenzusteuern. "Um die Stromkosten und die Kühlungskosten zu senken, werden jetzt oft Supercomputer mit einer Kombination aus CPUs und GPUs gebaut", sagt Kraemer. Auch das CSCS setzt auf die Grafikprozessoren von Nvidia. "Der Vorteil dieser GPUs ist die hohe Leistung bei gleichzeitig niedriger Stromaufnahme", erklärt Kraemer. "So verbraucht der Piz Daint nur einen Achtel der Stromaufnahme bei einem Viertel der Rechenleistung von Tianhe-2". Die Energieeffizienz des Schweizer Superrechners ist folglich doppelt so hoch.

Trotz der höheren Energieeffizienz benötigt das CSCS mehr als 2 Megawatt. Entsprechend hoch sind die Stromrechnungen, räumt Schulthess ein. Die Supercomputer werden ihre Energieeffizienz noch weiter steigern müssen. Darin sind sich die Experten alle einig. Denn die Datenmengen nehmen zu. Die Maschinen von morgen werden also mehr Daten in kürzerer Zeit bei gleichbleibendem Stromverbrauch analysieren müssen. "Vergleicht man die Supercomputer aber mit derselben Leistung auf normalen Rechnern, lägen deren Stromkosten viel höher." Da die Prozessoren des Superrechners keine Leistung für unnötige Operationen verschwenden, benötigen sie pro Knoten viel weniger Strom als reguläre Computer.

Ein Schnäpchen – pro Prozessor gerechnet

Die gleiche Rechnung gelte auch für die Anschaffungskosten. Bei den grossen Superrechnern liegen diese schnell im achtstelligen Bereich. "Der Piz Daint kostete zwischen 40 und 50 Millionen Franken", sagt Schulthess. Dafür erhalte man aber auch knapp 5200 Rechenknoten. Würde man diese als einzelne, leistungsfähige Workstations kaufen, käme man schnell auf 10 000 Franken pro Knoten beziehungsweise auf Gesamtkosten von über 50 Millionen Franken allein für die Prozessoren. Hinzu ­kämen weitere Kosten für das Netzwerk, das die Prozessoren verbindet, und für tausende Festplatten. Zudem würden die Workstations viel mehr Energie verbrauchen, und die Umwelt belasten, weil sie weniger effizient gekühlt werden.

Aufgrund der hohen Kosten der Geräte handelt es sich auch nur um einen kleinen Markt mit geringen Verkaufszahlen. "In der Regel hat man nur eine Handvoll Supercomputer in einem Land", sagt Donal Greene, Head of Presales & Engagement bei Fujitsu Schweiz. "Die Architektur ist nun aber so weit entwickelt, dass auch Privatfirmen kleinere Systeme installieren können." Fujitsu bietet Einsteigerlösungen ab 100 000 Franken an. Damit werden die Geräte auch ausserhalb der Forschung interessant und erschwinglich. "So könnten etwa die grösseren Schweizer Chemiekonzerne für ihre Simulationen durchaus ihre eigenen Supercomputer nutzen", sagt Greene. Dies soll sich auch für kleinere Unternehmen lohnen, die den eigenen Superrechner nicht voll auslasten. So könnten sie etwa die überschüssige Rechenleistung wieder vermieten – ein Supercomputer-as-a-Service-Angebot sozusagen.

Ähnlich macht es auch das CSCS. Wie die meisten Rechner auf der Liste wird der Piz Daint primär in der Forschung genutzt. Hierfür verwendet das CSCS den Löwenanteil seiner Rechenleistung. "Wir haben aber auch kommerzielle Kunden", sagt Schulthess. Das Zentrum führt für diese Unternehmen Machbarkeitsnachweise durch. Schulthess will mit dem CSCS nicht zu einer Konkurrenz für kommerzielle Anbieter werden. Daher bleibt es nur bei einem Proof-of-Concept. "Wenn ein Modell bei uns gut funktioniert, können Unternehmen dieses skalieren und in ihren eigenen Rechenzentren betreiben oder die Leistung bei privaten Anbietern einkaufen", sagt er.

Der Markt für Supercomputer mag zwar noch klein sein. Doch stehen alle Zeichen auf Wachstum. Big Data verspricht in jeder Datensammlung einen digitalen Goldklumpen. "Wir haben so viele elektronisch gespeicherte Daten, die man analysieren kann", sagt Schulthess. Das sehe man auch an Informationsbrokern wie Google. "Heutzutage betreiben diese Unternehmen Rechenzentren, die viel grösser sind als die der öffentlichen Forschung", sagt Schulthess. Und er sieht einen weiteren Grund: "Jede hochentwickelte Gesellschaft hat einen Bedarf an Hochleistungsrechnern – und dieser wird in den nächsten Jahren stark zunehmen."

Tags
Webcode
6429