So baut man Rechenzentren für das KI-Zeitalter
KI-Anwendungen stellen die Infrastruktur von Rechenzentren auf den Kopf. Die Kühlung rückt direkt an den Chip und die Ausfallsicherheit auf die Rack-Ebene. Alex Brew, Vice President Regional Sales EMEA von Vertiv, spricht über die neuen Herausforderungen für die Datacenter-Branche, die Chancen der Abwärmenutzung und die spezifischen Standortvorteile der Schweiz.
Die Forderung nach digitaler Souveränität wird in Europa immer lauter, auch in der Datacenter-Branche. Wie bewerten Sie die aktuelle Debatte und welche Schlüsse ziehen Sie daraus?
Alex Brew: Die Diskussion verschärft sich vor dem Hintergrund des Aufkommens neuer, leistungsfähiger KI-Anwendungen. Früher nutzten wir die Cloud-Dienste der US-Tech-Konzerne für vergleichsweise einfache Anwendungen wie E-Mail oder CRM-Systeme. Mit KI entsteht nun aber wertvolles geistiges Eigentum. Deshalb wollen Unternehmen und auch Staaten mehr Kontrolle darüber haben, wo ihre Daten verarbeitet werden und wem die zugrundeliegende Infrastruktur gehört. Wir sehen deshalb eine wachsende Nachfrage nach souveränen Plattformen, die oft von lokalen Regierungen oder Konsortien aus der Privatwirtschaft unterstützt werden.
Heisst das, die Hyperscaler verlieren an Bedeutung?
Nein, es geht nicht darum, die grossen Cloud-Anbieter zu ersetzen. Vielmehr sehen wir eine parallele Entwicklung: Neben den grossen KI-Cloud-Diensten entsteht eine Nachfrage nach souveränen Anwendungsfällen mit anderen Sicherheitsanforderungen und Datenschutzrichtlinien. Das eine ersetzt das andere nicht, sondern ergänzt es.
Fläche und Energie sind in der Schweiz teurer als anderswo in Europa. Vor welche besonderen Herausforderungen stellt das die hiesigen Rechenzentrumsbetreiber?
Fläche und Energie sind in der Schweiz zwar teurer, doch die Standortvorteile überwiegen. Die Schweiz hat ein sicheres Stromnetz mit vergleichsweise geringen CO2-Emissionen. Zudem stärken die strengen Datenschutzregeln und die politische Stabilität des Landes das Vertrauen. Ein wichtiger Punkt ist die Kreislaufwirtschaft. Die Abwärme von Rechenzentren kann man hierzulande direkt in Fernwärmenetze einspeisen, wie es in Zürich bereits geschieht. Diese Möglichkeit besteht in vielen anderen europäischen Regionen nicht in diesem Ausmass. Die Schweiz hat sich neben Städten wie Madrid oder Mailand zu einem der wichtigsten sekundären Rechenzentrumsmärkte in Europa entwickelt.
Was meinen Sie mit "sekundär"?
Es gibt die sogenannten FLAP-D-Märkte, das sind die fünf führenden Rechenzentrumsmärkte Europas – die Bezeichnung steht für Frankfurt, London, Amsterdam, Paris und Dublin. Diese Märkte sind schon seit Langem fest etabliert. Aufgrund der Engpässe, etwa durch begrenzte Flächen, verlagert sich das Wachstum jedoch zunehmend in sekundäre Märkte wie etwa Zürich, Madrid, Mailand, Oslo, Stockholm oder Helsinki. Wir erwarten, dass sich dieser Trend fortsetzt.
Wie beurteilen Sie die wachsende Rolle der Schweiz als Datacenter-Hub, insbesondere bezüglich der Themen Energieeffizienz und Nachhaltigkeit?
Durch KI rücken Rechenzentren und ihr Energieverbrauch ins öffentliche Bewusstsein. Dabei vergisst man oft: Wer ein Rechenzentrum betreibt, hat ein klares wirtschaftliches Eigeninteresse an maximaler Effizienz, denn Strom kostet Geld. Je effizienter die Anlage, desto tiefer die Stromrechnung. Die neuen KI-Anwendungen verbessern sogar die Möglichkeiten zur Abwärmenutzung und begünstigen die Kreislaufwirtschaft. KI-Systeme erzeugen höhere Ablufttemperaturen. Diese Wärme ist ein wertvolles Nebenprodukt, da sie sich einfach für Fernwärmesysteme oder Gewächshäuser nutzen lässt. Zudem können Rechenzentren zur Stabilisierung der Stromnetze beitragen. Die in ihrer Energie-Infrastruktur gebundenen Reserven lassen sich ins Netz zurückspeisen, um Bedarfsspitzen auszugleichen. In der Schweiz gelingt diese intelligente Kopplung von Rechenzentren mit der lokalen Infrastruktur bereits besser als in vielen anderen Teilen Europas.
Die aktuell grösste Herausforderung der Datacenter-Branche sei nicht die Technik, sondern die gesellschaftliche Akzeptanz, sagte Nationalrat Franz Grüter am Vertiv Day 2026. Die Branche sollte folglich mehr Projekte zur Nutzung der Abwärme fördern. Einverstanden?
Absolut. Diese Projekte zur Abwärmenutzung sind zentral für die Akzeptanz. Doch das Potenzial geht weit darüber hinaus. Rechenzentren können als dezentrale Energie-Hubs fungieren und die Nutzung erneuerbarer Energien erleichtern, etwa indem sie flexible Lasten bereitstellen und so Schwankungen von Solar- oder Windkraft besser ausgleichen. Die Nutzung von Abwärme trägt auch indirekt zur Energieeffizienz bei. Jede Kilowattstunde Abwärme, die wir nutzen, spart an anderer Stelle Primärenergie.
Stichwort Kühlung von KI-Systemen: Welchem Irrtum begegnen Sie bei Ihrer Kundschaft am häufigsten?
Der grösste Irrtum ist, dass Flüssigkeitskühlsysteme Unmengen an Wasser verbrauchen. Das funktioniert aber wie eine Zentralheizung im Haus: ein geschlossener Kreislauf, in dem eine feste Wassermenge zirkuliert, Wärme aufnimmt, abgibt und wieder abkühlt. Dabei wird kein Wasser verbraucht. Bei der Kühlung von Rechenzentren ist es im Prinzip dasselbe, nur umgekehrt. Das Bild des durstigen Rechenzentrums, das Unmengen an Wasser verschlingt, ist schlicht falsch.
Inwiefern verändern KI-Workloads die technischen Anforderungen an Rechenzentren, insbesondere bezüglich Kühlung und Ausfallsicherheit?
Der Wandel ist fundamental. Früher kühlten wir die Luft im Raum. Bei der enormen Leistungsdichte von KI-Systemen reicht das nicht mehr. Wir müssen von der Luft- zur Flüssigkeitskühlung wechseln. Konkret leiten wir eine Kühlflüssigkeit mit einer CDU (Anm. d. Red.: Coolant Distribution Unit, auf Deutsch: Kühlmittelverteilereinheit) direkt an die heissesten Bauteile im Server, also die Grafikprozessoren. Das verändert unsere Rolle komplett. Früher sorgten wir dafür, dass der Raum eine bestimmte Temperatur hat. Heute müssen unsere Kühlsysteme direkt an die IT-Hardware gekoppelt sein. Deshalb arbeiten wir so eng mit Chipherstellern wie Nvidia zusammen. Unsere Aufgabe ist es, diese Wärmeabfuhr zu ermöglichen, denn die fortschrittlichsten Chips nützen nichts, wenn sie überhitzen. Zum Vergleich: Früher hatte ein ganzer Datenraum vielleicht eine Leistung von 500 Kilowatt. Heute sprechen wir von bis zu zwei Megawatt in einem einzigen Rack.
Sie haben die Ausfallsicherheit, die Resilienz, noch nicht angesprochen. Wie verändert sich diese mit KI?
Die Grundprinzipien der Resilienz bleiben dieselben, aber sie rücken viel näher an die Rechenleistung heran. Früher bauten wir Redundanz auf der Ebene des gesamten Rechenzentrums, zum Beispiel mit einem zusätzlichen Kältegerät für die ganze Anlage. Heute bauen wir diese Redundanz auf Rack- oder Reihenebene ein. Das heisst, für jede Gruppe von Servern gibt es eine Stand-by-Kühleinheit, die im Notfall sofort übernimmt. Die Philosophie der Redundanz bleibt dieselbe, aber ihre Umsetzung rückt von der Raumebene viel näher an die Wärmequelle auf Rack- oder Reihenebene.
Blicken wir zwei Jahre voraus: Was wird dann das Top-Thema bei der Datacenter-Infrastruktur sein?
Ganz klar: Energieversorgung und Zugang zu geeigneten Standorten, inklusive der nötigen Genehmigungen und regulatorischen Freigaben. Die Nachfrage nach Rechenleistung wächst schneller, als man die Stromnetze ausbauen kann. Deshalb wird die Energieerzeugung vor Ort zum grossen Thema. In den USA diskutiert man bereits über kleine, modulare Kernreaktoren. Ein zweiter entscheidender Punkt ist die Liefergeschwindigkeit. Bei KI-Projekten zählt die "Time to Token", also die Zeit vom Projektstart bis zur Inbetriebnahme, wenn die ersten Tokens berechnet werden – ein wichtiger Gradmesser für die Geschwindigkeit des Infrastrukturaufbaus. Niemand will zwei bis drei Jahre auf sein Rechenzentrum warten. Durch vorgefertigte, modulare Systeme können wir heute eine komplette "AI Factory" bis zu 50 Prozent schneller errichten als mit herkömmlicher Bauweise. Der Business Case vieler KI-Projekte ist so stark, dass sich sogar Investitionen in eigene Energieerzeugung vor Ort rechnen können.
Gold für "Axa 'Keep on Kicking'" in der Kategorie Marketing
Cyber-Schuld und digitale Souveränität – ein strategischer Handlungsdruck
Sicher bis in den Kern: Datensouveränität mit Dell und enclaive
Bechtle Index of Sovereignty (BIoS): Der neue Standard für strategische IT-Orientierung
Gold für "acsono.com" in der Kategorie Creativity
Digitale Transformation umsetzen und steuern
"Swissgrid 24/7" ist Master of Swiss Web
Back on-prem: Die Renaissance hybrider Sicherheitsarchitekturen
Gold für "Bettybossi.ch" in der Kategorie Digital Commerce