"Nicht mehr Millisekunden, sondern Nanosekunden"
Alexander Zeier, heute bei Accenture weltweit verantwortlich für In-Memory-Lösungen, kam bei der Entwicklung von Hana eine Schlüsselrolle zu. Im Interview verrät er den Ursprung dieser Technik und spricht über potenzielle Anwendungsgebiete.

Herr Zeier, Sie waren an der Entwicklung der In-Memory-Technik bei SAP beteiligt. Wie kam es dazu?
Ich bin seit rund 20 Jahren in der Informatik tätig, hauptsächlich bei SAP. Ich war dort für die Lösung Advanced Planner & Optimizer, kurz APO, im Bereich Supply Chain Management verantwortlich, die übrigens auch von Apple genutzt wird. Im Frühjahr 2006 schlug mir SAP-Gründer Hasso Plattner vor, ein Entwicklungsprojekt für eine ganz neue Generation von Systemen zu starten, so wie damals beim Übergang zu R/3. Die Idee war, eine wirklich innovative Out-of-the-Box-Technik zu entwickeln. Man beschloss, diese Entwicklung ausserhalb des Unternehmens im Hasso-Plattner-Institut zu machen, das der Universität Potsdam angegliedert ist. Mir wurde ein Gebäude zur Verfügung gestellt, und ich stellte Mitarbeiter für dieses damals schon unter dem Namen Hana laufende Projekt ein. Es lief bis 2010, danach übergaben wir es an SAP.
Welche Grundidee steckte hinter dieser Entwicklung?
Die Grundidee bestand darin, alle Daten im Arbeitsspeicher zusammenzuführen und sie massiv parallel mithilfe der neuesten Hardwareentwicklungen zu verarbeiten. Wir haben diese Lösung übrigens in enger Zusammenarbeit mit Intel entwickelt. Heute ist es möglich, 80 Cores auf einem einzigen Blade zu vereinen. Bald wird man sogar über 120 Cores verfügen. Um eine parallele Verarbeitung von Daten anbieten zu können, haben wir auf der anderen Seite eine spaltenorientierte Datenbank entwickelt – im Gegensatz zu einer zeilenbasierten Datenbank – sowie mehrere patentierte ergänzende Techniken. Dieses Konzept macht Schluss mit der Trennung des analytischen vom operativen Bereich. Mit Hana müssen die operativen Daten nicht länger in ein BI-System repliziert werden, um ausgewertet werden zu können. Dies bedeutet einen Zeitgewinn und eine Vereinfachung. Endlich haben wir eine Plattform für die Verarbeitung von Daten in Echtzeit.
Welchen Unterschied gibt es zu herkömmlichen Datenbanken und angesagten Big-Data-Techniken wie Hadoop?
Big Data, also die Extraktion nützlicher Informationen aus riesigen Datenmengen, ist eines der wichtigsten Ziele der In-Memory-Plattform. Der grösste Vorteil, verglichen mit Lösungen wie Hadoop oder Dynamo, besteht darin, dass Hana immer die richtige Antwort liefert. Die anderen Lösungen bieten nur das, was man eine «Temporary Consistency» nennt. Das heisst, dass die gegebene Antwort vorübergehend abweichen kann. Das ist akzeptabel, wenn man bei Amazon ein Produkt sucht, nicht aber, wenn es um eine Buchhaltungslösung mit Millionen von Buchungen geht. Herkömmliche Datenbanken suchen die Daten auf der Festplatte und speichern sie zur Verarbeitung im Arbeitsspeicher. Mit In-Memory sind alle Daten im Systemspeicher und werden im Cache des Mikroprozessors optimiert. Wir sprechen dabei nicht mehr von Millisekunden, sondern von Nanosekunden. Die Lösung ist tausendmal schneller.
Was bringt diese Geschwindigkeit einem Unternehmen ganz konkret?
Ich kann da den Fall eines sehr grossen Telekommunikationsanbieters nennen, der Hana implementiert hat, um weniger Zeit für seinen Monatsabschluss zu benötigen. Die Lösung erlaubt ihm, die Erstellung seiner Finanzberichte und den Versand der Rechnungen an seine Kunden signifikant zu beschleunigen. Dadurch kann man dort Kosten sparen. Es gibt auch viele Beispiele im Bereich Logistik oder Marketing: Fertigungsunternehmen können ihren Nachschubbedarf nun innerhalb von wenigen Sekunden anstelle von einigen Tagen berechnen. Verkäufer eines Elektrogerätehändlers können auf alle Informationen der Kunden im Geschäft zugreifen und ihnen personalisierte Angebote in Echtzeit machen. Meiner Meinung nach werden die Unternehmen, die diese Technik als Erste nutzen, gegenüber ihren Mitbewerbern entscheidende Vorteile haben.
Was kann den Einsatz der In-Memory-Technologie hemmen?
Als Hana anfangs als ein Business-Intelligence-System vorgestellt wurde, schien die Investition in ein neues System ein Hemmschuh zu sein. Dieses Hindernis verschwindet, sobald die Plattform für zentrale Applikationen verwendet wird – sie entfaltet übrigens nur dann all ihre Vorzüge. Ganz zu schweigen davon, dass Hana auf relativ wirtschaftlicher Standardhardware läuft. Natürlich bedarf die Plattform einer gewissen Anpassung, und die IT-Teams müssen – ähnlich wie damals, als man von den grossen Rechnern auf kleine Server umstieg – neue Kenntnisse erwerben. Aber dies ist auch eine Chance für die IT, zu zeigen, dass sie auf die Bedürfnisse des Business reagieren kann. Früher, wenn eine Führungsperson einen ganz neuen Report verlangte, dauerte es teilweise Wochen, bis ein neuer Datenwürfel erstellt war. Heutzutage hat man die Antwort direkt zur Hand.

Zahl behördlicher Überwachungsmassnahmen in der Schweiz verdoppelt sich

Martin Bürki wird neuer Comcom-Präsident

Wie Unternehmen mit künstlicher Intelligenz im Arbeitsalltag durchstarten

MMTS und Media Solutions bringen Pro-AV zur Home & Professional

So geht Zeitsparen mit KI

Krebsbekämpfung in der Cloud

Warum erfundene Programmbibliotheken die Softwarelieferkette bedrohen

KI in der Schweiz: sicher, souverän – und pragmatisch nutzbar

Apptiva: Schweizer Pionier für individuelle Softwarelösungen und KI-Chatbots
