Wenn Geschwindigkeit alles entscheidet
Unternehmen setzen für die Planung immer häufiger auf Analysen aller Art. Die In-Memory-Technik liefert die gewünschten Auswertungen in Rekordzeit. Am Horizont winkt der Traum vom Unternehmen, das sich in Echtzeit an seine Umgebung anpasst. Doch das hat seinen Preis.
Bei Givaudan, dem Marktführer in der Aroma- und Parfümherstellung, trifft die Informatik auf den kreativen Beruf des Parfumeurs. Die Spezialisten müssen bei der Entwicklung neuer Duftrichtungen laufend überprüfen, ob diese die zahlreichen Anforderungen erfüllen, um auf den Markt gebracht werden zu dürfen. Dabei sind Hersteller mit einer ganzen Menge wechselnder länder- und kundenspezifischer Vorschriften konfrontiert. Das i-Tüpfelchen ist, dass diese Regelungen nicht nur die einzelnen Bestandteile betreffen, sondern auch die unzähligen Kombinationen, die die Dufthersteller entwickeln.
Angesichts dieser komplexen Ansprüche kommt der Informatik eine zentrale Rolle zu, um die Konformität einer neuen Parfümidee zu überprüfen. «Die Parfumeure müssen ihre kreative Arbeit häufig unterbrechen, um zu prüfen, ob das Parfüm den Normen entspricht. Bis zum Eintreffen der Resultate müssen sie dann an etwas anderem weiterarbeiten», erklärt Yves Courbot, verantwortlich für IT-Demand und Product Compliance bei Givaudan. Früher dauerten die erforderlichen Berechnungen mehrere Minuten, was unvermeidlich zu Frustrationen und Ineffizienz geführt habe. Um diese unbefriedigende Situation zu verbessern, hat das Unternehmen letztes Jahr eine In-Memory-Lösung zur Datenanalyse eingeführt. Damit erhielten die Duftentwickler ihre Ergebnisse nun innerhalb weniger Sekunden. Dieselbe Technik erlaubt es Givaudan auch, rasch jene Produkte zu identifizieren, die von den neuen Vorschriften betroffen sind. So könne die Kundschaft rechtzeitig über relevante Änderungen informiert werden, beispielsweise, wenn Etiketten angepasst werden müssen. Das neue System biete ausserdem einen Vorteil fürs Marketing.
Wartezeiten behindern die Arbeit
Die Duftentwickler bei Givaudan sind nicht die einzigen, die auf die Resultate ihrer Datenanalysen warten müssen. Solche Verzögerungen betreffen sämtliche Branchen und Geschäftsbereiche. Wartezeiten treten überall auf, ob es sich nun um Finanzberichte, Ad-hoc-Marketinganalysen oder um prozesskritische Informationen handelt, die fortlaufend benötigt werden. Einer Umfrage von IDC zufolge braucht die Informatik in der Hälfte der Fälle mehr als einen Tag, um Daten aufzubereiten und die Ergebnisse den Nutzern zur Verfügung zu stellen (siehe Grafik rechts). Das sind zweifelsohne problematische Zeitspannen in einem Umfeld, in dem die Entscheidungsträger immer häufiger auf alle möglichen Analysen zum Überwachen, Planen und Abschätzen ihrer Aktivitäten setzen. Zur Abhängigkeit von der IT-Abteilung und zum Zeitaufwand kommt das Risiko dazu, dass die Datenanalysen zu Fehlentscheidungen führen können, wenn sie auf veralteten Informationen basieren. Diese Situation ist sowohl für die IT als auch für die Entscheider unbefriedigend.
Abgesehen vom explosionsartigen Anstieg der Datenmengen sind diese Probleme hauptsächlich technischer Natur. Die Analyse leidet nicht zuletzt unter den Latenzzeiten beim Zugriff auf die auf der Festplatte gespeicherten Daten. Auch eignen sich starre Abfragemöglichkeiten kaum für Ad-hoc-Suchanfragen und zur vertieften Auswertung des Datenbestands. Die In-Memory-Technik, bei der die Daten im Arbeitsspeicher verarbeitet werden, will diese Probleme lösen, indem das Verfahren einerseits eine höhere Geschwindigkeit und andererseits detailliertere Auswertungen ermöglicht.
Preiszerfall führt zu Aufschwung
Das Konzept des In-Memory-Computings umfasst mehrere Ansätze. Zum einen werden die Daten dabei teilweise oder vollständig in den Arbeitsspeicher geladen. Zum anderen erfolgt die Anordnung der Daten für Analysen nicht in Feldern oder Zeilen, sondern in Spalten. Dies soll sich für Suchanfragen sowie die Nutzung von Optimierungs- und Kompressionswerkzeugen eignen. Der fortdauernde Preiszerfall bei den Speicherchips ist gemäss Experten der Hauptgrund für den derzeitigen Aufschwung der In-Memory-Lösungen auf Servern mit bis zu mehreren TB RAM. Nachdem die Technik seit einigen Jahren bei Business-Intelligence-Unternehmen wie Qliktech oder Tableau zum Einsatz kam, wird sie heute von den meisten Anbietern vertrieben. Dabei handelt es sich entweder um reine Softwarelösungen oder um Appliances wie etwa Oracle Exalytics oder SAP Hana. Den Meinungsforschern von Gartner zufolge werden bis 2015 35 Prozent der mittleren und grossen Unternehmen In-Memory-Technik einsetzen. 2012 waren es erst 10 Prozent. «In den nächsten zwei bis drei Jahren wird In-Memory zu einem strategischen Schlüsselelement der Unternehmen avancieren, die ihre Effizienz und ihr Wachstum steigern möchten», glaubt Gartner-Analyst Massimo Pezzini.
Gezielter statt breiter Einsatz
Auch wenn die RAM-Preise in den letzten Jahren stark gesunken sind, bleiben In-Memory-Angebote eine kostspielige Angelegenheit. Das liegt hauptsächlich an den Softwarelizenzen, deren Kosten nicht zuletzt von der Grösse des Arbeitsspeichers abhängen. Dazu kommt, dass für mit der Analyse verbundene Aufgaben genügend RAM frei bleiben muss. Auch können die theoretisch möglichen Leistungssteigerungen aufgrund verlangsamender Faktoren nur selten vollumfänglich erzielt werden. Und schliesslich darf der Aufwand zur Datenmodellierung nicht vernachlässigt werden.
Angesichts solcher Schwierigkeiten ist es nachvollziehbar, weshalb Unternehmen die In-Memory-Technik nur sehr gezielt einsetzen – nämlich dort, wo eine schnelle Auswertung auch eine direkte Rendite bringt. Die Migros beispielsweise, die die auf Hana basierende Lösung SAP Netweaver für die Globus-Filialen verwendet, konzentriert sich auf die Auswertung des Produktverkaufs. Dies erklärt Alexander Weiss, Leiter Prozesse & BW bei der Migros: «Wir analysieren beispielsweise bei Globus die Verkaufsdaten einzelner Produkte und ermöglichen so rasche Entscheidungen über Preisgestaltung, Promotionen oder Logistikprozesse, die die Wettbewerbsfähigkeit massgeblich steigern können. Die erhöhte Geschwindigkeit erlaubt zudem neue Geschäftsprozesse, etwa im Bereich der Kassendatenanalysen oder im ‹Slowseller›-Handling.» In-Memory-Verfahren werden zudem häufig für die Finanzanalyse eingesetzt. «Vielleicht, weil die CFOs eher dazu bereit sind, in Projekte zu investieren, von denen sie direkt profitieren», meint Harald Bolbach, SAP-Spezialist bei IBM Schweiz.
Auch für Datenbank-Transaktionen
Zu Beginn des Jahres hat SAP mit der Ankündigung überrascht, das auch das ERP selbst auf der Hana-Appliance laufen kann. Dabei soll die In-Memory-Technik nicht nur für analytische Abfragezwecke verwendet werden, sondern auch für Transaktionen, also die eigentliche Bearbeitung von Daten. Laut Alexander Zeier, einem der Mitentwickler von Hana, entfaltet die Technik nur unter dieser Voraussetzung ihre volle Wirkungskraft (siehe Interview auf Seite 28). Allerdings will der deutsche Softwarehersteller mit diesem Manöver auch den ERP-Kunden, die bei Datenbanken ein Konkurrenzprodukt einsetzen, sein eigenes Angebot schmackhaft machen.
Nichtsdestotrotz bedeutet die Idee, Daten sowie analytische und transaktionale Zugriffe zusammenzufassen, eine beachtliche Veränderung. In einem Bericht zu diesem Konzept erinnert IDC daran, dass analytische und transaktionale Umgebungen in der Vergangenheit voneinander getrennt wurden, um den Durchsatz nicht zu beeinträchtigen. Dies führte zur Trennung von Analyse und Quelldaten. Gemäss IDC hat eine Vereinigung auf Basis der In-Memory-Technik viele Vorteile. Einerseits erlaube dieses Vorgehen Nutzern, Analysen von soeben erfassten Daten auszuführen. Damit könnten schnellere und aussagekräftigere Entscheide getroffen werden. Andererseits sollte die Verwendung einer gemeinsamen Umgebung die Arbeit der IT-Abteilungen vereinfachen. Schliesslich dürfte eine vereinheitlichte Datenbank die Schaffung «intelligenter» Prozesse und Anwendungen begünstigen. Damit könnten die Analyseergebnisse fortwährend und in Echtzeit zur Kursbestimmung genutzt werden. IDC nennt in diesem Zusammenhang eine Anwendung für den Einzelhandel, die die Preise und die Nachbestellungen dynamisch dem Konsumverhalten anpasst. Ein anderes Beispiel ist eine Finanzanwendung, die automatisch Portfoliopositionen auf der Grundlage von Marktanalysen und Investitionsstrategien optimiert.
In-Memory-Technik ist vielversprechend, aber die Hürden für den Einsatz sind ebenso gewichtig. Abgesehen von den Kosten tun sich viele Firmen schwer mit der Vorstellung, ihre unternehmenskritischen Daten im RAM abzulegen. Im Gegensatz zu Analysesystemen hat der Ausfall von produktiven Umgebungen schwerwiegende Konsequenzen. Wie ausgeklügelt auch immer die mitgelieferten Back-up-Systeme arbeiten: Es ist anzunehmen, dass Unternehmen es noch eine ganze Weile vorziehen werden, ihre kritischen Daten der guten alten Festplatte anzuvertrauen.

Was wirklich zum Zwist zwischen Iron Man und Captain America geführt hat

Schweizer Crowdfunding-Markt stagniert

Mit Daten wirksam steuern und Ziele sichtbar machen

"Akzeptanz ist die wichtigste Messgrösse"

Warum Behörden mit Standardsoftware besser fahren

Öffentlicher Sektor beschleunigt KI-Einführung trotz Verbesserungsbedarf bei IT

AWS erweitert sein Cybersecurity-Angebot

"Kühlung rückt in den Fokus"

Hacker stellen Daten von 130'000 UBS-Angestellten ins Darknet
