Trends

Datenmanagement und -kontrolle in hybriden Cloud-Umgebungen

Uhr | Aktualisiert
von Christoph Schnidrig, Leiter Systems Engineering, Netapp

Im Hinblick auf die Datensicherung ist Vertrauen zentral, besonders wenn diese ausgelagert wird. Beim Thema Datensicherung besteht jedoch nach wie vor eine gewisse Risikobereitschaft. Viele Unternehmen weisen eine hohe ­Abhängigkeit von ihren operativen Daten aus. Ohne diese Daten könnten viele Organisationen ihre Prozesse nicht mehr in der gewohnten Art und Weise weiterführen. Ein möglicher Weg führt dabei in die Cloud.

Die Zeiten sind vorbei, in denen sich IT-Abteilungen nur auf ihre eigenen Rechenzentren für die Bereitstellung von Services konzentriert haben. Heute existiert eine grosse Zahl von Möglichkeiten bei der Wahl von Services. Oftmals stellt sich auch die Frage: make or buy? Die Wahlfreiheit bietet viele Vorteile. Einerseits ist die überaus einfache Skalierbarkeit zu erwähnen, die es ermöglicht, dass zu jedem Zeitpunkt lediglich die wirklich genutzten Ressourcen im Zugriff sind. Entsprechend fällt eine kostspielige Überdimensionierung komplett weg, und Spitzenzeiten müssen nicht mehr im Vorfeld eingeplant werden. Andererseits können geplante und nicht geplante Ausfallzeiten verringert werden.

Da die Infrastrukturen von Cloud-Umgebungen in höchstem Masse standardisiert und automatisiert werden, bleibt eine Grosszahl von menschlichen Fehlern aus. Darüber hinaus können die Infrastrukturen solcher Cloud-Umgebungen vollständig transparent gewartet werden. Ein weiterer Vorteil, der durch die wachsende Anzahl der Serviceanbieter entsteht, sind Preisoptimierungen. Infolgedessen findet ein rascher Wandel der IT-Landschaften zu gemischten – eben hybriden – Umgebungen statt. Dabei wandeln sich die internen IT-Abteilungen von reinen Leistungserbringern zu Brokern von IT-Services – von den eigenen und den extern eingekauften.

Herausforderung bei der Verwaltung von Daten in hybriden Cloud-Umgebungen

Während der Wille und der Trend zur verstärkten Nutzung von Hybrid Clouds gegeben ist, entstehen in der Praxis Herausforderungen sowie Probleme bei der Umsetzung. Zum einen gibt es enorme Probleme beim Datenmanagement, wenn Daten im lokalen Rechenzentrum und in der Cloud gespeichert werden. Insbesondere das Verschieben von Daten – liegen doch die allermeisten Daten noch ausserhalb der Cloud – ist zeitaufwändig und komplex. Dazu kommt, dass verschiedene Cloud-Anbieter unterschiedliche und oftmals inkompatible Plattformen betreiben. Daten haben nur dann einen Wert, wenn sie zum richtigen Zeitpunkt am richtigen Ort verfügbar sind. Des Weiteren muss sichergestellt werden, dass alle Daten entsprechend gesichert werden. Aktuelle Fälle von Cloud-Service-Providern, die ihren Dienst kündigen und den Kunden lediglich ein paar Wochen für das Kopieren von Daten gewähren, zeigen die Wichtigkeit auf, Daten jederzeit gesichert zu haben.

Zum anderen ergeben sich unterschiedliche Kombinationen von Infrastruktur, Rechen- und Storage-Ressourcen in der Cloud und im eigenen Rechenzentrum (RZ). Daten in dieser Ressourcenmischung zu speichern und zu verwalten, ist eine sehr grosse Herausforderung. In hybriden Clouds können Rechenleistungen oder Applikationen relativ einfach auslagert werden. Sobald diese jedoch Daten generieren, sind die Sicherung und Kontrolle problematisch. Daraus resultiert ein Mangel an Kontrolle, wenn die Daten aus dem eigenen RZ weg sind. Zwangsläufig rücken Themen wie Datensicherheit, Daten Governance und die anbieterabhängigen Service Level ins Zentrum der Überlegungen.

Eine Data Fabric für eine nahtlose Integration von Hybrid Clouds

Damit diesen Herausforderungen begegnet werden kann, braucht es ein einheitliches Rechenzentrum und ein überspannendes Datenmanagement. Unabhängig davon, wo gerade Daten für Testzwecke geklont, gesichert oder restored werden müssen, sollen dieselben Prozesse und Tools greifen. Die gewonnene Effizienz in der Infrastruktur wird sonst schnell wieder durch einen erhöhten Managementbedarf zunichte gemacht. Zudem müssen Daten von verschiedenen Umgebungen effizient zusammengeführt werden können.

Nutzer sind gut beraten, wenn sie die Daten in mehrere unabhängige Infrastrukturen verteilen (etwa Produktion inhouse, Dev/Test bei einem Cloud-Anbieter und Back-up bei einem anderen). Damit dies möglich wird, braucht es zusätzlich zum globalen Datenmanagement eine einheitliche Datenübertragung. Dadurch können die Daten effizient und einfach transportiert werden. Der Transport in eine Cloud ist im Normalfall ohne Kosten verbunden. Die umgekehrte Richtung ist jedoch oft mit teilweise signifikanten Kosten verbunden. Folglich sollte der Transport der Daten auf beide Seiten umkehrbar sein, um lediglich Änderungen und somit ein Bruchteil des Gesamtvolumens wieder aus der Cloud transferieren zu müssen.

Datenkontrolle im Griff behalten

Überlegungen bezüglich unbefugten Zugriffs auf die Daten müssen immer wieder unternommen werden. Dies ändert sich bei Cloud-Lösungen nicht grundlegend. Was sich jedoch ändert ist, dass sich die physikalische Infrastruktur nicht mehr in den eigenen Räumlichkeiten und auch nicht unter eigener Kontrolle befindet.

Ein Cloud-Anbieter hätte somit die Möglichkeit zum Datenabgriff. Dazu gibt es jedoch grosse juristische Regelwerke, die vermehrt den Anforderungen genügen. Man hört auch öfter: "Wenn Cloud-Anbieter XYZ ein Datenleck hat, ist er weg vom Markt." Spätestens nachdem der Europäische Gerichtshof das Aus für «Safe Harbor» verkündet hat, entfällt jedoch die prominenteste Lösung dieses datenschutzrechtlichen Problems. Eine Übermittlung von Daten in eine Cloud bedarf stets einer rechtlichen Legitimation. Gerade beim Problem der Übermittlung in unsichere «Drittstaaten», wie die USA vonseiten der EU in datenschutzrechtlicher Hinsicht eingestuft wurde, hatten die meisten Anbieter bisher hauptsächlich auf die nun hinfällige "Safe Harbor"-Selbstzertifizierung gesetzt.

Entsprechend sind Lösungen gefragt, die diese Probleme adressieren. Die Verschlüsselung der Daten ist hier als Variante zu nennen. Dabei werden die Daten vor der Sicherung respektive dem Transport in eine Cloud verschlüsselt. Somit wird die Einsicht der Daten während des Transports oder für den Cloud-Anbieter verhindert. Andere Lösungen transportieren die Daten gar nicht erst in eine Cloud, sondern in ein Rechenzentrum neben einer solchen. Dazu wird eine dedizierte Infrastruktur genutzt, über die man die totale Kontrolle hat. Die Cloud wird dann lediglich für die Netzwerk- und Rechenressourcen genutzt. So erhält der Nutzer alle Möglichkeiten einer Cloud mit gleichbleibender Datenkontrolle.

Fazit

Hybrid Clouds sind zweifelsohne die IT-Infrastrukturen der Zukunft. Services werden dort bezogen, wo sie am effizientesten und kostengünstigsten erbracht werden können. Die Kombination der verschiedenen Services und Anbieter ist ein grosses Problem. Daten können nicht einfach herumgeschoben werden. Netzwerkbandbreiten, inkompatible Infrastrukturen und Transferkosten machen da einen Strich durch die Rechnung.

Hinzu kommen weitreichende Überlegungen zur Sicherheit und Kontrolle der Daten. Vorsicht ist auch dort geboten, wo die Daten generiert werden. Eine Data Fabric mit einem einheitlichen Datenmanagement und einer gleichartigen Datenübermittlung ermöglicht überhaupt erst eine Hybrid Cloud, in der sich Daten frei und sicher bewegen können.

Webcode
6996