Focus: Cloud Data Management

Datenmanagement in der Cloud – Datengravitation überwinden

Uhr
von Mathias Wenig, Senior Technical Sales und Digital Transformation Specialist DACH, Veritas Technologies

Wer Daten in der Cloud speichert, muss diese auch richtig verwalten und Fragen bezüglich Sicherheit und Compliance ­klären. Das ist keine einfache Aufgabe. Die Cloud-Provider bieten zwar meist Management-Tools an, mit Multi-Clouds ­können diese aber oft nicht umgehen.

Applikationsentwickler in der Schweiz denken "Cloud First", wenn sie neue Apps und Dienste ausrollen wollen. Eine Studie von Veritas bestätigt das: 57 Prozent der Schweizer Unternehmen haben die Dienste eines Providers unter Vertrag, 70 Prozent spielen mit dem Gedanken, in die Multi-Cloud zu wechseln. Der grosse Vorteil, Cloud-Ressourcen schnell zu buchen und bei Erfolg stark auszuweiten, gibt Applikationsentwicklern grosse Freiheiten, einfache wie komplexe Programmstrukturen rasend schnell auszurollen.

Aus dieser Freiheit erwächst die Verantwortung, Fragen der Sicherheit, Compliance und des Datenmanagements zu klären. Denn wenn der Dienst oder die Applikation erfolgreich läuft, entstehen mehr Daten. Und je länger sie laufen, desto mehr Daten sind auf der Infrastruktur des jeweiligen Cloud-Anbieters geladen. Nicht zuletzt: Je mehr Dienste von unterschiedlichen Providern betrieben werden, desto mehr Daten und voneinander isolierte Datenquellen entstehen.

Das hat weitere Konsequenzen. Nutzen Unternehmen mehrere Dienstmodule von ein und demselben Provider, hosten sie dort in der Regel auch mehr Daten und geraten dadurch in Abhängigkeit. Die wachsenden Datenmengen erzeugen den sogenannten Effekt der Datengravitation: Die eigenen Terra- oder Petabytes auf der Infrastruktur des Dienstleisters erzeugen eine Schwerkraft, die ein Unternehmen nur mit grösserem Kraftaufwand überwinden kann. Zudem halten die Provider zwar Management- und Performance-Tools bereit. Diese machen jedoch oft an den Grenzen ihrer Cloud halt. Ein Gesamtblick auf die ­Multi-Cloud fehlt, wodurch die Komplexität und die Unvorhersehbarkeit der Umgebung wachsen. Um dem entgegenzuwirken, haben sich mehrere Best Practices auf dem Markt etabliert.

Für mehr Fluchtgeschwindigkeit

Im ersten und wichtigsten Schritt verschafft sich der IT-Verantwortliche einen umfassenden Überblick über alle Ressourcen, auf denen Firmendaten und Applikationen abgelegt sind. Dazu zählen lokale Ressourcen genauso wie alle privaten und öffentlichen Clouds. Dann ist es wichtig, den Grad der Datengravitation zu ermitteln. Wie viele Daten liegen dort, an welche Dienste sind sie gebunden, wie sind sie in den vergangenen Monaten und Jahren gewachsen?

Wer diese Basiswerte kennt, sollte im nächsten Schritt prüfen, ob sich die Menge der Daten reduzieren lässt. Dazu ist es unabdingbar, den Inhalt der Daten zu untersuchen und ihnen abhängig vom Ergebnis einen Wert für das Geschäft zuzuweisen. Anhand dieser Metadaten werden die Daten konsistent gruppiert: Als unwichtig deklarierte Daten können risikofrei gelöscht werden. Das senkt Storage-Kosten sofort und verkürzt die Dauer der Migration. Der stärkste Ansatz, um den Wert der Daten einheitlich zu ermitteln, ist die automatische Klassifizierung der Daten auf Basis von Machine Learning und künstlicher Intelligenz.

Um in der modernen Welt der Multi-Cloud seine Freiheit zu behalten, ist es wichtig, die Gravitationseffekte der Daten soweit es geht einzudämmen. Ein modernes Datenmanagement, das alle Datenquellen lokal und in der Cloud abdeckt, bildet dafür die Grundlage.

Webcode
DPF8_139529

Kommentare

« Mehr