SPONSORED-POST Dossier Hybrid Cloud

Keine Grenzen zwischen Cloud und On-Premises

Uhr | Aktualisiert
von Christoph Schnidrig, Manager Solutions Engineering, Netapp Switzerland

Der hybriden Cloud gehört die Zukunft. Doch wie können die unterschiedlichen Ressourcen zu ­einem Ganzen vereint werden? Das Data-Fabric-Konzept ermöglicht eine nahtlose Verbindung von Cloud und On-Premises und erlaubt damit einen flexiblen Umgang mit der hybriden Cloud.

Hybride Cloud-Infrastrukturen haben sich zu einem wichtigen Element einer agilen IT-Landschaft entwickelt. Gemischte Cloud-Architekturen stellen die IT-Verantwortlichen jedoch vor das Problem, den Sourcing-Mix zu einer einheitlichen Umgebung zu verbinden. Es droht ein Patchwork von Services verschiedener Anbieter und eigenen Systemen. Wie können Unternehmen in einer solchen Umgebung die Kontrolle über ihre Daten behalten? Wie lassen sich die Daten von einem System zum anderen verschieben? Wie gelangen sie in die Cloud – und ebenso wichtig: Wie gelangen sie wieder zurück? Denn was, wenn sich der gewählte Cloud-Dienst nach einiger Zeit doch als ungeeignet entpuppt? Oder wenn der Anbieter Konkurs geht oder aus einem anderen Grund seinen Dienst einstellt?

Grenzenloses Datenmanagement mit der Data Fabric

Eine Antwort zur Lösung dieser Problematik bietet das Konzept der Data Fabric. Die Data Fabric beschreibt das grenzenlose zentrale Management von Daten über alle Ressourcen hinweg – inklusive der Cloud. Innerhalb der Data Fabric können Datenbestände sicher über alle Infrastrukturen transferiert werden, unabhängig davon, wo sie stehen. Ziel ist, dass Unternehmen die leistungsfähigen IT-Ressourcen von Hyperscale-Providern wie Amazon AWS oder Microsoft Azure nutzen können, ohne die Kontrolle über ihre Daten abzugeben.

Damit das Data-Fabric-Konzept funktionieren kann, müssen Wege gefunden werden, um die Cloud-Dienste der Hyperscaler in die eigene Infrastruktur einzubinden. Problematisch ist etwa, dass sich das Storage-System, das im eigenen Rechenzentrum steht, von Natur aus oft nicht gut mit dem Speicher-Service des Hyperscalers versteht.

Identische Storage-Systeme ­On-Premises und in der Cloud

Im Sinne der Data Fabric sollte man auf höchste Kompatibilität zwischen den beiden Umgebungen achten, was je nach On-Premises-System nicht immer einfach ist. Im besten Falle sollten sie sogar identisch sein – mit derselben gewohnten Umgebung und denselben Funktionen. Dies kann mithilfe der richtigen IaaS- oder PaaS-Optionen beim Hyperscaler erreicht werden. So kann man sich je nach Bedarf ein komplettes virtualisiertes Storage-System oder einen Cloud-nativen File-Storage aussuchen, die auf der Infrastruktur des Hyperscalers laufen und die einen nahtlosen und einfachen Datenaustausch ermöglichen. Unterstützen beide Systeme – On-Premises und die Cloud – dazu noch Deduplizierung, Komprimierung und Verdichtung, lassen sich auch die Kosten für die Bandbreite und den Onlinespeicherplatz tief halten.

Um den Überblick über den Ressourcen-Mix zu behalten, sollte man zudem auf ein dynamisches Monitoring-Tool zurückgreifen, das alle Speicherressourcen im eigenen Serverraum und in der Cloud automatisch visualisiert und Volumes per Drag-and-Drop und API zwischen den Standorten verschieben lässt.

Höchste Flexibilität für hybride Cloud-­Infrastrukturen

Dass Unternehmen auf Cloud-Services setzen sollten, um ihre IT-Kosten zu senken, ist ein noch immer verbreitetes Missverständnis. Kostenreduktionen sind zwar möglich, aber nicht gewiss. Im Fokus des Cloud-Einsatzes sollte vielmehr ein Gewinn an Flexibilität stehen. Eine richtig umgesetzte Data Fabric erlaubt es Unternehmen, das Potenzial der Cloud, aber auch das Potenzial ihrer selbstbetriebenen Installationen optimal zu nutzen und getätigte Investitionen zu schützen.

------

Interview mit Christoph Schnidrig, Manager Solutions Engineering, ­Netapp

"Grosse Datensilos können per Drag-and-Drop in die Cloud und zurück"

Es gibt keinen Standard, der die Replikation eines Speichersystems aus dem Kunden-­Rechenzentrum hin zu einem Hyperscaler ermöglicht. Deshalb ist es wichtig, einen Anbieter zu wählen, der das kann. Interview: Marc Landis

Warum verstehen sich die Storage-Systeme der ­Hyperscaler und das On-Premises-Storage-System im Kunden-Rechenzentrum "naturgemäss nicht gut", wie Sie im Fachbeitrag schreiben?
Christoph Schnidrig: Es gibt keinen Standard, der die Replikation eines Speichersystems aus dem Kunden-RZ hin zu einem Hyperscaler ermöglichen würde. Um dies überhaupt möglich zu machen, müsste ein Windows- oder Linux-VM-Host eingesetzt werden, der dann die Daten mithilfe eines Frontend-Protokolls wie CIFS, NFS oder SCP überträgt. Dieses Vorgehen wäre aber so langsam, dass es für Firmendaten nicht infrage käme. Auch ist ein einfaches Kopieren der Daten oft gar nicht möglich, weil zum Beispiel geöffnete Dateien speziell behandelt werden müssen. Deswegen müsste zunächst eine Kopie des Datensatzes erstellt werden, die dann vor der Übertragung in die Cloud noch einmal aktualisiert werden müsste. Das Replikationstool muss diesen Vorgang entsprechend unterstützen und steuern.

Wie hilft Netapp Unternehmen dabei, Daten On-Premises und in der Public Cloud zu orchestrieren?
Netapp-Kunden, die heute Systeme im Datacenter betreiben, können mit Cloud Volume ONTAP – in der Cloud – alle bestehenden Netapp-Management-Tools einsetzen. Das heisst, grosse Datensilos lassen sich auf dem Bildschirm per "Drag-and-Drop" vom firmeninternen Rechenzentrum in die Public Cloud verschieben – und sind dann auch wenige Sekunden später dort. Das Netapp-Storage-System – Cloud Volume ONTAP – beim Hyperscaler ist also wie ein zweiter physischer Standort in die Tools eingebunden und somit nahtlos integriert. Der Kunde managt die Daten in der Cloud, als wenn sie in einem zweiten Rechenzentrum liegen würden – man muss das am Bildschirm gesehen haben, um es glauben zu können. Wiederkehrende Prozesse in dynamischen Umgebungen können mit dem Workflow Automator, kurz WFA, komplett automatisiert werden. Falls Netapp physisch nur an einem Ort vorhanden ist – also entweder im eigenen Rechenzentrum oder beim Cloud-Anbieter –, wird CloudSync für die Replikationen eingesetzt. Dieses Tool bietet dem Administrator eine intuitive, auf HTML5 basierende Oberfläche. Der kürzlich lancierte "Cloud Insight Service" ist darüber hinaus ein Managementinformationssystem und sorgt für Übersicht, nicht nur über Speichersysteme, sondern auch über virtuelle und containerisierte Umgebungen – sowohl im eigenen Datacenter wie auch in der Cloud. Letztlich erhält man damit ein Dashboard für die Infrastruktur im eigenen RZ und in der Cloud und sieht so auf einen Blick, welche Workloads am besten wohin passen und wo die Kosten anfallen.

Welche Probleme können dabei auftreten?
Unser Ansatz bietet einen Cloud-übergreifenden Data Management Layer – der Kunde behält die Kontrolle über seine Daten und hat jederzeit die Möglichkeit, diese wieder zurückzuholen. Die Organisation des Kunden muss allerdings lernen, wie die Cloud-Ressourcen am sinnvollsten genutzt werden können, sonst verliert man schnell Übersicht und Kontrolle. Unsere Lösungen bieten genau das: Übersicht und die Möglichkeit, Daten rasch und flexibel zu verschieben. Wird heute etwas in die Cloud migriert, kann dies morgen schon wieder zurückgeholt werden.

Wie sind Sicherheit und Integrität der Daten in der Data Fabric sichergestellt?
Generell arbeitet Netapp mit Verschlüsselungen, sei es bei der Übermittlung der Daten oder bei der Speicherung. Bei der Replikation wird mit Checksummen auf mehreren Ebenen sichergestellt, dass die Daten, die ankommen, identisch mit denen an der Quelle sind. Generell wird in einer Public Cloud mit anderen Security-Konzepten gearbeitet. So besteht um jede In­frastruktur-Komponente eine virtuelle Firewall, beispielsweise Security Groups bei AWS, welche die Netzwerkverbindungen kontrolliert. Somit ist die Sicherheit auf Netzwerkebene per Definition höher als im eigenen RZ.

Webcode
DPF8_114292

Kommentare

« Mehr