Wild Card von Daniel Liebhart

SDX – wir werden alle zu Programmierern!

Uhr

Unsere Welt war lange klar strukturiert: Hardware und Software sowie Infrastruktur und Anwendungen waren klar getrennt. Damit ist es nun vorbei. Software-defined Everything (SDX) ist das neue Paradigma. Das wird uns das Leben nicht einfacher machen.

Die traditionelle Trennung zwischen Anwendungen und Infrastruktur gilt nicht mehr. Wir haben Software gebaut, die als Anwendungen auf einer bestimmten Hardware als Infrastruktur im Einsatz waren. Ob diese Infrastruktur nun ein einzelner Rechner oder ein gesamtes Rechenzentrum inklusive des Netzwerkes mit allem Drum und Dran waren, spielte dabei keine Rolle. Die Trennung war klar: entweder Software oder Hardware. Sowohl die Engineering-Methoden für den Bau als auch die Art und Weise, wie die Bereitstellung und das Lifecycle-Management durchgeführt wurde, unterschied sich stark. Damit ist es nun vorbei.

Die Veränderung hat gemäss Hong Mei, Professor und Vizepräsident des Institutes für Technology der Universität Peking, bereits vor zehn Jahren begonnen. Gemäss seinem Artikel "Unterstanding software-defined from an OS perspective" ist sie mit der Entwicklung von Openflow verbunden. Die Version 1.0 wurde im Dezember 2009 publiziert und kann als Startschuss der Software-defined-Network-Technologie (SDN) bezeichnet werden. Einer Technologie, die es erlaubt, den Aufbau und damit auch die Eigenschaften eines gesamten Netzwerks, sehr schnell zu verändern. Die Trennung der Steuerlogik und der Netzwerkregeln von der eigentlichen Hardware (Router, Switches, Firewalls und dergleichen) macht eine zentrale Steuerung und eine Programmierung dieser Steuerung möglich. Netzwerkgeräte und deren Eigenschaften werden nicht mehr einzeln konfiguriert, sondern zentral programmiert.

Vom SDN zu SDDC und SDC . . .

Dieselbe Grundidee ist heute weit verbreitet. Was mit dem Netzwerk angefangen hat, wird seit Kurzem auf das gesamte Rechenzentrum ausgeweitet. Der Openflow-Erfinder Martin Casado formulierte das bereits vor drei Jahren am Rande einer VMware-Konferenz folgendermassen: "Was wir meinen, wenn wir über ein Datacenter sprechen, das durch Software betrieben wird, ist, dass die zentrale Funktionalität als Programm formuliert wird, das auf Standardhardware ausgeführt wird." Im Klartext heisst dies, dass sowohl der Aufbau und die Leistung sämtlicher Komponenten eines Rechenzentrums an einem zentralen Ort als Programm beschrieben werden kann. Diese Beschreibung wird dann an sogenannte "Allzweck-Hardware"-Komponenten verteilt, um ein bestimmtes Set-up der Komponente zu veranlassen.

Software-defined Datacenter (SDDC) nennt sich diese Technologie. Hersteller wie HPE beschreiben SDDC als softwaredefinierte Infrastruktur, die "… aus vollständig virtualisierten Rechen-, Netzwerk- und Speicherressourcen, die logisch in Pools kombiniert und wie eine Software verwaltet werden können …" besteht. Und selbstverständlich lässt sich dieses Konzept beliebig ausweiten. Etwa auf die Cloud, was dann als Software-defined Cloud (SDC) bezeichnet wird.

. . . bis hin zu "Infrastructure is everywhere"

Konsequent zu Ende gedacht, bedeutet diese Entwicklung, dass wir eine ganze Reihe von Paradigmen und Berufsbildern infrage stellen müssen. Wir programmieren nicht mehr nur Software, sondern auch die gesamte Infrastruktur, auf der die Programme ablaufen. Und machen damit die Infrastruktur zu Software und damit zum "wahrscheinlich Komplexesten, was von Menschenhand überhaupt erschaffen wird", wie es Fred Brooks in seinem wegweisenden Artikel "No Silver Bullet" formuliert hat.

Webcode
DPF8_161310

Kommentare

« Mehr