Die Datenmenge wächst und wächst und wächst

Die riesigen Mengen an Bits und Bytes sinnvoll verwerten

Uhr
von Matthias Oswald, Geschäftsführer, iWay

In den letzten 20 Jahren hat sich das in den 60er-Jahren formulierte Moorsche Gesetz, dass sich die Integrationsdichte von Halbleitern alle 18 bis 24 Monate verdoppelt, eindeutig bewahrheitet. Im Zuge dessen hat denn auch bei der Datenspeicherung die Analyse von grossen Datenmengen an Bedeutung gewonnen.

Matthias Oswald, Geschäftsführer, iWay
Matthias Oswald, Geschäftsführer, iWay

Die Geschichte der Datenspeicherung für Maschinen beginnt selbstverständlich weitaus früher als um den Jahrtausendwechsel. Denn Lochkarten, eine der ersten Methoden zur Speicherung von Informationen auf Computern, wurden in den USA bereits im Jahr 1890 für die Volkszählung entwickelt und in den 30er-Jahren des 20. Jahrhunderts von IBM in einer Auflage von 10 Millionen täglich produziert. In den letzten 20 Jahren hat allerdings die Datenspeicherung regelrechte Quantensprünge gemacht, die in den 100 Jahren zuvor ihresgleichen suchen.

Denn wenn auch beispielsweise Disketten zu Anfang nur wenige hundert Kilobyte (KB) fassen konnten, besiegelte bereits vor 20 Jahren das Ende dieser einen Technologie die 3,5-Zoll-Superdisk mit gerade mal 240 Megabyte (MB). Zwar kamen etwa zur selben Zeit auch Memory-Sticks und DVDs auf den Markt, sodass es für kleinere Unternehmen möglich wurde, Back-ups auf erschwinglichen, verhältnismässig kleinen Datenträgern zu erstellen. Doch wer würde heute noch einen USB-Stick mit ein paar wenigen MB wie damals kaufen wollen? Angesichts der sehr geringen Kapazität haben die Winzlinge von damals heute nur noch nostalgischen Wert.

50 Zettabyte Gesamtvolumen

Eine vergleichbare Entwicklung vollzog sich entsprechend im Mid- und Highend-Bereich: Bandspeicher wurden von Harddisks abgelöst, und letztere erhielten etwa um den Milleniumswechsel herum in der Privatwirtschaft Konkurrenz von Flash-basierten Solid State Disks (SSD). Zuvor wurde die im Verhältnis zu heute vergleichsweise langsame Technologie nur von Militär und in der Raum- und Luftfahrt eingesetzt. Immerhin kostete Anfang der Neunzigerjahre eine SSD mit 20 MB Kapazität um die 1000 US-Dollar, wobei der Wechselkurs damals doppelt so hoch war wie heute.

Mit dem ständig sinkenden Preis pro Byte nahm denn auch die Speicherwut der Firmen zu: Lange Zeit wurde einfach alles gespeichert, ohne sich über die Verwendung Gedanken zu machen. Dieses Denken gehört allerdings heute der Vergangenheit an. Die Datenmengen explodieren zwar nach wie vor. Auguren rechnen immer noch mit jährlichen Zuwachsraten um die 40 Prozent. Das totale Speichervolumen soll bis Ende 2020 mehr als 50 Zettabyte betragen. Das ist eine 5 mit 22 Nullen!

Infrastruktur wird zweitrangig

Gordon Moore hat sich aber trotzdem geirrt. Er sagte nämlich 2007 am Intel-Entwicklerforum das Ende seiner in den 60er-Jahren formulierten Faustregel, wonach sich die Dichte der Komponenten auf einem integrierten Schaltkreis ca. alle zwei Jahre verdopple, voraus. Kurz darauf jedoch wiedersprach ihm Pat Gelsinger, Chef der Digital-Enterprise-Sparte von Intel. Er meinte, dass das Mooresche Gesetz noch bis 2029 Gültigkeit behalten würde.

Ob es indes noch 10 oder ein paar Jahre länger so rasant mit der Technologie weitergeht, spielt eine untergeordnete Rolle. Momentan beschäftigt die Verantwortlichen in den Unternehmen mehr, welchen Wert sich mit den grossen Datenmengen generieren lässt. Denn die Cloud erweist sich dank ihrer flexibel skalierbaren und kostengünstigen Verfügbarkeit als hervorragendes Mittel, Workloads für Analysen grosser Datenmengen durchzuführen, womit Big Data, Analytics und die künstliche Intelligenz ganz nahe an das Speicherthema heranrücken. Die Hyperscaler liefern dafür nicht nur die virtuellen Speicher, sondern auch pfannenfertige Algorithmen.

Webcode
DPF8_184346