Performance und Storage-Dichte für Big Data von Netapp
Netapp lanciert an der International Conference for HPC, Networking, Storage and Analysis (SC11) neue Big Data-Lösungen auf Basis der Netapp E-Serie. Damit sollen High-Performance-Computing-Anwendungen bei geringeren Risiken und Kosten schneller mehr Ergebnisse liefern.
Im Rahmen seines Engagements für High Performance Computing (HPC) präsentiert Storagehersteller Netapp zwei neue Big Data-Lösungen auf Basis der Netapp E-Serie. Damit sollen die Anforderungen der Kunden an Skalierbarkeit, Bandbreite und Storage-Dichte erfüllt werden können, die durch datenintensive Applikationen entstehen, und von mehr Effizienz und Performance profitieren. Die mit den parallelen Filesystemen Lustre und Quantum Stornext integrierten Lösungen werden diese Woche in Seattle (USA) auf der SC11 (International Conference for HPC, Networking, Storage and Analysis) vorgestellt.
Parallele Filesysteme als Schlüsseltechnologie
"Storage bleibt das Produktsegment mit dem grössten Wachstum, nicht zuletzt da Unternehmen und Supercomputing-Einrichtungen riesige Datenmengen analysieren und speichern wollen", sagt Adison Snell, CEO bei Intersect360 Research. "Parallele Filesysteme sind Schlüsseltechnologien für das effektive Management dieser Datenspeicher. Die auf Performance ausgelegten Netapp-Lösungen zielen mit der Einbindung von Lustre und Quantum Stornext genau auf diesen Markt ab." Netapps HPC-Lösung für Lustre sei gezielt für die effiziente Skalierung von Bandbreite und Storage-Dichte entwickelt worden, wie sie komplexe Aufgaben in Forschung, Modellierung und Simulation erfordern würden. Die für das Lustre-Filesystem optimierte Storage-Lösung beschleunige Resultate, erhöhe die Recheneffizienz, eliminiere Datenengpässe durch eine Schreibgeschwindigkeit von 30 GB/s und reduziere Stromverbrauch, Kühlung und Betriebskosten durch mehr Festplattenleistung bei weniger Rackspace.
"Netapp nimmt HPC sehr ernst", sagt Brendon Howe, Vice President High Performance Computing bei Netapp. "Unsere Bandbreitenlösungen für Big Data sind praxiserprobt und liefern Ergebnisse schneller, mit mehr Produktivität und bei geringeren Risiken und Kosten."
Youtuber korrigiert abominablen Patzer des Jurassic-World-Design-Teams
Ermittler zerschlagen Darknet-Betrugsnetzwerk
Klarheit zeigt Wirkung: Wie SRF seine Organisation ausgerichtet hat und weiterdenkt
Update: EU lässt freiwillige Chatkontrollen auslaufen
Print myself
Hybride Meetings im Jahr 2026: Es kommt nach wie vor auf die Technik an
KI in der Schweiz: Umsetzung jetzt entscheidend
EPFL entwickelt KI-gestütztes Satellitensystem zum Aufspüren von Meeresmüll
Berner Datenschützer rügen Kamera-Attrappen und lenken in puncto MS Teams ein