Für GenAI-Anwendungen

Cloudera lanciert private KI für Rechenzentren

Uhr
von Dylan Windhaber und fsi

Der US-amerikanische Big-Data-Spezialist Cloudera lanciert die neueste Version seiner Data Services. Unternehmen können damit Private AI On-Premises nutzen und generative KI-Funktionen direkt im eigenen Rechenzentrum ausführen.

(Source: NickArt / stock.adobe.com)
(Source: NickArt / stock.adobe.com)

Cloudera bringt die neueste Version der Cloudera Data Services auf den Markt. Damit können Unternehmen nun Private AI direkt im eigenen Rechenzentrum nutzen und erhalten GPU-beschleunigte, generative KI-Funktionen hinter ihrer Firewall, wie Cloudera mitteilt. Mit integrierter Governance und hybrider Portabilität lasse sich eine eigene Daten-Cloud aufbauen und skalieren. Cloudera decke dabei den gesamten Datenlebenszyklus sowohl On-Premises als auch in der Public Cloud ab.

Der kalifornische Big-Data-Spezialist adressiert mit dieser neuen Version laut Mitteilung Risiken für Daten und geistiges Eigentum und verkürzt den Weg vom Prototyp zur Produktion erheblich. Abgesehen von Kosteneinsparungen und optimierten Datenlebenszyklen sollen Unternehmen zudem die Bereitstellung von Workloads beschleunigen können. Des Weiteren biete die Neuerung eine Verbesserung der Sicherheit durch die Automatisierung komplexer Aufgaben sowie eine schnellere Amortisierung der KI-Bereitstellung.

Die beiden Tools Cloudera AI Inference Service und AI Studio – die bisher nur in der Cloud verfügbar gewesen seien – stehen laut Mitteilung nun ebenfalls im Rechenzentrum zur Verfügung. Damit liessen sich GenAI-Anwendungen lokal aufbauen und ausführen sowie sensible Daten hinter der eigenen Firewall schützen.

 

Künstliche Intelligenz soll übrigens bis 2030 zu einer Verdoppelung des Stromverbrauchs von Rechenzentren führen. Dies hat die Internationale Energieagentur prognostiziert. Lesen Sie hier mehr darüber. 

Webcode
UC8KBT3C