AWS bringt KI-Agenten Verhaltensregeln bei
Zur Keynote an der "Re:invent 2025" hat AWS-CEO Matt Garman einen leistungsfähigeren KI-Chip, ein vielseitigeres KI-Modell und mehr Unterstützung beim Ausrollen mächtiger KI-Vorhaben versprochen. Er zeigte auch, wie AWS-Kunden ihre KI-Agenten künftig im Zaum halten können.
"Jede einzelne Kundenerfahrung, jedes einzelne Unternehmen, ja sogar jede einzelne Branche befindet sich derzeit in einem Prozess der Neugestaltung." Mit diesen Worten beschrieb Matt Garman, CEO des US-amerikanischen Tech-giganten Amazon Web Services (AWS), den Aufstieg und die Auswirkungen von künstlicher Intelligenz. Seine Schilderung war Teil der Keynote anlässlich der AWS-Hausmesse Re:invent 2025, die aktuell in Las Vegas stattfindet.
Noch stehe man "ganz am Anfang dessen, was KI leisten kann", fuhr der Chef des Hyperscalers fort. "Die Technologie entwickelt sich schneller weiter als alles, was wir bisher erlebt haben."
Hunderttausende KI-Chips im Verbund
Beispiele davon, wie schnell sich die Technologie entwickelt, lieferte Garman in den darauf folgenden zwei Stunden, in denen er eine Vielzahl an AWS-Neuigkeiten in rascher Abfolge Präsentierte. Deren Mehrheit waren zwar keine Weltneuheiten, aber dennoch bemerkenswerte Weiterentwicklungen bestehender Produkte. Bereits vergangenes Jahr angekündigt hatte der AWS-CEO etwa den Trainium 3 – einen KI-chip, der auf 3-Nanometer-Prozessortechnologie basiert – eine Premiere für AWS, wie Garman erwähnte. Zur diesjährigen Hausmesse konnte er nun die allgemeine Verfügbarkeit des KI-Chips bekanntgeben. Noch stärker jedoch rückt AWS das Produkt "Trainium 3 Ultra" in den Mittelpunkt. Je nach Konfiguration sind darin bis zu 144 Trainium-3-chips zusammengeschlossen, wie der Hyperscaler mitteilt. Ein solches Prozessormonster liefere bis zu 362 FP8 pedaflops an Rechenleistung - 4,4 mal mehr als der Vorgänger "Trainium 2 Ultra", die der AWS-CEO ausführte. Auch die Netzwerkinfrastruktur, über welche die Chips kommunizieren, hat AWS verbessert. Die Bandbreite habe man verdoppelt und die Kommunikationslatenz auf unter 10 Mikrosekunden gesenkt, heisst es in der Mitteilung. Laut AWS sollen damit KI-Anwendungen mit nahezu sofortigen Reaktionszeiten umsetzbar sein. "Damit eröffnen sich neue Anwendungsfälle wie Echtzeit-Entscheidungssysteme, die Daten sofort verarbeiten und darauf reagieren, sowie flüssige dialogorientierte KI, die ohne Verzögerung natürlich reagiert", teilt das Unternehmen mit. Zudem, merkt AWS an, sei Trainium 3 deutlich energieeffizienter als sein Vorgänger. Wer noch einmal viel mehr KI-Leistung will, kann sich dank Elastic Fabric Adapter (EFA) "Cluster aus Hunderttausenden Chips" skalieren, wie Garman an der Keynote anmerkte. Wie vergangenes Jahr endete dieser Themenblock mit dem Blick in die Zukunft. Man arbeite bereits intensiv an Trainium 4, so der CEO. Er soll die FP4-Rechenleistung von Trainium 3 um das 6-fache übertreffen und und mit 4-facher Speicherbandbreite aufwarten. Oder etwas praktischer Ausgedrückt: "Sie können KI-Modelle mindestens dreimal schneller trainieren oder mindestens dreimal mehr Inferenzanfragen ausführen", schreibt AWS.

CEO Matt Gaman eröffnete den zweiten Tag der Re:invent mit seiner Keynote. (Source: zVg)
Neues Modell und neue Tools für Nova
Ein Upgrade erhält auch Nova, das von Amazon selbst entwickelte Basismodell, welches das Unternehmen anlässlich der Re:invent 2024 offiziell vorstellte. Die neuen Versionen, die Garman in seiner Keynote enthüllte, laufen unter dem Namen Nova 2. Die Varianten "Lite" (verarbeitet Text, Bilder und Videos und generiert Text), "Pro" (verarbeitet Text, Bilder, Videos und gesprochene Sprache und generiert Text) und "Sonic" (verarbeitet und generiert gesprochene Sprache) waren auch schon Teil des ursprünglichen Nova-Portfolios. Als Neuheit stellte der AWS-CEO das Modell Nova 2 Omni vor. Es ist ein einheitliches multimodales Modell, welches Text, Bilder, Videos und gesprochene Sprache verarbeitet. Ausgeben kann es sowohl Text als auch Bilder – und zwar gleichzeitig. Das sei eine Branchenneuheit, schreibt AWS in einer Mitteilung. Demnach verarbeitet Nova 2 Omni "bis zu 750.000 Wörter, stundenlange Audioaufnahmen, lange Videos und hundertseitige Dokumente und analysiert gleichzeitig ganze Produktkataloge, Erfahrungsberichte, Markenrichtlinien und Videobibliotheken auf einmal". Damit könne das Modell in einem Schritt erledigen, was zuvor mehrere Schritte mit verschiedenen KI-Modellen erforderte, erklärt der Hyperscaler. Als Anwendungsbeispiel nannte Garman die Aufgabe, eine Zusammenfassung seiner Keynote für ein Vertriebsteam zu erstellen, mit allen Produktankündigungen und inklusive einiger Bilder und Marketingmaterialien. Mit den bisherigen KI-Modellen sei so etwas "zwar durchaus machbar, aber ziemlich schwierig". Nova 2 Omni sei "Das Modell, das all das leisten kann".
Von all diesen Modellen sind übrigens aktuell Nova 2 Lite und Nova 2 Sonic allgemein verfügbar, zumindest in ersten AWS-Cloud-Regionen. Die Varianten pro und Omni haben aktuell den "Preview"-Status und sind nur für ausgewählte Kunden freigeschaltet.
Amazon erweitert das Nova-Portfolio aber nicht nur um neue KI-Modelle, sondern lanciert auch zwei neue Angebote: Nova Forge ermöglicht es Unternehmen, ihre eigene Nova-KI-Variante (im AWS-Jargon "Novellas" genannt) zu entwickeln. Kunden können dabei ihre eigenen Daten in den Trainingssatz eines Nova-Modells einfügen – und zwar zu einem von drei Zeitpunkten: "pre-trained", "mid-trained", und "post-trained", wie es in der Mitteilung heisst. Das Ergebnis sei "ein massgeschneidertes Modell, das das gesamte Wissen und die Argumentationskraft von Nova mit einem tiefen Verständnis für die spezifischen Geschäftsabläufe jeder Organisation verbindet".
Die eigene KI-Fabrik
Verfügbar ist ausserdem Nova Act, ein AWS-Service zum Erstellen und Bereitstellen von KI-Agenten, die Aktionen in Webbrowsern ausführen können. Es sei der schnellste und einfachste Weg, um Agentenflotten zu verwalten, die browserbasierte Aufgaben automatisieren, schreibt AWS.
Für Kunden, die in Sachen KI mehr als einfach einen Zacken zulegen wollen, stellte der Hyperscaler unter anderem die AI Factories vor. Sie richten sich an Unternehmen mit eigenem Rechenzentrum. Ihnen bietet der Hyperscaler "eine schnell einsetzbare, leistungsstarke AWS-KI-Infrastruktur in Ihren eigenen Rechenzentren" an, wie es in der Mitteilung heisst. Das Angebot umfasst die neuen Trainium-KI-Beschleuniger, Nvidia-GPUs, spezialisierte Netzwerke mit geringer Latenz und KI-Services. "Sie arbeiten wie eine private AWS-Region", erklärte AWS-CEO Garman in der Keynote. Kunden könnten so die AWS-KI-Services nutzen und gleichzeitig etwa hohe Anforderungen an Sicherheit und Datensouveränität einhalten.

Garman brachte ein einzelnes Rack eines TRN3-Ultra-Servers mit auf die Bühne. (Source: zVg)
KI-Agenten als Teenager
Schon vor dem Start der Hausmesse erklärte AWS die agentische KI zu einem der Schwerpunktthemen der Re:invent 2025. KI-Agenten und ihr Potenzial waren auch ein wiederkehrendes Thema in der Keynote des Unternehmens-CEOs. Um solche Agenten zu entwickeln, hält AWS das Tool Agent Core bereit, als Teil der KI-entwicklungsplattform Bedrock. Es sei begeisternd, was Kunden jetzt schon mit Agent Core entwickelten, so Garman. Doch gleichzeitig sei es herausfordernd, die Agenten dazu zu bringen, sich vorhersehbar und entsprechend den eigenen Absichten zu verhalten. "Was Agenten so leistungsfähig macht, ist ihre Fähigkeit, selbstständig zu denken und zu handeln", so der CEO. "Das macht es aber auch schwierig, darauf zu vertrauen, dass die Agenten nicht ihre Grenzen übertreten."
Es sei ein wenig wie das Erziehen von Teenagern, fuhr Garman fort, der laut eigener Angaben selber zwei jugendliche Kinder hat. Mit zunehmenden Alter gebe er ihnen mehr Freiheiten und Privilegien, damit sie das Erwachsensein lernen könnten. Gleichzeitig lege er ein paar Grundregeln fest, "um grössere Probleme zu vermeiden".
Auf KI-Agenten übertragen heisst das, dass Entwickler kontrollieren möchten, welche spezifischen Handlungen die KI-Helfer mit den verfügbaren Tools ausführen können. Entsprechende Richtlinien direkt im Programmcode der KI-Agenten zu hinterlegen, sei zwar möglich, funktioniere aber mitunter nicht, räumte der CEO ein.
Abhilfe schafft AWS mit einer neuen Agent-Core-Fähigkeit namens "Policy". Auch hier definiert der Entwickler die Aktionen, die ein KI-Agent mit bestimmten Tools durchführen kann. Aber: "Die Durchsetzung dieser Richtlinien erfolgt ausserhalb des Anwendungscodes Ihrer Agenten", so der AWS-CEO. "Die Bewertung der Richtlinien erfolgt zwischen Ihrem Agenten und all Ihren Daten sowie Ihren APIs und Tools. So können Sie deren Verhalten vorhersehbar steuern." Damit, so Garman, können Unternehmen viel stärker darauf vertrauen, dass sich KI-Agenten an die vorgeschriebenen Regeln halten.
Die Policy-Fähigkeit ist nicht die einzige Agent-Core-Erweiterung. Neu ist auch "Agent Core Evaluations", mit der Organisationen die Leistung von KI-Agenten laufend anhand verschiedener Kriterien überwachen können. Und "Agent Core Memory" sorgt laut AWS schliesslich dafür, dass "KI-Agenten mit jeder Interaktion schlauer" werden. KI-Agenten erhalten damit eine Art episodisches Erinnerungsvermögen und können, wie es in der Mitteilung heisst, "aus vergangenen Erfahrungen lernen und die Erkenntnisse auf künftige Interaktionen anzuwenden". Als Beispiel nennt AWS den KI-Agenten eines Reisebüros, der für einen Kunden automatisch unterschiedlich lange Zeitfenster zum Umsteigen am Flughafen wählt, je nachdem, ob der Kunde mit Kindern reist oder nicht. Der Agent erinnere sich dabei an frühere Challenges in Zusammenhang mit Familienreisen.
Mit diesem zielgerichteten Lernansatz können KI-Agenten konsistentere Entscheidungen basierend auf tatsächlichen Leistungsdaten treffen, anstatt sich auf vorgegebene Richtlinien zu verlassen, wie AWS erklärt.
Zum Start der "Re:invent 25" verpasste AWS übrigens seinem Service "AWS Transform" ein Upgrade. Der Dienst unterstützt die Modernisierung von Altsystemen und soll neu mit so gut wie jeder Architektur klar kommen. Mehr dazu lesen Sie hier.
Brack bringt neue Shopping-App an den Start
Die Videos zum Netzmedien Grand Prix 2025
Schweizer Antwort auf «Hyperscaler-Angst»
AWS bringt KI-Agenten Verhaltensregeln bei
V wie VUCA
Samsung stellt zweifach faltbares Smartphone vor
KI trifft Kultur – warum Transformation mehr als Technologie braucht
Wer KI will, braucht das richtige Fundament
"KI wirkt wie ein Katalysator für das Thema Souveränität"