Microsoft lanciert KI-Beschleuniger mit neuem Speicherdesign
Unter dem Namen Maia 200 stellt Microsoft seinen neuen KI-Beschleuniger vor. Der Nachfolger von Maia 100 rechnet über 10 PetaFLOPS bei 4-Bit-Präzision. Buchbar ist der Prozessor vorerst in US-amerikanischen Cloud-Regionen.
Maia 200 heisst der neue KI-Beschleuniger von Microsoft. Das neue Produkt - der Nachfolger des im Herbst 2023 erstmals vorgestellten Maia 100 - punkte besonders bei der Inferenz, also dem produktiven Einsatz von KI-Modellen in Anwendungen, teilt Microsoft mit.
Konkret soll Maia 200 eine Leistung von über 10 PetaFLOPS bei 4-Bit-Präzision (FP4) und mehr als 5 PetaFLOPS bei 8-Bit-Präzision (FP8) erreichen. Damit übertreffe man aktuelle KI-Beschleuniger der Konkurrenz, schreibt der Hyperscaler in einem Blogbeitrag: Im FP4-Rechnen übertreffe das Produkt etwa den seit Dezember 2025 allgemein verfügbaren Trainium 3 von Amazon Web Services (AWS, um das Dreifache. Im FP8-rechnen übertreffe man auch die 7. Generation von Googles TPU. Zu den Vergleichen bemerkt "Heise" jedoch, der AWS-Prozessor sei nicht für die Inferenz, sondern fürs KI-Training konzipiert. Dennoch lasse sich erkennen, dass Microsofts Modell vor allem beim Inferencing von grossen KI-Modellen mit FP4-Gewichten sehr hohe Rechenleistung liefere.
Abgesehen von der im Vergleich zum Vorgängermodel erhöhten Leistung hebt Microsoft auch die überarbeitete Speicherinfrastruktur hervor: Sie setze auf schmalere Zahlenformate (narrow-precision datatypes), eine spezialisierte DMA-Einheit für den schnellen Datentransfer, schnellen On-Chip-SRAM sowie ein eigens ausgelegtes Netzwerk auf dem Chip (NoC), das hohe Bandbreiten ermöglicht. Die RAM-Transfergeschwindigkeit beziffert Microsoft mit 7 Terabytes pro Sekunde. Ganz ohne Fachjargon schreibt Microsoft, dass ein Maia 200 die momentan grössten KI-Modelle mühelos ausführen könne und noch reichlich Spielraum für grössere Modelle in der Zukunft bleibe.
Wer Maia 200 nutzen will, kann dies über die Microsoft-Azure-Cloud tun. Allerdings ist das Angebot zum Start nur in ausgewählten US-amerikanischen Cloud-Regionen verfügbar.
Lesen sie auch: OpenAI entwirft seine eigenen KI-Chips. Für die Produktion spannt das Unternehmen hinter ChatGPT mit Broadcom zusammen. Es partnert aber auch mit weiteren Tech-Unternehmen, um seinen Halbleiterbedarf zu decken.
Cyberangriffe destabilisieren die Sicherheitslage in der Schweiz
Nationalratskommission will E-GD zentral organisieren
Phishing-Welle trifft Bexio-Kundschaft
Cloudflare streicht über 1100 Stellen, um KI-Wandel zu beschleunigen
Wie die Schweiz auf die Preissteigerungen bei Speicherchips reagieren soll
Zürich ringt mit M365 und entwickelt eigene KI
DeepL baut ein Viertel der Stellen ab
Auditfähig. Und trotzdem schnell.
Swiss Post Cybersecurity partnert mit Swisssign