Maia 200

Microsoft lanciert KI-Beschleuniger mit neuem Speicherdesign

Uhr
von René Jaun und NetzKI Bot und jor

Unter dem Namen Maia 200 stellt Microsoft seinen neuen KI-Beschleuniger vor. Der Nachfolger von Maia 100 rechnet über 10 PetaFLOPS bei 4-Bit-Präzision. Buchbar ist der Prozessor vorerst in US-amerikanischen Cloud-Regionen.

Microsofts neuer KI-Beschleuniger Maia 200 ist für rechenintensive KI-Inferenz ausgelegt. (Source: zVg)
Microsofts neuer KI-Beschleuniger Maia 200 ist für rechenintensive KI-Inferenz ausgelegt. (Source: zVg)

Maia 200 heisst der neue KI-Beschleuniger von Microsoft. Das neue Produkt - der Nachfolger des im Herbst 2023 erstmals vorgestellten Maia 100 - punkte besonders bei der Inferenz, also dem produktiven Einsatz von KI-Modellen in Anwendungen, teilt Microsoft mit.

Konkret soll Maia 200 eine Leistung von über 10 PetaFLOPS bei 4-Bit-Präzision (FP4) und mehr als 5 PetaFLOPS bei 8-Bit-Präzision (FP8) erreichen. Damit übertreffe man aktuelle KI-Beschleuniger der Konkurrenz, schreibt der Hyperscaler in einem Blogbeitrag: Im FP4-Rechnen übertreffe das Produkt etwa den seit Dezember 2025 allgemein verfügbaren Trainium 3 von Amazon Web Services (AWS, um das Dreifache. Im FP8-rechnen übertreffe man auch die 7. Generation von Googles TPU. Zu den Vergleichen bemerkt "Heise" jedoch, der AWS-Prozessor sei nicht für die Inferenz, sondern fürs KI-Training konzipiert. Dennoch lasse sich erkennen, dass Microsofts Modell vor allem beim Inferencing von grossen KI-Modellen mit FP4-Gewichten sehr hohe Rechenleistung liefere.

Abgesehen von der im Vergleich zum Vorgängermodel erhöhten Leistung hebt Microsoft auch die überarbeitete Speicherinfrastruktur hervor: Sie setze auf schmalere Zahlenformate (narrow-precision datatypes), eine spezialisierte DMA-Einheit für den schnellen Datentransfer, schnellen On-Chip-SRAM sowie ein eigens ausgelegtes Netzwerk auf dem Chip (NoC), das hohe Bandbreiten ermöglicht. Die RAM-Transfergeschwindigkeit beziffert Microsoft mit 7 Terabytes pro Sekunde. Ganz ohne Fachjargon schreibt Microsoft, dass ein Maia 200 die momentan grössten KI-Modelle mühelos ausführen könne und noch reichlich Spielraum für grössere Modelle in der Zukunft bleibe.

Wer Maia 200 nutzen will, kann dies über die Microsoft-Azure-Cloud tun. Allerdings ist das Angebot zum Start nur in ausgewählten US-amerikanischen Cloud-Regionen verfügbar.

 

Lesen sie auch: OpenAI entwirft seine eigenen KI-Chips. Für die Produktion spannt das Unternehmen hinter ChatGPT mit Broadcom zusammen. Es partnert aber auch mit weiteren Tech-Unternehmen, um seinen Halbleiterbedarf zu decken.

Webcode
Pc535TwQ