Redmond – Microsoft hat den Nachfolger seines ersten selbst entwickelten KI-Chips vorgestellt: den Maia 200. Der neue AI-Accelerator wird auf TSMCs 3-nm-Prozess gefertigt und soll signifikant höhere Leistung als die Konkurrenz von Amazon und Google bieten.
Laut Microsoft liefert der Maia 200 dreimal höhere FP4-Performance als die dritte Generation des Amazon Trainium und übertrifft die FP8-Performance der siebten Generation des Google TPU. Jeder Chip verfügt über mehr als 100 Milliarden Transistoren und ist speziell für großskalige KI-Workloads optimiert.
„Maia 200 kann die größten heutigen Modelle problemlos ausführen und bietet reichlich Spielraum für noch größere Modelle in der Zukunft“, erklärte Scott Guthrie, Executive Vice President von Microsofts Cloud- und KI-Sparte.
Der Maia 200 wird künftig in Microsofts Azure-Cloud-Infrastruktur eingesetzt, um die Abhängigkeit von externen Chip-Lieferanten wie Nvidia zu reduzieren und die Kosten für KI-Training und -Inference zu senken. Die Ankündigung erfolgte am 26. Januar 2026 und unterstreicht Microsofts Strategie, eigene Silizium-Entwicklungen voranzutreiben, um in der KI-Infrastruktur wettbewerbsfähig zu bleiben.
Der Maia 200 baut auf dem Vorgänger Maia 100 auf und markiert einen weiteren Schritt in Microsofts Ambitionen, eine vollständige vertikale Integration von Hardware bis hin zu Cloud-Diensten zu erreichen. Weitere technische Details und Verfügbarkeitstermine wurden zunächst nicht genannt.
