GNC letter
GNCレター
米Microsoftは2026年1月26日、新型のAI推論アクセラレータ「Maia200」を発表した。「Maia100」の後継製品で、AI推論のコスト効率と性能を大幅に向上させるとしている。自社サービスの効率的な稼働とともに、米NVIDIA製品に代わる選択肢とする構えだ。
同チップは台TSMCの3nmプロセスで製造され、1,400億個以上のトランジスタが搭載されるという。AIの推論処理が求めるFP8およびFP4での演算に特化しており、FP4で10ペタFLOPS以上、FP8で約5ペタFLOPSの性能を発揮する。 他社との性能比較では、Amazonの第3世代Trainium比でFP4性能が3倍、Googleの第7世代TPUを上回るFP8性能を実現している。Microsoftがこれまで展開してきた推論システムの中でも最も高効率で、現行世代比で「1ドルあたり30%高い性能」を提供するという。
加えて、216GBのHBM3e(帯域7TB/s)、272MBのオンチップSRAMを搭載するなど、大容量・高速メモリを備える。また、ナロープレシジョン(低精度)データ型への最適化、専用DMAエンジンによる効率的なデータ転送、高帯域NoC(Network-on-Chip)ファブリックによるチップ内データ移動の高速化など、メモリサブシステムを全面的に再設計したことで、トークンスループット(生成速度)が大幅に向上したという。
また、同チップには標準Ethernetを基盤にした独自の2段階スケールアップネットワークを採用したことにより、専用ファブリックに依存せずに高性能と高信頼性、そしてコスト優位性を実現したという。
さらに液冷ユニットやネットワークなど複雑要素も事前検証し、Azureコントロールプレーンと統合し、運用性・信頼性を強化することで、初シリコンからデータセンター導入までの期間を従来の半分以下に短縮することを実現した。
同チップは、まずマイクロソフト内の先端AI開発チームである「Microsoft AI Superintelligence Team」が利用するが、今後、Microsoft Foundry(旧Azure AI Studio)や、Microsoft 365 Copilotのインフラとしても活用されていく予定となっている。同チップはアイオワ州デモイン近郊の「US Central」リージョンで稼働を開始しており、次にアリゾナ州フェニックス近郊の「US West 3」リージョンにも展開される予定で、今後さらに地域を拡大するとしている。なお、同社のクラウドサービス「Azure」の利用者が同チップ搭載のサーバーを利用可能になる時期については明らかになっていない。
出典:Microsoft Blog
半導体/MEMS/ディスプレイのWEBEXHIBITION(WEB展示会)による製品・サービスのマッチングサービス SEMI-NET(セミネット)