米半導体大手、NVIDIAは3月18日、AI向け次世代アーキテクチャー「NVIDIA Blackwell Ultra」を発表した。同アーキテクチャーを採用した製品は2025年後半に出荷開始予定となっている。

発表によれば、新アーキテクチャーは「AI推論、エージェントAI、物理AIなどのアプリケーションを加速させるため、トレーニング及びテスト時間のスケーリング推論をあらゆる組織で可能にする」という。

「Blackwell Ultra」は1年前に発表された「Blackwell」アーキテクチャーに基づいて構築されている。「Blackwell」と同様に2チップ構成であり、搭載メモリも「HBM3E」で変わらないが、メモリ容量は「Blackwell」の192GBから1.5倍の288GBに増加した。また、40TBの高速メモリを搭載しているほか、「Spectrum-X Networking Platform」や「Quantum-X800 InfiniBand Platform」といった高速通信システムとシームレスに統合されている。

「Blackwell Ultra」を採用したGPUは、データセンター向けAI処理システム「GB300 NVL72」とサーバーボード「HGX B300 NVL16」に搭載される。「GB300 NVL72」には同アーキテクチャーを採用したGPUを72個、ArmベースCPU「NVIDIA Grace」を36個搭載されており、同システムのAIパフォーマンスは前世代品に比べ、1.5倍に向上した。また、「HGX B300 NVL16」には同アーキテクチャーを採用したGPUが16個搭載され、前世代品と比較して、大規模言語モデルの推論を11倍高速化するほか、7倍のコンピュートと4倍のメモリを搭載している。

今後、米Cisco、米Dell Technologies、米Hewlett Packard Enterpriseなどが「Blackwell Ultra」製品をベースとしたサーバーを展開するものと見られる。また、Amazon Web ServicesやGoogle CloudなどのクラウドサービスプロバイダやCoreWeave、LambdaなどのGPUクラウドプロバイダが同アーキテクチャー搭載インスタンスをいち早く提供する見込みである。