AI半導体大手のNVIDIAは2月17日、FacebookやInstagramなどのITサービスを提供するMetaと複数年にわたる戦略的提携を結び、次世代のAIインフラを共同構築すると発表した。Metaは世界規模のデータセンターにNVIDIA製CPUやネットワーク機器を導入し、さらに「Blackwell」「Rubin」世代を含む数百万基規模のGPUを配備する。SNSやメッセージングサービスを支えるAI基盤の大幅強化を狙う。

今回の提携は、オンプレミスの自社データセンター、クラウド環境、AI研究基盤までを含む包括的なもの。Metaは学習と推論の双方に最適化したハイパースケール型データセンターを建設し、長期AIロードマップの中核に位置付ける。

NVIDIAのジェンスン・フアンCEOは「世界最大規模の推薦システムを支えるメタの研究と産業インフラを、CPU・GPU・ネットワーク・ソフトウェアの総合プラットフォームで支援する」と述べた。Metaのマーク・ザッカーバーグCEOも「最先端のAIクラスタを構築し、世界中の人々に“パーソナル超知能”を提供する基盤になる」と強調した。

Metaはデータセンターの基幹計算用途に、Armベースの「NVIDIA Grace」CPUを本格導入する。性能当たり消費電力の大幅改善を目指すもので、同CPU単独による大規模運用は初めてとなる。さらに2027年以降には次世代「Vera」CPUの採用も検討している。

AIデータセンターでは電力消費が最大の課題となっており、エネルギー効率の向上は事業継続性そのものに直結する。メタはネットワークにもNVIDIAの「Spectrum-X」イーサネットスイッチを採用し、低遅延通信と高い稼働率を両立させる方針だ。

今回の提携は、AI競争が単なるモデル開発から「計算インフラ競争」へ移行していることを示す。Metaは自社研究だけでなく、半導体、通信、ソフトウェアを統合した共同設計に踏み込み、AIモデルの性能と効率を同時に引き上げる。

巨大データセンターと専用半導体を軸にしたAI基盤整備は、マイクロソフト—OpenAI連合やグーグルに対抗する布石でもある。AIの主戦場がアルゴリズムからインフラへ広がる中、MetaとNVIDIAの提携は、今後の産業構造を左右する象徴的な動きといえそうだ。

出典: NVIDIA Newsroom