2023年後半から、生成AIの本格的な立ち上がりを受けて、各半導体メーカーは積極的にAI向けチップの販売を開始しようと動きを見せている。

また、OPEN AI社との協業やWindowsに生成AI機能を搭載するなど、当初から積極的に開発を進めている米Microsoft社は、現在は同社のデータセンタ Microsoft AZURE向けにNVIDIAのGPUを用いているものの、11月15日の開発者向け年次イベント「Microsoft Ignite」で、AIに最適化した「Microsoft Azure Maia 100 AI Accelerator」(maia 100)とArmベースの汎用CPU「Microsoft Azure Cobalt 100 CPU」(Cobalt 100)の2つのカスタム設計チップを発表した。

Maia 100は、1,050億個のトランジスタを含む5nmノードプロセスで製造されたチップ。Azureハードウェアスタック専用で、Microsoft Azure上で実行される最大規模の内部AIワークロードの一部を強化する。MicrosoftはMaia 100の設計を米OpenAIと共有し、OpenAIは改良で協力した。同社のサム・アルトマンCEOは「AzureのAIアーキテクチャはMaiaによってシリコンに至るまで最適化されており、より有能なモデルをトレーニングし、そのモデルを顧客に安価に提供する道を切り開く」と語った。Maia 100とCobalt 100は、2024年初頭にAzureデータセンターへの展開を開始する予定。MicrosoftのCopilotやAzure OpenAI Serviceなどのサービスを強化していく計画だ。

また、AMDは12月6日、新製品発表会「AMD Advancing AI」において、同社のリサ・スーCEOが「AIは最大の技術変革だ。2027年にはデータセンター向けのAIアクセラレータの市場規模は4,000億ドル(日本円で58兆8,000億円)に達し、年成長率75%で成長する見通し。今後AMDはAIを最優先に進めることになる」と語り、NVIDIAの背中を追う意向を示した。この発表会の場で、AMDは最新のGPUである「Instict MI 300」を発表した。8層のDRAMを積層したHBMやハイブリッドボンディング、2.5D Siインターポーザといったパッケージ技術を採用した同製品は、1つのサーバー機器として見た場合、NVIDIAのH100を8つ搭載したH100 HGXと比較すると、メモリ容量は2.4倍、演算性能はFP16/BF16で10.4PFLOPSとなり、約1.3倍の性能を実現できるとしている。大規模言語モデルで比較した場合、学習でも推論でもH100 HGXに比較して性能が倍になるとAMDは説明している。
また、AMDはコンシューマ向けでも新製品のRyzen8040シリーズを併せて発表した。AMDによると,大規模言語モデル「LLama 2」におけるRyzen 8040シリーズの性能は,同社の前のモデルであるRyzen 7040に対して1.4倍,また画像生成モデルも1.4倍という大幅な高性能化をはたしているという。

一方、米国半導体最大手であるIntelもこれまでAIについてはNVIDIA、AMDの後塵を配してきたが、2023年12月14日に発表したPC向けのMPU「 Core Ultra」において、初めてNPU(Neural Processing Unit)を搭載し、生成AIでは従来の約1.7倍のパフォーマンスを発揮すると発表した。

一方で追われる側のNVIDIAも次々と新製品を開発、発表しており、現在の優位性を明け渡すつもりはない。CES2024に併せて1月8日に発表したコンシューマ向けの最新のGPU「GeForce RTX 40 SUPERシリーズ」を発表した。同製品は生成AIの処理性能に関して、前機種のGeForce RTX 3080 Ti比で4倍近いTensor Coreを持つため,2倍以上の性能が得られると述べられている。

今後、米国を中心にサーバ向け、コンシューマ向けを中心に、よりAIに特化したチップの開発が各社で進んでいく。それに伴い、半導体製造各社は前工程、そしてパッケージングでより高付加価値を持った加工を実現させていく必要がある。