メモリ大手、韓SK hynixは、2026年1月6日から9日まで米ラスベガスで開催された先端技術見本市「CES 2026」で、次世代AI向けメモリを初公開した。

今回の展示で同社は次世代HBMである「HBM4」の16層48GB製品を初公開。同製品は業界最速となる11.7Gbpsを実現した「HBM4」12層36GB製品の後継モデルであり、さらに速い12Gbps以上の速度が期待されるほか、2TB/s級の帯域が見込まれ、容量も12層製品に比べて33%増加したという。16層製品は極薄ダイ化(厚さ約30㎛)、反りの制御、TSVの高密度化という難題を克服し、顧客の開発スケジュールに合わせて順調に開発が進んでいるとしている。米NVIDIAのRubin世代GPUの中核メモリとして採用されることが濃厚とみられている。

また、「CES 2026」では、今年のHBM市場の牽引役になるとみられている「HBM3E」12層36GB製品も展示した。特に、同製品が搭載されたAIサーバー向けGPUモジュール(NVIDIAのH100またはH200とみられる)を共に展示し、AIシステム内における同製品の役割を具体的に示したようである。

同社はHBMのほかにも、AIサーバー特化型の低電力メモリモジュールである「SOCAMM2」や、オンデバイスAI向けに最適化するため、既存製品に比べてデータ処理速度と電力効率を大きく改善した次世代DRAM「LPDDR6」も公開した。NANDでは、AIデータセンターの構築拡大により、需要が急増する超大容量eSSDに最適化した321層2Tb QLC製品を公開。既存製品に比べて電力効率と性能が大幅に向上したという。

加えて同社は、AIメモリソリューションがAIエコシステムに接続する過程を展示する「AIデモゾーン」を設置。ここで展示された「cHBM」は、革新的な内部構造を肉眼で確認できる大型モックアップが用意された。AI市場の競争様相が単なる性能から推論効率や費用最適化へと移行する中、GPUやASICで担っていた一部の演算、制御機能をHBMに統合した新たな設計方式を視覚化したとしている。

同社のキム・ジュソンAIインフラ社長は、「当社は差別化されたメモリソリューションで顧客の要求に応えると同時に、AIエコシステムの発展のために顧客との緊密な協力をベースに新たな価値を創出していく」と述べた。

出典:SK Hynix Press Release