韓SK Hynixは9月26日、12層のHBM3E製品の量産を開始したと発表した。DRAMチップをこれまでよりも40%薄くしたことで、既存の8段HBM3E製品と同じ厚さながら、容量は既存の24GBから36GBに増加した。新製品は年内に顧客に供給される予定で、米NVIDIAに最初に供給される。

同社は2024年3月に8層のHBM3E製品を供給開始していたが、今回、同じ厚さで3GB DRAMチップ12個を積層して容量を50%増加させた。このためにDRAMチップを40%薄くし、TSV(Through Silicon Via)という技術を活用し、垂直に積載した。

また、同社は自社技術であるAdvanced MR-MUF(Mass Reflow Molded Underfill)というプロセスを採用し、薄くなったチップをさらに高く積載する際に発生する構造上の問題も解決。前世代品より放熱性能が10%向上、反り現象制御が強化され、製品の安定性と信頼性も向上した。

動作速度は米Micron Technologyが7月に発表したHBM3Eと同様、既存のメモリの最高速度である9.6Gbp。これは新製品4個を搭載したGPUで大言語モデル(LLM)である「Llama 3 70B」を駆動させた場合に、700億パラメーターを1秒間に35回読み出し可能な水準であるという。

SK Hynix関係者は「当社は2013年に世界で初めてHBMの第1世代(HBM1)をリリースしたのに次いでHBM第5世代(HBM3E)まで前世代のラインアップを開発し、市場に供給してきた唯一の企業」であり、「高まりつつあるAI企業の目の高さに合わせた12段新製品も最も最初に量産に成功し、AIメモリ市場で独歩的な地位を保っている」と強調した。

また、同社のキム・ジュソン社長は「今回のHBM3Eの12段量産により、再度技術限界を突破し、AIメモリのリーダーであると立証した」とし、「今後もAI時代の難題を克服するために次世代メモリ製品を着実に準備し、グローバル第1位のAIメモリ企業としての地位を継続したい」と述べた。