Samsung、AI向け「過去最高容量」の12層積層HBM3Eメモリを発表、最大36GBの容量を実現

masapoco
投稿日 2024年2月27日 20:04
Industry First 36GB HBM3E 12H DRAM dl1

Micronが世界初のHBM3Eチップの量産を開始したばかりだが、Samsungもこれに負けじと業界初の12スタックHBM3E DRAMチップを開発した事を発表した。

これはこれまでのHBMメモリーチップとしては世界最高容量であり、同社は、前世代のHBMメモリーチップよりも容量と性能が50%向上しているとしている。

Samsungによると、同社のHBM3E 12Hチップは、最大1,280GB/秒の帯域幅と最大36GBの容量を提供する。これは、8スタックの現行世代のHBM3 8Hチップよりも50%高い。

このチップは先進の熱圧着非導電性フィルム(TC NCF)を使用しており、12層の製品で8層のHBMチップと同じ高さを実現している。これにより、互換性が容易になり、システム構築者の柔軟性が向上します。また、ダイの薄型化に伴うチップのダイラッピングを緩和するなどの利点もあります。

Samsungによれば、HBM3Eチップのチップ間ギャップは業界最小の7µmとのことだ。これにより、チップ内部のレイヤー間のボイドがなくなり、8レイヤーのHBM3チップと比較して垂直密度が20%向上している。

Samsungの新しいTC NCF技術は、チップ間にさまざまな大きさのバンプを使用することで、HBMチップ内部の熱を改善する。小さいバンプは信号伝達のための領域に使用され、大きいバンプは放熱が必要な場所に使用される。Samsungによれば、この方法によって製品の歩留まりも向上するようだ。これらのチップは、より大容量のメモリーを必要とするシステムに使用できる。

新たなHBM3Eチップによって、これを利用する企業はより高い性能と容量を得ることができ、データセンターの総所有コストを削減することができる。AIアプリケーションに使用した場合、AIトレーニングの平均速度は34%向上し、サービスの同時使用は11.5倍に増加する。

Samsungによれば、HBM3E 12Hチップのサンプルを顧客に送り始めており、量産は今年前半に開始される予定だという。

Samsungのメモリ製品企画担当エグゼクティブ・バイス・プレジデントであるYongcheol Bae氏は、「業界のAIサービス・プロバイダーは、より大容量のHBMをますます必要としており、当社の新製品HBM3E 12Hは、そのニーズに応えるために設計されました。この新しいメモリー・ソリューションは、ハイスタックHBMのコア技術を開発し、AI時代の大容量HBM市場に技術的リーダーシップを提供することを目指す当社のドライブの一部を形成するものです」と、述べている。


Sources



この記事が面白かったら是非シェアをお願いします!


  • Apple WWDC22 iOS16 CarPlay 220606
    次の記事

    Appleの自動運転車開発プロジェクトが終了し生成AIに注力へ

    2024年2月28日 6:10
  • 前の記事

    OpenAIの「Sora」による動画生成は軽食が摂れるほど時間がかかる

    2024年2月27日 17:48
    openai sora tokyo scene

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • Intel glass substrate 5

    Appleがガラスコア基板の採用に向けて協議を進めている

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • sibelco spruce pine

    世界の半導体は米国のたった1カ所の鉱山に支えられている

  • TSMC FAB18

    TSMCの3nmノードが急成長、2024年は収益の20%以上を占める可能性

  • SK hynix Begins Mass Production of Industrys First HBM3E 2

    SK hynix、40億ドルという世界最大級のメモリパッケージング施設を米インディアナ州に建設の計画

今読まれている記事