あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

Samsungは、低遅延ワイドI/O(Low Latency Wide I/O: LLW)DRAMと呼ばれる新しいタイプのメモリを開発している事を明らかにした。同社はこの新しいメモリを、大規模言語モデル(LLM)を念頭に置いて設計されたと述べているため、DDRモジュールに取って代わるものになるのか、それとも新たな用途向けの低消費電力の代替品になるのかはまだ不明だ。

Samsungが “論説”と銘打ったプレスリリースを発表し、その中で同社のメモリー製品がどのように “AI時代を活用する”かを論じている。内容は根拠のないものも含まれているが、(例えば、”家庭において、AIは私たちの生活をより簡単で楽しいものにしている”といったもの)興味深いのは、AIモデルをオンデバイスで実行できるようにするメモリ製品の開発について触れている部分だ。これらのAIモデルは、これまでそのサイズと処理要件のためにクラウド上で実行されていたが、業界全体の一つの大きな流れとして、スマートフォンなどのオンデバイス駆動を目指す動きが見られる。そうした中で、AIモデルをクラウドではなくローカルで実行できるようにする製品として、SamsungはLLW DRAMと呼ぶ、これまで聞いたことのないタイプのメモリを示している。

SamsungのLLW DRAMについては明らかにされていることは少ない。同社はLLW DRAMがワイドI/O、低レイテンシを特徴とし、1.2pJ/ビットという低消費電力で動作するメモリで最大128GB/秒の帯域幅を提供し、DDR5-8000モジュールと同等であるとだけ述べている。SamsungはLLW DRAMがどのデータレートで当該消費電力を達成するかについては明らかにしていない。

NVIDIA、Intel、AMDは、ニューラル・プロセッシング・ユニット(NPU)やTensorコアなどの専用ハードウェアでAIアプリケーションをデバイス上で実行することの利点を宣伝し始めている。しかし、実行するアプリケーションとそれを効果的に実行する処理能力は不足している。LLW DRAMのようなソリューションは、クラウドからデバイスへのAIモデルの移行を強化するために登場する今後の重要なテクノロジーの一つとなる可能性がある。ただし、こうした先行する技術が実際に製品としてデビューするかはまだ未知数でもあるため、今後も注意深く見守っていく必要があるだろう。


Sources

Follow Me !

この記事が気に入ったら是非フォローを!

Share on:

関連コンテンツ

コメントする