Compute Express Link (CXL) 3.0 が登場

masapoco
投稿日 2022年8月3日 11:22
cxl
cxl

Compute eXpress Link(CXL)コンソーシアムは本日、CXL 3.0仕様を発表し、PCIe 6.0インターフェースのサポート、メモリプーリング、より複雑なスイッチングおよびファブリック機能といった新機能を実現した。全体として、この新しい仕様では、旧バージョンの仕様との後方互換性を維持しながら、スムーズに最近のリビジョンの最大2倍の帯域幅をサポートすることが可能になる

CXLは、CPUとGPUなどのアクセラレータ、DPUなどのスマートI/Oデバイス、さまざまな種類のDDR4/DDR5や永続メモリとの間にキャッシュコヒーレントインターコネクトを提供するオープンな業界標準規格だ。このインターコネクトにより、CPUは接続されたデバイスと同じメモリ領域で作業できるため、性能と電力効率が向上し、ソフトウェアの複雑さとデータ移動が軽減される。

すべての主要チップメーカーがこの仕様を採用しており、AMDの近日発売のGenoa CPUとIntelのSapphire Rapidsは1.1リビジョンをサポートしている。NVIDIA、Arm、および多数のメモリメーカー、ハイパースケーラ、OEM も参加している。

新しいCXL 3.0の仕様は、業界がようやくこの規格に完全に統一されたことで明るみに出た。昨日、OpenCAPIコンソーシアムは、競合するアクセラレータ用のキャッシュコヒーレントOpenCAPI仕様と、シリアル接続のニアメモリOpen Memory Interface(OMI)仕様をCXLコンソーシアムに移管すると発表した。これにより、今年初めにGen-ZコンソーシアムもCXLに吸収されたため、CXL規格の最後の競争に終止符が打たれたことになる。さらに、CCIX規格は、そのパートナーのうち数社がCXLを採用したため、消滅したようだ。

CXL 2.0は現在PCIe 5.0バス上に乗っているが、CXL 3.0はこれをPCIe 6.0に引き上げ、スループットを2倍の64GT/s(x16接続では最大256GB/sのスループット)としながら、レイテンシの増加はゼロだと主張している。CXL 3.0では、レイテンシを最適化した新しい256バイトフリット形式を採用し、レイテンシを2~5ns短縮することで、従来と同じレイテンシを維持している。

また、接続されたデバイス間のネットワーク的なトポロジーを可能にするマルチレベルスイッチング、メモリ共有、接続されたアクセラレータ間のピアツーピア通信のためのダイレクトメモリアクセス(DMA)などをサポートし、一部のユースケースでCPUオーバーヘッドをなくすなど、注目すべき改良が施されている。

CXL 2.0仕様では、メモリ領域を異なるホストに動的に割り当てたり解除したりするメモリプーリングがサポートされており、1つのストレージデバイスを複数のセグメントに細分化することができたが、各領域は1つのホストにしか割り当てられなかった。CXL 3.0では、ハードウェアコヒーレンシによって複数のホスト間でデータ領域を共有できるメモリ共有が追加された。これは、各ホストが最新の情報を見ることができるように、ハードウェアキャッシュのコヒーレンシを追加したホストキャッシュにデータを配置することで機能する。

CXL 仕様では、デバイスを異なるクラスに分類している。タイプ1デバイスはローカルメモリを持たないアクセラレータ、タイプ2デバイスは独自のメモリを持つアクセラレータ(GPU、FPGA、DDRやHBMを持つASICなど)、タイプ3デバイスはメモリデバイスで構成されている。さらに、CXL は、1 つのホストルートポートでこれらのタイプのデバイスの混在をサポートし、以下で説明するような複雑なトポロジのオプションを大幅に拡張している。

更新された仕様では、接続されたデバイス間の直接ピアツーピア(P2P)メッセージングもサポートし、通信経路からホスト CPU を排除して、オーバーヘッドとレイテンシを低減している。このタイプの接続により、アクセラレータからメモリ、アクセラレータからアクセラレータへの通信に新たなレベルの柔軟性がもたらされる。

CXL仕様では、1つのトポロジー内で複数のスイッチをカスケード接続できるようになったため、接続デバイスの数が増え、ファブリックの複雑さが増し、Spine/Leaf、メッシュ、リングベースのアーキテクチャなど、非ツリーのトポロジーが含まれるようになったのだ。

新しいポートベースルーティング(PBR)機能は、最大4,096ノードをサポートするスケーラブルなアドレス指定機構を提供する。各ノードは、既存の3種類のデバイスと、新しいGFAM(Global Fabric Attached Memory)デバイスのいずれかを使用できる。GFAMデバイスは、PBR機構を利用してホスト間のメモリ共有を可能にするメモリデバイスだ。このデバイスは、永続記憶やDRAMなど、異なるタイプのメモリを1つのデバイスで併用することをサポートしている。

新しいCXL仕様では、インターコネクトのユースケースを大幅に拡大し、ラックスケールの大規模な分解システム(おそらくそれ以上)を包含するようになった。当然ながら、この種の機能は、例えばオールフラッシュストレージアプライアンスへの接続など、よりストレージ中心の用途に実現可能かどうかという疑問を投げかけるが、この仕様は、そうした用途にも関心を集め始めているようだ。

また、コンソーシアムでは、次世代サーバで DDR5 のコストを回避するために DDR4 メモリプールを使用することに、メンバーから強い関心が寄せられていると述べている。この方法では、ハイパースケーラは、すでに持っている(そしてそうでなければ廃棄する)DDR4メモリを使用して、安価なDDR4メモリを搭載できないDDR5サーバチップと組み合わせた、柔軟な大規模メモリプールを作成することができる。このような柔軟性は、本日公開される CXL 3.0 仕様の多くの利点のうちの 1 つを強調するものだ。



この記事が面白かったら是非シェアをお願いします!


  • earth 1388003 1920
    次の記事

    地球の自転速度が突然速くなり、6月29日は記録上で最も1日が短かったことが判明

    2022年8月3日 12:23
  • 前の記事

    Samsungの次世代SSD「990 Pro 1TB & 2TB PCIe 5」が登場間近か

    2022年8月3日 6:24
    Samsung 990 Pro PCIe Gen 5 SSD 1 low res scale 4 00x 1480x888 1

スポンサーリンク

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • Quantinuum Trap scaled 1

    理化学研究所、日本の大規模ハイブリッド量子スーパーコンピューティング・プラットフォームにQuantinuum H1を採用

  • TSMC 4Nノードで製造されるNVIDIAのGPU「H100」

    NVIDIA 2024-2025にデータセンター向け次世代GPU「GB200」と「GX200」をリリースすることを公式に明かす

  • sipearl

    欧州初のエクサスケール・スーパーコンピュータはArmアーキテクチャを採用する

  • nvidia culitho 6dd23d99 5819 4f2b 9b61 d3de4ae14765 prv

    NVIDIAの次世代GPU「Blackwell」はチップレット設計を採用する可能性

  • SK hynix HBM3 24GB 01

    SK hynix、HBM3Eメモリの情報を初公開:8GT/sを達成する超広帯域HPC用メモリとなる

今読まれている記事