NVIDIAとIntel、Hopper H100 GPUと第4世代Xeon CPUでAIコンピューティングを超高速化:効率性が25倍も飛躍的に向上

masapoco
投稿日 2023年1月11日 14:20
NVIDIA Intel Hopper AI Systems With 4th Gen Xeon CPUs

NVIDIAは本日、独自のH100 Tensor Core GPUと、Intelが本日発表した第4世代 Intel Xeon Scalableプロセッサを搭載したNVIDIA Hopperアクセラレーティングコンピューティング・システムのラインアップを刷新したことを発表した。

さらに、NVIDIAのパートナー企業数社が、この新しいハードウェアの組み合わせをベースにした独自のサーバーシステムを発表しており、前世代のマシンに比べて最大25倍の効率を実現するとしている。

NVIDIAは、Intelの新しいCPUは、新世代のNVIDIA DGX H100システムで同社のGPUと組み合わせられると説明している。Intelの第4世代Intel Xeonスケーラブルプロセッサ「Intel Xeon CPU Max Series」と「Intel Data Center GPU Max Series」は、データセンターのパフォーマンスと効率性を大幅に飛躍させ、セキュリティを強化し、人工知能のための新しい機能をクラウド、ネットワーク、エッジ、そして世界で最も強力なスーパーコンピュータに提供するとしている。

この新しいCPUは、ワークロードを優先したアクセラレーションと、特定のワークロード向けにチューニングされた高度に最適化されたソフトウェアを提供し、ユーザーが適切な性能を適切な消費電力で引き出すことで、総所有コストを最適化することを可能にする。さらに、第4世代Xeonプロセッサーは、消費電力とパフォーマンスを管理するためのさまざまな機能を提供し、CPUリソースを最適に活用することで、持続可能性の目標達成を支援すると言われている。

Intelの第4世代Xeonプロセッサの重要な新機能の1つは、CPUからGPUへのデータ転送速度を2倍にできるPCIe 5.0をサポートしていることが挙げられる。これにより、各サーバー内のGPUと高速ネットワーキングの密度を高めることができる。また、AIなどのデータ集約型ワークロードのパフォーマンスを向上させるとともに、ネットワーク速度を1接続あたり最大400ギガビット/秒に引き上げ、サーバーとストレージアレイ間のデータ転送を高速化することができる。

IntelのCPUは、新しいDGXシステムで8つのNVIDIA H100 GPUと組み合わされる、とNVIDIA は述べている。NVIDIA H100 GPUは、800億個以上のトランジスタを含む、同社がこれまでに作った最も強力なチップで、Intelの新チップにとって理想的な組み合わせだ。また、内蔵のTransformer Engineや拡張性の高いNVLinkインターコネクトなど、高性能コンピューティングワークロードに最適な独自の機能を備えており、大規模な人工知能モデルやレコメンデーションシステムなどを強化することが可能だ。

この新しいNVIDIA DGX H100システムに加え、ASUSTek Computer、Atos、Cisco Systems、Dell Technologies、富士通株式会社、GIGA-BYTE Technology.、Hewlett Packard Enterprise、Lenovo Group.、Quanta Computer.、Super Micro Computerなどの各社から、IntelのCPUを搭載した製品が発表されている。

NVIDIAは、最新のGPUおよびCPUハードウェアを活用し、従来のCPUのみのサーバーと比較して25倍の効率でワークロードを実行することができると述べている。また、「ワットあたりのパフォーマンスが驚異的」であるため、消費電力が大幅に削減されるとしている。さらに、前世代のNVIDIA DGXシステムと比較して、最新のハードウェアはAIのトレーニングと推論のワークロードの効率を3.5倍に高め、その結果、所有コストを3倍程度削減できるという。

NVIDIAの新しいシステムを駆動するソフトウェアも充実している。新しいDGX H100システムにはすべて、NVIDIA Enterprise AIの無料ライセンスが付属している。これは、AI開発ツールと導入ソフトウェアのクラウドネイティブなスイートで、ユーザーにAI構想のための完全なプラットフォームを提供するとNVIDIAは述べている。

顧客は代わりに、NVIDIA DGX SuperPodプラットフォームの形で複数のDGX H100システムを購入することができ、これは基本的に、最大1エクサフロップのAI性能を提供する小型スーパーコンピューティングプラットフォームであると、NVIDIAは述べている。


Source



この記事が面白かったら是非シェアをお願いします!


  • baidu quantum
    次の記事

    英国の量子コンピュータスタートアップ「Oxford Ionics」が48億円の資金調達

    2023年1月11日 14:33
  • 前の記事

    Scale AIが20%の人員削減を発表

    2023年1月11日 14:05
    scale ai logo

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • TSMC FAB18

    TSMCの3nmノードが急成長、2024年は収益の20%以上を占める可能性

  • what is ai pc

    Intel、「AI PC」の要件は40TOPS以上の性能を持つNPUが必要と述べる、ただしMeteor Lakeはこれを満たさず

  • intel ai pc developer program

    Intel、小規模ソフトウェア開発者のAI PC向けアプリ制作を支援する新プログラムを開始

  • UXL logo

    NVIDIAのAI市場支配からの脱却を目指しGoogle、Intel、Qualcommらが協力

今読まれている記事