NVIDIAは本日、独自のH100 Tensor Core GPUと、Intelが本日発表した第4世代 Intel Xeon Scalableプロセッサを搭載したNVIDIA Hopperアクセラレーティングコンピューティング・システムのラインアップを刷新したことを発表した。
さらに、NVIDIAのパートナー企業数社が、この新しいハードウェアの組み合わせをベースにした独自のサーバーシステムを発表しており、前世代のマシンに比べて最大25倍の効率を実現するとしている。
NVIDIAは、Intelの新しいCPUは、新世代のNVIDIA DGX H100システムで同社のGPUと組み合わせられると説明している。Intelの第4世代Intel Xeonスケーラブルプロセッサ「Intel Xeon CPU Max Series」と「Intel Data Center GPU Max Series」は、データセンターのパフォーマンスと効率性を大幅に飛躍させ、セキュリティを強化し、人工知能のための新しい機能をクラウド、ネットワーク、エッジ、そして世界で最も強力なスーパーコンピュータに提供するとしている。
この新しいCPUは、ワークロードを優先したアクセラレーションと、特定のワークロード向けにチューニングされた高度に最適化されたソフトウェアを提供し、ユーザーが適切な性能を適切な消費電力で引き出すことで、総所有コストを最適化することを可能にする。さらに、第4世代Xeonプロセッサーは、消費電力とパフォーマンスを管理するためのさまざまな機能を提供し、CPUリソースを最適に活用することで、持続可能性の目標達成を支援すると言われている。
Intelの第4世代Xeonプロセッサの重要な新機能の1つは、CPUからGPUへのデータ転送速度を2倍にできるPCIe 5.0をサポートしていることが挙げられる。これにより、各サーバー内のGPUと高速ネットワーキングの密度を高めることができる。また、AIなどのデータ集約型ワークロードのパフォーマンスを向上させるとともに、ネットワーク速度を1接続あたり最大400ギガビット/秒に引き上げ、サーバーとストレージアレイ間のデータ転送を高速化することができる。
IntelのCPUは、新しいDGXシステムで8つのNVIDIA H100 GPUと組み合わされる、とNVIDIA は述べている。NVIDIA H100 GPUは、800億個以上のトランジスタを含む、同社がこれまでに作った最も強力なチップで、Intelの新チップにとって理想的な組み合わせだ。また、内蔵のTransformer Engineや拡張性の高いNVLinkインターコネクトなど、高性能コンピューティングワークロードに最適な独自の機能を備えており、大規模な人工知能モデルやレコメンデーションシステムなどを強化することが可能だ。
この新しいNVIDIA DGX H100システムに加え、ASUSTek Computer、Atos、Cisco Systems、Dell Technologies、富士通株式会社、GIGA-BYTE Technology.、Hewlett Packard Enterprise、Lenovo Group.、Quanta Computer.、Super Micro Computerなどの各社から、IntelのCPUを搭載した製品が発表されている。
NVIDIAは、最新のGPUおよびCPUハードウェアを活用し、従来のCPUのみのサーバーと比較して25倍の効率でワークロードを実行することができると述べている。また、「ワットあたりのパフォーマンスが驚異的」であるため、消費電力が大幅に削減されるとしている。さらに、前世代のNVIDIA DGXシステムと比較して、最新のハードウェアはAIのトレーニングと推論のワークロードの効率を3.5倍に高め、その結果、所有コストを3倍程度削減できるという。
NVIDIAの新しいシステムを駆動するソフトウェアも充実している。新しいDGX H100システムにはすべて、NVIDIA Enterprise AIの無料ライセンスが付属している。これは、AI開発ツールと導入ソフトウェアのクラウドネイティブなスイートで、ユーザーにAI構想のための完全なプラットフォームを提供するとNVIDIAは述べている。
顧客は代わりに、NVIDIA DGX SuperPodプラットフォームの形で複数のDGX H100システムを購入することができ、これは基本的に、最大1エクサフロップのAI性能を提供する小型スーパーコンピューティングプラットフォームであると、NVIDIAは述べている。
Source
コメントを残す