あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

ChatGPT特需により、NVIDIA H100 GPUがオークションサイトで高値で取引されている模様

NVIDIAはここ数年、ゲーマーや暗号通貨マイナーがRTX GPUを買い占めたことで、高騰した利益を享受してきたが、人工知能に対する最新の熱狂が、同社に新たな利益をもたらしているようだ。NVIDIAの最新のAIに最適化されたGPUは、eBayでその超高額な小売価格よりもさらに高い値段で取引されているという。このサイトでは、複数のH100カードが40,000ドル以上で出品されているが、これはもちろん、ChatGPTのおかげだ。

この高騰は、ゲームデザイナーのJohn Carmack氏がTwitterで指摘したもので、CNBCが報じている。彼は複数のH100 GPUが39,000ドルから45,000ドルでECサイトに出品されているスクリーンショットを掲載した。これらのカードは通常ではほとんど手に入らないものだが、中古市場での価格が高騰の一途を辿っている。これまで、これらのカードは30,000ドルから40,000ドルの間で販売されていた。

NVIDIAは、2年前のA100 AIチップを置き換えるために、2022年初頭にH100を発表した。これらの設計は、ゲームのレンダリング用ではなく、激しいAIワークロードを想定している。H100は、Transformersを含む最新のAI技術に最適化された最初のNVIDIAデータセンター製品であるため、ちょうど良いタイミングで登場した。これらの機械学習モデルは、2017年にGoogleが初めて開発したもので、人工知能システムが大量のデータを消化し、「自己注意」を身につけることで、各入力のどの部分が重要であるかを理解することを可能にする。Transformersは、OpenAIのChatGPTとGoogleのBardが構築されるベースとなるものだ。

今、誰もがこれらの大規模な言語モデルをトレーニングしているため、世界中で争奪戦が繰り広げられている。例えば、MicrosoftはChatGPTを構築するために、何万枚ものNVIDIAカードを購入し、新たにサーバーも構築している。また、古いA100カードは今でも高値で取引されている。新品でも1万~1万5000ドル、中古でもeBayでそのくらいの値段で売られているのだ。最新の機能をすべてサポートしているわけではないかも知れないが、H100のカード1枚あたり4万ドルは、多くの新興企業にとって手の届かない金額だ。

H100は、AIモデリングの大きな飛躍を象徴している。TSMCの4nmプロセス技術を採用し、456個のTensorコアと、5,120ビットのメモリーバスに80GBのHBM3メモリーを搭載している。ビデオ出力がないので、このハードウェアを買ってゲームをレンダリングする人はいないので、ゲーミングGPUの供給は影響を受けない。もしもこれらのグラフィックボードが購入できないならば、NVIDIAはDGXクラウドサービスを提供しており、8つのNVIDIA H100またはA100 GPUと640GBのメモリを備えたリモートサーバを使う事が出来る。ただし、月額36,000ドルからだ。


Source

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

おすすめ記事

コメントする