NVIDIAのCEO、Jensen Huang氏は、Wiredのインタビューの中で、同社が取り組んでいる“AIファクトリー ”と呼ばれる新しいタイプのデータセンターについて触れている。そして同社が現在開発中であり、今年発売予定の次世代GPU“Blackwell”は、AIのスケーリングを可能にするように設計されている事も明らかにした。
多くのユーザーがコンピューターのクラスターを共有する従来のデータセンターとは異なり、AIファクトリーは「発電機のようなものになる」とHuang氏は述べた。NVIDIA既にこれに何年にもわたって取り組んでおり、現在はこの技術自体を製品化したいと考えているとのことだ。
Huang氏によれば、この新しい、そして「極めてユニークな」形態のデータセンターには、まだ正式な名前はない。Huang氏はWiredに対し、将来的にはユビキタスになり、クラウドサービスプロバイダーとNVIDIA自身によって構築されるだろうと語っている。残念ながら、彼は “AIファクトリー”の具体的な能力については触れていないため、詳細は不明だ。
これらのAIファクトリーは、クラウド・サービス・プロバイダー、バイオテクノロジー企業、小売業者、物流企業、自動車メーカーなどに利用される予定だ。一例としてHuang氏は、自動車部品を生産する工場に加え、AI工場を併設する自動車工場を挙げている。
このAIファクトリーについては、昨年10月にNVIDIAがFoxconnと共同で、「自動運転車、自律機械、産業用ロボットの開発を加速するスーパーコンピューティング能力を提供する新しいクラスのデータセンター」として、AIファクトリーを構築する事を表明している。
Huang氏は、NVIDIAが今年グラフィックスカードの需要を完全に満たせるとは考えていない。また、来年もその可能性は低いと考えている。
Huang氏によれば、コードネーム “Blackwell “と呼ばれるNvidiaの次世代GPUは、”桁違い “の性能で今年リリースされるという。
この新しいカードは、AIモデルのトレーニングコストを削減し、AI企業がその規模を拡大できるようにするためのものでもある。
「目標は、モデルのトレーニングコストを大幅に削減することです。そうすれば、トレーニングしたいモデルの規模を拡大することができます」とHuang氏は語った。
AI業界では、マッシブ・スケーリングは、他のアーキテクチャーの進歩とともに、AIの進歩の原動力であると多くの人が考えている。
しかし、大規模なAIモデルの学習や推論にかかるコストが高いことや、ハードウェアの入手性が低いこともあり、依然として課題となっている。ハードウェアと運用コストの削減は、AIのスケーリングにおける大きな前進となるだろう。
Source
コメントを残す