あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

OpenAIとNVIDIA、1,000万個のGPUを利用する未来の大規模言語モデルで協力と伝えられる

AIの支配を確立するための競争が加速している中で、OpenAIとNVIDIAが、何百万ものGPUを結合できるAIモデルの開発に取り組んでいる可能性があると、中国のテック系サイト快科技が報じている。これまで、NVIDIAとOpenAIは、数千のAI GPUを利用する最新のGPT-4モデルを含むChatGPTの開発で協力してきたたが、NVIDIAが新型のAI GPUを約20,000個提供しており、この動きが今後数ヶ月間でさらに拡大すると報じられている。

中国の検索エンジンSogouの創業者であるWang Xiaochuan氏によれば、OpenAIはすでにより高度なAI計算モデルの開発に取り組んでおり、これはより進んだ訓練方法を利用しているという。このモデルは、1,000万個のAI GPUを接続する能力を持つとされている。100,000個のGPUを接続すること自体が大きな成果だが、1,000万個以上のAI GPUを接続するというのは非常に野心的な目標と言える。しかし、Wang氏自身が中国でOpenAIの主要な競争相手を目指す新たなAI企業、Baichuan Intelligenceに投資していることから、競合他社のそうした有利な情報を述べることから、彼の信頼性が裏付けられる。

さらに、OpenAIは未来の言語モデルを動かすために1,000万台のAI GPUを用いる天文学的な規模の言語モデルも検討しているという。現在のNVIDIAの能力では、同社は100万台のAI GPUを生産することしかできないため、この大規模プロジェクトの真のビジョンを実現するには10年かかると予想されている。しかし、NVIDIAは供給を増やすためにTSMCと協力していることも報じられている。


Sources

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

スポンサーリンク

執筆者
Photo of author

masapoco

TEXAL管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり。アニメ・ゲーム・文学も好き。最近の推しは、アニメ『サマータイムレンダ』

記事一覧を見る

コメントする

CAPTCHA