あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

OpenAI、チップ不足と処理コストの高騰を解決するため独自チップの製造を計画

(Image: DALL-E 3 Prompted by TEXAL)

企業が人工知能(AI)システムを動かすには、強力なグラフィック・プロセッシング・ユニット(GPU)が必要だ。しかし、一握りの半導体企業しか製造していないため、AIに投資する企業がこれらのチップを手に入れることは非常に困難だ。特に最も性能が高いNVIDIAのH100 GPUなどは、2024年末までバックオーダーが積み上がっていると言われている程の争奪戦となっている。

AIに投資している最大の企業のひとつが、ChatGPTの生みの親であるOpenAIだ。伝えられるところによると、こうしたGPUの安定した確保とAI処理性能の向上を目的として、自社で独自のAIチップを作ることを検討している。Reutersによれば、この計画ではチップ企業の買収も視野に入れられているとのことだ。

NVIDIAが独占するAIチップ市場

現在、OpenAIは多くの競合他社と同様、NVIDIAが開発したAIチップ、すなわち業界で最も需要の高いチップであるA100とH100を使用している。OpenAIは豊富なGPUを保有しており、大量のコンピューティングパワーを利用できる企業だ。

ChatGPTはOpenAIの最も成功したAI製品の一つで、10,000個のNVIDIAのハイエンドGPUで動作している。これらのコンピューティングチップは高価だ。実際、NVIDIAとAMDは昨年、一部のチップとグラフィックカードを値上げしている。

AIソフトウェアに資金を流すOpenAI

だが、このコンピューティングコストの高騰がOpenAIにとっては悩みの種ともなっている。Reutersが引用した、Bernsteinのアナリスト、Stacy Rasgon氏の話によると、ChatGPTのクエリ1つにつき、OpenAIのコストはおよそ4セントだという。もしChatGPTのクエリがGoogle検索の10分の1の規模にまで成長したとすると、OpenAIは必要なGPUを購入するために約481億ドル、そして運用を続けるために年間約160億ドル相当のチップを用意する必要がある。だから、同社がこれらのチップを内製することは理にかなっている。

OpenAIのCEOであるSam Altman氏、最近何度もGPU不足に言及している。ロンドンを拠点とするAI企業HumanloopのCEOであるRaza Habib氏による、現在はアーカイブされているブログ投稿の中で、Altman氏はAPIの速度が遅いことや、OpenAIの顧客が直面している信頼性の問題を取り上げている。彼は、問題のほとんどはGPU不足の結果だと説明した。

Habib氏はまた、Altman氏のロードマップには、より安価で高速なGPT-4が含まれているとも書いている。「OpenAIの目標は、”インテリジェンスのコスト”を可能な限り下げることであり、そのため、彼らは時間をかけてAPIのコストを下げ続けるよう努力するだろう」とHabib氏は述べた。

同社の計画に詳しい関係者の話としてReutersが報じている内容によると、2015年にAmazonがAnnapurna Labsを買収したように、OpenAIがチップメーカー企業を買収する可能性もあると報じている。

OpenAIのハードウェアに関連した話題はこれだけではない。最近『The Information』が報じた所では、Altman氏はAppleの元最高デザイン責任者Jony Ive氏とiPhoneのようなデバイスを作るために会談したという。

興味深いことに、SoftBankのCEOであり投資家でもある孫正義氏も、「AIのiPhone」と呼ばれるこの製品を作るために、OpenAIに10億ドルを投資しようとしていると報じられている。


Source

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

関連コンテンツ

おすすめ記事

執筆者
Photo of author

masapoco

TEXAL管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり。アニメ・ゲーム・文学も好き。最近の推しは、アニメ『サマータイムレンダ』

記事一覧を見る

コメントする