企業が人工知能(AI)システムを動かすには、強力なグラフィック・プロセッシング・ユニット(GPU)が必要だ。しかし、一握りの半導体企業しか製造していないため、AIに投資する企業がこれらのチップを手に入れることは非常に困難だ。特に最も性能が高いNVIDIAのH100 GPUなどは、2024年末までバックオーダーが積み上がっていると言われている程の争奪戦となっている。
AIに投資している最大の企業のひとつが、ChatGPTの生みの親であるOpenAIだ。伝えられるところによると、こうしたGPUの安定した確保とAI処理性能の向上を目的として、自社で独自のAIチップを作ることを検討している。Reutersによれば、この計画ではチップ企業の買収も視野に入れられているとのことだ。
NVIDIAが独占するAIチップ市場
現在、OpenAIは多くの競合他社と同様、NVIDIAが開発したAIチップ、すなわち業界で最も需要の高いチップであるA100とH100を使用している。OpenAIは豊富なGPUを保有しており、大量のコンピューティングパワーを利用できる企業だ。
ChatGPTはOpenAIの最も成功したAI製品の一つで、10,000個のNVIDIAのハイエンドGPUで動作している。これらのコンピューティングチップは高価だ。実際、NVIDIAとAMDは昨年、一部のチップとグラフィックカードを値上げしている。
AIソフトウェアに資金を流すOpenAI
だが、このコンピューティングコストの高騰がOpenAIにとっては悩みの種ともなっている。Reutersが引用した、Bernsteinのアナリスト、Stacy Rasgon氏の話によると、ChatGPTのクエリ1つにつき、OpenAIのコストはおよそ4セントだという。もしChatGPTのクエリがGoogle検索の10分の1の規模にまで成長したとすると、OpenAIは必要なGPUを購入するために約481億ドル、そして運用を続けるために年間約160億ドル相当のチップを用意する必要がある。だから、同社がこれらのチップを内製することは理にかなっている。
OpenAIのCEOであるSam Altman氏、最近何度もGPU不足に言及している。ロンドンを拠点とするAI企業HumanloopのCEOであるRaza Habib氏による、現在はアーカイブされているブログ投稿の中で、Altman氏はAPIの速度が遅いことや、OpenAIの顧客が直面している信頼性の問題を取り上げている。彼は、問題のほとんどはGPU不足の結果だと説明した。
Habib氏はまた、Altman氏のロードマップには、より安価で高速なGPT-4が含まれているとも書いている。「OpenAIの目標は、”インテリジェンスのコスト”を可能な限り下げることであり、そのため、彼らは時間をかけてAPIのコストを下げ続けるよう努力するだろう」とHabib氏は述べた。
同社の計画に詳しい関係者の話としてReutersが報じている内容によると、2015年にAmazonがAnnapurna Labsを買収したように、OpenAIがチップメーカー企業を買収する可能性もあると報じている。
OpenAIのハードウェアに関連した話題はこれだけではない。最近『The Information』が報じた所では、Altman氏はAppleの元最高デザイン責任者Jony Ive氏とiPhoneのようなデバイスを作るために会談したという。
興味深いことに、SoftBankのCEOであり投資家でもある孫正義氏も、「AIのiPhone」と呼ばれるこの製品を作るために、OpenAIに10億ドルを投資しようとしていると報じられている。
Source
コメントを残す