ChatGPTを稼働させるためには1日9,800万円かかっていると調査会社が試算

masapoco
投稿日 2023年4月23日 13:33
chatgpt unsplash

人類の歴史上、最も急激に成長したアプリとして名高い「ChatGPT」だが、それを稼働させるためには「目玉が飛び出る程」の費用がかかると、以前OpenAIのCEOであるSam Altman氏が語っていた。実際にどの程度かかるのかは公表されていないが、調査会社のSemiAnalysisが今回試算した結果を見る限り、確かにそれは“驚愕”と言えるだろう。

同社の試算によると、ChatGPTの運用には、1日あたり約70万ドル(9,891万円)(1クエリあたり約36セント)が必要とのことだ。そして、その費用のほとんどは、AIシステムを稼働させるために必要なハードウェア・インフラに費やされているという。SemiAnalysisはブログ記事でこう書いている:

ChatGPTのコスト見積もりは、いくつかの未知の変数があるため、難しい命題です。私たちは、ChatGPTが1日あたり694,444ドルの計算ハードウェアコストを要することを示すコストモデルを構築しました。OpenAIはChatGPTの運用に3,617台のHGX A100サーバー(28,936GPU)を必要としています。

ChatGPTは、ローンチからわずか2ヶ月後の1月にアクティブユーザー数が1億人を突破した急成長中のテクノロジーのひとつだ。参考までに、同じマイルストーンを達成するのにTikTokは9ヶ月、Instagramは2年半かかっている。SemiAnalysisのチーフアナリストであるDylan Patel氏はInsiderに対し、この初期見積もりはGPT-3に基づいており、より新しいモデルのGPT-4はさらに運用コストが高くなるかもしれないと述べている。

The Information(有料)は先日、OpenAIの著名な支援者であるMicrosoftが、運用コストの削減が期待されるAI専用チップの開発に取り組んでいると報じた。OpenAIはまた、今年初めに20ドルのプレミアムサブスクリプション「ChatGPT Plus」を立ち上げ、現金を稼いでいる。

SemiAnalysisによると、ChatGPTモデルがGoogleの既存の検索ビジネスに使われた場合、「LLM推論コスト」だけで同社の利益から360億ドルを食いつぶしてしまうとのことだ。

「Googleが行うすべての検索に現在のChatGPTを導入するには、512,820.51台のA100 HGXサーバと合計4,102,568個のA100 GPUが必要となります。これらのサーバーとネットワークの総費用は、設備投資だけで1000億ドルを超え、そのうちNvidiaは大きな部分を受け取ることになります」と同社は書いている。


Source



この記事が面白かったら是非シェアをお願いします!


  • Meat The End 21 08 202219256 2
    次の記事

    食品スタートアップが世界初の植物性 “肉”バーガーを食感改良して発売

    2023年4月23日 17:30
  • 前の記事

    インターネットを熱狂させる「Auto-GPT」とは何か?

    2023年4月23日 13:11
    ai chip image 1

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事