OpenAIのAIチャットボット「ChatGPT」は、史上最速で月間アクティブユーザー数が1億人を超え、主要なメディアでも連日取り上げられるなど、今更語る必要がない存在になっているが、ユーザーの多くはこのサービスを無料で利用しており、その運営コストはバカにならない。
そしてOpenAIも、それがビジネスである以上は、投何らかの方法でChatGPTを収益化しなければならなかった。2月に有料サブスクリプションプラン「ChatGPT Plus」を開始し、そのための一歩を踏み出したが、加えて本日、より大きな動きとして、どんなビジネスでもChatGPT技術をアプリ、Webサイト、製品、サービスに組み込むことができるようにする公式APIの導入を発表した。
OpenAIの社長兼会長であるGreg Brockman氏(共同設立者の一人でもある)によれば、ChatGPTのAPIは常に計画されていたとのことだ。
プレスリリースによると、ChatGPT APIは、OpenAIの大人気ChatGPTと同じAIモデルを搭載しており、”gpt-3.5-turbo“と名付けられているという。GPT-3.5は、OpenAIが現在APIスイートを通じて提供している最も強力なテキスト生成モデルだ。Brockman氏がTechCrunchのインタビューで語ったところによると、「Turbo」という名称は、OpenAIがChatGPT用にひそかにテストしていた、より最適化され応答性の高いバージョンのGPT-3.5のことを指しているという。
gpt-3.5-turbo開発の動機は、恐らくChatGPTの「目玉が飛び出るほどの」莫大な計算コストを削減することが目的だったようだが、「APIをより使いやすく、アクセスしやすくする」ためであると、Brockman氏はTechCrunchに語っている。
APIの価格は1,000トークンあたり0.002ドル(約750ワード)とのことだ。既に初期導入企業としては、Snap、Quizlet、Instacart、Shopifyなどが名を連ねているという。
既にChatGPT APIは、Snapが最近発表したSnapchat+加入者向けのチャットボット「My AI」や、Instacartのパーソナライズアシスタント「Ask Instacart」などのサービスを支えているという。
InstacartのAsk Instacartは、顧客が食べ物について質問すると、Instacartはユーザーの情報と同社の小売パートナーからの製品データに基づいて最適な物品について回答してくれるサービスだとのことだ。これは、食料品の購入に際して、予算や個人の好み、スキル、季節やレシピなど、様々な悩みを肩代わりしてくれ、買い物を楽しくする事に繋がると、InstacartのチーフアーキテクトJJ Zhuang氏はTechCrunchに語っている。まさに、ChatGPTを利用したAIアシスタントの好例と言えるだろう。
ただし、ChatGPTが抱える、偏った回答や差別的な回答、開発者が意図しないおかしな回答をしてしまうことや、プロンプト・インジェクションなどのいくつかの問題について、OpenAIも少しずつ対策を講じているようだ。
まず同社は、OpenAIがChat Markup Language(ChatML)と呼ぶ、新しいアプローチによって、これを防ぐことに繋がるとしている。標準的なChatGPTが、一連のトークンとして表された生のテキストを消費するのとは対照的に、ChatMLは、メタデータと一緒に一連のメッセージとしてChatGPT APIにテキストを供給する。(例えば、「fantastic」という言葉は、「fan」、「tas」、「tic」というトークンに分割されるとのことだ)。
例えば、「私の 30 歳の誕生日に何か面白いパーティーのアイデアはありますか?」というプロンプトがあった場合、開発者はそのプロンプトに「あなたは、ユーザーが尋ねる質問を支援するために設計された楽しい会話型チャットボットです。正直に楽しく答えてください!」 などの追加プロンプトを追加することを選択することが出来ると言う。または「あなたはボットです」のようなプロンプトを追加してから、ChatGPT APIで処理させることが出来ると言う。これらの指示は、Brockman氏によると、ChatGPTモデルの応答をよりよく調整し、フィルタリングするのに役立つとのことだ。
「私たちは、より高度なAPIに移行しています。システムに対する入力をより構造化された方法で表現し、『これは開発者からのものです』『これはユーザーからのものです』と言えば、開発者として、この種のプロンプト攻撃に対して(ChatMLを使って)より堅牢になれると期待できます」と、Brockman氏は述べている。
また、ChatGPTの意図しない動作を防ぐために、モデルの更新頻度を上げる事でこれに対応するとしている。gpt-3.5-turboのリリースにより、開発者はデフォルトでOpenAIの最新の安定モデルに自動的にアップグレードされるようになるとのことだ。
また、一部の顧客(主に大企業で、それに応じて予算も大きい)に向けた、専用インスタンスの提供も開始する。これにより、システム性能をより詳細に制御できるようになると、Brockman氏は説明する。この専用インスタンスによって、顧客はOpenAIのモデル(例えばgpt-3.5-turbo)を実行するための計算インフラを予算に応じて割り当てられるという。
通常、OpenAI APIの呼び出しは共有の計算リソースで行われるが、専用インスタンスプランでは、インスタンスの負荷を「完全にコントロール」できることに加え、より長いコンテキストリミットなどの機能を有効にすることが出来ると言う。コンテキストリミットとは、モデルが追加のテキストを生成する前に考慮するテキストのことで、より長いコンテキストリミットによって、モデルはより多くのテキストを本質的に「記憶」することが可能になる。コンテキストリミットを長くすることで、モデルはより多くのテキストを基本的に「記憶」することが出来、バイアスや毒性の問題をすべて解決できるわけではないが、gpt-3.5-turboなどのモデルでは幻覚が少なくなる可能性があるという。
Brockman 氏によれば、専用のインスタンスを持つ顧客は、最大16kコンテキストウィンドウを持つ gpt-3.5-turbo モデルを期待でき、標準のChatGPTモデルの4倍のトークンを取り込むことができるという。これによって例えば、何ページにも及ぶ複雑なテキストを貼り付けても、モデルから妥当な答えを得ることが期待できるようになるとのことだ。
OpenAIは、将来的にはより長いコンテキストリミットを一般公開することも考えているようだが、現段階では難しいようだ。
ChatGPT API の詳細については、チャット ガイドを参照頂きたい。
また、OpenAIは合わせて本日、オープンソースの音声テキスト変換モデル「Whisper」のAPIも提供開始している。
Source
コメントを残す