ChatGPTの台頭でその名を世界に轟かせている、AIのリーディングカンパニーであるOpenAIは、自社のChatGPTのような強力な言語モデルがもたらすサイバーセキュリティリスクの増大に対応するため、「バグバウンティプログラム」の開始を発表した。
このプログラムは、クラウドソーシングのサイバーセキュリティ企業であるBugcrowdと提携して運営されており、独立した研究者にOpenAIシステムの脆弱性を報告してもらい、重大性に応じて200ドルから2万ドルの金銭的報酬を支払う事で、同社システムの堅牢性を高めることを目的としている。OpenAIは、このプログラムは “安全で高度なAIを開発するためのコミットメント”の一部であると述べている。
「OpenAIバグバウンティプログラムは、当社の技術と会社の安全性を保つことに貢献するセキュリティ研究者の貴重な洞察を認識し、それに報いるための方法です」と、 OpenAIは述べている。
OpenAIの発表は一部の専門家から歓迎されたが、バグ報奨金プログラムでは、高度化するAI技術がもたらす広範なサイバーセキュリティリスクに完全に対処できるとは考えにくいとする声もある。
このプログラムの範囲は、OpenAIのシステムやパートナーに直接影響を与える可能性のある脆弱性に限定されている。また、なりすまし、合成メディア、自動ハッキングツールなど、こうした技術の悪意ある使用に関する広範な懸念には対処していないようだ。
また、OpenAI Application Programming Interface(API)と同社の人工知能チャットボット「ChatGPT」もプログラムの対象だが、同社は研究者に対して、セキュリティに影響がある場合を除き、別のフォームでモデル問題を報告するよう求めた。
「モデル安全性の問題は、直接修正できる個別のバグではないため、バグバウンティプログラムにうまく当てはまりません。これらの問題に対処するには、多くの場合、実質的な研究と広範なアプローチが必要です。これらの懸念が適切に対処されるように、バグバウンティプログラムを通じて提出するのではなく、適切なフォームを使用して報告してください。適切な場所で報告することで、私たちの研究者がこれらの報告を利用してモデルを改善することができます。」とOpenAIは述べている。
先月、OpenAIはChatGPTの決済データ流出を公表し、同社がプラットフォームで使用するRedisクライアントのオープンソースライブラリのバグが原因であると報告した。
このバグのため、ChatGPT Plusのサブスクリプション購読者は、購読ページに他のユーザーのメールアドレスが表示されるようになった。ユーザーからの報告が相次いだため、OpenAIは問題を調査するためにChatGPTボットをオフラインにした。
同社は数日後に発表した事後報告で、このバグによってChatGPTサービスがPlus加入者のおよそ1.2%のチャットクエリと個人情報を流出させたと説明した。
公開された情報には、加入者の氏名、メールアドレス、支払い先住所、クレジットカード情報の一部が含まれていた。
同社は、本日の発表と今回の事件とを関連付けてはいないが、もしOpenAIの製品にセキュリティ上の欠陥がないかどうかを研究者がテストするためのバグ報奨金プログラムをすでに実施していれば、この問題はより早く発見され、データ漏洩は避けられた可能性があるだろう。
ただ残念ながら、OpenAIのバグバウンティプログラムは、対応する脅威の範囲が非常に限定的だ。
加えて、脱獄や安全性のバイパス、モデルに「悪いことを言わせる」、モデルに悪意のあるコードを書かせる、モデルに悪いことをする方法を教えてもらうなども対象外となっている。
その意味で、OpenAIのバグバウンティプログラムは、組織自身のセキュリティ態勢の改善に役立つことはあっても、社会全体にとってジェネレーティブAIやGPT-4がもたらすセキュリティリスクに対処することはほとんどないと言っていいだろう。
Source
コメントを残す