2024年は近年まれに見る選挙イヤーと言われている。既に終了しているバングラデシュの総選挙や台湾総統選挙を皮切りに、パキスタン、インドネシア、インド、メキシコ、欧州議会、ベルギー、そしてアメリカ大統領選挙と、世界の趨勢を左右する重要な選挙が行われるのだ。
こうした選挙にからみ、近年話題となるのがフェイクニュースだ。ともすれば選挙の結果すら左右しかねない巧妙なディープフェイク画像は、生成AIの進歩によってその精度は格段に進歩しており、最早本物と見分けることが困難なレベルだ。
同時に、ChatGPTなどの文書生成AIも進歩しており、容易にそれらしいニュースを生成することが出来るようになった。こうしてAIによる大量のフェイクニュースが溢れることはかねてから懸念されていたが、OpenAIは、AIツールの悪用を防ぎたいと考えている。同社は今回、いくつかの安全対策を発表し、悪用のリスクを減らすためにChatGPTとAPIの使用ガイドラインを改訂した。
2024年初頭から、DALL-E 3の生成した画像には不可視のC2PA規格の透かしが入る。これにより、ソース情報が強固に暗号化され、画像がOpenAIの技術を使用して生成されたかどうかが確実に明らかになり、有権者が真偽を判断する一助となる。
この規格は、Adobeや、Sony、Canon、Leicaなどのカメラメーカーが参加するContent Authenticity Initiative(CAI)によって推進されている。Googleは昨年、同じ生成画像問題に対する独自のソリューション「Synth ID」を発表しており、Sony、Canon、Nikonらは、本物の写真とAIが生成したフェイク画像を識別するためのデジタル署名や、認証サービスを開発し、今後自社製のカメラにも透かし技術を搭載する旨を表明している。
OpenAIはまた、DALL-Eが生成した画像を認識するための新しいツールである出所分類器の実験も行っており、同社は内部テストで有望な結果を示していると述べている。
当初、このツールはジャーナリスト、プラットフォーム、研究者向けに公開され、フィードバックを得る予定だ。
ChatGPTは信頼できるソースからのニュースを表示する
ChatGPTは、ソースやリンクを含め、リアルタイムのニュース報道とより密接にリンクする。この透明性は、有権者が情報を評価し、誰を信頼するかを決めるのに役立つはずだ。
こうした流れは、メディアにトラフィックを戻す試みと見ることもできる。OpenAIは、Axel SpringerとAP通信と最初の契約を結んでおり、今後も契約が続く予定だ。
OpenAIはブログの中で、ChatGPTを使った政治的コミュニケーションに関する具体的な制限について説明している。例えば、OpenAIは政治的なキャンペーンやロビー活動への利用を許可していない。
過去にAIが生成した画像がプロパガンダに利用された事例がいくつかある上、ChatGPTが生成したテキストもかなり説得力がある。OpenAIは、AIシステムの説得力をAIの重要なリスク要因と考えており、OpenAIのCEOであるSam Altman氏は、AIが超人的な知能を持つずっと前に、超人的な説得力を持つようになると予想していると述べている。
OpenAIは、候補者や機関など実在の人物になりすますチャットボットを禁止している。さらにOpenAIは、”民主的プロセスへの参加を妨げる”テクノロジーの応用を禁止している。
最近開始されたGPT Storeを通じて、ユーザーはサードパーティのチャットボットに無料でアクセスできる。不快なコンテンツを見つけた場合は、専用のボタンを使って報告することができる。
米国では、ChatGPTは全米国務長官協会(NASS)と協力し、選挙関連の特定の質問について、ユーザーをCanIVote.orgリソースサイトに誘導するようになった。この協力から得られた教訓は、他の国や地域におけるOpenAIのアプローチに反映されるだろう。
Source
コメントを残す