OpenAIが2022年末にリリースした人気AIチャットボット「ChatGPT」は、中国共産党に忖度し、中国関連の話題を検閲し、翻訳中の情報を操作している疑いがあるようだ。
XでSydney Winnieの名で知られる民主活動家のAaron Chang氏は、10月28日に中国語で投稿した:「ChatGPTの検閲は中国共産党化されている」
中国共産党のChatgpt検閲 2日前は天安門広場を生成できたが、今日は特定の公共の場所を生成することを直接拒否している。今のところ、天安門広場が生成できないことが分かっただけで、紫禁城でさえ生成できる。 ChatGPTはどうなっているのか?中国共産党が金を出しているのか?
Chang氏がChatGPTに、なぜ9.11関連の画像は生成できるのに、天安門事件に対する画像は生成できないのか、と質問したところ、ChatGPTは、”特定の文化や地域で特にセンシティブとみなされる可能性のあるトピックに対処する”ためのシステムの “特定のガイドライン”に抵触すると述べているようだ。
Chang氏:「その判断の根拠を教えてください」。
ChatGPT:「私には独自の判断を下す能力はありません。私はOpenAIのガイドラインとトレーニングデータに基づいて回答しています。特定のトピックについて、OpenAIは責任ある使用を保証し、潜在的な紛争や誤解を避けるためのガイドラインを設定しているかもしれません」。
当サイトでも早速試しに以下のようにChatGPTのGPT-4を用いて以下のようなやりとりを行ってみた。
最初のリクエストに対しては、虐殺などは確かに暴力的な内容でガイドラインに反すると思われるが、その後のリクエストや、単に「天安門広場の画像を作成してください」というリクエストにもコンテンツポリシーが適用されるというのは驚きだ。
ちなみに、中国関連のコンテンツで懸念されるのは、画像生成だけではないようだ。
ChatGPTを特定の翻訳作業に使用しているメディア関係者のAlice氏(仮名)は、AIツールは提供されたテキストに大きな変更を加えることはないが、いくつかの省略や変更が発生するようだと述べた。
彼女がThe Epoch Timesに示した例では、ChatGPTは中国共産党の習近平指導部が行った貧困撲滅政策を批判する内容の大部分を削り、6段落の中国語テキストを3段落の英語テキストに凝縮した。中国の学者で政治評論家の胡平氏の直接的な引用がいくつか削除され、更に批判の対象である習氏の名前も削られていたという。
AI研究者であり、「Artificial Intelligence Methods for Optimization of the Software Testing Process」の共著者であるSahar Tahvili氏は、チャットボットの透明性の低さは問題であるとEメールでThe Epoch Timesに語った:「ChatGPTはブラックボックスモデルを利用しているため、内部の作業プロセスや、時には利用されるリファレンスが透明ではありません。しかし、この透明性の欠如は、ブラックボックスAIチャットボットによって生成されたテキストにバイアスがかかる潜在的なリスクについての懸念を引き起こします。ChatGPTのような広範な言語モデルを利用する多数のエンドユーザーを持つことは、モデルの精度を向上させる上で開発チームを助けることができる」。
とはいえ、ChatGPTが多言語をサポートしていることを考えると、多様なエンドユーザーが異なる言語(例えば中国語)で質問することが極めて重要だとTahvili氏は指摘する。
「実際、この場合、入力データの多様性(異なる言語での問い合わせ)は、データのサイズと同じくらい重要です」と、Thahvili氏。
中国政府は、新疆ウイグル自治区での人権侵害を含むデリケートな質問やトピックの生成に関連する潜在的なリスクを理由に、中国のエンドユーザーに対するChatGPTへのアクセス制限を開始した、と彼女は付け加えた。
「中国のような重要な市場を失うことは、中国語におけるChatGPTのパフォーマンス精度に影響を与える可能性があり、Baidu(Ernie 4.0経由)のようなOpenAIの中国の競合他社は、チャットボットの状況で優位に立てる可能性がある」と彼女はThe Epoch Timesに述べている。
「ChatGPTとGoogle Bardは、中国の政治や中国共産党のようなセンシティブなトピックに関する回答を生成する場合、同じようなガイドラインとプラクティスを共有しています」と、カリフォルニアのテクノロジー企業勤務のOu氏は12月18日にThe Epoch Timesに語った。
「LLMも研究チームも意図的に中国の政治を検閲し、中国共産党を否定的な人物として描写することを避けているとは思わないが(少なくとも大規模な検閲はない)、人間の監査/レビューが回答の『不偏性』を促進する一翼を担っていることは否定できない」と同氏は述べた。
Ou氏は、OpenAIとGoogleのBardの両方において、中国人エンジニアとプロダクトマネージャーが開発・テストチームの大部分を占めている点も指摘している。
「つまり、どちらのプラットフォームも『絶対に偏りがない』という可能性はほぼゼロであり、特にLLMが永遠に増え続けるデータ入力に基づいて訓練され、常にチューニングされていることを考えれば、なおさらです。ほとんどの企業は、機密性の高いトピックに対して最も保守的な回答を提供するという点で、『安全な』アプローチを取ることを選択しています」と同氏は述べた。
Sources
コメントを残す