AIの専門家4人が、彼らの研究が、Elon Musk氏らが共同署名した公開書簡で引用されたことに懸念を表明した事が、Reutersの報道により明らかになった。この書簡は、3月22日付で、金曜日までに1800以上の署名があり、「Microsoftが支援するOpenAIの新しいGPT-4言語モデルよりも強力な」システムの開発に6か月の一時停止を求めている。GPT-4は人間らしい会話をしたり、歌を作ったり、長文を要約したりすることが出来る。GPT-4の前モデルに基づくChatGPTが去年リリースされて以来、競合他社は同様の製品の開発に力を入れている。
公開書簡は、「人間に対して競争力のある知能」を持つAIシステムが人類に深刻なリスクをもたらすと述べ、大学の教員やOpenAI、Google、及びその子会社DeepMindの現在、元従業員を含む専門家の12の調査を引用している。以来、米国やEUの市民社会団体は、OpenAIの研究を抑制するよう規制当局に働きかけている。
今回、4人の研究者は、この公開書簡の背後にあるFuture of Life Institute(FLI)を非難している。FLIは主にMusk氏からの資金援助を受けているからだ。彼らは、機械に人種差別や性差別的なバイアスがプログラムされるなどのAIに関する現実的かつ現在起こっている事に対する懸念よりも、「AIが世界を滅ぼす」といった、想像上の黙示録的なシナリオに優先度を置いていると批判しているのだ。
引用された研究の中には、Googleで倫理的なAI研究を監督していたMargaret Mitchell氏が共同執筆した有名な論文「On the Dangers of Stochastic Parrots」が含まれている。現在はAI企業Hugging Faceの主任倫理科学者であるMitchell氏は、Reutersに対して、「GPT-4よりも強力なもの」とは何かが不明確であると述べ、書簡を批判した。「疑問の余地のある多くの考えを与えられたものとして扱うことで、書簡はAIに関するFLIの支援者に利益をもたらすAIに関する優先事項と物語を断言しています。現在起こっている問題を無視することは、私たちの中には持っていない特権です」と彼女は述べている。
Mitchell氏の共同執筆者であるTimnit Gebru氏とEmily M. Bender氏は、Twitter上で書簡を批判した。後者は、一部の主張が「狂気じみている」と述べ、書簡を批判している。
FLIの会長であるMax Tegmark氏は、このキャンペーンがOpenAIの企業的優位性を妨げる試みではないとReutersに語っている。「それはかなり面白いですね。人々がそう言うのを見たことがあります。『Elon Muskは競争を遅らせようとしている』と」Musk氏が書簡を起草する役割はないと付け加え、「これは1つの会社についての問題ではありません」と述べている。
また、書簡に言及された大学の助教授であるShiri Dori-Hacohen氏も、その研究が書簡で言及されたことについて問題があると指摘した。彼女は、昨年、AIシステムの広範な使用がすでに重大なリスクを引き起こすと論文で主張した。彼女の研究によれば、AIが人間レベルの知能に達する必要はないが、気候変動、核戦争、およびその他の存亡の危機に関する意思決定に影響を与える可能性がある。
「AIは、それらのリスクを悪化させるために人間レベルの知能に到達する必要はありません。存在しない存亡の危機に関するハリウッドレベルの注目を集めないが、非常に重要な非存亡リスクが存在します」と彼女はReutersに語っている。
FLIのTegmark氏は、AIの短期的および長期的なリスクの両方に重点を置く必要があると述べ、「誰かを引用するということは、私たちは彼らがその文章を支持していると主張していることを意味します。それは彼らが書簡を支持しているということではありませんし、私たちが彼らが考えるすべてのことを支持しているわけでもありません」と語る。
また、書簡は、ジェネレーティブAIツールが「プロパガンダや真実でない情報」でインターネットを氾濫させる可能性があることを警告している。
Dori-Hacohen氏は、Twitterの買収後に虚偽情報が増加したという市民社会団体Common Causeなどの文書に言及し、「これはかなり示唆に富む話ですね」と述べました。Twitterは、研究データへのアクセスのための新しい料金体系をまもなく開始する予定であり、このことがこのテーマの研究に支障をきたす可能性がある。
「それは私たちのラボの仕事や、誤情報やディスインフォメーションを研究する他の人々の仕事に直接的な影響を与えました。私たちは片手を拘束された状態で作業しています」とDori-Hacohen氏は語っている。
カリフォルニア州にあるAI安全センターのディレクターであるDan Hendrycks氏も、書簡の内容を支持しており、ブラックスワンイベント(起こりそうにないが壊滅的な影響をもたらすイベント)を考慮することは賢明だとReutersに語った。
公開書簡は、今後の技術革新のあり方について重要な討論を呼びかけるものであり、AIの将来に向けて適切な規制を行うことが重要であると示唆しています。AIの発展による様々なリスクや懸念が指摘されており、研究者や企業は、これらの問題に取り組むためのさまざまな方法を模索している。
AIは現代社会に多大な影響を与えており、今後の発展に伴い、私たちの生活や社会のあり方にも大きな変化がもたらされることが予想される。そのため、AIの発展に対しては、適切な規制や管理が必要不可欠であり、研究者や企業は、人類の利益と安全を最優先に考えた上で、AIの発展に取り組む必要がある。
Source
コメントを残す