ChatGPTやBardと言った、大規模言語モデル(LLM)の台頭により、AIがもたらす利益が企業によって喧伝される一方で、そのリスクについての懸念も大きく報じられている。過去には、TeslaのElon Musk氏らがAIがもたらすリスクについて警告し、その開発を一時停止する様に求める動きもあったが、新たに著名な業界のリーダー達が、「AIがもたらす人類絶滅の危険性」について警告する公開書簡を共同署名し発表した。これには、今AI分野において、最も注目を集める人物と言っても過言ではない、OpenAI CEOのSam Altman氏も参加しているのだ。
AIは核戦争と同レベルのリスクをもたらす可能性と警告
この声明は、サンフランシスコに拠点を置く民間非営利団体「Center for AI Safety(CAIS)」のWebサイトにおいて公開されている。
声明は短く、22字で構成されている。この声明が「簡潔」に保たれているのは、署名者間の意見の相違を避けるため、そして、「高度なAIの最も深刻なリスク」についてのメッセージが、他の「AIによる重要かつ緊急なリスク」についての議論によってかき消されないようにという配慮によるものだ。内容は以下の通りだ:
Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.
AIによる絶滅のリスクを軽減することは、パンデミックや核戦争など他の社会的規模のリスクと並んで、世界的な優先課題であるべきです。
Center for AI Safety
この公開書簡には、OpenAIのCEOであるSam Altman氏、やDeepMindのCEOであり、AI開発の第一人者であるDemis Hassabis氏、AIのゴッドファーザーことGeoffrey Hinton氏、MITのMax Tegmark氏、Skype共同創業者のJaan Tallinn氏、音楽家のGrimes氏、ポピュリスト・ポッドキャスターのSam Harris氏など数百人のAI科学者や学者、技術系CEOや著名人が、名を連ねている。
既に起きつつある被害については
ただし、「人類の絶滅に繋がる」と言ったヒステリックな内容は、間違いなく、既存の被害に対するより深い精査から注意を逸らすものだ。例えば、AIシステムを訓練するために著作権で保護されたデータを許可や同意(または支払い)なしに自由に使用するツールや、人々のプライバシーを侵害するオンライン個人データの組織的なスクレイピング、これらのツールを訓練するために使用されるデータに対するAI大手企業の透明性の欠如などである。あるいは、偽情報(「幻覚」)のような欠陥やバイアス(自動的な差別)のようなリスクもある。こうしたことについてAI企業が積極的に触れているのは聞いたことがない。
AIは、一部の人が懸念しているような自己認識能力はないとされているものの、ディープフェイクや自動化された偽情報などを通じて、すでに悪用や危害を加えるリスクを生じさせている。また、LLMはコンテンツ、アート、文学の制作方法を変え、多数の仕事に影響を与える可能性が生じ始めていることは事実だ。
Data&SocietyのリサーチディレクターであるJenna Burrell氏は、ChatGPTに関するメディア報道を検証した最近のColumbia Journalism Reviewの記事で、AIの潜在的な「感覚」のような赤信号に注目するのではなく、AIが富と権力をさらに集中させていることを取り上げなければならないと指摘している。
もちろん、AI大企業が規制当局の関心を、AIによる終末論のような遠い理論上の未来に向けようとするのは、明確な商業的動機があるわけで、それは今ここにあるより根本的な競争や反トラストに関する検討から議員たちの心を遠ざけるための戦術でもあるだろう。
OpenAIは、前述の(Musk氏が署名した)公開書簡に署名していない注目すべき存在だったが、その従業員の多くがCAISが主催する声明には賛同している(Musk氏はそうではないらしいが)。つまり、この最新の声明は、Musk氏が自身の利益のためにAIの存亡に関わるリスクの話を乗っ取ろうとしたことに対して、OpenAI(その他)が(非公式に)商業的に利己的な返答をしているように見える。
この声明は、OpenAIの生成AI分野でのリードを凍結させるリスクのある開発の一時停止を求める代わりに、リスクの軽減に注力するよう政策立案者に働きかけている。これは、OpenAIが、Altman氏の言うところの「AIの舵取りのための民主的プロセス」を形作るためのクラウドファンディングを同時に行っている間に行われた。つまり、同社は、国際的な規制当局を対象とした直接のロビー活動とともに、将来のリスク軽減のためのガードレールの形状に影響を与えるために、自社(および投資家の富)を積極的に位置づけているのだ。また、Altman氏は最近、EUのAI規則案が水増しされて同社の技術が除外されなければ、OpenAIのツールはヨーロッパから撤退する可能性があると公言している(後に撤回したが)。
実際、今回の書簡を公開したCAISは、「AIがもたらす社会規模のリスクを低減する」ことを使命とし、研究への資金提供を含め、この目的のための研究とフィールド構築を奨励し、政策提言の役割も担っていると書かれており、政策立案者への働きかけを行っている事も明らかにしている。
「AIの専門家、ジャーナリスト、政策立案者、そして一般市民は、AIがもたらす重要かつ緊急なリスクについて、ますます幅広く議論するようになっています」と、声明の前文には書かれている。「それでも、先進的なAIの最も深刻なリスクについて懸念を表明するのは難しいかもしれません。以下の簡潔な声明は、この障害を克服し、議論を開始することを目的としています。また、高度なAIの最も深刻なリスクのいくつかを深刻に受け止めている専門家や公人の数が増えていることを共通認識とすることも意図しています」。
Source
- Center for AI Safety: Statement on AI Risk
- via The Verge: Top AI researchers and CEOs warn against ‘risk of extinction’ in 22-word statement
コメントを残す