AIに関する議論では、AIが人間の知能と競合するようになった技術であるとされることが多い。実際、最も広く知られている恐怖のひとつは、AIが人間のような知能を獲得し、その過程で人間を時代遅れにするのではないかというものだ。
しかし、世界トップクラスのAI科学者の一人は、AIを新しい形の知性として捉え、独自のリスクをもたらすため、独自のソリューションが必要であると述べている。
AI科学の第一人者であり、2018年のチューリング賞を受賞したGeoffrey Hinton氏は、AIの危険性について世界に警告を発するため、Googleの職務を退いたばかりだ。彼は、少なくとも6カ月間、高度なAIの開発を世界的に停止することを求める公開書簡に署名した1,000人以上のテクノロジーリーダーたちの後を継いでいる。
Hinton氏の主張はニュアンスに富んでいる。彼は、AIが人間よりも賢くなる可能性があると考える一方で、AIを人間とはまったく異なる知性の形として考えるべきだと提案している。
Hinton氏のアイデアが重要な理由
専門家は数ヶ月前から危険信号を発していたが、Hinton氏が懸念を表明したことは重要である。
「AIのゴッドファーザー」と呼ばれ、今日見られる現代のAIシステムの基礎となる多くの手法の開拓に貢献した。ニューラルネットワークに関する初期の研究により、彼は2018年のチューリング賞を受賞した3人のうちの1人になった。また、彼の弟子の一人であるIlya Sutskever氏は、ChatGPTを支える組織であるOpenAIの共同創設者となった。
Hinton氏が話すと、AIの世界は耳を傾ける。そして、AIを人間以外の知的な存在とする彼の枠組みを真剣に考えるなら、私たちはこれまで間違った考え方をしてきたと言えるだろう。
虚偽同値の罠
一方では、ChatGPTのような大規模な言語モデルベースのツールは、人間が書く文章に非常に近い文章を作成する。ChatGPTは作り話をしたり、「幻覚」を見せたりもするが、これは人間もすることだとHinton氏は指摘する。しかし、このような類似性をAIの知能と人間の知能を比較する根拠と考えるのは、還元的である危険性がある。
人工的な飛行の発明は、有用なアナロジーを見つけることが出来る。何千年もの間、人間は鳥の真似をして空を飛ぼうとした。羽を模した装置で腕をバタバタさせるのだ。しかし、これはうまくいかなかった。やがて私たちは、別の原理で固定翼が上昇力を生み出すことに気づき、これが飛行の発明の先駆けとなった。
飛行機は鳥とは違い、良くも悪くもありません。異なることをし、異なるリスクに直面する。
AI(や計算機も)も似たようなものだ。GPT-3のような大規模な言語モデルは、多くの点で人間の知能に匹敵するが、その働きは異なる。ChatGPTは、膨大な量のテキストを解析して、文中の次の単語を予測する。人間は、文章を形成する際に異なるアプローチをとる。どちらも印象的だ。
AIの知能はどのようにユニークなのだろうか?
AIの専門家もそうでない人も、長い間、AIと人間の知能との間に関連性を描いてきた – AIを擬人化する傾向があることは言うまでもない。しかし、AIはいくつかの点で私たちとは根本的に異なっている。Hinton氏は次のように説明する:
しかし、1万個のニューラルネットワークがあり、それぞれが独自の経験を持っていて、そのうちのどれかが学んだことを即座に共有することができるのです。これは大きな違いです。まるで、1万人の人間がいて、1人が何かを学んだら、すぐに全員がそれを知ることができるようなものです。
AIは、大規模なデータセットから得られるパターンや情報の組み立てに依存するタスクを含む、多くのタスクで人間を凌駕している。それに比べて人間はのろまで、記憶力もAIの何分の一にも満たない。
しかし、人間はある面では優位に立っている。記憶力の悪さや処理速度の遅さを、常識や論理で補うことができるのだ。世の中の仕組みを素早く簡単に理解し、その知識を使って出来事の可能性を予測することができる。AIはまだこの点で苦労している(研究者は取り組んでいるが)。
人間はエネルギー効率も非常に良いのだが、AIは強力なコンピューター(特に学習用)を必要とするため、私たちよりも何桁も多くのエネルギーを消費する。Hinton氏はこう言っている:
人間は、一杯のコーヒーと一切れのトーストで、未来を想像することができます。
AIが私たちとは違うものだとしたらどうだろうか?
もしAIが根本的に私たちとは異なる知性であるならば、私たちはAIを自分たちと比較することはできない(してはいけない)ということになる。
新しい知性は社会に新たな危険をもたらし、AIシステムについての話や管理の仕方にパラダイムシフトを起こす必要があるだろう。特に、AIのリスクから身を守るための考え方を見直す必要がありそうだ。
このような議論を支配してきた基本的な問題のひとつは、AIをどのように定義するかということだ。結局のところ、AIは二元論ではなく、知能はスペクトルの上に存在し、人間の知能のスペクトルと機械の知能のスペクトルは大きく異なるかもしれない。
この点はまさに、2017年にニューヨークで行われたAIを規制する最も初期の試みの1つで、どのシステムをAIとして分類すべきかについて監査役が合意できなかったときに、没落した点だ。規制を設計する際にAIを定義することは非常に困難である。
そのため、AIを二元的に定義することよりも、AIを活用した行動の具体的な結果を重視すべきなのかも知れない。
私たちはどんなリスクに直面しているのだろうか?
産業界におけるAIの取り込みの速さには誰もが驚かされ、仕事の未来を心配する専門家もいる。
今週、IBMのCEOであるArvind Krishna氏は、今後5年間で約7,800人のバックオフィスの仕事をAIに置き換えることができると発表した。かつて人間が行っていた業務にAIが配備されることが多くなるにつれ、私たちはAIをどのように管理するかを適応させる必要があるだろう。
さらに心配なのは、AIが偽のテキスト、画像、動画を生成する能力によって、私たちは情報操作の新時代に突入していることだ。人間が生成した誤情報に対処するための現在の方法では、十分な対応ができないだろう。
Hinton氏は、AIが駆動する自律型兵器の危険性、そして悪質な行為者がそれを活用してあらゆる形態の残虐行為を行う可能性も懸念している。
これらは、AI、特にAIのさまざまな特性が、人間の世界にリスクをもたらす可能性があることのほんの一例に過ぎない。AIを生産的かつプロアクティブに規制するためには、これらの特定の特性を考慮する必要があり、人間の知能のために設計されたレシピを適用することは出来ない。
良いニュースは、人類はこれまでも潜在的に有害な技術を管理することを学んできたということで、AIも同じだ。
コメントを残す