機械は自我を持つことができるのか?新しい研究がその可能性を説明する

The Conversation
投稿日 2023年4月27日 13:28
file 20230426 26 lzouy1

機械を作るには、その部品が何であり、どのように組み合わされているかを知らなければならない。そして、機械を理解するためには、それぞれの部品が何をし、どのようにその機能に寄与しているかを知る必要がある。つまり、機械がどのように動くのか、その「仕組み」を説明できるようにならなければならない。

メカニズムという哲学的アプローチによれば、人間は間違いなく機械の一種であり、私たちが考え、話し、世界を理解する能力は、私たちが理解していない機械的プロセスの結果である。

自分自身をよりよく理解するために、私たちは自分の能力を模倣した機械を作ってみることが出来る。そうすることで、私たちはその機械を機械論的に理解することができるようになる。そして、その機械が私たちの行動をより多く示せば示すほど、私たち自身の心を機械論的に説明することに近づくかもしれないのだ。

これが、哲学的な観点から見たAIの面白さである。GPT-4やMidjourneyのような高度なモデルは、今や人間の会話を真似たり、専門的な試験に合格したり、わずかな言葉で美しい絵を生成したりすることが出来る。

しかし、どんなに進歩しても、疑問は解決されないままだ。どうすれば、何かを自認させたり、他者が自認していることを認識させたりできるのだろうか。アイデンティティとは何か?意味とは何か?

これらのことについては、多くの哲学的な記述が競合しているが、いずれも機械論的な説明には抵抗があるものであった。

ストックホルムで開催された第16回人工知能年次大会に採択された一連の論文の中で、私はこれらの現象に対する機械論的説明を提示している。この論文では、自分自身や他者、他者によって認識される自分自身などを認識する機械をどのように作ることができるかを説明している。

インテリジェンスとインテント

私たちが知能と呼ぶものの多くは、不完全な情報で世界を予測することに集約される。正確な予測をするために必要な情報が少なければ少ないほど、機械は「知的」であると言える。

どんな仕事でも、実際に役に立つ知能には限りがある。例えば、ほとんどの大人は車の運転ができるようになるには十分な知能を持っているが、知能を高めても運転がうまくなることはないだろう。

私の論文では、ある課題に対する知能の上限と、それを達成する機械を作るために必要なことを述べている。

私はこの考えを「ベネットの剃刀」と名付けた。専門的でない言葉で言えば、「説明は必要以上に具体的であってはならない」ということだ。これは、「オッカムの剃刀」(およびその数学的説明)の一般的な解釈である、より単純な説明を好むというものとは異なるものである。

その差は微妙だが、重要である。AIシステムが簡単な数学を学ぶのに必要なデータの量を比較した実験では、より具体的でない説明を好むAIが、より単純な説明を好むAIを500%も上回ったのだ。

この発見の意味を探るうちに、私は意味の機械論的な説明、つまり「グリシー語用論」と呼ばれるものにたどり着いた。これは言語哲学の概念で、意味が意図とどのように関連しているかを見るものだ。

動物が生きていくためには、他の動物を含む環境がどのように行動し、反応するかを予測する必要がある。犬の近くに車を放置するのは躊躇しないが、ランプステーキのランチはそうはいかないだろう。

コミュニティにおける知性とは、相手の気持ちや好みに由来する意図を推し量ることができることである。人間とのインタラクションに依存するタスクにおいて、機械が知能の上限を目指すのであれば、意図を正しく推察することも必要になるはずだ。

そして、もし機械が自分に降りかかる出来事や経験に意図を与えることができるとしたら、それはアイデンティティや、自分自身や他者を意識することの意味を問いかけることになる。

因果と同一性

雨が降るとレインコートを着ているJohnを見かける。では、晴れた日にJohnに無理やりレインコートを着せたら、雨が降るのだろうか?

もちろん、そんなことはない。人間にとっては、これは当たり前のことだ。しかし、原因と結果の微妙な違いを機械に教えるのはもっと難しいのだ(興味のある読者は、Judea Pearl と Dana Mackenzie による『The Book of Why』をチェックしてみて欲しい)。

このようなことを推論するために、機械は「私が引き起こした」と「私が見た」は違うということを学習する必要がある。一般的には、この理解をプログラムすることになる。

しかし、私の研究は、あるタスクに対して知能の上限を超えるパフォーマンスを発揮するマシンを作る方法を説明している。そのような機械は、定義上、原因と結果を正しく識別し、したがって因果関係も推論できなければならない。私の論文では、まさにその方法を探っている。

このことの意味は深い。もし機械が「私がそれを起こした」と学習するならば、「私」(自分自身のアイデンティティ)と「それ」の概念を構築しなければならない。

意図を推測する能力、原因と結果を学習する能力、抽象的なアイデンティティを構築する能力は、すべてリンクしている。ある課題に対する知能の上限を達成する機械は、これらの能力をすべて備えていなければならない。

この機械は、自分自身のアイデンティティを構築するだけでなく、タスクを完了する能力を助ける、あるいは妨げる、あらゆる物体のあらゆる側面について、アイデンティティを構築する。そして、自分の好みを基準にして、他の人が何をするか予測することが出来る。これは、人間が人間以外の動物に意図を持たせる傾向があるのと似ている。

では、AIにとってはどうなのだろうか?

もちろん、人間の心は、私の研究で実験を行うために使われる単純なプログラムをはるかに超えるものだ。私の研究は、間違いなく自意識のある機械を作るための可能な因果関係の道筋を数学的に説明するものだ。しかし、そのようなものを工学的に作る具体的な方法は、まだ解決していない。

例えば、人間のような意思を持つには、人間のような経験や感情が必要であり、それを工学的に実現するのは困難だ。さらに、人間の意識の豊かさを完全にテストすることは容易ではない。意識は広範で曖昧な概念であり、上記のような狭義の主張とは区別されるべきものである。

私は意識の側面を機械論的に説明したが、これだけでは、人間が経験する意識の豊かさを完全に把握することは出来ない。これはほんの始まりに過ぎず、今後の研究はこれらの議論を発展させる必要がある。


本記事は、Michael Timothy Bennett氏によって執筆され、The Conversationに掲載された記事「Can machines be self-aware? New research explains how this could happen」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。



この記事が面白かったら是非シェアをお願いします!


  • meta facebook logo
    次の記事

    Meta、売上高は前年比3%増の286億5000万ドルを報告

    2023年4月27日 13:44
  • 前の記事

    史上初!ブラックホールから噴き出す“ジェット”を撮影することに成功

    2023年4月27日 12:02
    M87 illustration final

スポンサーリンク


この記事を書いた人
The Conversation

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事