AIの研究者でありロボット工学の大家であるRodney Brooks氏は、OpenAIの大規模言語モデル「ChatGPT」について、我々が大いに過大評価していると主張している。IEEE Spectrumとのインタビューで、Brooks氏はこれらのツールが我々が認識しているよりも遥かに「愚か」であり、人間と同等の知的レベルで任意のタスクを遂行する能力にはほど遠いと述べている。彼は、我々がAIの未来を不適切に予測する罪を多く犯していると言う。
Brooks氏は、ChatGPTのようなAIシステムの能力と限界を理解し、その能力を過大評価しないことの重要性を強調している。これらのモデルは人間のようなテキストを生成することはできても、人間のような理解や推論を持っているわけではないのだ。
「大規模言語モデルが得意なのは、答えがどのように聞こえるべきかを述べることであり、答えがどのようであるべきかとは異なります」とBrooks氏は述べている。
AIが人間と同等の知的レベルで動作するような一般的な人工知能(AGI)になる可能性はあるのだろうか?Brooks氏は否定する。「いいえ、なぜならそれは世界の基本的なモデルを持っていないからです。AIは世界とのつながりを持っていません。AIが持っている物、それは言語間の相関関係です」。
Brooks氏のコメントは、現在のAI技術が抱える制限と、それらが人間のように理論的に聞こえるように出力するように設計されているにもかかわらず、それが時に全く事実ではない結果を出力することを思い出させる。
「私たちは人が何かをするのを見て、彼らが何をできるかを知り、すぐに判断を下すことができます。しかし、パフォーマンスから能力への一般化のモデルはAIシステムには適用できません」。
つまり、現在の言語モデルは論理的に意味を推測する能力がないにもかかわらず、まるでそれが可能なように見えることでユーザーを簡単に誤解させるのだ。
研究者のBrooks氏は、「難解なコーディング」を助けるために大規模言語モデルを試してみたと述べているが、すぐに深刻な問題に直面した。「それは完全に自信を持って答えを出します、そして私はそれをある程度信じてしまうのです。そして半分は完全に間違っています。私はそのヒントを使って2、3時間を費やし、そして私は言います、『うまくいかなかった』と言うと、別のことをやってしまうんです」。
「それは知性と同じではありません」と彼は付け加えました。「それは相互作用と同じではありません。それは調べているだけです」。
Brooks氏は、この技術の将来的な発展が、AGI(Artificial General Intelligence:人工知能)の領域ではなく、興味深いところに行き着く可能性があると考えている。AIシステムが人間の知能を凌駕することのリスクを考えると、そのほうがいいのかも知れない。
Source
- IEEE Spectrum: Just Calm Down About GPT-4 Already
コメントを残す