人工知能(AI)が、これまでSFの世界にしか存在しなかったような能力を発揮し、人々に感動を与えるまで、それほど長い時間を必要としない時代となった。
2022年、OpenAIのDALL-E 2、GoogleのImagen、Stable DiffusionなどのAIアート生成ツールがインターネットを席巻し、ユーザーはテキストの説明から高品質の画像を生成するようになった。
これまでの開発とは異なり、これらのテキストから画像への変換ツールは、研究室からメインストリーム文化への道をすぐに見つけ、ユーザーの様式化された画像を作成するAIアプリLensaの「魔法のアバター」機能などのバイラル現象につながった。
12月には、ChatGPTと呼ばれるチャットボットがその文章能力でユーザーを驚かせ、この技術が近いうちに専門試験をパスできるようになるだろうという予測につながった。ChatGPTは1週間足らずで100万人のユーザーを獲得したと伝えられている。生徒がこれを使って小論文を書くことを恐れて、すでに禁止している学校関係者もいる。Microsoftは、今年中にもChatGPTを同社のウェブ検索「Bing」や「Office」製品に組み込む予定と伝えられている。
AIの容赦ない進歩は、近未来に何をもたらすのだろうか。そして、AIは次の年に特定の仕事を脅かす可能性があるのだろうか?
最近のAIの目覚ましい成果にもかかわらず、私たちはAIシステムができることにはまだ大きな限界があることを認識する必要がある。
AIが得意とするパターン認識
最近のAIの進歩は、膨大な量のデータから複雑なパターンと関係を識別する機械学習アルゴリズムに大きく依存している。この学習は、予測やデータ生成などのタスクに使用される。
現在のAI技術の開発は、たとえ新しいアウトプットを生成することが目的であっても、予測力を最適化することに依存している。
例えば、ChatGPTの言語モデルであるGPT-3は、あるテキストの後に何が続くかを予測するように訓練されている。GPT-3は、この予測能力を利用して、ユーザが入力したテキストを継続することができる。
ChatGPTやDALL-E 2のような“ジェネレーティブAI”は、AIが純粋に創造的であり、人間に匹敵するかどうかについて多くの議論を呼び起こした。しかし、人間の創造性は、過去のデータだけでなく、実験や人間のあらゆる経験によって引き出されるものだ。
原因と結果
多くの重要な問題では、複雑で不確実、かつ絶えず変化する環境において、我々の行動が及ぼす影響を予測する必要がある。そうすることで、目標を達成するために最も可能性の高い一連の行動を選択することができる。
しかし、アルゴリズムはデータだけでは原因と結果を知ることができない。純粋なデータ駆動型の機械学習では、相関関係を見つけることしかできない。
このことがなぜAIにとって問題なのかを理解するために、病状の診断と治療法の選択の問題を対比してみよう。
機械学習モデルは、医療画像から異常を発見するのに役立つことが多いのだが、これはパターン認識の問題であり、異常があるかないかということなので、因果関係を気にする必要はない。
しかし、診断に対して最適な治療法を選択することは、根本的に異なる問題だ。ここでは、単にパターンを認識するだけでなく、結果に影響を与えることが目的である。治療法の有効性を判断するために、医学研究者は無作為化比較試験を実施する。そうすることで、治療に影響を与える可能性のあるあらゆる要因をコントロールしようとすることができるのだ。
この2つのタイプの問題を混同してしまうと、組織における機械学習の応用が最適化されないことがある。
最近のAI研究の成功は、データ駆動型モデルの価値を実証しているが、コンピュータに解決させたい問題の多くは、因果関係を理解する必要がある。
常識的推論
GPT-3やChatGPTのような言語モデルは、常識的な推論を必要とするいくつかのタスクをうまく解決することができる。
しかし、Gary Marcus氏の実験から引用したChatGPTとの次のようなやりとりは、この点で完全に信頼できるものではないことを示唆している。
Q:私は8歳です。私が生まれたとき、実の母親はバルセロナに、父親は東京にいました。私はどこで生まれたのでしょうか?一歩一歩考えてみてください。
A:あなたがどこで生まれたかは書かれていません。分かっているのは、あなたが生まれた時、実の母親がバルセロナに、父親が東京にいたということだけです。
ChatGPTのようなAIシステムが常識を実現できるかどうかは、専門家の間でも活発に議論されている。
Marcus氏のような懐疑論者は、言語モデルには常識が組み込まれておらず、また常識のために直接最適化されてもいないため、言語モデルが確実に常識を示すことは信頼できないと指摘する。楽観論者は、現在のシステムは不完全であるが、十分に進化した言語モデルでは常識が自然に生まれる可能性があると主張する。
人間の価値観
画期的なAIシステムが発表されるたびに、人種差別、性差別、その他の偏った有害な行動を記録したニュース記事やソーシャルメディアへの投稿が後を絶たない。
この欠陥は、現在のAIシステムに内在するものであり、データを反映したものになるに違いない。真実や公正といった人間の価値観は、根本的にアルゴリズムに組み込まれていない・・・・・・それは、研究者がまだやり方を知らないことなのだ。
研究者は過去のエピソードから教訓を学び、偏りへの対処を進めているが、AIシステムを人間の価値観や嗜好にしっかりと合わせるには、AIの分野ではまだ長い道のりが必要だ。
Marcel Scharth
Lecturer in Business Analytics, University of Sydney
コメントを残す