1955年8月、科学者のグループが、ニューハンプシャー州のダートマス大学でサマーワークショップを開催するため、13,500ドルの資金援助を要請した。このワークショップのテーマは「人工知能(AI)」である。
資金提供の要請は謙虚なものだったが、研究者たちの考えはそうではなかった。「学習や知能のあらゆる側面は、原理的には非常に正確に記述できるので、機械でシミュレーションすることができる。」と言う物だった。
この謙虚な始まりから、映画やメディアはAIをロマンチックに描いたり、悪者として登場させたりしてきた。しかし、ほとんどの人々にとって、AIは議論の対象であり、意識的な生活体験の一部にはなっていない。
AIは私たちの生活の中にやってきた
先月末、ChatGPTという形で、AIがSF的な思索や研究室から抜け出して、一般の人々のデスクトップやスマホに登場した。これはいわゆる「生成(ジェネレーティブ)AI」で、プロンプトを介し、自然な話し言葉で質問を行うと、エッセイを作ったり、レシピや買い物リストをまとめたり、エルビス・プレスリー風の詩を作ったりすることができるのだ。
ChatGPTは、ジェネレーティブAIの成功の年における最も劇的な参入だったが、同様のシステムは、テキストから画像へのプロンプトを使用して、芸術コンテストでも受賞した鮮やかな画像を作成し、新しいコンテンツを作成するためのより広い可能性を示している。
AIはまだ生きている意識や、SF映画や小説で人気のある心の理論を持っていないかも知れないが、少なくとも私たちが人工知能システムにできると考えていることを破壊するところまで来ているのだ。
Googleの大規模言語モデル(LLM)である LaMDA の場合のように、これらのシステムと密接に協力している研究者たちは、感覚を持つという見込みにうっとりとしている。LLMは、自然言語を処理・生成するために訓練されたモデルである。
また、ジェネレーティブAIは、盗作、モデル作成に使われたオリジナルコンテンツの搾取、情報操作の倫理や信頼の乱用、さらには「プログラミングの終焉」についての懸念を生んでいる。
これらの中心にあるのは、ダートマス大学のサマーワークショップ以来、緊急性を増してきた「AIは人間の知能と違うのか」という問いである。
「AI」とは、実際にはどのようなものなのだろうか?
AIとして認定されるには、システムがある程度の学習と適応を示す必要がある。このため、意思決定システム、自動化、統計などはAIではない。
AIは大きく分けて、人工狭域知能(ANI)と人工一般知能(AGI)の2つのカテゴリーで定義されている。現在までのところ、AGIは存在しない。
AGIを作るための重要な課題は、知識のすべてを備えた世界を、一貫性のある有用な方法で適切にモデル化することだ。それは控えめに言っても、大変な仕事である。
現在、私たちがAIと呼ぶもののほとんどは、特定のシステムが特定の問題に対処する、狭義の知能を備えている。人間の知能とは異なり、このような狭い範囲のAI知能は、例えば詐欺の検出、顔認識、ソーシャル・レコメンデーションなど、訓練された分野でのみ有効である。
しかし、それと比較して、AGIは、人間と同じように機能することになる。今のところ、これを実現しようとする最も顕著な例は、膨大なデータで訓練された「ニューラルネットワーク」と「ディープラーニング」の利用である。
ニューラルネットワークは、人間の脳の働きにヒントを得たものだ。学習データに対して計算を実行する多くの機械学習モデルとは異なり、ニューラルネットワークは、相互接続されたネットワークを介して各データポイントを1つずつ供給し、その都度パラメータを調整することで動作する。
より多くのデータがネットワークに送られると、パラメータは安定し、最終的に「学習済み」のニューラルネットワークとなり、新しいデータに対して望ましい出力(例えば、画像に猫か犬かを認識する等)ができるようになる。
今日のAIの大きな進歩は、大規模なクラウドコンピューティングインフラを活用し、膨大な数のパラメータを再調整しながら大規模なニューラルネットワークを訓練する技術の向上によってもたらされたものだ。例えば、ChatGPTのAIシステムであるGPT-3は、1750億個のパラメータを持つ大規模なニューラルネットワークだ。
AIが機能するために必要なものは?
AIが成功するためには、3つのことが必要だ。
まず、高品質で偏りのないデータ、それも大量のデータが必要となる。ニューラルネットワークを構築する研究者は、社会のデジタル化に伴って生まれた大規模なデータセットを利用する。
人間のプログラマーを補強するCopilotは、GitHubで共有されている数十億行のコードからデータを取得している。ChatGPTやその他の大規模言語モデルは、オンラインに保存されている数十億のウェブサイトやテキスト文書を使用している。
Stable Diffusion、DALL-E 2、MidjourneyなどのText-to-imageツールは、LAION-5Bなどのデータセットから画像とテキストのペアを使用する。AIモデルは、私たちの生活のデジタル化が進み、シミュレーションデータやMinecraftのようなゲームのデータなど、別のデータソースが提供されるにつれて、より洗練され、より大きな影響を与え続けるだろう。
また、AIを効果的に学習させるためには、計算機のインフラも必要だ。コンピュータの性能が上がれば、現在は多大な労力と大規模な計算を必要とするモデルも、近い将来ローカルで扱えるようになるかも知れない。例えば、Stable Diffusionは、クラウド環境ではなく、すでにローカルコンピュータで実行することが可能だ。
AIに求められる3つ目のニーズは、モデルとアルゴリズムの改善だ。データ駆動型システムは、かつて人間の認知の領域と考えられていた領域で次々と急速な進歩を遂げている。
しかし、私たちを取り巻く世界が常に変化しているため、AIシステムは常に新しいデータを使って再トレーニングを行う必要がある。この重要なステップを踏まないと、AIシステムは事実と異なる答えを出したり、学習後に現れた新しい情報を考慮に入れていない答えを出したりすることになるのだ。
AIへのアプローチはニューラルネットワークだけではない。膨大なデータセットを消化する代わりに、人間が特定の現象について内部で記号表現を形成するプロセスと同様のルールと知識に依存するのである。
しかし、パワーバランスはここ10年でデータ駆動型アプローチに大きく傾き、最新のディープラーニングの「創始者」たちは最近、コンピューターサイエンスのノーベル賞に相当するチューリング賞を受賞した。
データ、計算、アルゴリズムは、AIの未来の基礎を形成している。あらゆる指標から、この3つのカテゴリーすべてにおいて、近い将来、急速な進歩がもたらされることが予想される。
Prof. George Siemens
Co-Director, Professor, Centre for Change and Complexity in Learning, University of South Australia
私は、複雑な学習システムと人間や人工的な認知との関係について研究しています。
経歴
- ~現在 テキサス大学アーリントン校 教授
Twitter: George Siemens
コメントを残す