貧富の差を緩やかにし、階層の固定化とそれに伴う社会の硬直化を阻止するために、日本を始めとした社会の多くでは、税金徴収と社会保障制度、公共事業などを通じて富の再分配を行っている。だが、これについては人間の設計した物であるため、もちろん完璧な物ではなく、時に、「不平等」「不公正」といった不満の声も上がりがちだ。今回、Alphabet(Google)傘下の人工知能開発企業・Deepmindやエクセター大学、オックスフォード大学などの研究チームが発表した新たな論文では、AIが公正で豊かな社会の実現という目標にも貢献できる可能性を示している。
- Nature Human Behaviour : Human-centred mechanism design with Democratic AI
- Science Alert : AI Seems to Be Better at Distributing Wealth Than Humans Are, Study Hints
AI研究の究極の目標は、日常的なタスクの支援から社会が直面する壮大な実存的課題への取り組みまで、人間に利益をもたらす技術を構築することだ。ただし、AIに人間が実際に望んでいる有益な結果(AI研究では「バリューアライメント」と呼ぶ)を提供させると言うことは簡単な作業ではない。これは、社会が様々な意見の人々から成り立っており、あらゆる種類の問題、特に社会的、経済的、政治的問題を解決するための最善の方法について人々の意見が分かれるということが、複雑さを増す原因となっている。ただし、それは仕方がないだろう。多様な意見を認めることに対して異論を唱える人は独裁者くらいだ。
問題は、AIが誰の好みに合わせるべきかが不明確な点だが、研究者達は、人々の交流(現実と仮想の両方)を学習データに組み込んだ富の分配のエージェントを開発したという。そこで何よりも重要だったのは、人間からのフィードバックだった。これによって、ニューラルネットワークはより良い方向に導かれていった。
「AI研究において、人間に適合したシステムを構築するためには、人間とエージェントが対話する新しい研究手法が必要であり、価値観の一致したAIを構築するために、人間から直接価値を学習する取り組みが増加するという認識が広がっています」と研究者は書いている。
研究チームは、「Democratic AI(民主的AI)」と呼ばれるAIエージェントを開発し、これを評価するために「公共財ゲーム(Public goods game)」という投資運動を実施した。
公共財ゲームとは公共財についてゲーム理論的に記述したものである。協力行動や社会的厚生に関する分析の枠組みとして用いられ、汎用性の高いものだ。例えば、様々な状況における自発的貢献メカニズムの解明やある状況における経済行動、政治行動、政策的意思決定の分析になどに用いられている。
実験は、合計数千人の人間が参加するものとなり、プレイヤーがさまざまな金額のお金を受け取り、そのお金を公的資金に拠出し、その資金から自分の投資レベルに応じたリターンを引き出せるというものだ。
今回の実験では、人間が考案した、「厳格な平等主義に基づく再分配(投資した金額に関係なく全参加者に平等に公的資金を分配する)」「リバタリアン的な再分配(投資した金額に比例して公的資金を分配する)」「リベラルな平等主義に基づく再分配(手持ちの資金のうち何割を投資したかに比例して公的資金を分配する)」という3つの再分配システムに加えて、人間のプレーヤーと人間の行動を模倣して設計された仮想エージェントの両方からのフィードバックデータを用いて、ディープラーニングを用いて開発された「Human Centered Redistribution Mechanism(HCRM/人間中心再分配メカニズム)」と呼ばれる4番目の手法が比較された。
実験では、人間が考案した3つの再分配システムおよびHCRMを導入した公共財ゲームを人間の被験者にプレイしてもらったが、HCRMは、従来のどの再分配方法よりもプレイヤーに人気があった。また、その後、「自分の作成したシステムに得票があれば、その投票ごとに報酬が得られる」というインセンティブが与えられた人間が設計した再分配システムよりも、このHCRMは人気があったとのことだ。
「AIは、初期の富の不均衡を是正し、フリーライダーを制裁し、多数決に成功する仕組みを発見した」と研究者は説明している。「我々は、代表者を選出し、公共政策を決定し、法的判断を下すために、より広い人間社会で使用されている、合意を達成するための同じ民主的ツールを、価値調整のために利用することが可能であることを示しています。」
ただし、研究者らは、彼らのシステムに問題があることも認めていることは注目に値するだろう。具体例としては、今回のAIにおける「価値調整」が、民主的な決定(多数決)を中心に展開していることから、これは実社会における不平等や偏見を悪化させうる危険があるとのことだ。
また、信頼の問題もある。実験では、プレイヤーは自分たちがお金を払っている富の再分配モデルの背後にAIが関わっていることは知らされていなかった。もしAIが関わっていることが分かれば、実験参加者の投票行動は変わっていた可能性があるわけだ。
最後に、研究チームは、この研究は、社会で実際に富が再分配される方法をAIが考案するための物ではなく、人間が今あるものよりも潜在的に優れたソリューションを設計するのに役立つ、“あくまで補助的な物”として考えているとのことだ。
「我々の結果は、自律的なエージェントが人間の介入なしに政策を決定する『AI政府』を支持することを意味するものではありません」と著者らは記している。
コメントを残す