OpenAIのCEO Sam Altman氏が米上院委員会に登場し、AI(人工知能)技術をめぐる同国の懸念に言及した事が記憶に新しいが、同氏は改めて、AIの進歩による人類へのリスクを軽減するための規制機関を創設する必要があると、ブログ投稿で述べている。
「現在の状況を考えると、今後10年以内に、AIシステムがほとんどの領域で専門家のスキルレベルを超え、今日の大企業の1つと同等の生産活動を行うことが考えられます」と、同氏は述べている。
AI分野の開発が相次いでいることから、将来のAIシステムは、汎用人工知能(AGI:Artificial General Intelligence)よりも更に劇的に能力が向上することが示唆された。それは、人間と同じレベル、あるいはそれ以上のレベルで推論、計画、経験からの学習が可能なシステムである。
実際、OpenAIに数十億ドルを投資している技術大手Microsoftの研究者は、GPT-4が大きな進歩を遂げ、人間のように推論できることを示唆する“知能の兆候”があるとした論文を発表している。この論文は、大規模な言語モデルにはまだ複数の限界があるため、「行き過ぎた主張」であると言う批判も浴びていた。
人間を超えた“超知能”に対する規制
Altman氏は、原子力の例を挙げ、放射線の有害な影響から人々と環境を守るために、世界的な原子力の安全性とセキュリティの枠組みを管理する国際原子力機関(IAEA)のようなAI管理機関がすぐに必要になるだろうと述べている。
Altman氏は、AIがもたらす「実存的リスク」についての一般市民の意見を求めるとともに、「世界中の人々が、AIシステムの境界とデフォルトを民主的に決定するべきだと考えています」と付け加えた。
OpenAIが昨年11月に発表したチャットボット「ChatGPT」は、生成AI革命を巻き起こした。地球上のあらゆるテック企業は、現在大きな競争力を持つ市場において、既存の技術をAIで補うか、新しいAIツールを考え出すかを模索しているの状況だ。AIはほぼすべての産業に影響を与えると考えられているが、AIの未知の可能性についての懸念も指摘されている。例えば、そうした超知能の目標が人間の利益と一致しないとしたらどうだろう。
これに対処するため、Altman氏は5月16日、議会に登場し、悪用を制限しつつ技術の利点をさらに高めることを模索した。彼は、米国がAIモデルの開発に対して厳しいライセンスとテストの要件を検討すべきであると提案している。
Source
- OpenAI: Governance of superintelligence
コメントを残す