OpenAI CEO、AIは今後10年で人類を超える可能性があるとして、規制機関の設立を呼びかける

masapoco
投稿日 2023年5月25日 9:00
governance of superintelligence

OpenAIのCEO Sam Altman氏が米上院委員会に登場し、AI(人工知能)技術をめぐる同国の懸念に言及した事が記憶に新しいが、同氏は改めて、AIの進歩による人類へのリスクを軽減するための規制機関を創設する必要があると、ブログ投稿で述べている。

「現在の状況を考えると、今後10年以内に、AIシステムがほとんどの領域で専門家のスキルレベルを超え、今日の大企業の1つと同等の生産活動を行うことが考えられます」と、同氏は述べている。

AI分野の開発が相次いでいることから、将来のAIシステムは、汎用人工知能(AGI:Artificial General Intelligence)よりも更に劇的に能力が向上することが示唆された。それは、人間と同じレベル、あるいはそれ以上のレベルで推論、計画、経験からの学習が可能なシステムである。

実際、OpenAIに数十億ドルを投資している技術大手Microsoftの研究者は、GPT-4が大きな進歩を遂げ、人間のように推論できることを示唆する“知能の兆候”があるとした論文を発表している。この論文は、大規模な言語モデルにはまだ複数の限界があるため、「行き過ぎた主張」であると言う批判も浴びていた。

人間を超えた“超知能”に対する規制

Altman氏は、原子力の例を挙げ、放射線の有害な影響から人々と環境を守るために、世界的な原子力の安全性とセキュリティの枠組みを管理する国際原子力機関(IAEA)のようなAI管理機関がすぐに必要になるだろうと述べている。

Altman氏は、AIがもたらす「実存的リスク」についての一般市民の意見を求めるとともに、「世界中の人々が、AIシステムの境界とデフォルトを民主的に決定するべきだと考えています」と付け加えた。

OpenAIが昨年11月に発表したチャットボット「ChatGPT」は、生成AI革命を巻き起こした。地球上のあらゆるテック企業は、現在大きな競争力を持つ市場において、既存の技術をAIで補うか、新しいAIツールを考え出すかを模索しているの状況だ。AIはほぼすべての産業に影響を与えると考えられているが、AIの未知の可能性についての懸念も指摘されている。例えば、そうした超知能の目標が人間の利益と一致しないとしたらどうだろう。

これに対処するため、Altman氏は5月16日、議会に登場し、悪用を制限しつつ技術の利点をさらに高めることを模索した。彼は、米国がAIモデルの開発に対して厳しいライセンスとテストの要件を検討すべきであると提案している。


Source



この記事が面白かったら是非シェアをお願いします!


  • sony project q
    次の記事

    Sonyが携帯ゲーム機に帰ってきた

    2023年5月25日 10:45
  • 前の記事

    画期的な脳インプラントにより麻痺のある男性が再び歩けるようになった

    2023年5月25日 6:55
    paralyzed man walks again l

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事