OpenAIの騒動は、AI開発者が自らを規制できるかどうかを議論しなければならないことを示している

The Conversation
投稿日
2023年12月2日 16:29
sam altman

ChatGPTの開発者であり、人工知能(AI)分野をリードするイノベーターであるOpenAIは最近、最高経営責任者(CEO)であるSam Altmanが解雇され、混乱に陥った。彼がMicrosoftの先端AI研究チームに参加することが明らかになると、730人以上のOpenAIの従業員が辞めると脅した。最終的に、Altmanを解雇した取締役会のほとんどが交代し、彼が会社に復帰することが発表された

その背景には、OpenAI社内でAIの安全性に関して活発な議論が交わされていることが報告されている。これは、最先端技術企業の経営の複雑さを浮き彫りにするだけでなく、AI技術の規制と安全な開発をめぐる広範な議論の縮図ともなっている。

大規模言語モデル(LLM)は、こうした議論の中心にある。ChatGPTのようなAIチャットボットを支えるテクノロジーであるLLMは、膨大なデータセットにさらされ、学習と呼ばれるプロセスを経て、その機能を向上させていく。しかし、この訓練プロセスの両刃の性質は、公平性、プライバシー、そしてAIの悪用の可能性について重大な問題を提起している。

トレーニングデータは、利用可能な情報の豊かさと偏りの両方を反映する。偏りは不当な社会的概念を反映し、深刻な差別や社会的弱者の疎外、憎悪や暴力の扇動につながる可能性がある。

トレーニング用データセットは、歴史的なバイアスの影響を受けることがある。例えば2018年、Amazonは女性にペナルティを課す採用アルゴリズムを廃止したと報じられたが、その理由はトレーニングデータが主に男性候補者で構成されていたためらしい。

LLMはまた、社会グループや言語によって異なるパフォーマンスを示す傾向がある。英語は他の言語よりもトレーニングデータが多いため、LLMは英語に堪能である。

企業は信頼できるのか?

LLMは膨大な量の情報を吸収し、それを再構成しているため、プライバシー侵害のリスクもある。例えば、LLMの学習データに個人情報や機密情報が含まれていた場合、LLMはそのデータを「記憶」したり、それに基づいてさらに推論を行ったりする可能性があり、その結果、企業秘密の漏洩や健康診断の漏洩、その他の種類の個人情報の漏洩につながる可能性がある。

LLMは、ハッカーや有害なソフトウェアによる攻撃を可能にする可能性さえある。プロンプト・インジェクション攻撃は、注意深く作られた命令を使ってAIシステムに想定外の動作をさせるもので、マシンへの不正アクセスや個人情報の漏えいにつながる可能性がある。これらのリスクを理解するには、これらのモデルがどのように訓練されるのか、その訓練データに内在するバイアス、そしてこのデータを形成する社会的要因について深く調べる必要がある。

OpenAIのドラマは、同社の将来に対する懸念を提起し、AIの規制に関する議論を巻き起こした。例えば、AI開発に対する考え方が大きく異なる幹部社員がいる企業は、自社を規制することを信頼できるのだろうか?

AI研究が実世界のアプリケーションに組み込まれるペースが速いことから、AI開発を管理し、システムが倫理基準を遵守することを保証するための、より強固で広範な枠組みの必要性が浮き彫りになっている。

AIシステムはいつ「十分に安全」なのか?

しかし、どのような規制のアプローチを取るにしても課題はある。LLM研究の場合、研究開発からアプリケーションの展開までの移行期間が短い場合がある。そのため、第三者である規制当局がリスクを効果的に予測し、軽減することが難しくなる。さらに、モデルを訓練したり、特定のタスクに適応させたりするために必要な高い技術的スキルの閾値と計算コストが、監視をさらに複雑にしている。

早期のLLM研究とトレーニングに的を絞ることは、いくつかのリスクへの対応においてより効果的かもしれない。トレーニングデータに起因する弊害のいくつかに対処するのに役立つだろう。しかし、ベンチマークを確立することも重要だ。例えば、AIシステムはいつ「十分に安全」とみなされるのか?

例えば、AIシステムはいつ「十分に安全」とみなされるのか?「十分に安全」な性能基準は、刑事司法制度や雇用のためのアルゴリズムなど、リスクの高い分野ではより厳しい要件が求められるなど、使用される分野によって異なる可能性がある。

AI技術、特にLLMが社会のさまざまな側面にますます組み込まれるようになるにつれ、その潜在的なリスクや偏見に対処する必要性が高まっている。これには、学習データの多様性と公平性の向上、プライバシーの効果的な保護の実施、社会のさまざまな分野における技術の責任ある倫理的利用の確保など、多面的な戦略が必要である。

この旅路における次のステップには、AI開発者、規制機関、そして一般市民の多様なサンプルが協力して、標準とフレームワークを確立することが必要になるだろう。

OpenAIの状況は、業界全体にとって挑戦的であり、完全に啓発されるものではないが、AI研究業界にとって、自らをじっくりと見つめ直し、人間の価値と社会の福利を優先する方法でイノベーションを起こす好機でもある。


本記事は、Yali Du氏によって執筆され、The Conversationに掲載された記事「Turmoil at OpenAI shows we must address whether AI developers can regulate themselves」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。



この記事が面白かったら是非シェアをお願いします!


  • prophetic insitu
    次の記事

    Prophetic社は夢をコントロールし「バーチャルなワークスペース」を実現しようとしている

    2023年12月2日 19:23
  • 前の記事

    自動運転車が“現実的な”道徳観を身につけるためには「トロッコ問題」を回避する必要がある

    2023年12月2日 15:40
    auto pilot vehicle

スポンサーリンク


この記事を書いた人
The Conversation

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事