Metaが新しいAIチャットボットの内部構造をユーザーに公開する理由

The Conversation
投稿日 2023年8月10日 19:20
Next generation of Llama 2 AI header

Mark ZuckerbergのMetaのAI部門は最近、Llama 2チャットボットを発表した。MicrosoftはMetaの優先パートナーに指名され、Llama 2はWindows OSを通じて利用できるようになる。

MetaのLlama 2のアプローチは、AIチャットボットChatGPTを開発したOpenAI社のそれとは対照的だ。それは、Metaが自社製品をオープンソースにしたためだ。つまり、オリジナルのコードが自由に利用でき、研究したり修正したりできるようにしたのだ。

この戦略は、膨大な議論を巻き起こした。Llama 2やChatGPTのようなAIチャットボットを支える技術である大規模言語モデル(LLM)に対する社会の監視や規制を強化することになるのだろうか?LLMは、フィッシング攻撃やマルウェア開発のために犯罪者がこの技術を使用することを不用意に助長することになるのだろうか?そして、この動きはMetaがこの急速に変化する分野でオープンAIやGoogleに対して優位に立つ手助けになるのだろうか?

何が起こるにせよ、この戦略的な動きは、現在の生成AIの状況を再構築することになりそうだ。2023年2月、MetaはLlamaと呼ばれるLLMの最初のバージョンをリリースしたが、これは学術的な利用に限定されていた。そのアップデート版であるLlama 2は、パフォーマンスが向上し、ビジネスでの使用に適している。

他のAIチャットボットと同様、Llama 2もオンラインデータを使って学習させる必要があった。この膨大な情報資源に触れることで、ユーザーの質問に有益な回答を提供するという、Llama 2の機能を向上させることができるのだ。

Llama 2の初期バージョンは、「教師ありファインチューニング」によって作成された。これは、質の高い質疑応答データを使用して、一般ユーザーが使用できるように調整する手法である。さらに、人間によるフィードバック強化学習によって改良された。この強化学習は、その名の通り、人間の好みに合わせるために、AIのパフォーマンスに対する人々の評価を取り入れるものである。

保証されたメリット

Metaは、Llama 2でオープンソースの理念を取り入れることで、過去に同社にとってうまくいったと思われるアプローチを活用することができる。Metaのエンジニアは、ReactやPyTorchといった開発者を支援する製品の開発で知られている。どちらもオープンソースで、業界標準となっている。これらを通じて、Metaはコラボレーションによるイノベーションの前例を作ってきた。

Llama 2のリリースは、より安全なジェネレーティブAIを約束するものだ。知恵を共有し、集団で探索することで、ユーザーは誤った情報や犯罪者に悪用される可能性のある脆弱性を特定することができる。ユーザーによって作成されたiPhoneにインストール可能なLlama 2のバージョンなど、予期せぬアプリケーションがすでに登場しており、このコミュニティにおける創造性の可能性を強調している。

しかし、Meta社がLlama 2のユーザーにAIシステムの商業化を許可するのには限界がある。Llama 2をベースにした製品で前月のアクティブユーザーが7億人を超えた場合、Metaにライセンスを要求しなければならない。Metaにとって、これはLlama 2をベースにした成功した製品の利益分配の可能性を開くものである。

Metaの戦略は、主要な競争相手であるOpenAIの慎重なアプローチとは対照的だ。OpenAIがChatGPTで行ったように、Metaがこの分野で競争し、製品を商業化する能力を疑問視する声もあるが、Metaが世界中の開発者を招待するという決定は、より広いビジョンを示唆している。これは、Zuckerberg氏の会社を単なるプレイヤーとしてではなく、Llama 2の成長するエコシステムに貢献するグローバルな才能を活用するファシリテーターとして位置づける動きだ。

この戦略はまた、Googleなどのハイテク大手との潜在的な競争に対する抜け目のないヘッジにもなり得る。Llama 2の可能性を探っている多くのユーザーがいるため、成功した進歩はすぐにMetaの他の製品に統合することができる。この決断がもたらす影響の全容が明らかになるのは時間の問題だが、業界への直接的な影響はすでに広く響いている。

ユーザーにとっての利点と落とし穴

オープンソース技術の公開実験という側面は、より大きな精査を可能にし、攻撃に対する脆弱性を含め、Llama 2の長所と短所をユーザーのコミュニティが評価する機会を提供する。一般の人々の監視の目は、LLMの欠陥を明らかにし、それに対する防御の開発を促すかもしれない。

その反面、悪意のあるユーザーに技術を悪用される可能性もあり、「犯罪者にナイフを渡す」ようなものだという懸念も浮上している。例えば、詐欺師が電話詐欺用のもっともらしい自動会話を生成する対話システムを構築するのに役立つ可能性がある。このような悪用の可能性から、この技術の規制を求める声もある。

しかし、具体的にどのようなルールが考案されるのか、誰がこのプロセスを監督する権限を得るのか、何がより厳しく、あるいはより厳しく監視される必要があるのか、規制が単に大手ハイテク企業の独占を助長するものでないことを確認するためには、慎重な計画が必要である。

進化し続けるAI開発のサガにおいて、オープンソース化をめぐる議論は、技術の進歩が単純で一面的なものであることは稀であることを思い起こさせる。Metaの決定が意味するところは、今後何年にもわたってテック界に波及していくだろう。Llama 2はまだChatGPTの能力には及ばないかもしれないが、多くの革新的な製品の開発への扉を開くことになる。

Googleもまた、どのような対応を取るか憶測が広がる中、監視下に置かれることになるだろう。オープンソース文化が繁栄している時代には、Googleが独自のリリースで追随しても不思議ではない。

「テック・フォー・グッド(tech for good)」という言葉は、テクノロジー企業がそのリソースの一部を使って、私たちの生活全てにポジティブな影響を与えることを表す一般的なマントラとなっている。しかし、最終的には、この目的は、一握りの企業が取り組むべきことではなく、共有の責任であることに変わりはない。

また、学術界、産業界、そしてそれ以外にわたる協力と協調的な努力が求められる目的でもある。LLM技術が進化し続ける中、その賭けは高く、前途はチャンスと挑戦の両方に満ちている。


本記事は、Yali Du氏によって執筆され、The Conversationに掲載された記事「Why Meta is allowing users to see the inner workings of its new AI chatbot」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。



この記事が面白かったら是非シェアをお願いします!


  • google docs
    次の記事

    GoogleドキュメントとGoogleドライブに電子署名のベータ版が登場

    2023年8月10日 20:20
  • 前の記事

    2017 年以降のほぼすべてのAMD CPUに影響を与える「Inception」脆弱性が見つかる

    2023年8月10日 15:04
    amd inception

スポンサーリンク


この記事を書いた人
The Conversation

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事