あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

Metaが新しいAIチャットボットの内部構造をユーザーに公開する理由

Mark ZuckerbergのMetaのAI部門は最近、Llama 2チャットボットを発表した。MicrosoftはMetaの優先パートナーに指名され、Llama 2はWindows OSを通じて利用できるようになる。

MetaのLlama 2のアプローチは、AIチャットボットChatGPTを開発したOpenAI社のそれとは対照的だ。それは、Metaが自社製品をオープンソースにしたためだ。つまり、オリジナルのコードが自由に利用でき、研究したり修正したりできるようにしたのだ。

この戦略は、膨大な議論を巻き起こした。Llama 2やChatGPTのようなAIチャットボットを支える技術である大規模言語モデル(LLM)に対する社会の監視や規制を強化することになるのだろうか?LLMは、フィッシング攻撃やマルウェア開発のために犯罪者がこの技術を使用することを不用意に助長することになるのだろうか?そして、この動きはMetaがこの急速に変化する分野でオープンAIやGoogleに対して優位に立つ手助けになるのだろうか?

何が起こるにせよ、この戦略的な動きは、現在の生成AIの状況を再構築することになりそうだ。2023年2月、MetaはLlamaと呼ばれるLLMの最初のバージョンをリリースしたが、これは学術的な利用に限定されていた。そのアップデート版であるLlama 2は、パフォーマンスが向上し、ビジネスでの使用に適している。

他のAIチャットボットと同様、Llama 2もオンラインデータを使って学習させる必要があった。この膨大な情報資源に触れることで、ユーザーの質問に有益な回答を提供するという、Llama 2の機能を向上させることができるのだ。

Llama 2の初期バージョンは、「教師ありファインチューニング」によって作成された。これは、質の高い質疑応答データを使用して、一般ユーザーが使用できるように調整する手法である。さらに、人間によるフィードバック強化学習によって改良された。この強化学習は、その名の通り、人間の好みに合わせるために、AIのパフォーマンスに対する人々の評価を取り入れるものである。

保証されたメリット

Metaは、Llama 2でオープンソースの理念を取り入れることで、過去に同社にとってうまくいったと思われるアプローチを活用することができる。Metaのエンジニアは、ReactやPyTorchといった開発者を支援する製品の開発で知られている。どちらもオープンソースで、業界標準となっている。これらを通じて、Metaはコラボレーションによるイノベーションの前例を作ってきた。

Llama 2のリリースは、より安全なジェネレーティブAIを約束するものだ。知恵を共有し、集団で探索することで、ユーザーは誤った情報や犯罪者に悪用される可能性のある脆弱性を特定することができる。ユーザーによって作成されたiPhoneにインストール可能なLlama 2のバージョンなど、予期せぬアプリケーションがすでに登場しており、このコミュニティにおける創造性の可能性を強調している。

しかし、Meta社がLlama 2のユーザーにAIシステムの商業化を許可するのには限界がある。Llama 2をベースにした製品で前月のアクティブユーザーが7億人を超えた場合、Metaにライセンスを要求しなければならない。Metaにとって、これはLlama 2をベースにした成功した製品の利益分配の可能性を開くものである。

Metaの戦略は、主要な競争相手であるOpenAIの慎重なアプローチとは対照的だ。OpenAIがChatGPTで行ったように、Metaがこの分野で競争し、製品を商業化する能力を疑問視する声もあるが、Metaが世界中の開発者を招待するという決定は、より広いビジョンを示唆している。これは、Zuckerberg氏の会社を単なるプレイヤーとしてではなく、Llama 2の成長するエコシステムに貢献するグローバルな才能を活用するファシリテーターとして位置づける動きだ。

この戦略はまた、Googleなどのハイテク大手との潜在的な競争に対する抜け目のないヘッジにもなり得る。Llama 2の可能性を探っている多くのユーザーがいるため、成功した進歩はすぐにMetaの他の製品に統合することができる。この決断がもたらす影響の全容が明らかになるのは時間の問題だが、業界への直接的な影響はすでに広く響いている。

ユーザーにとっての利点と落とし穴

オープンソース技術の公開実験という側面は、より大きな精査を可能にし、攻撃に対する脆弱性を含め、Llama 2の長所と短所をユーザーのコミュニティが評価する機会を提供する。一般の人々の監視の目は、LLMの欠陥を明らかにし、それに対する防御の開発を促すかもしれない。

その反面、悪意のあるユーザーに技術を悪用される可能性もあり、「犯罪者にナイフを渡す」ようなものだという懸念も浮上している。例えば、詐欺師が電話詐欺用のもっともらしい自動会話を生成する対話システムを構築するのに役立つ可能性がある。このような悪用の可能性から、この技術の規制を求める声もある。

しかし、具体的にどのようなルールが考案されるのか、誰がこのプロセスを監督する権限を得るのか、何がより厳しく、あるいはより厳しく監視される必要があるのか、規制が単に大手ハイテク企業の独占を助長するものでないことを確認するためには、慎重な計画が必要である。

進化し続けるAI開発のサガにおいて、オープンソース化をめぐる議論は、技術の進歩が単純で一面的なものであることは稀であることを思い起こさせる。Metaの決定が意味するところは、今後何年にもわたってテック界に波及していくだろう。Llama 2はまだChatGPTの能力には及ばないかもしれないが、多くの革新的な製品の開発への扉を開くことになる。

Googleもまた、どのような対応を取るか憶測が広がる中、監視下に置かれることになるだろう。オープンソース文化が繁栄している時代には、Googleが独自のリリースで追随しても不思議ではない。

「テック・フォー・グッド(tech for good)」という言葉は、テクノロジー企業がそのリソースの一部を使って、私たちの生活全てにポジティブな影響を与えることを表す一般的なマントラとなっている。しかし、最終的には、この目的は、一握りの企業が取り組むべきことではなく、共有の責任であることに変わりはない。

また、学術界、産業界、そしてそれ以外にわたる協力と協調的な努力が求められる目的でもある。LLM技術が進化し続ける中、その賭けは高く、前途はチャンスと挑戦の両方に満ちている。


本記事は、Yali Du氏によって執筆され、The Conversationに掲載された記事「Why Meta is allowing users to see the inner workings of its new AI chatbot」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

おすすめ記事

コメントする