あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

Mozilla、より手軽なAI開発を支援するローカルAI「Llamafile」をリリース

ChatGPTの登場以降、AIや大規模言語モデルと言ったテクノロジーは普及し始めている。大手テクノロジー企業はいち早くこれらを取り入れ、業務改善を行ったり、それに伴い人員削減も行っているが、全ての企業やユーザーがこれらを活用し始めているわけではない。むしろ、多くのユーザーにとってはまだまだ敷居が高いと考えられているだろう。Firefoxブラウザで有名なMozilla Foundationは、こうしたAIに対する障壁を取り除き、その普及に拍車をかけたいと考えている。

Mozilla Foundationは、「Llamafile」と呼ばれる新しいオープンソースイニシアチブを立ち上げると発表した。その目的は、NVIDIAの何十万も何百万もするような高度なGPUに依存せず、人々がすでに持っているスマートフォンやPCでLLMを実行できるようにすることだ。

LLaMAなどのオープンソースLLMが登場しているが、オープンソースのLLMスタックを立ち上げて実行するのは簡単ではない。選択するツールセットによっては、GitHubリポジトリのクローン、Pythonの依存関係のインストール、NVIDIAのSDKの特定バージョンの使用、C++コードのコンパイルなどが必要になるかもしれない。一方、この分野では物事が急速に進化しているため、昨日うまくいった説明書やチュートリアルが明日には時代遅れになっているかもしれない。オープンLLMのファイルフォーマットでさえ、急速に変化している。つまり、オープンソースのAIを使うには、多くの専門知識が必要なのだ。

Llamafileはこれをもっと手軽にしてくれる。AIチャットボットの複雑さをすべて1つのファイルに凝縮することで簡単に機能するようになっているのだ。このファイルは、Windows、macOS、Linux、OpenBSD、FreeBSD、NetBSDの6つの異なるオペレーティング・システム上で実行することができ、インストールや設定はほとんど必要ないほど気軽に試す事が可能だ。

加えてすべてのLLMが1つのファイルに凝縮されているため、クラウドへのアクセスは必要なく、既存のコンピュータでローカルに簡単に実行できるし、例えばUSBメモリやポータブルSSDに転送し、持ち運ぶことも可能だ。MozillaはLlamafileをローカルAIと呼んでおり、Wi-Fi接続をオフにしていつでも好きなときに展開できると説明している。

これは斬新なコンセプトに聞こえるかもしれないが、ローカルLLMの活用について考えているのはMozillaだけではない。Googleは、独自開発でAIの進化の先頭に立とうとしている。例えば、AiCoreアプリはPixel 8 Proの発売後に発見されたが、当時はその機能についてはほとんど知られていなかった。その後、Playストアのリストを通じて詳細が発表され、AiCoreは “最新の基盤モデルを使用して、AI主導の機能がデバイス上で直接実行される”ことを支援するとしている。

Googleが先日発表したGeminiは、同社が発表したこれまでで最も高性能かつ先進的なAIモデルであり、3つのサイズが用意されている。最も小型の「Nano」は例えば、Geminiは電話のような小さなデバイスでの駆動が意図されており、最も大型の「Ultra」はOpenAIのGPT-4を凌駕するとされており、データセンターのような大規模な処理能力を必要とする。

現時点では、AIがどれほどの可能性を秘めているかはわからないが、それを見極めようとしている企業はたくさんある。今回のMozillaの取り組みがまた1つLLMの可能性を示すことになるかもしれない。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

おすすめ記事

コメントする