あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

Google Cloudは、オープンソースAIを推進するため、AIスタートアップのHugging Faceとの提携を発表した。これにより、開発者はGoogle Cloudのサブスクリプションを支払うことなくAIモデルを構築、訓練、デプロイできるようになった。Hugging Faceのプラットフォームを利用する外部の開発者は、GoogleのTensor処理ユニット(TPU)とGPUスーパーコンピュータに「コスト効率よく」アクセスできるようになる。これは最終的にオープンソースコミュニティに利益をもたらす可能性がある。

「私たちは、オープンサイエンス、オープンソース、クラウド、ハードウェアにわたってGoogleと協力し、企業がHugging Faceの最新のオープンモデルとGoogle Cloudの最新のクラウドとハードウェアの機能を使って独自のAIを構築できるようにします」と声明で述べられている。

Hugging Faceは、MetaのLlama 2やStability AIのStable Diffusionのようなオープンソース化された基礎モデルを保存しており、プログラマーが GitHub にコードをアップロードするのと同じように、開発者が独自のモデルを操作したりできる、人気のあるAIモデルリポジトリのひとつだ。また、モデルトレーニングのためのデータベースも多数用意されている。

Hugging Faceの数十万人のユーザーは、すでにGoogle Cloudのサーバー上で活動している。このパートナーシップは、Google Kubernetes EngineとVertex AI内で新しいモデルの訓練とホスティングを容易にすることを意図している。

今回の提携は、オープンソースAIへの取り組み強化を示すものであり、Googleにとっても特に重要だ。これまでGoogleは、自社プロジェクトやAnthropicへの投資など、独占的なモデルに依存してきた。

昨年、Googleのエンジニアは、同社がAIの進歩においてオープンソースの開発者に遅れをとっていることに懸念を表明していた。

GoogleのオープンソースAI参加への足がかりになるか

2016年にニューヨークで設立されたHugging Faceは、オープンソースAIコミュニティの要としての地位を確立し、開発者がAIモデルを共有し、発展させるための重要なプラットフォームを提供している。

Hugging Faceは、Google以外のテクノロジー業界の主要企業数社と関係を築き、インフラとサービスを拡大・改善している。

例えば、Hugging Faceは、独自のAIチップTrainiumを搭載したAmazonのサーバーを使用して、オープンソースの言語モデルBloomの開発を推進している。Nvidiaとの提携により、Hugging FaceのユーザーはNVIDIAのDGXクラウドAIインフラを活用してAIモデルのトレーニングや微調整を行うことができる。

こうした提携は、プロプライエタリなAIモデルの代替となるオープンソースを拡大・普及させる上で極めて重要だ。例えば、Hugging FaceのHuggingChatは、OpenAIのChatGPTに対抗するオープンソースとして設計されたが、まだその成功には及んでいない。MetaのLLaMa言語モデルの修正版もHugging Faceにある。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

Share on:

関連コンテンツ

コメントする