あなたの好奇心を刺激する、テックと科学の総合ニュースサイト

AppleシリコンがStable Diffusionに最適化、画像生成速度が2倍に

Appleは同社の「Machine Learning Research ブログ」で、StableDiffusionプロジェクトに対するAppleとしてのサポートを発表した。それによると、リリースされたばかりのmacOS 13.1 beta 4とiOS 16.2 beta 4で、Apple Siliconチップ上でStable Diffusionを実行する際のパフォーマンスを大幅に向上させるためのアップデートが含まれているとのことだ。

Source

Appleの新しいハードウェア最適化のおかげで、Core ML StableDiffusionモデルは、Mシリーズチップに搭載されたNeural EngineとApple GPUアーキテクチャを最大限に活用することができるようになった。

GitHubにあるAppleのベンチマークによると、Appleの新しいCore ML Stable Diffusion最適化によって、M1チップで512×512の50ステップの画像を35秒で生成することができるとのことだ。M2では23秒、Appleの最も強力なSiliconチップであるM1 Ultraでは、わずか9秒で同じ結果を得ることができる。これは劇的な進歩で、M1の場合、生成時間はこれまでのほぼ半分だ。

ちなみに、RTX 3060 で 50 ステップで 512×512 の画像を生成するには、マシンで約 8.7 秒かかる。

加えて、Appleは、StableDiffusionのソースモデルをCore MLネイティブ形式に変換する方法を示すドキュメントとサンプルコードを広範に公開している。

AppleのGitHubリリースは、Stable DiffusionのモデルをPyTorchからCore MLに変換するPythonパッケージと、モデル展開のためのSwiftパッケージが含まれている。Stable Diffusion 1.4、1.5、そして新たにリリースされた2.0に対して最適化が施されている。

現時点では、Mac上でローカルにCore MLを使ったStable Diffusionを設定する体験は開発者向けで、基本的なコマンドラインのスキルが必要だ。

Appleは、この取り組みにより、開発者がバックエンドのクラウドサービスに依存するのではなく、クライアント上で動作するStableDiffusionをアプリに統合することを期待している。

Follow Me !

この記事が気に入ったら是非フォローを!

Share!!

スポンサーリンク

おすすめ記事

執筆者
Photo of author

masapoco

TEXAL管理人。中学生の時にWindows95を使っていたくらいの年齢。大学では物理を専攻していたこともあり、物理・宇宙関係の話題が得意だが、テクノロジー関係の話題も大好き。最近は半導体関連に特に興味あり。アニメ・ゲーム・文学も好き。最近の推しは、アニメ『サマータイムレンダ』

記事一覧を見る

コメントする

CAPTCHA