MediaTekは、自社のプラットフォームとAPUでMetaのオープンソース大規模言語モデル「Llama 2」を使用して、スマートフォン、IoTデバイス、自動車、スマートホームガジェットをAI計算で高速化する計画を発表した。
ChatGPTやGoogleのSearch Generative Experienceのような、近年クローズアップされることの多い大規模言語モデルを用いたAI実装は、クラウド接続に大きく依存している。反面、GoogleがPixelフォンで大きく取り上げることが多いAIを用いたカメラ機能等は軽量な処理になる為、SoC上のチップによって処理が行われている。
MediaTekやQualcomm、その他のチップメーカーは、この状況を変え、オンデバイスでの計算能力を強化することで、クラウドインフラへの接続を必要とせずに、スマートフォンやその他のスマートガジェットがAIタスクを実行できるように出来る未来を目指している。これ自体は、よりスムーズなパフォーマンス、より優れたプライバシー、より強固なセキュリティにつながる点でメリットも大きい。さらに、デバイスがオフラインの場合や接続が弱い場合でも機能する。
同社は、2023年末までに、Llama 2ベースのAIアプリケーションに最適化された新しいSoCを搭載したAndroid携帯電話の出荷が開始されると見込んでいる。つまり、ハイエンドのスマートフォンが恩恵を受け始めるのは、せいぜい2024年の第1四半期ということになる。
これに先立ち、QualcommもオンデバイスでのエッジAI駆動を推し進める事を表明しており、業界全体がプライバシーを重視するための動きを加速させていることは、時代のニーズに合致した物といえる。生成AIの駆動に特別に最適化されたハードウェアによるオンデバイス処理を目指す動きは正しい物と言えるだろう。
Source
コメントを残す