YouTubeとDeepMind、音楽生成のためのAIモデル「Lyria」を発表

masapoco
投稿日
2023年11月17日 15:38
DreamTrack.width 1000.format webp

Google DeepMindとYouTubeは共同で、ミュージシャンやアーティストの創作プロセスを強化するため、音楽用途に特別に設計された生成AIモデル「Lyria」を発表した。

このモデルは、YouTubeと連携して機能し、2つの新しいツールセット「Dream Track」と「Music AI」の基盤となるものだ。これらのツールは、YouTube Shorts用の音楽を作成するためのものであり、クリエイターが口ずさんだメロディから曲を構築するなど、創造的なプロセスを支援することを目的としている。

さらに、Google DeepMindはAI画像を見分ける目的で先日導入された電子透かし技術SynthIDを発展させ、AI音楽にも透かしを埋め込むことが出来る様になった事も発表している。

クリエイターを置き換えるのではなく補助するためのAI

生成AIの台頭は、エンターテインメント分野でも大きな議論を呼んでおり、先日はハリウッドの脚本家組合や俳優組合がストライキを決行するなど、AIによるクリエイターの能力の置き換えが懸念されている。

Google DeepMindとYouTubeが発表した新しいツールの主な目的は、AI音楽を現在のクリエイターの補完として、また音楽としての美的感覚を保ちながら信頼性を維持する技術を作り出すことだ。Googleの過去の研究によると、AIによって生成された音楽は、尺が長くなるほど歪んで現実離れしていく傾向があるということが分かっている。DeepMindは、音楽モデルに入力される情報の複雑さが、ビート、音符、ハーモニーなどをカバーしているため、長い音声シーケンスを生成する際に音楽的な連続性を維持することが困難であると指摘している。

Lyriaモデルは、楽器伴奏とヴォーカルによる質の高い音楽を作るために設計されている。Google DeepMindによると、Lyriaはヘビーメタルからテクノ、オペラまで多くのジャンルに対応している。同社によれば、フレーズ、節、または長いパッセージにわたって、リズム、メロディー、ボーカルの複雑さを維持することができるという。

そしてDream TrackはYouTube Shorts向けに提供される。この実験の目的は、アーティストが音楽を作るための新しい方法を探求することだ。当初は、限られたクリエイターに向けて提供され、30秒間のAI生成サウンドトラックを作成することが可能となる。このトラックは、Alec Benjamin、Charlie Puth、Charli XCX、Demi Lovato、John Legend、Sia、T-Pain、Troye Sivan、Papooseなどのアーティストの声と音楽スタイルで作成される。クリエイターはトピックを選択し、アーティストを選んで、歌詞、バッキングトラック、選択したミュージシャンの声を使用して30秒の作品を作成することが出来る様になる。

Music AI Incubatorとのコラボレーションによる、新たな音楽AIツールもYouTubeに登場する。Google DeepMindは、これがカバーする3つの領域を予告している。これには、口ずさんだメロディに基づいて特定の楽器で音楽を作成すること、シンプルなMIDIキーボードで構築したコードを使用して合唱団や他のアンサンブル全体を作成すること、既に持っているボーカルラインのためのバッキングおよびインストゥルメンタルトラックを構築することが含まれる。プロデューサーでありソングライターでもあるLouis Bell氏がサンプルビデオを作成して紹介している。

Music AIツールは今年後半にロールアウトされる予定だ。

DeepmindのSynthIDがAIオーディオに透かしを付ける

Lyriaで生成されたすべてのコンテンツは、Google CloudのVertex AI上でImagenによって生成されたAI画像を識別するために使用されるのと同じ技術ツールキットであるSynthIDでタグ付けされる。

SynthIDは、人間の耳には聞こえず、リスニング体験に影響を与えない方法で、AIが生成したオーディオに透かしを入れる。これは、オーディオ波を、音の周波数スペクトルが時間と共にどのように変化するかを2次元で可視化することによって行われる。

電子透かしは、例えばノイズの追加やMP3圧縮、トラックのスピードアップやスローダウンなど、オーディオ素材が変更されても認識可能なままのようだ。

SynthIDは、曲の一部がLyriaによって作成された場合にも役立つ。Google DeepMindによれば、この「斬新な方法」は、特にオーディオの分野では、これまでにないものだという。

数日前、YouTubeは同プラットフォーム上でAIが生成したオーディオビジュアルコンテンツを扱うための新しいルールを発表した。とりわけ、動画プラットフォームはラベリング要件の強化に重点を置いており、AIコンテンツが人間とAIの両方によって識別されることを望んでいる。

YouTubeにとって、音楽ジェネレーターは、ラベリングを含め、生成されたコンテンツを正確にコントロールできるツールをユーザーに使ってもらうことで、プラットフォーム上のAI生成音楽をよりコントロールできるようにするための戦略的ツールにもなり得るだろう。


Source



この記事が面白かったら是非シェアをお願いします!


  • SD 7 Gen 3 QRD
    次の記事

    Qualcomm、ミドルレンジスマホにオンデバイスAIをもたらす「Snapdragon 7 Gen 3」チップを発表

    2023年11月18日 5:54
  • 前の記事

    フェイクビデオの見分け方について、2人の誤報専門家が解説

    2023年11月17日 14:17

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です


おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事