Meta、テキストからオーディオを生成するオープンソースのモデルキット「AudioCraft」を発表

masapoco
投稿日
2023年8月3日 4:43
meta audiocraft

Metaは、アーティストやサウンドデザイナーがAIだけでオーディオを制作することを可能にしようとしている。今回同社が発表した「AudioCraft」は、テキスト記述からサウンドを作成するための3つの既存の精製AIモデルをバンドルしたオープンソースキットだ。既に発表されているAudioGenMusicGenはそれぞれ効果音と音楽を生成し、EnCodecはサウンドを圧縮してより高品質な結果を生成する。ミュージシャンやサウンドデザイナーは、作曲に必要なものをすべて手に入れることができるかもしれない。ただし、Audiocraftはまだ商用利用を認めていないのでその点は注意が必要だ。

このリリースには、すぐに始めたい人のために事前に訓練されたAudioGenモデルが含まれており、カスタマイズしたい人向けにはAudioCraftのコード全体とモデルの重みにアクセスできる。「オープンソースのデビューは、プロや研究者が自分のデータを使ってモデルを訓練する機会を与える」、とMetaは述べている。トレーニング済みのモデルはすべて、公開されている素材かMetaが所有する素材を使用しているため、著作権面での心配はいらない。

Metaは、AudioCraftを、生成AIオーディオをよりシンプルで利用しやすくする方法として位置づけている。AIが生成する画像やテキストは人気があるが、同社はサウンドは「少し遅れている」と考えている。既存のプロジェクトは複雑で、しばしば閉鎖的になりがちだ。理論的には、新しいキットは、クリエイターが独自のモデルを形成し、可能性を広げる機会を提供する。

市場にあるオープンなテキスト音声AIはこれだけではない。Googleは5月にMusicLMモデルを公開した。Metaのシステムもまた、日常的なユーザー向けに設計されていない。AudioCraftを適切に使用するには、やはり技術的な知識が必要だ。開発者たちはまた、これらのモデルの性能と制御方法を改善し、その可能性を広げようとしている。

リリース後、Metaはオープンソースモデルの重要性を改めて強調する:「責任あるイノベーションは単独では起こりえません。責任あるイノベーションは単独では起こりえません。私たちの研究とその結果のモデルをオープンソース化することで、誰もが平等にアクセスできるようになるのです」。


Sources



この記事が面白かったら是非シェアをお願いします!


  • Blog Hero v3SWV9p.width 1600.format webp
    次の記事

    Google、検索結果から個人情報を簡単に削除出来る仕組みを更に便利に

    2023年8月4日 6:35
  • 前の記事

    PCI-SIGが「Optical Workgroup」を結成しPCIeへの光通信技術の採用を検討へ

    2023年8月3日 4:33
    optical fiber
この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事