画像生成AIモデルに“毒”を盛り破壊することが出来るツール「Nightshade」が正式リリース

masapoco
投稿日 2024年1月22日 11:22
351ec24fb420084f05277d0e536a34a7

DALL-EやMidjourneyなどの画像生成AIにアーティストが対抗する手段として数ヶ月前に発表されたNightshade」が、ついに正式にリリースされ、アーティストが自身のアート作品に“毒”を盛り、これをAIがトレーニングに使用した際に、その出力に甚大な影響を与える事が可能になった。

Nightshadeを開発したシカゴ大学の研究チームは「Nightshadeは、著作権表示やスクレイピング/クロール禁止と言った指示を無視するAI開発企業から、コンテンツ所有者の知的財産を守る強力なツールです。Nightshadeのようなシステムを利用することで、映画スタジオ、出版社、ゲーム制作者、アーティストは、AI開発企業に対して反撃をすることができるようになります」と、述べている。

Nightshadeの必要要件

Nightshadeを使用するには、Appleシリコンを内蔵したMac(M1、M2、M3)、またはWindows 10または11を搭載したPCが必要となる。両OS用のツールはこちらからダウンロード可能だ。Mac用が255MB、PC用が2.6GBである。

Windows用のファイルは、PCのGPUでも実行可能だが、基本的にサポートされているハードウェアのリストにあるNVIDIA製のGPUである必要がある。

また、ユーザーはGlaze/Nightshadeチームのエンドユーザー使用許諾契約書(EULA)に同意しなければならない。EULAでは、このツールを自分の管理下にあるマシンで使用し、基礎となるソースコードを変更しないこと、また「本ソフトウェアを複製、コピー、配布、再販、その他いかなる商業目的にも使用しないこと」を定めている。

Nightshadeの仕組み

Nightshadeは、一言で言えば、「あらゆる画像をモデルのトレーニングには適さないデータサンプルに変換するツール」である。

Nightshade v1.0は、「画像を “毒”サンプルに変換し、同意なしにその画像でトレーニングしたAIモデルが、予想される規範から逸脱した予測不可能な行動を学習します。たとえば、『宇宙を飛んでいる牛』の画像を要求するプロンプトなどが入力されても、代わりに、『宇宙に浮かぶハンドバッグ』の画像を取得するかもしれません」と、説明されている。

シカゴ大学の研究チームは、これ以前にも生成AIに対抗するためのツールとしてGlazeを製作していたが、今回のNightshadeはGlazeが“防御”手段として構築されたのに対し、明確に“攻撃”するためのツールとして設計されており、生成AI画像モデル内の特徴表現を歪める事を目的としている。

Nightshadeを使っても画像は人間の目にはほとんど変化がない陰影のついた画像が見えるが、AIモデルには劇的に異なる構図の画像が見える。「例えば、人間の目には緑の野原にいる牛の陰影画像がほとんど変わらずに見えるかもしれないが、AIモデルには草むらに転がっている大きな革製の財布が見えるかもしれない。牛を含む十分な数の陰影画像で訓練されたモデルは、牛には素敵な茶色の革のような持ち手があり、ファスナー付きの滑らかなサイドポケットがあり、おそらく素敵なブランドロゴがあるとますます確信するようになる」と、研究チームは説明する。

また、Nightshadeは透かしや隠しメッセージとは異なり、一般的な画像編集である、切り抜き、再サンプル、圧縮、ピクセルの平滑化、ノイズの追加が可能でありスクリーンショットを撮ることもできるし、モニターに表示された画像の写真を撮ってもその効果が薄れることはないという。

こうしたツールの開発にはもちろん賛否がついて回る。一部のアーティストは早速Nightshade v1.0を活用し始めているが、Web上ではこのツールがAI企業に対するサイバー攻撃に等しいとまで批判するものもある。

シカゴ大学の開発チームは、GlazeやNightshadeが破壊的な目的で開発されたのではなく、「Nightshadeの目的は、モデルを壊すことではなく、ライセンスされていないデータでトレーニングするコストを増加させ、クリエイターから画像をライセンスすることが現実的な選択肢になるようにすることです」と、述べている。つまり、AIモデルの開発者が、アーティストに正当な対価を支払い、彼らのデータで学習するような潮流を作りたいのだ。

チームはさらに最終目標を説明する:

「責任を持って使用することで、Nightshadeは、著作権、オプトアウトリスト、do-not-scrape/robots.txtディレクティブを無視するモデルトレーナーを抑止するのに役立ちます。モデルトレーナーの親切心に頼るのではなく、無許可でスクレイピングされ、トレーニングされたデータ1つ1つに少額の追加料金を課すのです」。


Source



この記事が面白かったら是非シェアをお願いします!


  • Dragonfire Night Shot gov image 960x640
    次の記事

    英国軍、強力なレーザー兵器による空中狙撃試験に成功

    2024年1月22日 11:43
  • 前の記事

    Googleは2024年に「世界で最も先進的」なAIを提供したい

    2024年1月22日 6:45
    googleai

スポンサーリンク


この記事を書いた人
masapoco

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

おすすめ記事

  • openai

    OpenAI、15秒の音声サンプルから感情豊かで自然な音声を合成できる「Voice Engine」を発表

  • a04c35e8e555c1cc7ae1d6a5f3159856

    MicrosoftとOpenAI、1000億ドル以上をかけて超人的AI開発のためのスーパーコンピューター「Stargate」を開発する計画

  • Sam Altman TechCrunch SF 2019 Day 2 Oct 3 cropped cropped

    ベンチャーキャピタリスト、OpenAIのSam Altman氏を“誇大妄想的”と非難

  • google logo image

    Googleが非営利団体を対象に2000万ドルの資金を提供し生成AI活用を支援

  • Pixel 8 in Rose.max 936x936.format webp

    Google、方針を転換しPixel 8にもGemini NanoによるオンデバイスAI機能を搭載へ

今読まれている記事