アーティストは AI による悪用を防ぐために自分の画像に毒を加えることができるようになりました

アーティストは AI による悪用を防ぐために自分の画像に毒を加えることができるようになりました

ソースノード: 3074000

シカゴ大学関係者は今週、事前に許可を得ることなくデータに基づいてシステムをトレーニングする悪徳機械学習モデルの作成者を罰するために構築されたツール、Nightshade 1.0をリリースした。

ホオズキ これは攻撃的なデータポイズニング ツールであり、と呼ばれる防御的なスタイルの保護ツールと対になるものです。 、その 登録 カバー 去年のXNUMX月に。

Nightshade は画像ファイルを汚染して、許可なくデータを取り込むモデルに消化不良を与えます。これは、トレーニング用の画像指向モデルが、作品の使用に関するコンテンツ作成者の希望を尊重できるようにすることを目的としています。

「ナイトシェードは、元の画像に対する目に見える変化を最小限に抑える多目的最適化として計算されます。」 プロジェクトを担当するチーム。

「たとえば、人間の目には、緑の野原にある牛の陰影がほとんど変化していない画像が見えるかもしれませんが、AI モデルには草むらに大きな革製のハンドバッグが横たわっているように見えるかもしれません。 「

Nightshade は、シカゴ大学の博士課程学生である Shawn Shan、Wenxin Ding、Josephine Passananti と、Heather Zheng 教授と Ben Zhao 教授によって開発されました。彼らの中には Glaze にも協力した人もいます。

で説明されています 研究論文 2023 年 XNUMX 月、Nightshade は即時特異的な毒攻撃です。画像をポイズニングするには、モデルのトレーニングのために画像が取り込まれるときに、その概念の境界を曖昧にするために、実際に何が描かれているかを説明するラベル (例: 猫) を選択することが含まれます。

したがって、Nightshade の毒された画像でトレーニングされたモデルのユーザーは、猫のプロンプトを送信し、犬や魚の画像の通知を受け取る可能性があります。この種の予測不可能な応答により、テキストから画像へのモデルの有用性が大幅に低下します。つまり、モデル作成者には、無料で提供されたデータのみをトレーニングするインセンティブが生まれます。

「Nightshade は、著作権表示、スクレイピング/クロール禁止指令、およびオプトアウト リストを無視または無視するモデル トレーナーからコンテンツ所有者が知的財産を保護するための強力なツールを提供できます」と著者らは論文で述べています。

芸術作品の作者と所有者の希望を考慮しなかったため、訴訟につながった 昨年提出されたこれは、AI ビジネスの利益を目的とした許可のないデータ収集に対する広範な反発の一環です。この侵害主張は、数人のアーティストを代表してStability AI、Deviant Art、Midjourneyに対して行われたもので、被告企業が使用しているStable Diffusionモデルにアーティストの作品が無断で組み込まれていると主張している。この訴訟は、2023 年 XNUMX 月に修正され、新しい被告である Runway AI が追加されました。 続ける 訴訟されることになる。

著者らは、Nightshade にはいくつかの制限があると警告しています。具体的には、ソフトウェアで処理された画像、特に単調な色と滑らかな背景を使用したアートワークは、元の画像とは微妙に異なる場合があります。また、Nightshade を元に戻す技術が開発される可能性があることも観察していますが、ソフトウェアを適応させて対策に対応できると考えています。

アルバータ大学コンピューターサイエンス助教授マシュー・グズディアル氏はソーシャルメディアでこう語った。 役職、『クールでタイムリーな作品ですね!しかし、それが解決策として過剰に宣伝されているのではないかと心配しています。これは CLIP ベースのモデルでのみ機能し、作者によれば、LAION モデル用の同様の画像の生成に大きな影響を与えるには、8 万枚の画像が「汚染」される必要があるとのことです。」

昨年 1.0 月に XNUMX に達した Glaze は、 ウェブ版、現在はその段階にあります 1.1.1リリース、画像を変更して、それらの画像でトレーニングされたモデルがアーティストのビジュアル スタイルを複製しないようにします。

Midjourney などのクローズドなテキストから画像へのサービスや、Stable Diffusion などのオープンソース モデルを通じて利用できるスタイルの模倣は、テキストから画像へのモデルに特定のアーティストのスタイルで画像を生成するよう促すだけで可能です。

研究チームは、アーティストは自分のビジュアル スタイルのキャプチャと複製を防ぐ方法を備えるべきだと考えています。

「スタイルの模倣は、一見しただけでは分からないかもしれないが、多くの有害な結果を生み出します」とボフィンズ氏は述べています。 「スタイルを意図的にコピーされたアーティストにとっては、コミッションやベーシックインカムが失われるだけでなく、オンラインに散在する低品質の合成コピーによってブランドや評判が損なわれることになります。最も重要なことは、アーティストは自分のスタイルを自分のアイデンティティそのものと結び付けることです。」

彼らは、スタイルの模倣を個人情報の盗難に例え、意欲的なアーティストが新しい作品を創作する意欲をそぐと主張しています。

チームはアーティストが Nightshade と Glaze の両方を使用することを推奨しています。現在、2 つのツールはそれぞれ個別にダウンロードしてインストールする必要がありますが、統合バージョンが開発されています。 ®

タイムスタンプ:

より多くの 登録