هنرمندان اکنون می توانند تصاویر خود را مسموم کنند تا از سوء استفاده توسط هوش مصنوعی جلوگیری کنند

هنرمندان اکنون می توانند تصاویر خود را مسموم کنند تا از سوء استفاده توسط هوش مصنوعی جلوگیری کنند

گره منبع: 3074000

دانشگاه شیکاگو این هفته Nightshade 1.0 را منتشر کرد، ابزاری که برای مجازات سازندگان بی‌وجدان مدل‌های یادگیری ماشینی که سیستم‌های خود را بر روی داده‌ها آموزش می‌دهند، بدون دریافت مجوز اولیه ساخته شده است.

تاجریزی یک ابزار تهاجمی برای مسمومیت داده ها، همراه با ابزار حفاظتی سبک دفاعی به نام است لعاب، که ثبت نام پوشش داده شده در فوریه سال گذشته

Nightshade فایل‌های تصویری را مسموم می‌کند تا مدل‌هایی را که داده‌ها را بدون اجازه مصرف می‌کنند، دچار سوء هاضمه کند. هدف آن این است که آن مدل های آموزشی تصویر محور به خواسته های سازندگان محتوا در مورد استفاده از کارشان احترام بگذارند.

"Nightshade به عنوان یک بهینه سازی چند هدفه محاسبه می شود که تغییرات قابل مشاهده در تصویر اصلی را به حداقل می رساند." گفت: تیم مسئول پروژه

برای مثال، چشم انسان ممکن است تصویر سایه‌دار از یک گاو را در یک مزرعه سبز بدون تغییر ببیند، اما یک مدل هوش مصنوعی ممکن است یک کیف چرمی بزرگ را ببیند که در چمن‌ها افتاده است. "

Nightshade توسط دانشجویان دکترای دانشگاه شیکاگو، Shawn Shan، Wenxin Ding و Josephine Passananti، و اساتید Heather Zheng و Ben Zhao، که برخی از آنها نیز در Glaze کمک کردند، توسعه داده شد.

توصیف شده در الف مقاله تحقیقاتی در اکتبر 2023، Nightshade یک حمله مسمومیت فوری است. مسموم کردن یک تصویر شامل انتخاب یک برچسب (به عنوان مثال یک گربه) است که آنچه را که واقعاً به تصویر کشیده شده است، توصیف می کند تا زمانی که تصویر برای آموزش مدل جذب می شود، مرزهای آن مفهوم محو شود.

بنابراین، یک کاربر مدلی که روی تصاویر مسموم شده Nightshade آموزش دیده است، ممکن است درخواستی برای گربه ارسال کند و اعلان تصویری از یک سگ یا یک ماهی را دریافت کند. پاسخ‌های غیرقابل پیش‌بینی از این نوع، مدل‌های متن به تصویر را به‌طور قابل‌توجهی کمتر مفید می‌سازد، به این معنی که سازندگان مدل انگیزه دارند مطمئن شوند که فقط بر اساس داده‌هایی که آزادانه ارائه می‌شوند، آموزش می‌بینند.

نویسندگان در مقاله خود بیان می‌کنند: «Nightshade می‌تواند ابزار قدرتمندی برای صاحبان محتوا فراهم کند تا از مالکیت معنوی خود در برابر مربیان مدلی که اخطارهای حق چاپ را نادیده می‌گیرند، دستورالعمل‌های نخراش/خزیدن، و فهرست‌های انصراف را نادیده می‌گیرند یا نادیده می‌گیرند.»

عدم توجه به خواسته های سازندگان و صاحبان آثار هنری منجر به شکایت شد سال گذشته ثبت شد، بخشی از یک واکنش گسترده تر علیه برداشت بدون مجوز داده ها به نفع مشاغل هوش مصنوعی است. ادعای نقض، که از طرف چند هنرمند علیه Stability AI، Deviant Art و Midjourney مطرح شد، ادعا می‌کند که مدل Stable Diffusion که توسط شرکت‌های متهم استفاده می‌شود، آثار هنرمندان را بدون مجوز ترکیب می‌کند. این پرونده که در نوامبر 2023 اصلاح شد و شامل یک متهم جدید، Runway AI، شد. ادامه مورد دعوا قرار گیرد.

نویسندگان هشدار می دهند که Nightshade محدودیت هایی دارد. به طور خاص، تصاویر پردازش شده با نرم افزار ممکن است به طور ماهرانه ای با آثار اصلی متفاوت باشند، به خصوص آثار هنری که از رنگ های صاف و پس زمینه صاف استفاده می کنند. همچنین، آنها مشاهده می‌کنند که ممکن است تکنیک‌هایی برای خنثی کردن Nightshade ایجاد شود، اگرچه معتقدند می‌توانند نرم‌افزار خود را برای همگام شدن با اقدامات متقابل تطبیق دهند.

متیو گوزیال، استادیار علوم کامپیوتر در دانشگاه آلبرتا، در یک رسانه اجتماعی گفت پست"این یک کار جالب و به موقع است! اما من نگرانم که به عنوان راه حل بیش از حد درج شود. این تنها با مدل‌های مبتنی بر CLIP کار می‌کند و به گفته نویسندگان، به ۸ میلیون تصویر «مسموم» نیاز دارد تا تأثیر قابل‌توجهی در تولید تصاویر مشابه برای مدل‌های LAION داشته باشد.

Glaze که در ژوئن گذشته به 1.0 رسید، دارد یک نسخه وب، و اکنون در حال انجام است انتشار 1.1.1، تصاویر را تغییر می دهد تا از تکرار سبک بصری هنرمند توسط مدل های آموزش دیده بر روی آن تصاویر جلوگیری کند.

تقلید سبک – در دسترس از طریق سرویس‌های بسته متن به تصویر مانند Midjourney و از طریق مدل‌های منبع باز مانند Stable Diffusion – به سادگی با تحریک یک مدل متن به تصویر برای تولید تصویری به سبک یک هنرمند خاص امکان‌پذیر است.

این تیم معتقد است هنرمندان باید راهی برای جلوگیری از تسخیر و بازتولید سبک های بصری خود داشته باشند.

بوفین ها می گویند: «تقلید سبک تعدادی پیامد مضر ایجاد می کند که ممکن است در نگاه اول آشکار نباشد. برای هنرمندانی که سبک‌هایشان عمداً کپی می‌شود، نه تنها در کمیسیون و درآمد اولیه از دست می‌دهند، بلکه کپی‌های مصنوعی با کیفیت پایین که به صورت آنلاین پراکنده شده‌اند، برند و شهرت آنها را کمرنگ می‌کنند. مهمتر از همه، هنرمندان سبک خود را با هویت خود مرتبط می کنند.»

آنها تقلید سبک را به سرقت هویت تشبیه می کنند و می گویند که این کار هنرمندان مشتاق را برای خلق آثار جدید بی انگیزه می کند.

این تیم توصیه می کند که هنرمندان از Nightshade و Glaze استفاده کنند. در حال حاضر این دو ابزار باید به طور جداگانه دانلود و نصب شوند، اما یک نسخه ترکیبی در حال توسعه است. ®

تمبر زمان:

بیشتر از ثبت نام