توسعه دهندگان Bored Apes سیستم آموزش نظامی ایالات متحده و بریتانیا را رها می کنند

توسعه دهندگان Bored Apes سیستم آموزش نظامی ایالات متحده و بریتانیا را رها می کنند

گره منبع: 1772253

آیا تا به حال تصاویری از خود در شبکه های اجتماعی مانند فیس بوک، اینستاگرام، تیک توک و دیگران منتشر کرده اید؟ اگر چنین است، شاید زمان آن رسیده است که در این پست ها تجدید نظر کنید.

این به این دلیل است که یک فناوری جدید تولید تصویر هوش مصنوعی اکنون به کاربران اجازه می‌دهد دسته‌ای از عکس‌ها و فریم‌های ویدیویی شما را ذخیره کنند و سپس آن‌ها را آموزش دهند تا تقلبی‌های «واقعی» از عکس شما ایجاد کنند که شما را در موقعیت‌های کاملا شرم‌آور، غیرقانونی و گاهی اوقات سازش‌دهنده نشان می‌دهد.

خوب، همه در معرض خطر نیستند، اما تهدید واقعی است.

اگرچه عکس ها همیشه مستعد این بوده اند دست کاری و جعل از دوران تاریکخانه ها که در آن فیلم ها با قیچی دستکاری می شدند و تا فتوشاپ پیکسل های امروزی چسبانده می شدند.

در حالی که در آن روزها این یک کار دلهره آور بود و به مهارت های تخصصی نیاز داشت، این روزها تولید جعلی های فوتورئالیستی متقاعد کننده بسیار آسان شده است.

ابتدا یک مدل هوش مصنوعی باید یاد بگیرد که چگونه از طریق نرم افزار تصویری از یک فرد را به یک عکس از یک مدل دو بعدی یا سه بعدی تبدیل یا ترکیب کند. هنگامی که تصویر با موفقیت رندر شد، تصویر به طور طبیعی به بازیچه ای برای فناوری تبدیل می شود و ظرفیت تولید بی نهایت تصاویر را دارد.

هنگامی که شخصی تصمیم می گیرد مدل هوش مصنوعی را به اشتراک بگذارد، افراد دیگر نیز می توانند به آن ملحق شوند و شروع به ایجاد تصاویری از آن شخص کنند.

فناوری هوش مصنوعی که تصاویر جعلی عمیق و ویرانگر ایجاد می کند

واقعی یا با هوش مصنوعی؟

مطالعات موردی رسانه های اجتماعی

داوطلبی به عنوان "شجاع" توسط ARS TECHNICA، یک نشریه فناوری که در ابتدا به شرکت اجازه داده بود از تصاویر او برای ساختن تقلبی استفاده کند، نظرش تغییر کرد.

این به این دلیل است که در کمترین زمان، نتایج تصاویر رندر شده از مدل هوش مصنوعی برای داوطلب بسیار قانع‌کننده و از نظر اعتبار بسیار مضر بود.

با توجه به خطر بالای شهرت، یک فرد ساختگی به نام جان که با هوش مصنوعی تولید شده بود، به یک انتخاب طبیعی تبدیل شد.

جان، مرد ساختگی، معلم مدرسه ابتدایی بود که مانند بسیاری از افراد دیگر تصاویر خود را در محل کار، در خانه و در برخی از رویدادهای مشابه، در فیس بوک منتشر کرده است.

تصاویر تا حد زیادی غیر توهین‌آمیز «جان» ارائه شد و سپس برای آموزش هوش مصنوعی برای قرار دادن او در موقعیت‌های سازش‌آورتر مورد استفاده قرار گرفت.

تنها از هفت تصویر، هوش مصنوعی می تواند برای تولید تصاویری آموزش ببیند که به نظر برسد جان یک زندگی دوگانه و مخفیانه دارد. به عنوان مثال، او به عنوان فردی ظاهر شد که از برهنه شدن برای سلفی در کلاس درس خود لذت می برد.

شب به میله ها می رفت که شبیه دلقک بود.

در تعطیلات آخر هفته، او بخشی از یک گروه شبه نظامی افراطی بود.

هوش مصنوعی همچنین این تصور را ایجاد کرد که او مدتی را به دلیل اتهام مواد مخدر غیرقانونی در زندان گذرانده است اما این واقعیت را از کارفرمای خود پنهان کرده است.

در تصویری دیگر، جان که متاهل است در حال ژست گرفتن در کنار زنی برهنه که همسرش نیست در دفتری دیده می شود.

با استفاده از یک تولید کننده تصویر هوش مصنوعی به نام انتشار پایدار (نسخه 1.5) و تکنیکی به نام Dreambooth، Ars Technica توانست به هوش مصنوعی آموزش دهد که چگونه عکس های جان را به هر سبکی تولید کند. اگرچه جان یک خلقت ساختگی بود، اما هر کسی از نظر تئوری می‌توانست از پنج یا چند تصویر به همان مجموعه نتایج دست یابد. این تصاویر را می توان از حساب های رسانه های اجتماعی برداشت یا به عنوان فریم های ثابت از یک ویدیو گرفت.

فرآیند آموزش هوش مصنوعی نحوه ایجاد تصاویر جان حدود یک ساعت طول کشید و به لطف سرویس رایانش ابری گوگل رایگان بود.

این نشریه گفت که وقتی آموزش کامل شد، ایجاد تصاویر چندین ساعت طول کشید. و این به این دلیل نبود که تولید تصاویر یک فرآیند تا حدودی آهسته بود، بلکه به این دلیل بود که نیاز به بررسی تعدادی از «تصاویر ناقص» و استفاده از نوعی «آزمایش و خطا» برای یافتن بهترین تصاویر بود.

این مطالعه نشان داد که در مقایسه با تلاش برای ایجاد یک عکس جعلی واقع گرایانه از "جان" در فتوشاپ از ابتدا بسیار ساده تر است.

به لطف فناوری، افرادی مانند جان می‌توانند طوری به نظر برسند که گویی غیرقانونی عمل کرده‌اند، یا مرتکب اعمال غیراخلاقی مانند خانه‌شکنی، استفاده از مواد مخدر غیرقانونی و دوش گرفتن برهنه با دانش‌آموز شده‌اند. اگر مدل‌های هوش مصنوعی برای پورنوگرافی بهینه‌سازی شوند، افرادی مانند جان می‌توانند تقریباً یک شبه به ستاره‌های پورن تبدیل شوند.

همچنین می‌توان تصاویری از جان در حال انجام کارهای به ظاهر غیر توهین‌آمیز ایجاد کرد که می‌تواند ویرانگر باشد، اگر او را در حال خوردن در یک بار در حالی که متعهد شده است نشان دهیم.

به همین جا ختم نمی شود.

یک فرد همچنین می تواند در لحظه ای سبک تر به عنوان یک شوالیه قرون وسطایی یا یک فضانورد ظاهر شود. در برخی موارد، افراد ممکن است هم پیر و هم جوان باشند یا حتی لباس بپوشند.

با این حال، ارائه شده است تصاویر از کامل بودن فاصله دارند یک نگاه دقیق تر می تواند آنها را تقلبی تشخیص دهد.

نکته منفی این است که فناوری ایجاد این تصاویر به طور قابل توجهی ارتقا یافته است و می تواند تمایز بین یک عکس سنتز شده و یک عکس واقعی را غیرممکن کند.

با این حال، علیرغم نقص‌هایشان، جعلی‌ها می‌توانند سایه‌هایی از شک در مورد جان ایجاد کنند و به طور بالقوه شهرت او را از بین ببرند.

اخیراً، تعدادی از افراد از همین تکنیک (با افراد واقعی) برای ایجاد عکس های پروفایل عجیب و غریب و هنرمندانه از خود استفاده کرده اند.

همچنین خدمات تجاری و برنامه هایی مانند لنسا قارچ که رسیدگی به آموزش.

چگونه کار می کند؟

اگر کسی از روندها پیروی نکرده باشد، کار روی جان ممکن است قابل توجه به نظر برسد. امروزه، مهندسان نرم‌افزار می‌دانند که چگونه از هر چیزی که بتوان تصورش را کرد، تصاویر واقعی واقعی خلق کرد.

به غیر از عکس‌ها، هوش مصنوعی به طور بحث‌انگیز به افراد اجازه می‌دهد آثار هنری جدیدی ایجاد کنند که آثار هنرمندان موجود را بدون اجازه آنها شبیه‌سازی کند.

به دلیل نگرانی های اخلاقی به حالت تعلیق درآمد

میچ جکسون، وکیل فناوری ایالات متحده، نسبت به گسترش فناوری های جعلی عمیق در بازار ابراز نگرانی کرد و گفت که در بیشتر سال 2023 تأثیرات قانونی فناوری را مطالعه خواهد کرد.

"تمایز بین واقعی و جعلی در نهایت برای اکثر مصرف کنندگان غیرممکن خواهد شد.

Adobe قبلاً دارای فناوری صوتی به نام Adobe VoCo است که به هر کسی اجازه می‌دهد دقیقاً شبیه دیگران باشد. کار بر روی Adobe VoCo به دلیل نگرانی‌های اخلاقی به حالت تعلیق درآمد، اما ده‌ها شرکت دیگر در حال تکمیل این فناوری هستند و برخی از آنها امروزه جایگزین‌هایی را ارائه می‌کنند. خودت نگاه کن یا گوش کن.» میچام گفت:.

او می‌گوید تصاویر و نسخه‌های ویدیویی ویدیوهای جعلی عمیق بهتر و بهتر می‌شوند.

او می افزاید: «گاهی اوقات، تشخیص ویدیوهای جعلی از واقعی غیرممکن است.

Stable Diffusion از مدل سنتز تصویر با یادگیری عمیق استفاده می‌کند که می‌تواند تصاویر جدیدی را از توضیحات متن ایجاد کند و می‌تواند بر روی رایانه شخصی ویندوز یا لینوکس، در مک، یا در فضای ابری روی سخت‌افزار رایانه‌ای اجاره‌ای اجرا شود.

شبکه عصبی Stable Diffusion با کمک یادگیری فشرده در ارتباط کلمات و ارتباط آماری کلی بین موقعیت پیکسل ها در تصاویر تسلط یافته است.

به همین دلیل، می‌توان به Stable Diffusion دستوری مانند «تام هنکس در کلاس درس» داد و تصویر جدیدی از تام هنکس در کلاس به کاربر ارائه می‌دهد.

در مورد تام هنک، پیاده‌روی در پارک است، زیرا صدها عکس او از قبل در مجموعه داده‌های مورد استفاده برای آموزش Stable Diffusion هستند. اما برای ساختن تصاویر افرادی مانند جان، هوش مصنوعی به کمک کمی نیاز دارد.

اینجاست که Dreambooth شروع می کند.

Dreambooth که در 30 آگوست توسط محققان گوگل راه اندازی شد، از تکنیک خاصی برای آموزش Stable Diffusion از طریق فرآیندی به نام "تنظیم دقیق" استفاده می کند.

در ابتدا Dreambooth با Stable Diffusion مرتبط نبود و گوگل کد منبع خود را به دلیل ترس از سوء استفاده در دسترس قرار نداده بود.

در کمترین زمان، شخصی راهی برای انطباق تکنیک Dreambooth برای کار با Stable Diffusion پیدا کرد و کد را آزادانه به عنوان یک پروژه منبع باز منتشر کرد، و Dreambooth را به روشی بسیار محبوب برای هنرمندان هوش مصنوعی برای آموزش سبک های هنری جدید Stable Diffusion تبدیل کرد.

تاثیر در سراسر جهان

حدود 4 میلیارد نفر در سراسر جهان از رسانه های اجتماعی استفاده می کنند. از آنجایی که بسیاری از ما بیش از تعداد انگشت شماری عکس از خود آپلود کرده‌ایم، ممکن است در برابر چنین حملاتی آسیب‌پذیر شویم.

اگرچه تأثیر فناوری ترکیب تصویر از دیدگاه مردان به تصویر کشیده شده است، زنان نیز معمولاً بار سنگین آن را متحمل می شوند.

وقتی چهره یا بدن یک زن رندر می‌شود، هویت او می‌تواند به شکلی شیطانی در تصاویر مستهجن وارد شود.

این امر به دلیل تعداد زیادی از تصاویر جنسی یافت شده در مجموعه داده های مورد استفاده در آموزش هوش مصنوعی امکان پذیر شده است.

به عبارت دیگر، این بدان معنی است که هوش مصنوعی با نحوه تولید آن تصاویر مستهجن بسیار آشنا است.

در تلاش برای پرداختن به برخی از این مسائل اخلاقی، هوش مصنوعی پایداری مجبور شد مواد NSFW را از مجموعه داده‌های آموزشی خود برای نسخه جدیدتر نسخه 2.0 حذف کند.

اگرچه مجوز نرم افزار آن افراد را از استفاده از ژنراتور هوش مصنوعی برای ایجاد تصاویری از افراد بدون اجازه آنها منع می کند، اما پتانسیل بسیار کمی برای اجرای آن وجود دارد.

کودکان همچنین از تصاویر سنتز شده در امان نیستند و حتی در مواردی که تصاویر دستکاری نمی شوند، با استفاده از این فناوری مورد آزار و اذیت قرار می گیرند.

فناوری هوش مصنوعی که تصاویر جعلی عمیق و ویرانگر ایجاد می کند

ساخته شده توسط انسان؟

آیا کاری از دست ما بر می آید؟

لیست کارهایی که باید انجام دهید از فردی به فرد دیگر متفاوت است. یکی از راه‌ها برداشتن گامی جدی برای حذف تصاویر آفلاین است.

در حالی که این ممکن است برای مردم عادی کارساز باشد، اما برای افراد مشهور و دیگر شخصیت های عمومی راه حل چندانی نیست.

با این حال، در آینده، افراد ممکن است بتوانند از طریق ابزارهای فنی از خود در برابر سوء استفاده از عکس محافظت کنند. مولدهای تصویر هوش مصنوعی آینده می توانند به طور قانونی مجبور شوند که واترمارک های نامرئی را در خروجی های خود جاسازی کنند.

به این ترتیب، واترمارک‌های آن‌ها می‌توانند بعداً خوانده شوند و به راحتی برای مردم بفهمند که جعلی هستند.

"مقررات گسترده لازم است. هر قطعه از محتوای دستکاری شده یا جعلی باید مانند فیلم (G، PG، R، و X) به طور برجسته یک نامه یا هشدار را نمایش دهد. شاید چیزی مانند Digitally Altertered یا DA،" میچم می گوید.

Stability AI امسال Stable Diffusion خود را به عنوان یک پروژه منبع باز راه اندازی کرد.

به اعتبار خود، Stable Diffusion در حال حاضر به طور پیش فرض از واترمارک های جاسازی شده استفاده می کند، اما افرادی که به نسخه منبع باز آن دسترسی دارند تمایل دارند با غیرفعال کردن مؤلفه واترمارک نرم افزار یا حذف کامل آن، آن را دور بزنند.

MIT برای کاهش

اگرچه این صرفاً حدس و گمان است، یک واترمارک که داوطلبانه به عکس‌های شخصی اضافه می‌شود، ممکن است بتواند روند آموزش Dreambooth را مختل کند. گروهی از محققان MIT گفتند PhotoGuard، یک فرآیند متخاصم که هدف آن محافظت و محافظت از هوش مصنوعی در برابر سنتز یک عکس موجود از طریق تغییرات جزئی از طریق استفاده از روش علامت گذاری نامرئی است. با این حال، این فقط به موارد استفاده ویرایش هوش مصنوعی (که اغلب به آن "inpainting" گفته می شود) محدود می شود و شامل آموزش یا تولید تصاویر نیز می شود.

"هوش مصنوعی نویسندگی و نقاشی را در دست گرفته است! تقلبی عمیق ویدیو را خراب می کند!
خوب است.
این بدان معناست که اجرای زنده حتی ارزشمندتر می شود. نمایشگاه های تجاری رونق خواهند گرفت. انسان ها می خواهند با انسان ها تجارت کنند.
Meatspace هنوز بهترین فضاست" جاناتان پیچارد می گوید.

اخیراً، فناوری هوش مصنوعی که می نویسد، گسترش یافته است اشعار، قافیه و آهنگ. و برخی که هستند مسترینگ ها بازی ها.

منتقدان پیشرفت‌های فناوری را منفی ارزیابی کرده‌اند و معتقدند هوش مصنوعی مشاغل انسان را تحت کنترل خود در می‌آورد.

/متانیوز.

تمبر زمان:

بیشتر از متانیوز