Розробники Bored Apes відмовляються від американсько-британської системи військової підготовки

Розробники Bored Apes відмовляються від американсько-британської системи військової підготовки

Вихідний вузол: 1772253

Ви коли-небудь публікували свої фотографії в соціальних мережах, таких як Facebook, Instagram, Tik Tok тощо? Якщо так, можливо, настав час переглянути ці публікації.

Це пов’язано з тим, що нова технологія генерації зображень штучного інтелекту тепер дозволяє користувачам зберігати купу фотографій і відеокадрів із вами, а потім навчати їх створювати «реалістичні» підробки ваших фотографій, які зображують вас у відверто незручних позах, незаконних і іноді компрометуючих позах.

Ну, не всі ризикують, але загроза реальна.

Хоча фотографії завжди були схильні до маніпуляція і фальсифікації від епохи темних кімнат, де плівки маніпулювали ножицями та вставляли аж до фотошопу пікселів сьогодні.

Хоча в ті часи це було складним завданням і вимагало певних навичок спеціаліста, сьогодні створювати переконливі фотореалістичні підробки стало надто легко.

Спочатку модель штучного інтелекту повинна навчитися рендерити або синтезувати зображення людини у фотографію з 2D або 3D моделі за допомогою програмного забезпечення. Після успішного рендерингу зображення, природно, стає іграшкою для техніки та має здатність генерувати нескінченну кількість зображень.

Коли хтось вирішує поділитися моделлю штучного інтелекту, інші люди також можуть приєднатися та почати створювати зображення цієї людини.

Технологія штучного інтелекту, яка створює жахливі глибокі підроблені зображення

Реальний чи штучний інтелект?

Соціальні медіа

Волонтера назвали «хоробрим». Ars Technica, технічне видання, яке спочатку дозволило компанії використовувати його зображення для створення фейків, змінило думку.

Це пов’язано з тим, що миттєво результати відтворених зображень із моделі штучного інтелекту виявилися надто переконливими та завдали шкоди репутації волонтера.

Зважаючи на високий репутаційний ризик, вигадана особа Джона, згенерована ШІ, стала природним вибором.

Джон, вигаданий хлопець, був учителем початкової школи, який, як і багато інших людей, публікував свої зображення у Facebook на роботі, вдома та на якомусь подібному заході.

Здебільшого необразливі зображення «Джона» було відтворено, а потім використано для навчання штучного інтелекту, щоб поставити його в більш компрометуючі позиції.

Використовуючи лише сім зображень, штучний інтелект можна навчити створювати зображення, які створюють враження, ніби Джон живе подвійним і таємним життям. Наприклад, він виглядав як людина, яка любила позувати оголеним для селфі у своєму класі.

Вночі він ходив по барах, схожий на клоуна.

У вихідні входив до складу екстремістського воєнізованого формування.

ШІ також створив враження, що він відсидів у в’язниці за звинувачення в незаконних наркотиках, але приховав цей факт від свого роботодавця.

На іншому знімку одружений Джон позує в офісі біля оголеної жінки, яка не є його дружиною.

Використання генератора зображень AI називається Стабільна дифузія (версія 1.5) і техніка під назвою Dreambooth, Ars Technica змогла навчити штучний інтелект створювати фотографії Джона в будь-якому стилі. Хоча Джон був фіктивним творінням, будь-хто теоретично міг досягти однакового набору результатів, використовуючи п’ять або більше зображень. Ці зображення можна взяти з облікових записів соціальних мереж або взяти як кадри з відео.

Процес навчання штучного інтелекту створенню зображень Джона зайняв близько години і був безкоштовним завдяки службі хмарних обчислень Google.

Коли навчання було завершено, створення зображень зайняло кілька годин, йдеться у публікації. І це сталося не тому, що створення зображень було дещо повільним процесом, а тому, що потрібно було прочесати низку «недосконалих зображень» і використовувати підказки типу «проб і помилок», щоб знайти найкращі зображення.

Дослідження виявило, що це було набагато легше, ніж спробувати створити фотореалістичну підробку «Джона» у Photoshop з нуля.

Завдяки технологіям такі люди, як Джон, можуть виглядати так, ніби вони діяли протизаконно або вчинили аморальні вчинки, такі як злам, вживання заборонених наркотиків і прийняття голого душу зі студентом. Якщо моделі AI оптимізовані для порнографії, такі люди, як Джон, можуть стати порнозірками майже за одну ніч.

Можна також створити зображення Джона, який робить, здавалося б, необразливі речі, які можуть бути руйнівними, якщо його покажуть, як він п’є в барі, коли він пообіцяв бути тверезим.

На цьому все не закінчується.

Людина також може постати в більш легкий момент у вигляді середньовічного лицаря або космонавта. У деяких випадках люди могли бути і молодими, і літніми, або навіть одягатися.

Однак наданий зображень далекі від досконалості. При ближчому розгляді можна визначити, що вони підробки.

Недоліком є ​​те, що технологія, яка створює ці зображення, була значно оновлена, і може зробити неможливим розрізнення синтезованої фотографії від справжньої.

Проте, незважаючи на свої недоліки, підробки можуть кинути тінь сумніву щодо Джона та потенційно зруйнувати його репутацію.

Останнім часом багато людей використовували цю саму техніку (з реальними людьми), щоб створити дивовижні та художні фотографії себе в профілі.

Також комерційні послуги та програми, як Ленса є гриби, які займаються навчанням.

Як це працює?

Робота над Джоном могла б здатися чудовою, якби не стежити за тенденціями. Сьогодні інженери програмного забезпечення знають, як створювати нові фотореалістичні зображення всього, що можна уявити.

Окрім фотографій, штучний інтелект дозволив людям створювати нові твори мистецтва, які клонують роботи існуючих художників, без їхнього дозволу.

Призупинено через етичні міркування

Мітч Джексон, американський юрист із технологій, висловив занепокоєння з приводу розповсюдження глибоких фейкових технологій на ринку та каже, що вивчатиме правовий вплив технологій протягом більшої частини 2023 року.

"Відрізнити справжнє від підробки з часом стане неможливим для більшості споживачів».

Adobe вже має аудіотехнологію під назвою Adobe VoCo, яка дозволяє будь-кому звучати так само, як хтось інший. Роботу над Adobe VoCo призупинили через етичні міркування, але десятки інших компаній вдосконалюють цю технологію, а деякі вже сьогодні пропонують альтернативи. Подивіться або послухайте самі», – Мітчум сказав.

Фотографії та відео версії глибоких фейкових відео стають все кращими, каже він.

«Іноді неможливо відрізнити фейкові відео від справжніх», — додає він.

Stable Diffusion використовує модель синтезу зображень глибокого навчання, яка може створювати нові зображення з текстових описів і може працювати на ПК з Windows або Linux, на Mac або в хмарі на орендованому комп’ютерному обладнанні.

Нейронна мережа Stable Diffusion за допомогою інтенсивного навчання навчилася зв’язувати слова та загальний статистичний зв’язок між положеннями пікселів на зображеннях.

Через це можна надати Stable Diffusion підказку, наприклад «Том Хенкс у класі», і це дасть користувачеві нове зображення Тома Хенкса в класі.

У випадку Тома Хенка це прогулянка парком, оскільки сотні його фотографій уже є в наборі даних, який використовується для навчання стабільної дифузії. Але для створення зображень таких людей, як Джон, штучному інтелекту знадобиться допомога.

Ось тут і працює Dreambooth.

Dreambooth, який був запущений 30 серпня дослідниками Google, використовує спеціальну техніку для навчання Stable Diffusion за допомогою процесу під назвою «тонке налаштування».

Спочатку Dreambooth не був пов’язаний зі Stable Diffusion, і Google не надав вихідний код через побоювання зловживань.

Невдовзі хтось знайшов спосіб адаптувати техніку Dreambooth для роботи зі Stable Diffusion і вільно випустив код як проект із відкритим вихідним кодом, зробивши Dreambooth дуже популярним способом для художників ШІ навчати Stable Diffusion новим художнім стилям.

Всесвітній вплив

Приблизно 4 мільярди людей у ​​всьому світі користуються соціальними мережами. Оскільки багато хто з нас завантажили більше ніж кілька своїх фотографій, ми всі можемо стати вразливими до таких атак.

Незважаючи на те, що вплив технології синтезу зображень було зображено з точки зору чоловіка, жінки також схильні нести на собі основний тягар цього.

Коли обличчя або тіло жінки зображено, її особистість може бути пустотливо вставлена ​​в порнографічні зображення.

Це стало можливим завдяки величезній кількості сексуалізованих зображень, знайдених у наборах даних, які використовуються під час навчання ШІ.

Іншими словами, це означає, що штучний інтелект дуже добре знайомий із тим, як створювати ці порнографічні зображення.

У спробі вирішити деякі з цих етичних проблем Stability AI був змушений видалити матеріал NSFW зі свого набору навчальних даних для останнього випуску 2.0.

Хоча його ліцензія на програмне забезпечення забороняє людям використовувати генератор штучного інтелекту для створення зображень людей без їхнього дозволу, потенціалу для примусу практично немає.

Діти також не застраховані від синтезованих зображень і можуть стати жертвами знущань за допомогою цієї технології навіть у випадках, коли зображення не змінюються.

Технологія штучного інтелекту, яка створює жахливі глибокі підроблені зображення

Створено людьми?

Чи можемо ми щось з цим зробити?

Список справ, які потрібно зробити, різний від людини до людини. Один із способів — прийняти рішучий крок і разом видалити зображення в автономному режимі.

Хоча це може працювати для звичайних людей, це не дуже рішення для знаменитостей та інших публічних діячів.

Однак у майбутньому люди можуть захистити себе від зловживань фотографіями за допомогою технічних засобів. Майбутні генератори зображень штучного інтелекту можуть бути змушені законно вставляти невидимі водяні знаки у свої результати.

Таким чином їх водяні знаки можна буде прочитати пізніше, і людям буде легко дізнатися, що вони підроблені.

"Необхідне широке регулювання. На будь-якому фальшивому або фальшивому вмісті слід вимагати, щоб на помітному місці містилася літера чи попередження, як у фільмі (G, PG, R і X). Можливо, щось на зразок Digitally Altertered або DA," Мітчум каже.

Stability AI цього року запустив свій Stable Diffusion як проект з відкритим кодом.

До честі Stable Diffusion уже використовує вбудовані водяні знаки за замовчуванням, але люди, які мають доступ до версії з відкритим вихідним кодом, як правило, обходять це, вимикаючи компонент водяних знаків у програмному забезпеченні або повністю видаляючи його.

MIT для пом'якшення

Хоча це суто припущення, водяний знак, добровільно доданий до особистих фотографій, може перешкодити навчальному процесу Dreambooth. Про це повідомила група дослідників MIT PhotoGuard, змагальний процес, спрямований на захист і захист штучного інтелекту від синтезу наявної фотографії шляхом незначних модифікацій за допомогою методу невидимого водяного знака. Однак це обмежено лише випадками використання редагування штучного інтелекту (часто називають «inpainting») і включає навчання або створення зображень.

"Штучний інтелект захоплює писання та малювання! Глибокі фейки зіпсують відео!
Добре.
Це означає, що живе виконання стає ще БІЛЬШ цінним. Торгові виставки процвітатимуть. Люди хочуть мати справу з людьми.
Мітспейс все ще залишається найкращим простором" Джонатан Пітчард говорить.

Останнім часом поширилася технологія ШІ, яка пише Вірші, віршики та пісні. А деякі є засвоєння ігор.

Критики негативно сприйняли технологічний прогрес і вважають, що штучний інтелект захоплює роботу людей.

/МетаНовини.

Часова мітка:

Більше від МетаНовини