Разработчики Bored Apes отказываются от американо-британской системы военной подготовки

Разработчики Bored Apes отказываются от американо-британской системы военной подготовки

Исходный узел: 1772253

Вы когда-нибудь публиковали свои фотографии в социальных сетях, таких как Facebook, Instagram, Tik Tok и других? Если это так, возможно, пришло время пересмотреть эти сообщения.

Это связано с тем, что новая технология генерации изображений ИИ теперь позволяет пользователям сохранять кучу фотографий и видеокадров с вами, а затем обучать их создавать «реалистичные» подделки ваших фотографий, изображающих вас в совершенно неловких, незаконных, а иногда и компрометирующих позициях.

Ну, не все в опасности, но угроза реальна.

Хотя фотографии всегда были склонны манипуляция и фальсификация от эпохи фотолабораторий, где пленки обрабатывались ножницами и вклеивались прямо до фотошопа пикселей сегодня.

Хотя в то время это было сложной задачей и требовало определенных навыков специалиста, в наши дни создание убедительных фотореалистичных подделок стало слишком простым делом.

Сначала модель ИИ должна научиться визуализировать или синтезировать изображение кого-либо в фотографию из 2D- или 3D-модели с помощью программного обеспечения. Как только изображение успешно отрендерено, оно естественным образом становится игрушкой для техники и способно генерировать бесконечное количество изображений.

Когда кто-то решает поделиться моделью ИИ, другие люди также могут присоединиться и начать создавать изображения этого человека.

Технология искусственного интеллекта, которая создает разрушительные глубокие поддельные изображения

Реальный или сгенерированный ИИ?

Тематические исследования в социальных сетях

Доброволец, которого автор назвал «храбрым» Ars Technica, техническое издание, которое изначально разрешило компании использовать его изображения для создания подделок, передумало.

Это связано с тем, что в мгновение ока результаты визуализации изображений из модели ИИ оказались слишком убедительными и слишком пагубными для репутации добровольца.

Учитывая высокий репутационный риск, естественным выбором стал созданный ИИ вымышленный человек по имени Джон.

Джон, вымышленный парень, был учителем начальной школы, который, как и многие другие люди, размещал свои изображения в Facebook на работе, отдыхал дома и на каком-то подобном мероприятии.

В основном безобидные изображения «Джона» были визуализированы, а затем использованы для обучения ИИ, чтобы поставить его в более компрометирующие положения.

Всего по семи изображениям ИИ можно обучить генерировать изображения, создающие впечатление, будто Джон живет двойной и тайной жизнью. Например, он появился как человек, которому нравилось позировать обнаженным для селфи в своем классе.

По ночам он ходил по барам в образе клоуна.

По выходным он входил в состав экстремистской военизированной группировки.

ИИ также создал впечатление, что он отсидел в тюрьме по обвинению в незаконном обороте наркотиков, но скрыл этот факт от своего работодателя.

На другом снимке женатый Джон позирует в офисе рядом с обнаженной женщиной, которая не является его женой.

Использование генератора изображений AI под названием Стабильная диффузия (версия 1.5) и технику под названием Dreambooth, Ars Technica смогла обучить ИИ создавать фотографии Джона в любом стиле. Хотя Джон был вымышленным творением, теоретически любой мог получить тот же набор результатов, используя пять или более изображений. Эти изображения могут быть взяты из учетных записей социальных сетей или взяты в качестве неподвижных кадров из видео.

Процесс обучения ИИ созданию изображений Джона занял около часа и был бесплатным благодаря службе облачных вычислений Google.

Когда обучение было завершено, создание изображений заняло несколько часов, отмечает издание. И это было не потому, что создание изображений было несколько медленным процессом, а потому, что нужно было прочесать ряд «несовершенных изображений» и использовать метод проб и ошибок, чтобы найти лучшие изображения.

Исследование показало, что это было гораздо проще, чем пытаться создать фотореалистичную подделку «Джона» в Photoshop с нуля.

Благодаря технологиям таких людей, как Джон, можно заставить выглядеть так, как будто они действовали незаконно или совершали аморальные поступки, такие как взлом дома, употребление запрещенных наркотиков и принятие душа обнаженными со студенткой. Если модели ИИ оптимизированы для порнографии, такие люди, как Джон, могут стать порнозвездами почти за одну ночь.

Можно также создать образы Джона, делающего, казалось бы, безобидные вещи, которые могут быть разрушительными, если показать, как он выпивает в баре, когда дал обет трезвости.

Это не заканчивается там.

Человек также может появиться в более светлое время как средневековый рыцарь или космонавт. В некоторых случаях люди могли быть как молодыми, так и старыми, или даже наряжаться.

Тем не менее, визуализированный изображений далеки от совершенства. При ближайшем рассмотрении они могут оказаться подделками.

Недостатком является то, что технология, которая создает эти изображения, была значительно модернизирована и может сделать невозможным отличить синтезированную фотографию от реальной.

Тем не менее, несмотря на свои недостатки, подделки могут вызвать сомнения в отношении Джона и потенциально подорвать его репутацию.

В последнее время многие люди использовали ту же технику (с реальными людьми) для создания причудливых и художественных фотографий своего профиля.

Также коммерческие сервисы и приложения, такие как Lensa выросли грибы, которые справляются с обучением.

Как это работает?

Работа над Джоном может показаться замечательной, если не следить за тенденциями. Сегодня инженеры-программисты знают, как создавать новые фотореалистичные изображения всего, что можно себе представить.

Помимо фотографий, искусственный интеллект позволил людям создавать новые произведения искусства, клонирующие работы существующих художников, без их разрешения.

Приостановлено из-за этических соображений

Митч Джексон, американский юрист в области технологий, выразил обеспокоенность по поводу распространения на рынке технологий дипфейков и заявил, что большую часть 2023 года он будет изучать юридические последствия технологий.

Отличить правду от подделки со временем станет невозможно для большинства потребителей».

У Adobe уже есть аудиотехнология под названием Adobe VoCo, которая позволяет любому звучать точно так же, как кто-то другой. Работа над Adobe VoCo была приостановлена ​​из-за этических соображений, но десятки других компаний совершенствуют эту технологию, а некоторые уже сегодня предлагают альтернативы. Взгляните или послушайте сами», — сказал Митчем. — сказал.

По его словам, изображения и видеоверсии глубоких фейковых видео становятся все лучше и лучше.

«Иногда невозможно отличить поддельные видео от настоящих», — добавляет он.

Stable Diffusion использует модель синтеза изображений с глубоким обучением, которая может создавать новые изображения из текстовых описаний и может работать на ПК с Windows или Linux, на Mac или в облаке на арендованном компьютерном оборудовании.

Нейронная сеть Stable Diffusion с помощью интенсивного обучения научилась связывать слова и общую статистическую связь между позициями пикселей на изображениях.

Из-за этого можно дать Stable Diffusion подсказку, например «Том Хэнкс в классе», и это даст пользователю новое изображение Тома Хэнкса в классе.

В случае с Томом Хэнком это просто прогулка по парку, потому что сотни его фотографий уже есть в наборе данных, используемом для обучения стабильной диффузии. Но для создания изображений таких людей, как Джон, ИИ потребуется небольшая помощь.

Вот где Dreambooth пинает.

Dreambooth, который был запущен 30 августа исследователями Google, использует специальную технику для обучения Stable Diffusion с помощью процесса, называемого «тонкой настройкой».

Сначала Dreambooth не был связан со Stable Diffusion, а Google не предоставлял доступ к его исходному коду из-за опасений злоупотреблений.

В мгновение ока кто-то нашел способ адаптировать технику Dreambooth для работы со Stable Diffusion и бесплатно выпустил код в виде проекта с открытым исходным кодом, что сделало Dreambooth очень популярным способом для художников ИИ обучать Stable Diffusion новым художественным стилям.

Влияние во всем мире

По оценкам, 4 миллиарда человек во всем мире пользуются социальными сетями. Поскольку многие из нас загрузили несколько своих фотографий, мы все можем стать уязвимыми для таких атак.

Хотя влияние технологии синтеза изображений было описано с точки зрения мужчин, женщины также склонны нести на себе основную тяжесть этого.

Когда рендерится лицо или тело женщины, ее личность может быть озорно вставлена ​​в порнографические образы.

Это стало возможным благодаря огромному количеству сексуализированных изображений, обнаруженных в наборах данных, используемых при обучении ИИ.

Другими словами, это означает, что ИИ слишком хорошо знаком с тем, как создавать эти порнографические изображения.

Стремясь решить некоторые из этих этических проблем, Stability AI был вынужден удалить материалы NSFW из своего набора обучающих данных для своей последней версии 2.0.

Хотя его лицензия на программное обеспечение запрещает людям использовать генератор ИИ для создания изображений людей без их разрешения, возможности для принудительного применения практически отсутствуют.

Дети также не застрахованы от синтезированных изображений и могут подвергнуться издевательствам с использованием этой технологии даже в тех случаях, когда изображения не обрабатываются.

Технология искусственного интеллекта, которая создает разрушительные глубокие поддельные изображения

Сделано людьми?

Можем ли мы что-нибудь с этим сделать?

Список вещей, которые нужно сделать, варьируется от человека к человеку. Один из способов — сделать решительный шаг и полностью удалить изображения из сети.

Хотя это может сработать для обычных людей, это не лучшее решение для знаменитостей и других общественных деятелей.

Однако в будущем люди смогут защитить себя от злоупотребления фотографиями с помощью технических средств. Будущие генераторы изображений ИИ могут быть вынуждены по закону вставлять невидимые водяные знаки в свои выходные данные.

Таким образом, их водяные знаки можно будет прочитать позже, и людям будет легко узнать, что они подделки.

Необходимо широкое регулирование. Любая часть манипулируемого или поддельного контента должна содержать на видном месте букву или предупреждение, как в фильме (G, PG, R и X). Может быть, что-то вроде Digitally Alttered или DA,  — говорит Митчем.

В этом году Stability AI запустил Stable Diffusion как проект с открытым исходным кодом.

К чести, Stable Diffusion уже использует встроенные водяные знаки по умолчанию, но люди, получающие доступ к его версии с открытым исходным кодом, как правило, обходят это, отключая компонент программного обеспечения с водяными знаками или полностью удаляя его.

MIT для смягчения последствий

Хотя это чисто умозрительно, водяной знак, добровольно добавленный к личным фотографиям, может нарушить процесс обучения Dreambooth. Об этом сообщила группа исследователей Массачусетского технологического института. Фотогвардия, состязательный процесс, который направлен на защиту и защиту ИИ от синтеза существующей фотографии путем незначительных модификаций с помощью метода невидимого водяного знака. Это, однако, ограничивается только вариантами использования редактирования ИИ (часто называемого «рисованием») и включает в себя обучение или создание изображений.

ИИ берет на себя письмо и рисование! Глубокие фейки испортят видео!
Хорошо.
Это означает, что живое исполнение становится еще БОЛЕЕ ценным. Выставки будут процветать. Люди хотят иметь дело с людьми.
Митспейс по-прежнему лучший Джонатан Питчард говорит.

В последнее время наблюдается распространение технологий искусственного интеллекта, которые пишут Стихи, стишки и песни. И некоторые из них мастеринг игр.

Критики негативно восприняли технологические достижения и считают, что искусственный интеллект заменяет человеческие рабочие места.

/МетаНьюс.

Отметка времени:

Больше от МетаНьюс