Dezvoltatorii Bored Apes renunță la sistemul de antrenament militar SUA-Marea Britanie

Dezvoltatorii Bored Apes renunță la sistemul de antrenament militar SUA-Marea Britanie

Nodul sursă: 1772253

Ai postat vreodată poze cu tine pe platforme de socializare precum Facebook, Instagram, Tik Tok și altele? Dacă da, poate este timpul să reconsiderăm aceste postări.

Acest lucru se datorează faptului că o nouă tehnologie de generare de imagini AI permite acum utilizatorilor să salveze o grămadă de fotografii și cadre video cu tine și apoi să-l antreneze pentru a crea falsuri „realiste” ale fotografiei tale, care te înfățișează în poziții de-a dreptul jenante, ilegale și uneori compromițătoare.

Ei bine, nu toată lumea este în pericol, dar amenințarea este reală.

Deși fotografiile au fost întotdeauna predispuse la manipulare și falsificarea din epoca camerelor întunecate în care filmele erau manipulate cu foarfece și lipite până la photoshoppingul pixelilor de astăzi.

Deși era o sarcină descurajantă și necesita o anumită abilități de specialitate în acele vremuri, în zilele noastre a fost făcut prea ușor să se creeze falsuri fotorealiste convingătoare.

Mai întâi, un model AI trebuie să învețe cum să randeze sau să sintetizeze o imagine a cuiva într-o fotografie dintr-un model 2D sau 3D prin intermediul unui software. Odată ce imaginea este redată cu succes, imaginea devine în mod natural un jucărie pentru tehnologie și are capacitatea de a genera cantități infinite de imagini.

Când cineva alege să partajeze modelul AI, și alte persoane se pot alătura și începe să creeze și imagini ale acelei persoane.

Tehnologia AI care creează imagini false profunde care distrug viața

Real sau generat de AI?

Social Media Studii de caz

Un voluntar descris ca fiind „curajos” de Ars Technica, o publicație de tehnologie, care a permis inițial companiei să-și folosească imaginile pentru a crea falsuri, s-a răzgândit.

Acest lucru se datorează faptului că, în cel mai scurt timp, rezultatele imaginilor redate din modelul AI au fost prea convingătoare și prea dăunătoare din punct de vedere al reputației pentru voluntar.

Având în vedere riscul ridicat de reputație, o persoană fictivă generată de AI, John, a devenit o alegere firească.

John, tipul fictiv, a fost profesor de școală elementară, care, ca mulți alți oameni, și-a postat imaginile pe Facebook la serviciu, relaxat acasă și la un astfel de eveniment.

Imaginile în mare parte inofensive ale lui „John” au fost redate și apoi folosite pentru a antrena AI pentru a-l pune în poziții mai compromițătoare.

Din doar șapte imagini, AI ar putea fi antrenat să genereze imagini care să facă să pară ca și cum John trăiește o viață dublă și secretă. De exemplu, el a apărut ca cineva căruia îi plăcea să pozeze nud pentru selfie-uri în sala de clasă.

Noaptea, mergea la baruri arătând ca un clovn.

În weekend, făcea parte dintr-un grup paramilitar extremist.

AI a creat, de asemenea, impresia că a fost în închisoare pentru o acuzație de droguri ilegale, dar a ascuns acest fapt de la angajatorul său.

Într-o altă imagine, John, care este căsătorit, este văzut pozând alături de o femeie nudă, care nu este soția lui, într-un birou.

Folosind un generator de imagini AI numit Difuzie stabilă (versiunea 1.5) și o tehnică numită Dreambooth, Ars Technica a fost capabil să antreneze AI cum să genereze fotografii cu John în orice stil. Deși John a fost o creație fictivă, oricine ar putea, teoretic, să obțină același set de rezultate din cinci sau mai multe imagini. Aceste imagini ar putea fi luate din conturile de rețele sociale sau luate ca cadre statice dintr-un videoclip.

Procesul de predare AI cum să creeze imagini cu John a durat aproximativ o oră și a fost gratuit datorită unui serviciu de cloud computing Google.

Când antrenamentul a fost finalizat, crearea imaginilor a durat câteva ore, se arată în publicație. Și acest lucru nu a fost pentru că generarea imaginilor a fost un proces oarecum lent, ci pentru că a fost nevoie să parcurgeți o serie de „imagini imperfecte” și să folosiți un fel de indicație „încercare și eroare” pentru a găsi cele mai bune imagini.

Studiul a constatat că a fost remarcabil de mult mai ușor în comparație cu încercarea de a crea o fotografie realistă falsă a „John” în Photoshop de la zero.

Datorită tehnologiei, oamenii ca John pot fi făcuti să pară ca și cum ar fi acționat ilegal sau au comis acte imorale, cum ar fi spargerea casei, consumul de droguri ilegale și un duș nud cu un student. Dacă modelele AI sunt optimizate pentru pornografie, oameni precum John pot deveni vedete porno aproape peste noapte.

Se pot crea, de asemenea, imagini cu John făcând lucruri aparent inofensive, care pot fi devastatoare dacă i se arată băutând într-un bar când și-a promis sobrietate.

Nu se termină aici.

O persoană poate apărea și într-un moment mai ușor ca un cavaler medieval sau un astronaut. În unele cazuri, oamenii pot fi atât tineri, cât și bătrâni sau chiar îmbrăcați.

Cu toate acestea, redat imagini sunt departe de a fi perfecte. O privire mai atentă le poate dezvălui drept falsuri.

Dezavantajul este că tehnologia care creează aceste imagini a fost îmbunătățită semnificativ și ar putea face imposibilă diferența între o fotografie sintetizată și una reală.

Cu toate acestea, în ciuda defectelor lor, falsurile ar putea arunca umbre de îndoială cu privire la John și ar putea să-i strice reputația.

În ultimul timp, un număr de oameni au folosit aceeași tehnică (cu oameni reali) pentru a genera fotografii de profil ciudate și artistice cu ei înșiși.

De asemenea, servicii comerciale și aplicații precum Obiectiv au apărut ciuperci care se ocupă de antrenament.

Cum functioneaza?

Lucrarea despre Ioan ar putea părea remarcabilă dacă nu ai urmat tendințele. Astăzi, inginerii de software știu cum să creeze noi imagini fotorealiste cu orice vă puteți imagina.

În afară de fotografii, AI a permis oamenilor să creeze noi lucrări de artă care clonează lucrările artiștilor existenți fără permisiunea acestora.

Suspendat din motive etice

Mitch Jackson, un avocat american în domeniul tehnologiei și-a exprimat îngrijorarea cu privire la proliferarea tehnologiei false profunde pe piață și spune că va studia impactul juridic al tehnologiei în cea mai mare parte a anului 2023.

Distingerea dintre ceea ce este real și ceea ce este fals va deveni în cele din urmă imposibilă pentru majoritatea consumatorilor.”

Adobe are deja o tehnologie audio numită Adobe VoCo care permite oricui să sune exact ca altcineva. Lucrările la Adobe VoCo au fost suspendate din cauza preocupărilor etice, dar alte zeci de companii perfecţionează tehnologia, unele oferind alternative astăzi. Aruncă o privire sau ascultă singur,” Mitchum a spus.

Imaginile și versiunile video ale videoclipurilor false profunde devin din ce în ce mai bune, spune el.

„Uneori, este imposibil să deosebești videoclipurile false de cele reale”, adaugă el.

Stable Diffusion folosește un model de sinteză a imaginilor de învățare profundă care poate crea imagini noi din descrierile de text și poate rula pe un computer Windows sau Linux, pe un Mac sau în cloud pe hardware-ul computerului închiriat.

Rețeaua neuronală Stable Diffusion are cu ajutorul învățării intensive stăpânit să asocieze cuvinte și asocierea statistică generală între pozițiile pixelilor în imagini.

Din acest motiv, se poate oferi Stable Diffusion un prompt, cum ar fi „Tom Hanks într-o clasă”, și îi va oferi utilizatorului o nouă imagine a lui Tom Hanks într-o clasă.

În cazul lui Tom Hank, este o plimbare în parc, deoarece sute de fotografii ale lui sunt deja în setul de date folosit pentru a antrena Stable Diffusion. Dar pentru a face imagini cu oameni precum John, AI va avea nevoie de puțin ajutor.

Acolo da drumul Dreambooth.

Dreambooth, care a fost lansat pe 30 august de cercetătorii Google, folosește o tehnică specială pentru a antrena Stable Diffusion printr-un proces numit „ajustare fină”.

La început, Dreambooth nu a fost asociat cu Stable Diffusion, iar Google nu și-a făcut disponibil codul sursă pe fondul temerilor de abuz.

În cel mai scurt timp, cineva a găsit o modalitate de a adapta tehnica Dreambooth pentru a lucra cu Stable Diffusion și a lansat codul liber ca proiect open source, făcând din Dreambooth o modalitate foarte populară pentru artiștii AI de a preda Stable Diffusion noi stiluri artistice.

Impact la nivel mondial

Se estimează că 4 miliarde de oameni din întreaga lume folosesc rețelele sociale. Deoarece mulți dintre noi au încărcat mai mult de o mână de fotografii cu noi înșine, am putea deveni vulnerabili la astfel de atacuri.

Deși impactul tehnologiei de sinteză a imaginii a fost descris din punctul de vedere al bărbaților, femeile tind să suporte și ea greul.

Atunci când chipul sau corpul unei femei este redat, identitatea ei poate fi introdusă răutăcios în imaginile pornografice.

Acest lucru a fost posibil datorită numărului imens de imagini sexualizate găsite în seturile de date utilizate în antrenamentul AI.

Cu alte cuvinte, asta înseamnă că AI este prea familiarizat cu modul de a genera acele imagini pornografice.

În încercarea de a aborda unele dintre aceste probleme etice, Stability AI a fost forțată să elimine materialul NSFW din setul său de date de antrenament pentru lansarea sa mai recentă 2.0.

Deși licența sa de software interzice oamenilor să folosească generatorul AI pentru a face imagini cu oameni fără permisiunea lor, există foarte puțin sau deloc potențialul de aplicare.

De asemenea, copiii nu sunt feriți de imaginile sintetizate și ar putea fi hărțuiți folosind această tehnologie chiar și în cazurile în care imaginile nu sunt manipulate.

Tehnologia AI care creează imagini false profunde care distrug viața

Fabricat de oameni?

Putem face ceva în privința asta?

Lista de lucruri de făcut variază de la persoană la persoană. O modalitate este să faceți pasul drastic de a elimina imaginile offline împreună.

Deși asta poate funcționa pentru oamenii obișnuiți, nu este o soluție prea mare pentru celebrități și alte persoane publice.

Cu toate acestea, în viitor, oamenii pot fi capabili să se protejeze de abuzul foto prin mijloace tehnice. Viitorii generatori de imagini AI ar putea fi obligați din punct de vedere legal să încorporeze filigrane invizibile în rezultatele lor.

În acest fel, filigranele lor pot fi citite mai târziu și le va face mai ușor pentru oameni să știe că sunt falsuri.

Este necesară o reglementare extinsă. Orice bucată de conținut manipulat sau fals ar trebui să afișeze în mod vizibil o scrisoare sau un avertisment, la fel ca în film (G, PG, R și X). Poate ceva de genul Digital Altertered sau DA,Matei 22:21 spune Mitchum.

Stability AI și-a lansat Stable Diffusion ca proiect open source anul acesta.

Spre meritul său, Stable Diffusion folosește deja filigrane încorporate în mod implicit, dar oamenii care accesează versiunea sa open source tind să o ocolească fie dezactivând componenta de filigran a software-ului, fie eliminând-o complet.

MIT pentru a atenua

Deși acest lucru este pur speculativ, un filigran adăugat voluntar la fotografiile personale poate perturba procesul de antrenament Dreambooth. Un grup de cercetători MIT a spus PhotoGuard, un proces contradictoriu care urmărește să protejeze și să protejeze AI de sintetizarea unei fotografii existente prin modificări minore prin utilizarea unei metode de filigranare invizibilă. Totuși, aceasta se limitează doar la cazurile de utilizare de editare AI (denumită adesea „inpainting”) și include antrenament sau generarea de imagini.

AI preia scrisul și pictura! Falsurile profunde vor distruge videoclipul!
Bun.
Asta înseamnă că spectacolul live devine și mai valoros. Târgurile vor prospera. Oamenii vor să facă afaceri cu oamenii.
Meatspace este încă cel mai bun spațiuMatei 22:21 Jonathan Pitchard spune.

În ultimul timp, a existat o proliferare a tehnologiei AI care scrie poezii, rime și cântece. Și unele care sunt stăpâniri jocuri.

Criticii au luat în mod negativ progresele tehnologice și cred că IA preia locuri de muncă umane.

/MetaNews.

Timestamp-ul:

Mai mult de la MetaNews