Uttråkade Apes-utvecklare överger militärt träningssystem i USA och Storbritannien

Uttråkade Apes-utvecklare överger militärt träningssystem i USA och Storbritannien

Källnod: 1772253

Har du någonsin lagt upp bilder på dig själv på sociala medieplattformar som Facebook, Instagram, Tik Tok och andra? Om så är fallet kanske det är dags att ompröva dessa inlägg.

Detta beror på att en ny AI-bildgenereringsteknik nu tillåter användare att spara ett gäng foton och videoramar av dig och sedan träna den att skapa "realistiska" förfalskningar av ditt foto som visar dig i rent pinsamma positioner, olagliga och ibland kompromissande positioner.

Tja, alla är inte i riskzonen men hotet är verkligt.

Även om fotografier alltid har varit benägna att manipulering och förfalskning från mörkrumstiden där filmer manipulerades med sax och klistrades in ända fram till photoshopping av pixlar idag.

Även om det var en skrämmande uppgift och krävde ett visst mått av specialistkunskaper på den tiden, har det i dessa dagar gjorts för lätt att skapa övertygande fotorealistiska förfalskningar.

Först måste en AI-modell lära sig hur man renderar eller syntetiserar en bild av någon till ett foto från en 2D- eller 3D-modell via programvara. När bilden väl har renderats blir bilden naturligt en leksak för tekniken och har kapacitet att generera oändliga mängder bilder.

När man väljer att dela AI-modellen kan andra också vara med och börja skapa bilder av den personen också.

AI-teknik som skapar livsförödande djupa falska bilder

Verkligt eller AI-genererat?

Fallstudier på sociala medier

En volontär beskrivs som "modig" av Ars Technica, en teknisk publikation, som från början hade tillåtit företaget att använda sina bilder för att skapa förfalskningar, hade en förändring i hjärtat.

Detta beror på att resultatet av renderade bilder från AI-modellen på nolltid var för övertygande och för skadligt för anseendet för volontären.

Med tanke på den höga ryktesrisken blev en AI-genererad fiktiv person, John, ett naturligt val.

John, den fiktiva killen, var en lågstadielärare, som liksom många andra har lagt upp sina bilder på Facebook på jobbet, chillat hemma och vid något sådant evenemang.

De i stort sett oförargliga bilderna av "John" renderades och användes sedan för att träna AI:n för att sätta honom i mer kompromissande positioner.

Från endast sju bilder kunde AI:n tränas för att generera bilder som får det att se ut som om John lever ett dubbelt och hemligt liv. Till exempel framstod han som någon som gillade att posera naken för selfies i sitt klassrum.

På natten gick han till barer och såg ut som en clown.

På helgerna var han en del av en extremistisk paramilitär grupp.

AI skapade också intrycket att han hade suttit i fängelse för en anklagelse om olaglig narkotika men hade dolt detta för sin arbetsgivare.

På en annan bild ses John, som är gift, posera bredvid en naken kvinna som inte är hans fru på ett kontor.

Använder en AI-bildgenerator som kallas Stabil diffusion (version 1.5) och en teknik som kallas Dreambooth, kunde Ars Technica träna AI hur man genererar foton av John i vilken stil som helst. Även om John var en fiktiv skapelse, kunde vem som helst teoretiskt sett uppnå samma uppsättning resultat från fem eller fler bilder. Dessa bilder kan plockas från konton på sociala medier eller tas som stillbilder från en video.

Processen att lära AI hur man skapar bilder av John tog ungefär en timme och var kostnadsfri tack vare en Google molntjänst.

När utbildningen var klar tog det flera timmar att skapa bilderna, sa publikationen. Och detta berodde inte på att genereringen av bilderna var en något långsam process utan för att det fanns ett behov av att kamma igenom ett antal "imperfekta bilder" och använda en "trial-and-error"-typ av uppmaning för att hitta de bästa bilderna.

Studien fann att det var anmärkningsvärt mycket lättare jämfört med att försöka skapa en fotorealistisk förfalskning av "John" i Photoshop från grunden.

Tack vare tekniken kan människor som John fås att se ut som om de agerade illegalt, eller begick omoraliska handlingar som husbrott, använda illegala droger och ta en nakendusch med en student. Om AI-modellerna är optimerade för pornografi kan människor som John bli porrstjärnor nästan över en natt.

Man kan också skapa bilder av John som gör till synes oförargliga saker som kan vara förödande om han visas sugande på en bar när han har lovat nykterhet.

Det slutar inte där.

En person kan också i ett ljusare ögonblick framstå som en medeltida riddare eller en astronaut. I vissa fall kan människor antingen vara både unga och gamla eller till och med klä ut sig.

Men den renderade bilder är långt ifrån perfekta. En närmare titt kan se dem som förfalskningar.

Nackdelen är att tekniken som skapar dessa bilder har uppgraderats avsevärt och kan göra det omöjligt att skilja mellan ett syntetiserat foto och ett verkligt foto.

Men trots sina brister kan förfalskningarna kasta skuggor av tvivel om John och potentiellt förstöra hans rykte.

På senare tid har ett antal människor använt samma teknik (med riktiga människor) för att skapa knäppa och konstnärliga profilbilder av sig själva.

Även kommersiella tjänster och appar som Lins har svamp som sköter träningen.

Hur fungerar det?

Arbetet med John kan tyckas anmärkningsvärt om man inte har följt trender. Idag vet mjukvaruingenjörer hur man skapar nya fotorealistiska bilder av allt man kan föreställa sig.

Förutom foton har AI på ett kontroversiellt sätt tillåtit människor att skapa nya konstverk som klona befintliga konstnärers verk utan deras tillåtelse.

Avstängd på grund av etiska problem

Mitch Jackson, en amerikansk teknologiadvokat uttryckte oro över spridningen av djup falsk teknologi på marknaden och säger att han kommer att studera teknikens juridiska konsekvenser under större delen av 2023.

"Att skilja mellan vad som är äkta och vad som är falskt kommer så småningom att bli omöjligt för de flesta konsumenter.”

Adobe har redan ljudteknik som heter Adobe VoCo som låter vem som helst låta precis som någon annan. Arbetet med Adobe VoCo avbröts på grund av etiska problem, men dussintals andra företag fulländar tekniken, och vissa erbjuder alternativ idag. Ta en titt, eller lyssna, själv,” Mitchum sade.

Bilder och videoversioner av djupa falska videor blir bättre och bättre, säger han.

"Ibland är det omöjligt att skilja de falska videorna från de riktiga," tillägger han.

Stable Diffusion använder djupinlärande bildsyntesmodell som kan skapa nya bilder från textbeskrivningar och kan köras på en Windows- eller Linux-dator, på en Mac eller i molnet på hyrd datorhårdvara.

Stable Diffusions neurala nätverk har med hjälp av intensiv inlärning bemästrat att associera ord och det allmänna statistiska sambandet mellan pixlarnas positioner i bilder.

På grund av detta kan man ge Stable Diffusion en prompt, som "Tom Hanks i ett klassrum", och det kommer att ge användaren en ny bild av Tom Hanks i ett klassrum.

I Tom Hanks fall är det en promenad i parken eftersom hundratals av hans bilder redan finns i datamängden som används för att träna Stable Diffusion. Men för att göra bilder av människor som John kommer AI:n att behöva lite hjälp.

Det är där Dreambooth kickar.

Dreambooth, som lanserades den 30 augusti av Googles forskare, använder en speciell teknik för att träna stabil diffusion genom en process som kallas "finjustering".

Till en början var Dreambooth inte associerad med Stable Diffusion, och Google hade inte gjort sin källkod tillgänglig på grund av rädsla för missbruk.

På nolltid hittade någon ett sätt att anpassa Dreambooth-tekniken för att fungera med Stable Diffusion och släppte koden fritt som ett projekt med öppen källkod, vilket gjorde Dreambooth till ett mycket populärt sätt för AI-artister att lära ut Stable Diffusion nya konstnärliga stilar.

Världsomspännande inverkan

Uppskattningsvis 4 miljarder människor världen över använder sociala medier. Eftersom många av oss har laddat upp mer än en handfull bilder på oss själva kan vi bli sårbara för sådana attacker.

Även om effekterna av bildsyntestekniken har skildrats från en mans synvinkel, tenderar kvinnor också att bära bördan av detta också.

När en kvinnas ansikte eller kropp återges kan hennes identitet på ett busigt sätt infogas i pornografiska bilder.

Detta har möjliggjorts av det enorma antalet sexualiserade bilder som finns i datamängder som används i AI-träning.

Med andra ord betyder detta att AI är alltför bekant med hur man genererar dessa pornografiska bilder.

I ett försök att ta itu med några av dessa etiska frågor tvingades Stability AI att ta bort NSFW-material från sin träningsdatauppsättning för sin nyare version 2.0.

Även om dess mjukvarulicens hindrar människor från att använda AI-generatorn för att göra bilder av människor utan deras tillåtelse, finns det mycket liten eller ingen potential för verkställighet.

Barn är inte heller säkra från syntetiserade bilder och kan bli mobbad med denna teknik även i fall där bilder inte manipuleras.

AI-teknik som skapar livsförödande djupa falska bilder

Gjord av människor?

Finns det något vi kan göra åt det?

Listan över saker att göra varierar från person till person. Ett sätt är att ta det drastiska steget att ta bort bilder offline tillsammans.

Även om det kan fungera för vanliga människor, är det inte mycket av en lösning för kändisar och andra offentliga personer.

Men i framtiden kan människor kanske skydda sig mot fotomissbruk med hjälp av tekniska medel. Framtida AI-bildgeneratorer kan tvingas juridiskt att bädda in osynliga vattenstämplar i sina utdata.

På så sätt kan deras vattenstämplar läsas senare och göra det enkelt för människor att veta att de är förfalskningar.

"En omfattande reglering är nödvändig. Varje del av manipulerat eller falskt innehåll bör krävas för att tydligt visa ett brev eller en varning, ungefär som filmen (G, PG, R och X). Kanske något som Digitally Altertered eller DA," säger Mitchum.

Stability AI lanserade sin Stable Diffusion som ett projekt med öppen källkod i år.

Till dess ära använder Stable Diffusion redan inbäddade vattenstämplar som standard, men människor som kommer åt dess version med öppen källkod tenderar att gå runt den genom att antingen inaktivera vattenmärkningskomponenten i programvaran eller ta bort den helt.

MIT för att mildra

Även om detta är rent spekulativt, kan en vattenstämpel som frivilligt läggs till personliga bilder, kunna störa Dreambooth-träningsprocessen. En grupp MIT-forskare sa PhotoGuard, en motstridig process som syftar till att skydda och skydda AI från att syntetisera ett befintligt foto genom mindre modifieringar genom användning av en metod för osynlig vattenmärkning. Detta är dock endast begränsat till AI-redigering (ofta kallat "inpainting") användningsfall och inkluderar träning eller generering av bilder.

"AI tar över skrivandet och målningen! Djupa förfalskningar kommer att förstöra video!
Bra.
Det betyder att liveframträdandet blir ännu MER värdefullt. Mässor kommer att frodas. Människor vill göra affärer med människor.
Meatspace är fortfarande bestspace" Jonathan Pitchard säger.

På senare tid har det skett en spridning av AI-teknik som skriver dikter, rim och sånger. Och några som är det masteringar spel

Kritiker har tagit de tekniska framstegen negativt och tror att AI:er tar över mänskliga jobb.

/MetaNews.

Tidsstämpel:

Mer från MetaNews