Razvijalci Bored Apes opuščajo ameriško-britanski sistem vojaškega usposabljanja

Razvijalci Bored Apes opuščajo ameriško-britanski sistem vojaškega usposabljanja

Izvorno vozlišče: 1772253

Ste že kdaj objavili svoje slike na platformah družbenih medijev, kot so Facebook, Instagram, Tik Tok in drugi? Če je tako, je morda čas, da ponovno razmislite o teh objavah.

To je zato, ker nova tehnologija generiranja slik z umetno inteligenco zdaj uporabnikom dovoljuje, da shranijo kup vaših fotografij in video okvirjev in jo nato usposobijo za ustvarjanje "realističnih" ponaredkov vaše fotografije, ki vas prikazujejo v popolnoma neprijetnih položajih, nezakonitih in včasih ogrožajočih položajih.

No, niso vsi ogroženi, vendar je grožnja resnična.

Čeprav so bile fotografije vedno nagnjene k ravnanje in ponarejanja iz obdobja temnic, kjer so s filmi manipulirali s škarjami in jih lepili vse do današnjega fotošopiranja slikovnih pik.

Medtem ko je bila v tistih časih to zastrašujoča naloga in je zahtevala določeno mero specialističnih veščin, je dandanes ustvarjanje prepričljivih fotorealističnih ponaredkov preveč enostavno.

Najprej se mora model AI naučiti, kako upodobiti ali sintetizirati sliko nekoga v fotografijo iz 2D ali 3D modela prek programske opreme. Ko je slika uspešno upodobljena, slika seveda postane igrača za tehniko in ima zmožnost ustvarjanja neskončnih količin slik.

Ko se nekdo odloči deliti model AI, se lahko pridružijo tudi drugi ljudje in začnejo ustvarjati slike te osebe.

Tehnologija umetne inteligence, ki ustvarja smrtonosne globoke lažne slike

Resnično ali ustvarjeno z umetno inteligenco?

Študije primerov družbenih medijev

Prostovoljec, ki ga je označil za "pogumnega". Ars Technica, tehnična publikacija, ki je podjetju sprva dovolila uporabo njegovih slik za ustvarjanje ponaredkov, se je spremenila.

To je zato, ker so bili rezultati upodobljenih slik iz modela umetne inteligence v hipu preveč prepričljivi in ​​preveč škodljivi za ugled prostovoljca.

Glede na visoko tveganje za ugled je postala fiktivna oseba, ki jo je ustvarila umetna inteligenca, John, naravna izbira.

John, fiktivni tip, je bil osnovnošolski učitelj, ki je tako kot mnogi drugi objavil svoje slike na Facebooku v službi, ohlajen doma in na kakšnem podobnem dogodku.

Večinoma nežaljive slike »Johna« so bile upodobljene in nato uporabljene za usposabljanje umetne inteligence, da ga postavi v bolj ogrožajoče položaje.

Iz samo sedmih slik bi lahko umetno inteligenco usposobili za ustvarjanje slik, zaradi katerih bi bilo videti, kot da John živi dvojno in skrivno življenje. Na primer, pojavil se je kot nekdo, ki je užival v poziranju gol za selfije v svoji učilnici.

Ponoči je kot klovn hodil v bare.

Ob koncih tedna je bil del skrajne paravojaške skupine.

Umetna inteligenca je ustvarila tudi vtis, da je bil v zaporu zaradi obtožbe o nezakonitih drogah, vendar je to dejstvo prikril pred svojim delodajalcem.

Na drugi sliki je John, ki je poročen, viden, kako v pisarni pozira poleg gole ženske, ki ni njegova žena.

Uporaba generatorja slik AI, imenovanega Stabilna difuzija (različica 1.5) in tehniko, imenovano Dreambooth, je Ars Technica lahko usposobila AI, kako ustvariti fotografije Johna v katerem koli slogu. Čeprav je bil John fiktivna stvaritev, bi lahko vsak teoretično dosegel enak niz rezultatov iz petih ali več slik. Te slike bi lahko pobrali iz računov družbenih medijev ali posneli kot fotografije iz videoposnetka.

Postopek učenja umetne inteligence, kako ustvariti slike Johna, je trajal približno eno uro in je bil brezplačen zaradi Googlove storitve računalništva v oblaku.

Ko je bilo usposabljanje končano, je ustvarjanje slik trajalo več ur, piše v publikaciji. In to ni bilo zato, ker je bilo ustvarjanje slik nekoliko počasen proces, temveč zato, ker je bilo treba prečesati številne "nepopolne slike" in uporabiti "poskus in napako", da bi našli najboljše slike.

Študija je pokazala, da je bilo izjemno veliko lažje v primerjavi s poskusom ustvarjanja fotorealističnega ponaredka »Janeza« v Photoshopu iz nič.

Zahvaljujoč tehnologiji lahko ljudje, kot je John, izgledajo, kot da so ravnali nezakonito ali zagrešili nemoralna dejanja, kot je vlom v hišo, uporaba prepovedanih drog in golo tuširanje s študentom. Če so modeli AI optimizirani za pornografijo, lahko ljudje, kot je John, skoraj čez noč postanejo porno zvezde.

Ustvariti je mogoče tudi podobe Johna, ki počne navidezno nežaljive stvari, ki so lahko uničujoče, če ga pokažejo, kako pije v baru, ko je obljubil, da bo trezen.

Tu se še ne konča.

Človek se lahko pojavi tudi v svetlejšem trenutku kot srednjeveški vitez ali astronavt. V nekaterih primerih so lahko ljudje tako mladi kot stari ali celo oblečeni.

Vendar pa upodobljeno slike še zdaleč niso popolni. Če jih pogledamo podrobneje, jih lahko ugotovimo kot ponaredke.

Slaba stran je, da je bila tehnologija, ki ustvarja te slike, znatno nadgrajena in bi lahko onemogočila razlikovanje med sintetizirano fotografijo in pravo.

Kljub svojim pomanjkljivostim pa bi ponaredki lahko vrgli sence dvoma o Johnu in potencialno uničili njegov ugled.

V zadnjem času je veliko ljudi uporabilo isto tehniko (z resničnimi ljudmi) za ustvarjanje nenavadnih in umetniških profilnih fotografij samih sebe.

Tudi komercialne storitve in aplikacije, kot je Objektiv so kot gobe narasle, ki obvladajo usposabljanje.

Kako deluje?

Delo na Johnu bi se lahko zdelo izjemno, če ne bi sledili trendom. Danes vedo programski inženirji, kako ustvariti nove fotorealistične slike vsega, kar si človek lahko zamisli.

Poleg fotografij je umetna inteligenca ljudem kontroverzno omogočila ustvarjanje novih umetnin, ki klonirajo dela obstoječih umetnikov brez njihovega dovoljenja.

Začasno suspendiran zaradi etičnih pomislekov

Mitch Jackson, ameriški odvetnik za tehnologijo, je izrazil zaskrbljenost nad širjenjem globoko ponarejene tehnologije na trgu in pravi, da bo večino leta 2023 preučeval pravne učinke tehnologije.

"Razlikovanje med tem, kaj je resnično in kaj je ponaredek, bo za večino potrošnikov sčasoma postalo nemogoče.«

Adobe že ima avdio tehnologijo, imenovano Adobe VoCo, ki vsakomur omogoča, da zveni točno tako kot nekdo drug. Delo na Adobe VoCo je bilo prekinjeno zaradi etičnih pomislekov, vendar na desetine drugih podjetij izpopolnjuje tehnologijo, nekatera pa danes ponujajo alternative. Poglejte ali poslušajte sami,« Mitchum je dejal.

Slike in video različice globoko lažnih videoposnetkov postajajo vse boljše in boljše, pravi.

»Včasih je nemogoče ločiti lažne videoposnetke od pravih,« dodaja.

Stable Diffusion uporablja model sinteze slik za globoko učenje, ki lahko ustvari nove slike iz besedilnih opisov in se lahko izvaja v računalniku z operacijskim sistemom Windows ali Linux, v računalniku Mac ali v oblaku na najeti računalniški strojni opremi.

Nevronska mreža Stable Diffusion je s pomočjo intenzivnega učenja obvladala povezovanje besed in splošno statistično povezavo med položaji pikslov na slikah.

Zaradi tega lahko Stable Diffusion da poziv, na primer »Tom Hanks v učilnici«, in uporabniku bo dal novo podobo Toma Hanksa v učilnici.

V primeru Toma Hanka je to sprehod po parku, ker je na stotine njegovih fotografij že v naboru podatkov, ki se uporablja za treniranje stabilne difuzije. Toda za ustvarjanje slik ljudi, kot je John, bo umetna inteligenca potrebovala malo pomoči.

Tu se začne Dreambooth.

Dreambooth, ki so ga Googlovi raziskovalci lansirali 30. avgusta, uporablja posebno tehniko za treniranje stabilne difuzije s postopkom, imenovanim "fina nastavitev".

Sprva Dreambooth ni bil povezan s Stable Diffusion, Google pa svoje izvorne kode ni dal na voljo zaradi strahu pred zlorabo.

V hipu je nekdo našel način, kako prilagoditi tehniko Dreambooth za delo s Stable Diffusion in kodo brezplačno izdal kot odprtokodni projekt, zaradi česar je Dreambooth postal zelo priljubljen način za umetnike AI, da Stable Diffusion učijo novih umetniških stilov.

Svetovni vpliv

Po ocenah 4 milijarde ljudi po vsem svetu uporablja družbene medije. Ker smo mnogi od nas naložili več kot peščico svojih fotografij, bi lahko vsi postali ranljivi za takšne napade.

Čeprav je bil vpliv tehnologije za sintezo slike prikazan z moškega vidika, tudi ženske običajno nosijo glavno breme tega.

Ko je ženski obraz ali telo upodobljeno, se lahko njena identiteta nagajivo vstavi v pornografske podobe.

To je omogočilo ogromno število seksualiziranih slik, najdenih v nizih podatkov, ki se uporabljajo pri usposabljanju AI.

Z drugimi besedami, to pomeni, da je AI preveč seznanjen s tem, kako ustvariti te pornografske slike.

V poskusu, da bi obravnaval nekatera od teh etičnih vprašanj, je bil Stability AI prisiljen odstraniti gradivo NSFW iz svojega nabora podatkov o usposabljanju za svojo novejšo izdajo 2.0.

Čeprav licenca za programsko opremo ljudem prepoveduje uporabo generatorja umetne inteligence za ustvarjanje slik ljudi brez njihovega dovoljenja, je zelo malo ali nič možnosti za uveljavljanje.

Otroci prav tako niso varni pred sintetiziranimi slikami in bi jih lahko s to tehnologijo ustrahovali tudi v primerih, ko slike niso spremenjene.

Tehnologija umetne inteligence, ki ustvarja smrtonosne globoke lažne slike

Naredili ljudje?

Ali lahko kaj naredimo glede tega?

Seznam stvari, ki jih morate narediti, se razlikuje od osebe do osebe. Eden od načinov je drastičen korak skupnega odstranjevanja slik brez povezave.

Čeprav to morda deluje za običajne ljudi, ni ravno rešitev za zvezdnike in druge javne osebnosti.

Toda v prihodnosti se bodo ljudje morda lahko zaščitili pred zlorabo fotografij s tehničnimi sredstvi. Prihodnje generatorje slik z umetno inteligenco bi lahko zakonito prisilili, da v svoje rezultate vdelajo nevidne vodne žige.

Na ta način je mogoče njihove vodne žige pozneje prebrati in ljudem olajšati ugotovitev, da so ponaredki.

"Potrebna je obsežna regulacija. Vsak del manipulirane ali ponarejene vsebine bi moral imeti vidno prikazano črko ali opozorilo, podobno kot film (G, PG, R in X). Morda nekaj podobnega Digitally Altertered ali DA," Mitchum pravi.

Stability AI je letos predstavil svoj Stable Diffusion kot odprtokodni projekt.

Po zaslugi Stable Diffusion že privzeto uporablja vdelane vodne žige, vendar ljudje, ki dostopajo do njegove odprtokodne različice, to ponavadi zaobidejo tako, da onemogočijo komponento vodnega žiga v programski opremi ali pa jo v celoti odstranijo.

MIT za ublažitev

Čeprav je to zgolj špekulativno, lahko vodni žig, ki je prostovoljno dodan osebnim fotografijam, zmoti proces usposabljanja Dreambooth. Skupina raziskovalcev MIT je dejala PhotoGuard, kontradiktorni postopek, katerega namen je zaščititi in zaščititi AI pred sintetiziranjem obstoječe fotografije z manjšimi spremembami z uporabo metode nevidnega vodnega žiga. To pa je omejeno le na primere uporabe urejanja z umetno inteligenco (pogosto imenovanega »inpainting«) in vključuje usposabljanje ali ustvarjanje slik.

"AI prevzema pisanje in slikanje! Globoki ponaredki bodo uničili video!
Dobro.
To pomeni, da nastop v živo postane še BOLJ dragocen. Sejmi bodo uspevali. Ljudje želijo poslovati z ljudmi.
Meatspace je še vedno bestspace" Jonathan Pitchard pravi.

V zadnjem času je prišlo do širjenja tehnologije AI, ki piše pesmi, rime in pesmi. In nekateri, ki so masterings igre.

Kritiki so tehnološki napredek sprejeli negativno in verjamejo, da umetna inteligenca prevzema človeška dela.

/MetaNovice.

Časovni žig:

Več od MetaNovice