Bored Apes -kehittäjät hylkäävät Yhdysvaltain ja Yhdistyneen kuningaskunnan sotilaskoulutusjärjestelmän

Bored Apes -kehittäjät hylkäävät Yhdysvaltain ja Yhdistyneen kuningaskunnan sotilaskoulutusjärjestelmän

Lähdesolmu: 1772253

Oletko koskaan julkaissut kuvia itsestäsi sosiaalisen median alustoilla, kuten Facebook, Instagram, Tik Tok ja muut? Jos näin on, on ehkä aika harkita näitä viestejä uudelleen.

Tämä johtuu siitä, että uusi tekoälykuvanluontitekniikka mahdollistaa nyt käyttäjien tallentaa joukon valokuvia ja videoruutuja sinusta ja sitten kouluttaa ne luomaan "realistisia" väärennöksiä kuvastasi, jotka kuvaavat sinua suorastaan ​​kiusallisissa asemissa, laittomissa ja joskus vaarallisissa asennoissa.

No, kaikki eivät ole vaarassa, mutta uhka on todellinen.

Vaikka valokuvat ovat aina olleet taipuvaisia manipulointi ja väärennös pimeiden huoneiden aikakaudelta, jolloin elokuvia käsiteltiin saksilla ja liimattiin aina pikselien photoshoppaukseen asti.

Vaikka se oli siihen aikaan pelottava tehtävä ja vaati asiantuntijataitoja, nykyään vakuuttavien fotorealististen väärennösten tekeminen on tehty liian helpoksi.

Ensin tekoälymallin on opittava renderöimään tai syntetisoimaan jonkun kuva valokuvaksi 2D- tai 3D-mallista ohjelmiston avulla. Kun kuva on renderöity onnistuneesti, kuvasta tulee luonnollisesti tekniikan leikkikalu ja sillä on kyky luoda ääretön määrä kuvia.

Kun joku päättää jakaa tekoälymallin, myös muut ihmiset voivat liittyä mukaan ja alkaa luoda kuvia kyseisestä henkilöstä.

Tekoälytekniikka, joka luo elämää tuhoavia vääriä kuvia

Aito vai tekoälyn luoma?

Sosiaalisen median tapaustutkimukset

Vapaaehtoinen kuvaili "rohkeaksi". Ars TechnicaTekninen julkaisu, joka oli alun perin sallinut yrityksen käyttää kuviaan väärennösten luomiseen, muutti mielensä.

Tämä johtuu siitä, että tekoälymallin renderöityjen kuvien tulokset olivat hetkessä liian vakuuttavia ja liian vahingoittavia mainetta vapaaehtoisen kannalta.

Suuren maineriskin vuoksi tekoälyn luomasta kuvitteellisesta henkilöstä Johnista tuli luonnollinen valinta.

John, fiktiivinen kaveri, oli alakoulun opettaja, joka monien muiden ihmisten tavoin on julkaissut kuviaan Facebookiin töissä, kotona viilenemässä ja jossain vastaavassa tapahtumassa.

Pääosin loukkaamattomat kuvat "Johnista" renderoitiin ja niitä käytettiin sitten tekoälyn kouluttamiseen asettamaan hänet vaarallisempiin asemiin.

Vain seitsemästä kuvasta tekoäly voitiin kouluttaa luomaan kuvia, jotka saavat vaikutelman siltä, ​​että John elää kaksinkertaista ja salaista elämää. Hän esiintyi esimerkiksi henkilönä, joka nautti alasti poseeraamisesta selfieissä luokkahuoneessaan.

Yöllä hän meni baareihin näyttäen pelleltä.

Viikonloppuisin hän oli osa puolisotilaallista ääriryhmää.

Tekoäly loi myös vaikutelman, että hän oli ollut vankilassa laittomasta huumemaksusta, mutta oli salannut tämän tosiasian työnantajaltaan.

Toisessa kuvassa John, joka on naimisissa, nähdään poseeraamassa alaston naisen vieressä, joka ei ole hänen vaimonsa toimistossa.

Käyttämällä AI-kuvageneraattoria nimeltä Vakaa diffuusio (versio 1.5) ja Dreambooth-niminen tekniikka, Ars Technica pystyi kouluttamaan tekoälyä luomaan kuvia Johnista millä tahansa tyylillä. Vaikka John oli fiktiivinen luomus, teoriassa kuka tahansa pystyi saavuttamaan samat tulokset viidestä tai useammasta kuvasta. Nämä kuvat voidaan poimia sosiaalisen median tileiltä tai ottaa stillkuvina videosta.

Tekoälyn opettaminen Johnin kuvien luomiseen kesti noin tunnin ja oli maksuton Googlen pilvipalvelun ansiosta.

Kun koulutus oli suoritettu, kuvien luominen kesti useita tunteja, julkaisu kertoi. Eikä tämä johtunut siitä, että kuvien luominen oli hieman hidas prosessi, vaan siitä, että jouduttiin kampaamaan läpi useita "epätäydellisiä kuvia" ja käyttämällä "yritys ja erehdys" -tyyppistä kehotusta parhaiden kuvien löytämiseksi.

Tutkimus osoitti, että se oli huomattavasti helpompaa kuin yrittää luoda valokuvarealistinen väärennös "Johnista" Photoshopissa tyhjästä.

Teknologian ansiosta Johnin kaltaiset ihmiset voidaan saada näyttämään siltä, ​​että he olisivat toimineet laittomasti tai syyllistyneet moraalittomiin tekoihin, kuten kotimurtoihin, laittomien huumeiden käyttämiseen ja alasti suihkuun opiskelijan kanssa. Jos tekoälymallit on optimoitu pornografiaa varten, Johnin kaltaisista ihmisistä voi tulla pornotähtiä melkein yhdessä yössä.

Voidaan myös luoda kuvia Johnista tekemässä näennäisesti loukkaamattomia asioita, jotka voivat olla tuhoisia, jos hänet näytetään juotavansa baarissa, kun hän on luvannut raittiuden.

Se ei lopu siihen.

Ihminen voi esiintyä myös kevyemmällä hetkellä keskiaikaisena ritarina tai astronautina. Joissakin tapauksissa ihmiset voivat olla sekä nuoria että vanhoja tai jopa pukeutua.

Kuitenkin renderöity kuvien ovat kaukana täydellisyydestä. Tarkempi tarkastelu voi paljastaa ne väärennöksinä.

Haittapuolena on, että näitä kuvia luovaa tekniikkaa on paranneltu merkittävästi, ja se voi tehdä mahdottomaksi erottaa syntetisoidun valokuvan aidosta.

Puutteistaan ​​huolimatta väärennökset voivat kuitenkin heittää epäilyksen varjoja Johnista ja mahdollisesti pilata hänen maineensa.

Viime aikoina monet ihmiset ovat käyttäneet tätä samaa tekniikkaa (oikeiden ihmisten kanssa) luodakseen omituisia ja taiteellisia profiilikuvia itsestään.

Myös kaupalliset palvelut ja sovellukset, kuten lensa on lisääntynyt, jotka hoitavat koulutuksen.

Miten tämä toimii?

Johanneksen työ saattaa vaikuttaa merkittävältä, ellei ole seurannut trendejä. Nykyään ohjelmistosuunnittelijat tietävät, kuinka luoda uusia fotorealistisia kuvia kaikesta, mitä voi kuvitella.

Valokuvien lisäksi tekoäly on kiistanalaisesti sallinut ihmisten luoda uusia taideteoksia, jotka kloonaavat olemassa olevien taiteilijoiden töitä ilman heidän lupaansa.

Keskeytetty eettisten syiden vuoksi

Yhdysvaltalainen teknologialakimies Mitch Jackson ilmaisi huolensa syvän väärennetyn teknologian leviämisestä markkinoilla ja sanoo tutkivansa teknologian oikeudellisia vaikutuksia suurimman osan vuodesta 2023.

"Todellisuuden ja väärennösten erottaminen tulee lopulta mahdottomaksi useimmille kuluttajille.

Adobella on jo Adobe VoCo -niminen äänitekniikka, jonka avulla kuka tahansa voi kuulostaa täsmälleen samalta kuin joku muu. Adobe VoCo:n työskentely keskeytettiin eettisten syiden vuoksi, mutta kymmenet muut yritykset kehittävät tekniikkaa ja jotkut tarjoavat vaihtoehtoja tänään. Katso tai kuuntele itse, Mitchum sanoi.

Syvien väärennettyjen videoiden kuvat ja videoversiot paranevat ja paranevat, hän sanoo.

"Joskus on mahdotonta erottaa väärennettyjä videoita oikeista", hän lisää.

Stable Diffusion käyttää syvälle oppivaa kuvasynteesimallia, joka voi luoda uusia kuvia tekstikuvauksista ja toimii Windows- tai Linux-PC:ssä, Macissa tai pilvessä vuokratulla tietokonelaitteistolla.

Stable Diffusionin hermoverkko on intensiivisen oppimisen avulla hallinnut sanojen yhdistämisen ja yleisen tilastollisen assosioinnin kuvien pikselien paikkojen välillä.

Tämän vuoksi voidaan antaa Stable Diffusion -kehote, kuten "Tom Hanks luokkahuoneessa", ja se antaa käyttäjälle uuden kuvan Tom Hanksista luokkahuoneessa.

Tom Hankin tapauksessa se on kävely puistossa, koska satoja hänen valokuviaan on jo tietojoukossa, jota käytetään Stable Diffusion -koulutukseen. Mutta tehdäkseen kuvia Johnin kaltaisista ihmisistä tekoäly tarvitsee hieman apua.

Siinä Dreambooth potkii.

Dreambooth, jonka Googlen tutkijat lanseerasivat 30. elokuuta, käyttää erityistä tekniikkaa vakaan diffuusion kouluttamiseen "hienosäätö"-prosessilla.

Aluksi Dreamboothia ei liitetty Stable Diffusioniin, eikä Google ollut julkaissut sen lähdekoodia väärinkäytösten pelossa.

Pian joku löysi tavan mukauttaa Dreambooth-tekniikkaa toimimaan Stable Diffusionin kanssa ja julkaisi koodin vapaasti avoimen lähdekoodin projektina, mikä teki Dreamboothista erittäin suositun tavan AI-taiteilijoille opettaa Stable Diffusionia uusia taiteellisia tyylejä.

Maailmanlaajuinen vaikutus

Arviolta 4 miljardia ihmistä maailmanlaajuisesti käyttää sosiaalista mediaa. Koska monet meistä ovat ladanneet enemmän kuin kourallisen valokuvia itsestämme, voimme kaikki olla haavoittuvia tällaisille hyökkäyksille.

Vaikka kuvasynteesiteknologian vaikutus on kuvattu miehen näkökulmasta, myös naiset ovat yleensä kantamassa tämänkin rasituksen.

Kun naisen kasvot tai vartalo renderöidään, hänen identiteettinsä voi joutua ilkivallalla pornografisiin kuviin.

Tämän on mahdollistanut valtava määrä seksualisoituja kuvia, jotka löytyvät tekoälykoulutuksessa käytetyistä tietokokonaisuuksista.

Toisin sanoen tämä tarkoittaa, että tekoäly tuntee liiankin hyvin näiden pornografisten kuvien luomisen.

Pyrkiessään ratkaisemaan joitain näistä eettisistä ongelmista Stability AI pakotettiin poistamaan NSFW-materiaalia koulutustietojoukostaan ​​uudempaa 2.0-julkaisuaan varten.

Vaikka sen ohjelmistolisenssi estää ihmisiä käyttämästä tekoälygeneraattoria kuvien tekemiseen ihmisistä ilman heidän lupaansa, täytäntöönpanon mahdollisuuksia on hyvin vähän tai ei ollenkaan.

Lapset eivät myöskään ole turvassa syntetisoiduilta kuvilta, ja heitä voidaan kiusata käyttämällä tätä tekniikkaa silloinkin, kun kuvia ei käsitellä.

Tekoälytekniikka, joka luo elämää tuhoavia vääriä kuvia

Ihmisten tekemä?

Voimmeko tehdä asialle mitään?

Lista tehtävistä vaihtelee henkilöittäin. Yksi tapa on ottaa jyrkkä askel poistaa kuvia offline-tilassa kaikki yhdessä.

Vaikka se saattaa toimia tavallisille ihmisille, se ei ole juurikaan ratkaisu julkkiksille ja muille julkisuuden henkilöille.

Tulevaisuudessa ihmiset voivat kuitenkin suojautua valokuvien väärinkäytöltä teknisin keinoin. Tulevat tekoälykuvageneraattorit voidaan pakottaa laillisesti upottamaan näkymättömiä vesileimoja tulosteisiinsa.

Näin heidän vesileimansa voidaan lukea myöhemmin, ja ihmisten on helppo tietää, että ne ovat väärennöksiä.

"Laaja sääntely on tarpeen. Kaikessa manipuloidussa tai väärennetyssä sisällössä tulee olla näkyvä kirjain tai varoitus, aivan kuten elokuvassa (G, PG, R ja X). Ehkä jotain, kuten Digitally Altertered tai DA," Mitchum sanoo.

Stability AI julkaisi Stable Diffusion -projektinsa avoimen lähdekoodin projektina tänä vuonna.

Sen kunniaksi Stable Diffusion käyttää jo oletusarvoisesti upotettuja vesileimoja, mutta avoimen lähdekoodin versiota käyttävät ihmiset yleensä kiertävät sen joko poistamalla ohjelmiston vesileimakomponentin käytöstä tai poistamalla sen kokonaan.

MIT lieventämään

Vaikka tämä on puhtaasti spekulatiivista, henkilökohtaisiin valokuviin vapaaehtoisesti lisätty vesileima saattaa häiritä Dreamboothin koulutusprosessia. Ryhmä MIT-tutkijoita sanoi PhotoGuard, kilpaileva prosessi, jonka tarkoituksena on suojella ja suojata tekoälyä syntetisoimasta olemassa olevaa valokuvaa pienillä muokkauksilla käyttämällä näkymätöntä vesileimamenetelmää. Tämä rajoittuu kuitenkin vain tekoälyn muokkaukseen (jota kutsutaan usein "maalaukseksi") ja sisältää koulutusta tai kuvien luomista.

"Tekoäly valtaa kirjoittamisen ja maalauksen! Syvät väärennökset pilaavat videon!
Hyvä.
Tämä tarkoittaa, että live-esityksestä tulee entistä arvokkaampaa. Messut menestyvät. Ihminen haluaa tehdä kauppaa ihmisten kanssa.
Lihatila on edelleen paras tila" Jonathan Pitchard sanoo.

Viime aikoina kirjoittava tekoälyteknologia on lisääntynyt runoja, riimejä ja lauluja. Ja joitain sellaisiakin masteroinnit pelejä.

Kriitikot ovat suhtautuneet teknologian kehitykseen negatiivisesti ja uskovat, että tekoälyt valtaavat ihmisten työt.

/MetaNews.

Aikaleima:

Lisää aiheesta MetaNews