Bored Apes Developers hülgasid USA ja Ühendkuningriigi sõjaväelise väljaõppesüsteemi

Bored Apes Developers hülgasid USA ja Ühendkuningriigi sõjaväelise väljaõppesüsteemi

Allikasõlm: 1772253

Kas olete kunagi postitanud endast pilte sotsiaalmeedia platvormidele nagu Facebook, Instagram, Tik Tok ja teised? Kui jah, siis võib-olla on aeg need postitused uuesti läbi vaadata.

Selle põhjuseks on asjaolu, et uus tehisintellekti kujutise genereerimise tehnoloogia võimaldab kasutajatel nüüd salvestada hunniku fotosid ja videokaadreid sinust ning seejärel koolitada neid looma teie fotost "realistlikke" võltsinguid, mis kujutavad teid lausa piinlikus asendis, ebaseaduslikus ja mõnikord kompromiteerivas asendis.

Kõik ei ole ohus, kuid oht on reaalne.

Kuigi fotod on alati olnud altid manipuleerimine ja võltsimine pimedate ajastust, kus filme manipuleeriti kääridega ja kleebiti kuni pikslite fotošopimiseni.

Kuigi see oli tol ajal hirmuäratav ülesanne ja nõudis teatavaid erioskusi, on tänapäeval veenvate fotorealistlike võltsingute loomine tehtud liiga lihtsaks.

Esmalt peab AI-mudel õppima, kuidas kellegi kujutist 2D- või 3D-mudelist tarkvara abil fotoks renderdada või sünteesida. Kui pilt on edukalt renderdatud, muutub pilt loomulikult tehnika jaoks mänguasjaks ja suudab luua lõpmatus koguses pilte.

Kui keegi otsustab AI-mudelit jagada, saavad ka teised inimesed liituda ja hakata looma pilte sellest inimesest.

AI-tehnoloogia, mis loob elu hävitavaid sügavaid võltspilte

Päris või AI loodud?

Sotsiaalmeedia juhtumiuuringud

Vabatahtlik, keda kirjeldas kui "vaprat". Ars TechnicaTehnikaväljaanne, mis oli algselt lubanud ettevõttel kasutada oma pilte võltsingute loomiseks, muutis meelt.

Selle põhjuseks on asjaolu, et tehisintellekti mudeli renderdatud piltide tulemused olid kiiresti vabatahtliku jaoks liiga veenvad ja mainet kahjustavad.

Arvestades suurt maineriski, sai tehisintellekti loodud fiktiivne inimene Johnist loomulik valik.

Väljamõeldud tüüp John oli algklasside õpetaja, kes nagu paljud teised inimesed on oma pilte Facebooki postitanud tööl, kodus ja mõnel sellisel üritusel.

Suuresti solvavad "Johni" kujutised renderdati ja neid kasutati seejärel tehisintellekti treenimiseks, et panna ta kompromiteerivamatesse positsioonidesse.

Vaid seitsmest pildist saab tehisintellekti õpetada genereerima pilte, mis jätavad mulje, nagu elaks John topelt ja salajase elu. Näiteks paistis ta välja kui keegi, kellele meeldis oma klassiruumis selfide tegemiseks alasti poseerida.

Öösiti käis ta baarides nagu kloun.

Nädalavahetustel kuulus ta paramilitaarsesse äärmusrühmitusse.

Tehisintellekt jättis ka mulje, et ta oli ebaseadusliku uimastisüüdistuse eest vangis istunud, kuid varjanud seda fakti oma tööandja eest.

Teisel pildil on John, kes on abielus, poseerimas kontoris alasti naise kõrval, kes ei ole tema naine.

Kasutades AI pildigeneraatorit nimega Stabiilne difusioon (versioon 1.5) ja tehnika nimega Dreambooth, suutis Ars Technica treenida tehisintellekti, kuidas luua Johnist mis tahes stiilis fotosid. Kuigi John oli fiktiivne looming, võis igaüks teoreetiliselt saavutada sama tulemuse viie või enama pildiga. Neid pilte saab kopeerida sotsiaalmeedia kontodelt või võtta videokaadritena.

AI-le Johni piltide loomise õpetamise protsess võttis aega umbes tund ja oli tänu Google'i pilvandmetöötlusteenusele tasuta.

Väljaanne teatas, et koolituse lõppedes võttis piltide loomine mitu tundi. Ja seda mitte sellepärast, et piltide loomine oli mõnevõrra aeglane protsess, vaid seetõttu, et parimate piltide leidmiseks oli vaja läbi kammida mitmeid "ebatäiuslikke pilte" ja kasutada "katse-eksituse" tüüpi viipasid.

Uuring näitas, et see oli märkimisväärselt palju lihtsam võrreldes katsega luua Photoshopis nullist fotoreaalne võltsing "John".

Tänu tehnoloogiale saab Johni-suguseid inimesi välja nägema, nagu oleksid nad käitunud ebaseaduslikult või sooritanud ebamoraalseid tegusid, nagu kodumurdmine, ebaseaduslike uimastite tarbimine ja õpilasega alasti duši all käimine. Kui tehisintellekti mudelid on pornograafia jaoks optimeeritud, võivad sellised inimesed nagu John saada peaaegu üleöö pornotaarideks.

Samuti saab luua pilte Johnist, kes teeb pealtnäha solvavaid asju, mis võivad olla laastavad, kui teda näidatakse baaris immitsemas, kui ta on lubanud kainust.

See ei lõpe sellega.

Inimene võib esineda kergemal hetkel ka keskaegse rüütli või astronaudina. Mõnel juhul võivad inimesed olla nii noored kui vanad või isegi riietuda.

Kuid renderdatud pildid on kaugel täiuslikkusest. Lähemal vaatlusel võib need välja lugeda võltsinguteks.

Negatiivne külg on nende piltide loomise tehnoloogiat, mida on märkimisväärselt täiustatud ja see võib muuta võimatuks sünteesitud foto ja tegeliku foto eristamise.

Kuid hoolimata oma puudustest võivad võltsingud heita Johni kahtluse varju ja potentsiaalselt rikkuda tema mainet.

Hiljuti on paljud inimesed kasutanud sama tehnikat (päris inimestega), et luua endast veidraid ja kunstilisi profiilifotosid.

Samuti kommertsteenused ja rakendused nagu lensa on seeneline, et hakkama koolitust.

Kuidas see toimib?

Töö Johniga võib tunduda tähelepanuväärne, kui pole järginud suundumusi. Tänapäeval teavad tarkvarainsenerid, kuidas luua uusi fotorealistlikke kujutisi kõigest, mida üks võib ette kujutada.

Lisaks fotodele on AI vastuoluliselt lubanud inimestel luua uusi kunstiteoseid, mis kloonivad olemasolevate kunstnike töid ilma nende loata.

Peatatud eetiliste probleemide tõttu

USA tehnoloogiaadvokaat Mitch Jackson väljendas muret sügava võltstehnoloogia leviku pärast turul ja ütleb, et uurib tehnoloogia õiguslikke mõjusid suurema osa 2023. aastast.

"Tõelise ja võltsingu eristamine muutub enamiku tarbijate jaoks lõpuks võimatuks.

Adobel on juba helitehnoloogia nimega Adobe VoCo, mis võimaldab kõigil kõlada täpselt nagu keegi teine. Töö Adobe VoCo kallal peatati eetiliste probleemide tõttu, kuid kümned teised ettevõtted täiustavad tehnoloogiat ja mõned pakuvad täna alternatiive. Vaadake või kuulake ise," Mitchum ütles.

Ta ütleb, et sügavate võltsvideote pildid ja videoversioonid muutuvad üha paremaks.

"Mõnikord on võimatu eristada võltsvideoid tegelikest," lisab ta.

Stabiilne difusioon kasutab süvaõppega pildisünteesi mudelit, mis suudab tekstikirjeldustest uusi pilte luua ja mida saab töötada Windowsi või Linuxi arvutis, Macis või renditud arvutiriistvara pilves.

Stabiilse difusiooni närvivõrk on intensiivse õppimise abil õppinud seostama sõnu ja üldist statistilist seost piltide pikslite asukohtade vahel.

Seetõttu saab Stable Diffusionile anda käsu, näiteks „Tom Hanks klassiruumis”, ja see annab kasutajale uue pildi Tom Hanksist klassiruumis.

Tom Hanki puhul on tegemist jalutuskäiguga pargis, sest sadu tema fotosid on juba stabiilse difusiooni treenimiseks kasutatavas andmekogumis. Kuid Johni sarnastest inimestest piltide tegemiseks vajab AI natuke abi.

See on koht, kus Dreambooth lööb.

Google'i teadlaste 30. augustil käivitatud Dreambooth kasutab stabiilse difusiooni treenimiseks spetsiaalset tehnikat protsessi, mida nimetatakse peenhäälestamiseks.

Alguses ei olnud Dreambooth seotud Stable Diffusioniga ja Google ei olnud kuritarvitamise kartuses oma lähtekoodi kättesaadavaks teinud.

Kiiresti leidis keegi viisi, kuidas kohandada Dreamboothi ​​tehnikat töötama koos Stable Diffusioniga, ja avaldas koodi vabalt avatud lähtekoodiga projektina, muutes Dreamboothi ​​tehisintellekti kunstnike jaoks väga populaarseks viisiks Stable Diffusioni uusi kunstistiile õpetada.

Ülemaailmne mõju

Kogu maailmas kasutab sotsiaalmeediat hinnanguliselt 4 miljardit inimest. Kuna paljud meist on endast rohkem kui käputäie fotosid üles laadinud, võime kõik muutuda selliste rünnakute suhtes haavatavaks.

Kuigi pildisünteesitehnoloogia mõju on kujutatud mehe vaatenurgast, kipuvad ka naised kandma raskust.

Kui naise nägu või keha renderdatakse, võidakse tema identiteet pornograafilistesse kujutistesse kelmikalt sisestada.

Selle on teinud võimalikuks tohutu hulk seksualiseeritud kujutisi, mis leiti tehisintellekti koolitusel kasutatavates andmekogumites.

Teisisõnu tähendab see, et tehisintellekt on liigagi tuttav nende pornograafiliste piltide loomisega.

Mõnede nende eetiliste probleemide lahendamiseks oli Stability AI sunnitud eemaldama NSFW materjali oma uuema versiooni 2.0 väljalaske koolitusandmete kogumist.

Kuigi selle tarkvaralitsents keelab inimestel kasutada tehisintellekti generaatorit inimestest ilma nende loata kujutiste tegemiseks, on jõustamise potentsiaal väga väike või puudub üldse.

Lapsed ei ole ka sünteesitud piltide eest kaitstud ja neid võidakse selle tehnoloogia abil kiusata isegi siis, kui pilte ei manipuleerita.

AI-tehnoloogia, mis loob elu hävitavaid sügavaid võltspilte

Inimeste tehtud?

Kas me saame sellega midagi ette võtta?

Tehtavate asjade loend on inimestel erinev. Üks võimalus on võtta drastiline samm, et eemaldada võrguühenduseta pildid koos.

Kuigi see võib tavainimeste jaoks toimida, pole see kuigi hea lahendus kuulsuste ja muude avaliku elu tegelaste jaoks.

Küll aga võivad inimesed tulevikus tehniliste vahenditega end fotode kuritarvitamise eest kaitsta. Tulevased AI-kujutise generaatorid võivad olla seaduslikult sunnitud oma väljunditesse nähtamatud vesimärgid kinnistama.

Nii saab nende vesimärke hiljem lugeda ja inimesed saavad hõlpsasti aru, et tegemist on võltsinguga.

"Vaja on ulatuslikku reguleerimist. Kõik manipuleeritud või võltsitud sisu osad peavad sarnaselt filmile (G, PG, R ja X) esitama nähtavalt kirja või hoiatuse. Võib-olla midagi sellist nagu Digitally Altertered või DA," Mitchum ütleb.

Stabiilsus AI käivitas sel aastal avatud lähtekoodiga projektina Stable Diffusion.

Kiituseks tuleb öelda, et Stable Diffusion kasutab juba vaikimisi manustatud vesimärke, kuid inimesed, kes pääsevad ligi selle avatud lähtekoodiga versioonile, kipuvad sellest mööda minema, keelates tarkvara vesimärgikomponendi või eemaldades selle täielikult.

MIT leevendada

Kuigi see on puhtalt spekulatiivne, võib isiklikele fotodele vabatahtlikult lisatud vesimärk häirida Dreamboothi ​​treeningprotsessi. MIT teadlaste rühm ütles PhotoGuard, võistlev protsess, mille eesmärk on kaitsta ja kaitsta tehisintellekti olemasoleva foto sünteesimise eest läbi väiksemate muudatuste, kasutades nähtamatut vesimärgi meetodit. See piirdub aga ainult AI redigeerimisega (mida sageli nimetatakse "sissemaalimiseks") ja hõlmab koolitust või piltide genereerimist.

"AI võtab kirjutamise ja maalimise üle! Sügavad võltsingud rikuvad video ära!
Hea.
See tähendab, et live-esitus muutub veelgi väärtuslikumaks. Messid edenevad. Inimesed tahavad inimestega äri teha.
Liharuum on endiselt parim ruum" Jonathan Pitchard ütleb.

Viimasel ajal on AI-tehnoloogia, mis kirjutavad, levima hakanud luuletused, riimid ja laulud. Ja mõned, mis on meisterdamised mänge.

Kriitikud on võtnud tehnoloogilisi edusamme negatiivselt ja usuvad, et tehisintellekt võtab üle inimeste töökohad.

/MetaNews.

Ajatempel:

Veel alates MetaNews