A Bored Apes fejlesztői felhagynak az Egyesült Államok és az Egyesült Királyság katonai kiképzési rendszerével

A Bored Apes fejlesztői felhagynak az Egyesült Államok és az Egyesült Királyság katonai kiképzési rendszerével

Forrás csomópont: 1772253

Posztolt már képeket magáról olyan közösségi média platformokon, mint a Facebook, Instagram, Tik Tok és mások? Ha igen, akkor talán ideje átgondolni ezeket a bejegyzéseket.

Ennek az az oka, hogy az új mesterséges intelligencia képgeneráló technológia lehetővé teszi a felhasználók számára, hogy elmentsenek egy csomó fotót és videókockát rólad, majd megtanítsák azokat „valósághű” hamisítványok készítésére, amelyek egyenesen kínos, illegális és néha kompromittáló pozíciókban ábrázolják Önt.

Nos, nem mindenki van veszélyben, de a fenyegetés valós.

Bár a fényképek mindig is hajlamosak voltak manipuláció és hamisítás a sötétkamrák korából, amikor a filmeket ollóval manipulálták és beillesztették a pixelek mai photoshopingjáig.

Noha ez akkoriban ijesztő feladat volt, és bizonyos szaktudást igényelt, manapság a meggyőző, fotorealisztikus hamisítványok előállítása túlságosan egyszerűvé vált.

Először egy mesterséges intelligencia-modellnek meg kell tanulnia, hogyan lehet szoftveren keresztül egy 2D-s vagy 3D-s modellből fotóvá renderelni vagy szintetizálni valakiről készült képet. A kép sikeres megjelenítése után a kép természetesen a technika játékszerévé válik, és végtelen mennyiségű kép létrehozására képes.

Ha valaki úgy dönt, hogy megosztja az AI-modellt, mások is csatlakozhatnak, és elkezdhetnek képeket készíteni az adott személyről.

AI Tech, amely életet romboló mély hamis képeket készít

Valódi vagy mesterséges intelligencia által generált?

Social Media Esettanulmányok

Egy önkéntest „bátornak” jellemez Ars Technica, egy műszaki kiadvány, aki kezdetben megengedte a cégnek, hogy hamisítványok készítésére használja fel képeit, meggondolta magát.

Ennek az az oka, hogy az AI-modellből előállított képek eredményei rövid időn belül túl meggyőzőek voltak, és túlságosan károsak voltak az önkéntes hírnevét illetően.

A magas hírnévkockázat miatt egy mesterséges intelligencia által generált fiktív személy, John természetes választássá vált.

John, a fiktív srác általános iskolai tanár volt, aki sok máshoz hasonlóan munkahelyén, otthon hűsölve és valami hasonló rendezvényen tette fel képeit a Facebookra.

„John”-ról készült, nagyrészt ártalmatlan képeket renderelték, majd arra használták fel a mesterséges intelligencia képzésére, hogy kompromittálóbb pozíciókba helyezze őt.

Mindössze hét képből a mesterséges intelligencia megtanítható olyan képeket generálni, amelyekből úgy tűnik, mintha John kettős és titkos életet élne. Például olyasvalakiként tűnt fel, aki szívesen pózol meztelenül szelfikhez az osztálytermében.

Éjszaka olyan bárokba járt, mint egy bohóc.

Hétvégén egy szélsőséges félkatonai csoport tagja volt.

Az AI azt a benyomást is keltette, hogy illegális kábítószer-vád miatt volt börtönben, de ezt a tényt eltitkolta munkáltatója előtt.

Egy másik képen John, aki házas, egy meztelen nő mellett pózol egy irodában, aki nem a felesége.

nevű AI képgenerátor segítségével Stabil diffúzió (1.5-ös verzió) és a Dreambooth nevű technikával az Ars Technica képes volt megtanítani az AI-t, hogyan készítsen fényképeket Johnról bármilyen stílusban. Bár János fiktív alkotás volt, elméletileg bárki elérhette ugyanazt az eredményt öt vagy több képből. Ezeket a képeket ki lehet venni a közösségi média fiókjaiból, vagy állóképként lehet készíteni egy videóból.

A mesterséges intelligencia megtanítása John-képek létrehozására körülbelül egy órát vett igénybe, és a Google felhőalapú számítástechnikai szolgáltatásának köszönhetően ingyenes volt.

A képzés befejeztével a képek elkészítése több órát vett igénybe – áll a kiadványban. És ez nem azért volt, mert a képek előállítása kissé lassú folyamat volt, hanem azért, mert számos „tökéletlen képet” kellett átfésülni, és a „próbálkozás és hiba” jellegű felszólítást kellett használni a legjobb képek megtalálásához.

A tanulmány azt találta, hogy ez feltűnően sokkal könnyebb volt, mint amikor a Photoshopban a semmiből megpróbálták létrehozni „John” fotórealisztikus hamisítványát.

A technológiának köszönhetően az olyan emberek, mint John, úgy nézhetnek ki, mintha illegálisan cselekszenek, vagy erkölcstelen cselekedeteket követtek volna el, például háztörést, illegális kábítószer-használatot vagy meztelen zuhanyozást egy diákkal. Ha az AI-modelleket pornográfiára optimalizálják, az olyan emberek, mint John, szinte egyik napról a másikra pornósztárokká válhatnak.

Létrehozhatunk olyan képeket is Johnról, amint látszólag ártatlan dolgokat csinál, amelyek pusztító hatásúak lehetnek, ha egy bárban bemutatják, amint beszívja magát, amikor józanul fogadott.

Ezzel még nincs vége.

Egy személy egy könnyebb pillanatban is megjelenhet középkori lovagként vagy űrhajósként. Egyes esetekben az emberek fiatalok és idősek is lehetnek, vagy akár öltözködnek is.

Azonban a renderelt képek messze vannak a tökéletestől. Ha közelebbről megvizsgáljuk, hamisítványnak tűnnek.

Hátránya, hogy a képeket létrehozó technológiát jelentősen továbbfejlesztették, és lehetetlenné teheti a szintetizált és a valódi fénykép megkülönböztetését.

Ennek ellenére a hamisítványok hibáik ellenére kétségek árnyékát vethetik Johnnal kapcsolatban, és tönkretehetik a hírnevét.

Az utóbbi időben többen is alkalmazták ugyanezt a technikát (valódi emberekkel), hogy furcsa és művészi profilképeket készítsenek magukról.

Szintén kereskedelmi szolgáltatások és alkalmazások, mint pl lensa gombamód szaporodtak, hogy kezelik a képzést.

Hogyan működik?

A Jánossal kapcsolatos munka figyelemre méltónak tűnhet, ha valaki nem követi a trendeket. Ma a szoftvermérnökök tudják, hogyan készítsenek új fotorealisztikus képeket bármiről, amit csak el lehet képzelni.

A fényképeken kívül a mesterséges intelligencia ellentmondásos módon lehetővé tette az emberek számára, hogy olyan új alkotásokat hozzanak létre, amelyek a meglévő művészek műveit az engedélyük nélkül klónozzák.

Etikai okok miatt felfüggesztve

Mitch Jackson amerikai technológiai jogász aggodalmát fejezte ki a mélyen hamisított technológiák elterjedése miatt a piacon, és azt mondta, hogy 2023 nagy részében tanulmányozni fogja a technológia jogi hatásait.

"A legtöbb fogyasztó számára végül lehetetlen lesz különbséget tenni a valódi és a hamis között.”

Az Adobe már rendelkezik Adobe VoCo nevű audiotechnológiával, amely lehetővé teszi, hogy bárki pontosan úgy szóljon, mint valaki más. Az Adobe VoCo-val kapcsolatos munkát etikai aggályok miatt felfüggesztették, de több tucat másik vállalat tökéletesíti a technológiát, és néhány ma már alternatívákat kínál. Vessen egy pillantást vagy hallgassa meg maga – Mitchum mondott.

A mély hamis videók képei és videóverziói egyre jobbak, mondja.

„Néha lehetetlen megkülönböztetni a hamis videókat a valódiaktól” – teszi hozzá.

A Stable Diffusion mélytanulási képszintézis modellt használ, amely szöveges leírásokból új képeket hozhat létre, és futhat Windows vagy Linux PC-n, Macen vagy felhőben bérelt számítógépes hardveren.

A Stable Diffusion neurális hálózata intenzív tanulás segítségével elsajátította a szavak társítását és a képpontok helyzete közötti általános statisztikai asszociációt.

Emiatt a Stable Diffusion egy felszólítást adhat, például „Tom Hanks az osztályteremben”, és ez új képet ad a felhasználónak Tom Hanksről az osztályteremben.

Tom Hank esetében ez egy séta a parkban, mert több száz fotója már szerepel a Stable Diffusion képzéséhez használt adatkészletben. De ahhoz, hogy képeket készítsen olyan emberekről, mint John, az AI-nak szüksége lesz egy kis segítségre.

Innen indul a Dreambooth.

A Dreambooth, amelyet augusztus 30-án indítottak útjára a Google kutatói, egy speciális technikát alkalmaz a stabil diffúzió képzésére a „finomhangolás” nevű folyamaton keresztül.

Eleinte a Dreambooth nem kapcsolódott a Stable Diffusion-hoz, és a Google nem tette elérhetővé a forráskódját a visszaélésektől való félelem közepette.

Pillanatok alatt valaki megtalálta a módját, hogy a Dreambooth technikát adaptálhassa a Stable Diffusion-szal való együttműködésre, és szabadon kiadta a kódot nyílt forráskódú projektként, így a Dreambooth nagyon népszerű módja lett a mesterséges intelligencia művészeinek a Stable Diffusion új művészi stílusok tanításának.

Világméretű hatás

Becslések szerint világszerte 4 milliárd ember használja a közösségi médiát. Mivel sokan közülünk több mint egy maroknyi fotót töltöttünk fel magunkról, sebezhetővé válhatunk az ilyen támadásokkal szemben.

Bár a képszintézis technológia hatását a férfiak szemszögéből ábrázolták, általában a nőket is viselik ennek a terhei.

Amikor egy nő arcát vagy testét megjelenítik, identitása pajkosan bekerülhet a pornográf képek közé.

Ezt a mesterséges intelligencia képzése során használt adatkészletekben található szexualizált képek hatalmas száma tette lehetővé.

Más szavakkal, ez azt jelenti, hogy a mesterséges intelligencia túlságosan jól ismeri a pornográf képek létrehozásának módját.

Ezen etikai problémák némelyikének megoldása érdekében a Stability AI kénytelen volt eltávolítani az NSFW-anyagot a képzési adatkészletéből az újabb 2.0-s kiadáshoz.

Bár a szoftverlicenc megtiltja az embereket, hogy az AI-generátort engedélyük nélkül képek készítésére használják, a jogérvényesítésre nagyon kevés vagy egyáltalán nincs lehetőség.

A gyerekek szintén nincsenek biztonságban a szintetizált képektől, és bántalmazhatják őket ezzel a technológiával még olyan esetekben is, amikor a képeket nem manipulálják.

AI Tech, amely életet romboló mély hamis képeket készít

Emberek alkották?

Tehetünk ez ellen valamit?

A tennivalók listája személyenként változik. Az egyik módja annak a drasztikus lépésnek a megtétele, hogy együtt távolítsa el a képeket offline módban.

Bár ez működhet a hétköznapi embereknél, ez nem túl jó megoldás a hírességek és más közéleti személyiségek számára.

A jövőben azonban az emberek technikai eszközökkel megvédhetik magukat a fényképekkel való visszaéléstől. A jövőbeli mesterséges intelligencia-képgenerátorok törvényesen arra kényszeríthetők, hogy láthatatlan vízjeleket ágyazzanak be kimeneteikbe.

Így a vízjeleik később olvashatók, és az emberek könnyebben tudják, hogy hamisítványok.

"Széles körű szabályozásra van szükség. Minden manipulált vagy hamis tartalom esetében meg kell követelni, hogy jól láthatóan jelenítsen meg egy betűt vagy figyelmeztetést, hasonlóan a filmhez (G, PG, R és X). Talán valami, mint a Digitally Altertered vagy a DA," Mitchum azt mondja.

A Stability AI ebben az évben indította el Stable Diffusion nevű, nyílt forráskódú projektjét.

Becsületére legyen mondva, a Stable Diffusion alapértelmezés szerint már beágyazott vízjeleket használ, de a nyílt forráskódú verziójához hozzáférő emberek hajlamosak megkerülni azt a szoftver vízjel-komponensének letiltásával vagy teljesen eltávolítva.

MIT enyhítésére

Bár ez tisztán spekuláció, a személyes fényképekhez önként hozzáadott vízjel megzavarhatja a Dreambooth képzési folyamatot. Az MIT kutatóinak egy csoportja mondta PhotoGuard, egy kontradiktórius eljárás, amelynek célja, hogy megvédje és megóvja a mesterséges intelligenciát attól, hogy kisebb módosításokkal szintetizáljon egy meglévő fotót egy láthatatlan vízjelezési módszer segítségével. Ez azonban csak a mesterséges intelligencia szerkesztésére korlátozódik (gyakran „inpaintingnek” nevezik), és magában foglalja a képzést vagy a képek generálását.

"Az AI átveszi az írást és a festést! A mély hamisítványok tönkreteszik a videót!
Jó.
Ez azt jelenti, hogy az élő előadás még értékesebbé válik. A kiállítások virágozni fognak. Az emberek üzletet akarnak kötni az emberekkel.
A hústér továbbra is a legjobb hely" Jonathan Pitchard mondja.

Az utóbbi időben elterjedt az AI-technológia, amely ír versek, mondókák és dalok. És néhány ilyen masteringek játékok.

A kritikusok negatívan fogadták a technológiai fejlődést, és úgy gondolják, hogy a mesterséges intelligencia átveszi az emberi munkát.

/MetaNews.

Időbélyeg:

Még több MetaNews