Küzdelem az AI-val a mélyhamisítású alkalmazások mesterséges intelligencia-csalásfigyelésével – KDnuggets

Küzdelem az AI-val a mélyhamisítású alkalmazások mesterséges intelligencia-csalásfigyelésével – KDnuggets

Forrás csomópont: 2667255
Küzdelem az AI-val a mélyhamisítású alkalmazások mesterséges intelligencia-csalásfigyelésével
Fotó Tima Mirosnyicsenko
 

A mélyhamisítások már néhány éve nagy beszédtéma az adattudományi közösségben. Még 2020-ban, az MIT Technology Review azt állította, hogy mély hamisítványok elérte a „döntő pontjukat a mainstream használathoz”.

Az adatok ezt minden bizonnyal alátámasztják. A Wall Street Journal beszámolt arról, hogy 10,000-ban kevesebb mint 2018 XNUMX mélyhamisítványt találtak az interneten. Ezek a számok ma már milliósra rúgnak, és számos valós példa van arra, hogy a mélyhamisítványokat mind összetévesztésre, félretájékoztatásra, mind pénzügyi csalások folytatására használták. 

A mélyhamisítási technikák összességében számos kifinomult lehetőséget kínálnak a kiberbűnözők számára.

Sokkal túlmutatnak azon a képességen, hogy egy híresség képét beillesszék egy „kihagyhatatlan” Bitcoin-ajánlat promóciós anyagába, ami – természetesen – átverésnek bizonyul. Különösen a mélyhamis videók vannak a csalók radarján. Lehetővé teszik számukra az automatikus azonosító- és KYC-ellenőrzést, és ijesztően hatékonynak bizonyultak.

Májusban az 2022, The Verge jelentette, hogy "életképességi tesztek” – amelyet a bankok és más intézmények a felhasználók személyazonosságának ellenőrzésére használnak – könnyen becsaphatók a mély hamisítványok. A kapcsolódó tanulmány megállapította, hogy a tesztelt azonosító-ellenőrző rendszerek 90%-a sebezhető volt.

Szóval mi a válasz? Olyan korszakba lépünk, amikor a kiberbűnözők könnyen mély hamis technológiát használhatnak a pénzintézetek által alkalmazott biztonsági intézkedések kijátszására? Az ilyen vállalkozásoknak le kell vetniük automatizált rendszereiket, és vissza kell térniük a kézi, emberi ellenőrzésekhez?

A válasz egyszerű: „valószínűleg nem”. Ahogy a bûnözõk is kihasználhatják a betörést AI fejlesztések, így az általuk megcélzott vállalatok is. Nézzük most meg, hogyan küzdhetnek a sérülékeny vállalkozások a mesterséges intelligencia ellen.

A mélyhamisítványokat számos mesterséges intelligencia technikával állítják elő, mint például:

  • generatív ellenséges hálózatok (GAN) 
  • kódoló/dekódoló párok
  • elsőrendű mozgásmodellek

Ezek a technikák ránézésre úgy tűnhetnek, mint a gépi tanulási közösség kizárólagos tulajdona, magas belépési korlátokkal és szakértői műszaki tudás szükségességével. A mesterséges intelligencia többi eleméhez hasonlóan azonban az idő múlásával ezek is lényegesen hozzáférhetőbbé váltak.

Az alacsony költségű, készen kapható eszközök mostantól lehetővé teszik a nem műszaki felhasználók számára, hogy mély hamisítványokat készítsenek, ahogyan bárki feliratkozhat az OpenAI-ra, és tesztelheti a ChatGPT képességeit.

A Világgazdasági Fórum még 2020-ban arról számolt be, hogy a „korszerű” deepfake 30,000 2023 dollár alatt van. XNUMX-ban azonban a Wharton School professzora, Ethan Mollick egy vírusos Twitter-bejegyzésen keresztül felfedte, hogy készített egy mély hamis videó hat percen belül előadást tart.

Mollick teljes költése 10.99 dollár volt. Az ElevenLabs nevű szolgáltatást használta, hogy szinte tökéletesen utánozza a hangját, 5 dollárért. Egy másik szolgáltatás, a D-ID, havi 5.99 dollárért, csak egy forgatókönyv és egyetlen fénykép alapján készített videót. Még a ChatGPT-t is használta magának a szkript elkészítéséhez.

Amikor a mélyhamisítások először megjelentek, az elsődleges hangsúly a hamis politikai videókon (és a hamis pornográfián) volt. Azóta a világ ezt látta:

  • A BuzzFeedVideos egy hamisított közszolgálati közleményt hoz létre Barack Obamával, akit Jordon Peele színész megszemélyesít.
  • Egy mély hamis YouTube-videó, amely azt állítja, hogy Donald Trump egy rénszarvasról mesél.
  • Egy mély hamis videó Hilary Clintonról, amelyet a Saturday Night Live-ban mutattak be, amikor egy szereplőgárda megszemélyesítette őt.

Míg ezek a példák a mélyhamisítások „szórakoztató” oldalát mutatják be, és talán a valóság megrázkódtatását is szolgálják a technológia képességeit illetően, a csalók nem vesztegették az idejüket azzal, hogy aljas célokra használják őket. 

Sok a valós életből származó példa a csalásra, amelyeket mélyhamisítási technikákkal örökítettek meg.

A mély hamis csalások miatti veszteségek százezertől sok millióig terjednek. 2021-ben egy mesterséges intelligencia hangklónozó csalást használtak 35 millió dolláros csalárd banki átutalások megszervezésére. Ez hatalmas anyagi megtérülés volt, ami még csak nem is sikerült szükség a videó használata.

Az AI kimenet minősége, különösen a videó, nagyon eltérő lehet. Egyes videók nyilvánvalóan hamisak az emberek számára. De amint fentebb említettük, az olyan automatizált rendszerek, mint a bankok és a fintech, a múltban könnyen becsaphatónak bizonyultak.

Az egyensúly valószínűleg tovább tolódik, ahogy a mesterséges intelligencia képességei folyamatosan javulnak. A legújabb fejlesztés az „ellentörvényszéki vizsgálat” beépítése, ahol „célzott láthatatlan „zajt” adnak a mély hamisítványokhoz, ezzel próbálva megtéveszteni az észlelési mechanizmusokat.

Szóval mit lehet tenni?

Ahogyan a csalók a legújabb mesterséges intelligencia technológiát igyekeznek pénzügyi haszonszerzésre használni, az olyan vállalkozások, mint a technológiai cégek, keményen dolgoznak azon, hogy a technológiát a bűnözők elfogására használják fel.

Íme néhány példa az AI-t használó vállalatokra a mesterséges intelligencia elleni küzdelemben:

2022 végén az Intel piacra dobott egy mesterséges intelligencia-alapú eszközt „FakeCatcher”. Az Intel által közölt 96%-os megbízhatóság mellett a fotopletizmográfia (PPG) néven ismert technológiát alkalmazza.

A technológia olyasmit használ, ami nincs jelen a mesterségesen generált videókban: a véráramlást. A törvényes videókra oktatott mélytanulási algoritmusa méri az erek által elnyelt vagy visszavert fényt, amelyek színe megváltozik, ahogy a vér mozog a testben.

A FakeCatcher, az Intel Responsible AI kezdeményezésének része, a leírás szerint „a világ első valós idejű mély hamisítvány-érzékelője, amely ezredmásodpercek alatt visszaadja az eredményeket”. Ez egy innovatív technológia, amely arra utal, hogy a videón látható személy valóban ember. Valamit keres, ami „helyes”, ahelyett, hogy adatokat elemezne, hogy kiemelje a „rossz” valamit. Ez így jelzi a hamisítás valószínűségét.

Eközben a Buffalo Egyetem (UB) informatikusai egy saját mélyhamisítás-észlelési technológián dolgoztak. Valami olyasmit használ, amiről a lelkes PC-játékosok tudják, hogy az emuláláshoz óriási feldolgozási teljesítményre van szükség: könnyű.

Az UB állítása szerint 94%-ban hatékony a hamis fényképeken, az AI eszköz azt vizsgálja, hogy a fény hogyan verődik vissza az alany szemében. A szaruhártya felülete tükörként működik, és „visszaverő mintákat” generál.

A tudósok „A GAN által generált arcok exponálása inkonzisztens szaruhártya tükörfényekkel” című tanulmány azt jelzi, hogy „a GAN által szintetizált arcok exponálhatók a két szem közötti ellentmondásos szaruhártya tükörfényekkel”.

Azt sugallja, hogy „nem triviális” lenne, ha az AI-rendszerek utánoznák a valódi csúcspontokat. A PC-játékosok, akik gyakran fektetnek be a legújabb sugárkövető grafikus kártyákba, hogy valósághű fényeffektusokat tapasztaljanak, ösztönösen felismerik a kihívásokat.

A csalások felderítésének legnagyobb kihívása talán a végtelen „macska-egér” játék a csalók és azok között, akik a meghiúsításukon dolgoznak. Nagyon valószínű, hogy a fentihez hasonló bejelentések nyomán az emberek már dolgoznak olyan technológiák kifejlesztésén, amelyek képesek megkerülni és legyőzni az ilyen észlelési mechanizmusokat.

Az is egy dolog, hogy léteznek ilyen mechanizmusok, de egy másik dolog, hogy ezeket rutinszerűen integrálják a vállalkozások által használt megoldásokba. Korábban hivatkoztunk egy statisztikára, amely szerint a megoldások 90%-a „könnyen becsapható”. Valószínű, hogy legalább néhány pénzintézet még mindig használ ilyen rendszereket.

Egy bölcs csalások nyomon követése A stratégia megköveteli a vállalatoktól, hogy a mély hamisítványok felderítésén túl nézzenek. Sokat lehet tenni előtt a csaló elég messzire jut egy rendszerbe ahhoz, hogy részt vegyen egy videó alapú személyazonosító ellenőrzésben vagy KYC folyamatban. Azok az óvintézkedések, amelyek korábban helyet kapnak a folyamatban, a mesterséges intelligencia és a gépi tanulás elemeit is magukban foglalhatják.

Például a gépi tanulás felhasználható mind a valós idejű csalások megfigyelésére, mind a szabálykészletek létrehozására. Ezek történelmi csalási eseményeket vizsgálhatnak, és olyan mintákat fedezhetnek fel, amelyeket az ember könnyen elmulaszthat. A magas kockázatúnak ítélt tranzakciók azonnal elutasíthatók, vagy átadhatók kézi ellenőrzésre mielőtt még elérné egy olyan szakasz, ahol személyazonosság-ellenőrzésre kerülhet sor – és így lehetőség nyílik egy csalónak arra, hogy mélyhamisítási technológiát használjon.

Minél korábban észleli egy rendszer a kiberbûnözõt, annál jobb. Kisebb az esélye annak, hogy elkövetnek egy bűncselekményt, és kevesebbet költ a vállalkozás további ellenőrzésekre. A videó alapú személyazonosság-ellenőrzés költséges, még az AI technológia beépítése nélkül is a mély hamisítványok észlelésére.

Ha sikerül azonosítani a csalókat, mielőtt idáig eljutnának, olyan technikákkal, mint a digitális lábnyom-vizsgálat, akkor több erőforrás marad a határesetek ellenőrzésének optimalizálására.

A gépi tanulás természetéből adódóan azt kell diktálnia, hogy idővel jobbá válik az anomáliák észlelésében és a csalás elleni küzdelemben. Az AI-alapú rendszerek tanulhatnak az új mintákból, és potenciálisan kiszűrhetik a csalárd tranzakciókat a folyamat korai szakaszában.

Ha konkrétan a mélyhamisításokról van szó, a fenti példa különös okot ad a reményre. A tudósok megtalálták a módját a mélyhamisítások túlnyomó többségének fényvisszaverődések segítségével történő kimutatására. Az ehhez hasonló fejlesztések jelentős előrelépést jelentenek a csalás megelőzésében, és jelentős akadályt jelentenek a kiberbűnözők számára.

Elméletileg sokkal könnyebb bevetni egy ilyen észlelési technológiát, mint a csalók számára, hogy megtalálják a módját annak megkerülésére – például a fény viselkedésének megismétlésével sebességben és léptékben. A „macska és egér” játék valószínűleg örökké folytatódni fog, de a nagy technológiának és a nagy pénzügyeknek megvannak az erőforrásai és a mély zsebek ahhoz, hogy – legalábbis elméletben – egy kis lépéssel előrébb maradjanak.
 
 
Jimmy Fong a SEON CCO-ja, és a csalás elleni küzdelem terén szerzett mélyreható tapasztalatával segíti a csalócsapatokat mindenhol.
 

Időbélyeg:

Még több KDnuggets