Taistelu tekoälyn avulla Deepfake-sovellusten tekoälypetosvalvonnalla - KDnuggets

Taistele tekoälyn avulla Deepfake-sovellusten tekoälypetosvalvonnalla – KDnuggets

Lähdesolmu: 2667255
Taistele tekoälyn avulla Deepfake-sovellusten tekoälypetosvalvonnalla
Kuva Tima Miroshnichenko
 

Deepfakes on ollut suuri keskustelunaihe datatiedeyhteisössä jo muutaman vuoden ajan. Vuonna 2020 MIT Technology Review väitti, että syvät väärennökset oli saavuttanut "päävirran kääntöpisteensä".

Tiedot varmasti tukevat tätä. The Wall Street Journal raportoi, että alle 10,000 2018 syväväärennöstä löydettiin verkosta vuonna XNUMX. Nämä luvut nousevat nyt miljooniin, ja on olemassa monia tosielämän esimerkkejä syväväärennöksistä, joita käytetään sekä hämmentämään ja vääristelemään että jatkamaan talouspetoksia. 

Deepfake-tekniikat tarjoavat kaiken kaikkiaan kyberrikollisille monia kehittyneitä vaihtoehtoja.

Ne menevät paljon pidemmälle kuin kyky lisätä julkkiksen kuva mainosmateriaaliin "väistämättömästä" Bitcoin-tarjouksesta, joka tietysti osoittautuu huijaukseksi. Etenkin Deepfake-videot ovat huijareiden tutkassa. Ne tarjoavat heille tavan päästä läpi automaattisista ID- ja KYC-tarkistuksista, ja ne ovat osoittautuneet pelottavan tehokkaiksi.

Toukokuussa 2022, Verge ilmoitti, että "elävyystestejä", jota pankit ja muut laitokset käyttävät käyttäjien henkilöllisyyden tarkistamiseen, voidaan helposti huijata syvällä väärennöksellä. Aiheeseen liittyvässä tutkimuksessa havaittiin, että 90 % testatuista henkilöllisyystodistusjärjestelmistä oli haavoittuvia.

Joten mikä on vastaus? Olemmeko siirtymässä aikakauteen, jossa kyberrikolliset voivat helposti käyttää syvää väärennettyä teknologiaa ovelaakseen rahoituslaitosten turvatoimia? Pitääkö tällaisten yritysten luopua automatisoiduista järjestelmistään ja palata manuaalisiin, inhimillisiin tarkastuksiin?

Yksinkertainen vastaus on "todennäköisesti ei". Aivan kuten rikolliset voivat hyödyntää nousua AI edistysaskeleita, niin voivat myös niiden kohteena olevat yritykset. Katsotaan nyt, kuinka haavoittuvat yritykset voivat taistella tekoälyä vastaan ​​tekoälyllä.

Deepfakeja valmistetaan käyttämällä erilaisia ​​tekoälytekniikoita, kuten:

  • generatiiviset kontradiktoriset verkot (GAN) 
  • kooderi/dekooderi-parit
  • ensiluokkaiset liikemallit

Nämä tekniikat voivat päällisin puolin kuulostaa koneoppimisyhteisön yksinomaiselta omistukselta, johon liittyy suuria pääsyn esteitä ja asiantuntijan teknisen tietämyksen tarve. Kuitenkin, kuten muut tekoälyn elementit, niistä on tullut ajan myötä huomattavasti helpommin saatavilla.

Edullisten, valmiiden työkalujen avulla ei-tekniset käyttäjät voivat nyt luoda syvällisiä väärennöksiä, aivan kuten kuka tahansa voi rekisteröityä OpenAI:hen ja testata ChatGPT:n ominaisuuksia.

Vielä vuonna 2020 Maailman talousfoorumi raportoi, että "tekniikan taso”deepfake on alle 30,000 2023 dollaria. Mutta vuonna XNUMX Wharton Schoolin professori Ethan Mollick paljasti Twitter-viruksen kautta, että hän oli tuottanut syvä valevideo itsestään pitämässä luennon alle kuudessa minuutissa.

Mollickin kokonaiskulutus oli 10.99 dollaria. Hän käytti palvelua nimeltä ElevenLabs matkimaan ääntään lähes täydellisesti 5 dollarin hintaan. Toinen palvelu nimeltä D-ID, 5.99 dollaria kuukaudessa, loi videon, joka perustui vain käsikirjoitukseen ja yhteen valokuvaan. Hän jopa käytti ChatGPT:tä luodakseen itse käsikirjoituksen.

Kun syväväärennöksiä alkoi ilmestyä, pääpaino oli väärennetyissä poliittisissa videoissa (ja valepornografiassa). Siitä lähtien maailma on nähnyt:

  • BuzzFeedVideos luo syvän fake-julkisen ilmoituksen, jossa esiintyy Barack Obama, jota esiintyy näyttelijä Jordon Peelenä.
  • Syvä väärennös YouTube-video, jonka väitetään näyttävän Donald Trumpin kertovan tarinaa porosta.
  • Syvä valevideo Hilary Clintonista, joka näytettiin Saturday Night Livessä, kun hän itse asiassa esiintyi näyttelijänä.

Vaikka nämä esimerkit osoittavat syvän väärennösten "hauskan" puolen ja saattavat tarjota tekniikan kykyjä koskettavan todellisuuden, huijarit eivät ole tuhlanneet aikaa käyttääkseen niitä pahantahtoisiin tarkoituksiin. 

Tosielämän esimerkkejä petoksista, jotka on jatkunut käyttämällä deepfake-tekniikoita, on monia.

Syvien väärennettyjen huijausten aiheuttamat tappiot vaihtelevat satoista tuhansista useisiin miljooniin. Vuonna 2021 tekoälyn äänikloonaushuijauksella järjestettiin 35 miljoonan dollarin pankkisiirrot. Tämä oli valtava taloudellinen voitto, jota ei edes tapahtunut edellyttää videon käyttöä.

Tekoälyn, erityisesti videon, laatu voi vaihdella suuresti. Jotkut videot ovat selvästi väärennettyjä ihmisille. Mutta kuten edellä todettiin, automatisoidut järjestelmät, kuten pankkien ja fintechin käyttämät, ovat osoittautuneet helposti huijattavaksi aiemmin.

Tasapaino todennäköisesti muuttuu edelleen, kun tekoälyominaisuudet paranevat jatkuvasti. Viimeaikainen kehitys on "vastarikosteknisen tekniikan" sisällyttäminen, jossa "kohdennettu näkymätön "melu" lisätään syviin väärennöksiin, jotta tunnistusmekanismeja yritetään huijata.

Joten mitä voidaan tehdä?

Aivan kuten huijarit pyrkivät käyttämään uusinta tekoälyteknologiaa taloudellisen hyödyn saamiseksi, yritykset, kuten teknologiayritykset, tekevät kovasti töitä löytääkseen tapoja hyödyntää tekniikkaa rikollisten kiinni saamiseksi.

Tässä on muutama esimerkki yrityksistä, jotka käyttävät tekoälyä taistellakseen tekoälyä vastaan:

Vuoden 2022 lopulla Intel lanseerasi tekoälypohjaisen työkalun nimeltä "FakeCatcher”. Intelin raportoiman 96 prosentin luotettavuusasteella se käyttää tekniikkaa, joka tunnetaan nimellä fotopletysmografia (PPG).

Tekniikka hyödyntää jotain, mitä ei ole keinotekoisesti luoduissa videoissa: verenkiertoa. Sen oikeisiin videoihin koulutettu syväoppimisalgoritmi mittaa valoa, joka imeytyy tai heijastuu verisuonista, jotka muuttavat väriä veren liikkuessa kehossa.

FakeCatcheria, joka on osa Intelin Responsible AI -aloitetta, kuvataan "maailman ensimmäiseksi reaaliaikaiseksi syvälle väärennöstunnistimeksi, joka palauttaa tulokset millisekunneissa". Se on innovatiivinen tekniikka, joka etsii merkkejä siitä, että videolla näkyvä henkilö on todella ihminen. Se etsii jotain "oikeaa" sen sijaan, että analysoidaan tietoja korostaakseen jotain "väärää". Näin se osoittaa väärennöksen todennäköisyyden.

Samaan aikaan Buffalon yliopiston (UB) tietotekniikan tutkijat ovat työstäneet omaa syväväärennösten havaitsemistekniikkaa. Se käyttää jotain, jonka innokkaat PC-pelaajat tietävät, että sen jäljitteleminen vaatii valtavaa prosessointitehoa: kevyttä.

UB väittää olevan 94 % tehokas väärennetyissä valokuvissa, ja tekoälytyökalu tutkii, kuinka valo heijastuu kohteen silmissä. Sarveiskalvon pinta toimii peilinä ja luo "heijastavia kuvioita".

Tiedemiesten tutkimus, jonka otsikko on "GAN-generoitujen kasvojen paljastaminen käyttämällä epäjohdonmukaisia ​​sarveiskalvon kohokohtia", osoittaa, että "GAN-syntetisoidut kasvot voidaan paljastaa epäjohdonmukaisilla sarveiskalvon heijastuksilla kahden silmän välillä".

Se viittaa siihen, että tekoälyjärjestelmien olisi "ei-triviaalia" jäljitellä aitoja kohokohtia. PC-pelaajat, jotka usein investoivat uusimpiin ray-tracing-näytönohjainkortteihin saadakseen realistisia valotehosteita, tunnistavat vaistomaisesti haasteet tässä.

Ehkä suurin petosten havaitsemisen haaste on loputon "kissa ja hiiri" -leikki huijareiden ja heidän estäessään työskentelevien välillä. On erittäin todennäköistä, että yllä olevien ilmoitusten jälkeen ihmiset työskentelevät jo sellaisten teknologioiden rakentamiseksi, jotka voivat ohittaa tällaiset tunnistusmekanismit.

On myös yksi asia, että tällaisia ​​mekanismeja on olemassa, mutta toinen asia on nähdä ne rutiininomaisesti integroituna yritysten käyttämiin ratkaisuihin. Aiemmin viittasimme tilastoon, jonka mukaan 90 % ratkaisuista voidaan "helposti huijata". On todennäköistä, että ainakin jotkut rahoituslaitokset käyttävät edelleen tällaisia ​​järjestelmiä.

Viisas petosten seuranta strategia edellyttää, että yritykset katsovat syvien väärennösten havaitsemista pidemmälle. Paljon voidaan tehdä ennen huijari pääsee tarpeeksi pitkälle järjestelmään osallistuakseen videopohjaiseen henkilöllisyystodistus- tai KYC-prosessiin. Varotoimet, jotka löytävät paikkansa aikaisemmin prosessissa, voivat sisältää myös tekoälyn ja koneoppimisen elementin.

Esimerkiksi koneoppimista voidaan käyttää sekä reaaliaikaiseen petosten seurantaan että sääntöjoukkojen luomiseen. Nämä voivat tarkastella historiallisia petostapahtumia ja havaita malleja, jotka ihmiset voivat helposti unohtaa. Suuren riskin katsotut tapahtumat voidaan hylätä suoraan tai siirtää manuaaliseen tarkasteluun ennen kuin ehtiikään vaihe, jossa voi olla henkilöllisyystarkastus – ja siten huijareille mahdollisuus hyödyntää deepfake-tekniikkaa.

Mitä aikaisemmin järjestelmä havaitsee kyberrikollisen, sitä parempi. On vähemmän mahdollisuuksia, että he voivat jatkaa rikosta, ja vähemmän yrityksellä on rahaa lisätarkastuksiin. Videopohjaiset henkilöllisyyden tarkistukset ovat kalliita, jopa ilman tekoälyteknologiaa syvällisten väärennösten havaitsemiseksi.

Jos huijarit voidaan tunnistaa ennen kuin he pääsevät niin pitkälle digitaalisen jalanjäljen kaltaisilla tekniikoilla, käytettävissä on enemmän resursseja rajatapausten tarkastuksen optimointiin.

Koneoppimisen luonteen pitäisi sanella, että ajan myötä se havaitsee paremmin poikkeavuuksia ja torjuu petoksia. Tekoälykäyttöiset järjestelmät voivat oppia uusista malleista ja mahdollisesti suodattaa vilpilliset tapahtumat prosessin varhaisessa vaiheessa.

Mitä tulee erityisesti syväväärennöksiin, yllä oleva esimerkki antaa erityisen syyn toivolle. Tutkijat ovat löytäneet tavan havaita suurin osa syväväärennöksistä valon heijastuksia käyttämällä. Tämänkaltainen kehitys on huomattava edistysaskel petosten ehkäisyssä ja huomattava tiesulku kyberrikollisille.

Teoriassa on paljon helpompaa käyttää tällaista tunnistustekniikkaa kuin huijareiden löytää keino kiertää se – toistamalla valon käyttäytyminen esimerkiksi nopeudella ja mittakaavassa. "Kissa ja hiiri" -peli näyttää todennäköisesti jatkuvan ikuisesti, mutta suurella tekniikalla ja suurella rahoituksella on resurssit ja syvät taskut - ainakin teoriassa - pysyä pienen askeleen edellä.
 
 
Jimmy Fong on SEONin CCO ja tuo syvällisen kokemuksensa petostentorjunnasta auttamaan petostiimejä kaikkialla.
 

Aikaleima:

Lisää aiheesta KDnuggets