Az AI hatása a kiberbiztonságra – DATAVERSITY

Az AI hatása a kiberbiztonságra – DATAVERSITY

Forrás csomópont: 2995031

A mesterséges intelligencia sok médiafigyelmet felhívott az emberek munkájának elfoglalásától a dezinformáció terjesztéséig és a szerzői jogok megsértéséig, de az AI kiberbiztonságra gyakorolt ​​hatása lehet a legsürgetőbb azonnali probléma.

Az AI hatása a biztonsági csapatokra előre láthatóan kétélű. Megfelelő alkalmazás esetén a kiberbiztonsággal foglalkozó szakemberek erőteljes erőtömeg-szorzója lehet, olyan eszközökön keresztül, mint például hatalmas adatmennyiség számítógépes sebességgel történő feldolgozása, távoli adatpontok közötti kapcsolatok keresése, minták felfedezése, támadások észlelése és támadások előrejelzése. De amint azt a biztonsági szakemberek jól tudják, az AI-t nem mindig alkalmazzák megfelelően. Felerősíti a már amúgy is impozáns kiberbiztonsági fenyegetések sorát, a személyazonosság-kompromittálástól és az adathalászattól a zsarolóvírusokig és az ellátási lánc támadásokig.

A CISO-knak és a biztonsági csapatoknak meg kell érteniük a mesterséges intelligencia előnyeit és kockázatait, ami a készségek jelentős egyensúlyba hozását igényli. A biztonsági mérnököknek például meg kell érteniük a gépi tanulás alapjait, a modellminőséget és a torzításokat, a megbízhatósági szinteket és a teljesítménymutatókat. Adattudósok meg kell tanulniuk a kiberbiztonság alapjait, a támadási mintákat és a kockázatmodellezést, hogy hatékonyan hozzájárulhassanak a hibrid csapatokhoz.

Az AI modelleknek megfelelő képzésre van szükségük a kiberbiztonság támogatásához

A mesterséges intelligencia által kiváltott fenyegetések elterjedésének kezelése megnehezíti a CISO-k és az amúgy is túlterhelt biztonsági csapatok előtt álló kihívásokat, akiknek nem csak az új, kifinomult adathalász kampányokkal kell megbirkózniuk. nagy nyelvi modell (LLM), mint a ChatGPT, de továbbra is aggódnia kell a DMZ-ben található javítatlan szerver miatt, amely nagyobb veszélyt jelenthet.

Az AI viszont sok időt és erőfeszítést takaríthat meg a csapatoknak a kockázatértékelés és a fenyegetések észlelése során. A válaszadásban is segíthet – bár ezt óvatosan kell megtenni. Egy mesterséges intelligencia-modell képes az elemzők vállára ugrálni, hogy megtanulják, hogyan kategorizálják az incidenseket, majd vagy önállóan hajtják végre ezeket a feladatokat, vagy az eseteket rangsorolják emberi felülvizsgálat céljából. De a csapatoknak biztosnak kell lenniük abban, hogy a megfelelő emberek adják a mesterséges intelligencia utasításait.

Évekkel ezelőtt például lefuttattam egy kísérletet, amelyben 10 különböző képzettségű elemzővel vizsgáltak meg 100 gyanús adatkiszűrési esetet. Két vezető elemző helyesen azonosította az összes pozitívumot és negatívumot, három kevésbé tapasztalt elemző szinte az összes esetet tévedett, a maradék öt pedig véletlenszerű eredményt kapott. Bármilyen jó is egy mesterséges intelligencia modell, hiábavaló lenne, ha egy ilyen csapat képezné ki.

A mesterséges intelligencia olyan, mint egy erős autó: csodákra képes egy tapasztalt vezető kezében, vagy sok kárt egy tapasztalatlan kezében. Ez az egyik olyan terület, ahol a készségek hiánya hatással lehet az AI kiberbiztonsági hatásaira.

Hogyan választhatnak a CTO-k AI-megoldást?

Tekintettel a mesterséges intelligenciával kapcsolatos felhajtásra, a szervezetek kísértésbe eshetnek, hogy egyszerűen sietve átvegyék a technológiát. A mesterséges intelligencia megfelelő képzése mellett azonban a műszaki igazgatóknak meg kell válaszolniuk kérdéseket, kezdve az alkalmassági problémákkal:

  • Az AI illeszkedik a szervezet ökoszisztémájába? Ez magában foglalja a platformot, a külső összetevőket, például az adatbázist és a keresőmotort, az ingyenes és nyílt forráskódú szoftvereket és licenceket, valamint a szervezet biztonságát és tanúsítványait, a biztonsági mentést és a feladatátvételt. 
  • A mesterséges intelligencia a vállalat méretéhez igazodik?
  • Milyen készségekre van szükség a biztonsági csapatnak az AI fenntartásához és működtetéséhez?

A technológiai igazgatóknak kifejezetten a mesterséges intelligencia megoldásához kapcsolódó kérdésekre is ki kell térniük: 

  • Egy adott AI-termék állítólagos funkciói közül melyik felel meg az Ön üzleti céljainak?
  • Elérhető-e ugyanaz a funkcionalitás meglévő eszközökkel?
  • A megoldás valóban észleli a fenyegetéseket?

Ez utóbbi kérdés megválaszolása nehéz lehet, mivel a rosszindulatú kiberbiztonsági események csekély mértékben fordulnak elő a legitim tevékenységhez képest. Az élő adatok felhasználásával végzett korlátozott elméleti bizonyítási tanulmányban előfordulhat, hogy egy AI-eszköz semmit sem észlel, ha nincs ott semmi. A szállítók gyakran szintetikus adatokat vagy Red Team támadásokat használnak egy mesterséges intelligencia képességének demonstrálására, de továbbra is kérdés, hogy valódi észlelési képességet demonstrál-e, vagy egyszerűen csak azt a feltételezést érvényesítik, amely alapján a mutatókat létrehozták.

Nehéz meghatározni, hogy egy mesterséges intelligencia miért gondolja, hogy valami támadás volt, mivel az AI-algoritmusok alapvetően fekete dobozok, mégsem képesek megmagyarázni, hogyan jutottak el egy bizonyos következtetésre – amint azt a DARPA kimutatta. Magyarázható AI (XAI) program.

Az AI kockázatainak csökkentése

Az AI-megoldás csak annyira jó, amennyire az adatokkal dolgozik. Az etikus magatartás biztosítása érdekében a mesterséges intelligencia modelleket etikai adatokra kell képezni, nem pedig a világhálón található nagykereskedelmi szemétgyűjtésre. És minden adatkutató tudja, hogy egy jól kiegyensúlyozott, elfogulatlan, tiszta adatkészlet létrehozása a modell betanításához nehéz, fárasztó és nem elbűvölő feladat. 

Emiatt az AI-modelleket, beleértve az LLM-eket, végül úgy lehet kezelni, mint ahogyan a legjobban szolgálják a kiberbiztonságot – speciális modellekként (szemben a „mindent tudó” általános célú modellekkel), amelyek bizonyos területeket szolgálnak ki, és erre képzettek. a téma szakértői által összeállított adatok. 

Nem oldja meg a problémát, ha megpróbáljuk cenzúrázni a mesterséges intelligenciát, válaszul a pillanatnyi médiafelháborodásra. Erre csak a megbízható adatkészletek létrehozásában végzett szorgalmas munka képes. Amíg az AI-cégek – és az őket támogató VC-k – el nem fogadják ezt a megközelítést, mint a tekintélyes tartalom szolgáltatásának egyetlen módját, addig szemét be/szemét. 

Jobban kellene szabályozni a mesterséges intelligencia fejlesztését?

Az AI fejlesztése rengeteget generált jogos aggodalmak mindenről a mélyhamisítástól és a hangklónozástól a fejlett adathalászat/vishing/smishing, gyilkos robotokig, sőt még egy AI apokalipszis. Eliezer Yudkowsky, a mesterséges intelligencia (AGI) egyik legelismertebb neve nemrég felhívást tett közzé, hogy „zárd le az egészet”, mondván, a javasolt hat hónapos moratórium nem elég.

De nem lehet megállítani az új technológiák fejlesztését, ez a tény az alkimisták kora óta nyilvánvaló. Gyakorlati szempontból tehát mit lehet tenni annak érdekében, hogy a mesterséges intelligencia ne nőjön ki az irányítás alól, és mérsékeljük a mesterséges intelligencia által vezérelt kihalási esemény kockázatát? A válasz sok ugyanazt a vezérlőkészletet tartalmazza, amelyeket más területeken is alkalmaznak, amelyek fegyverkezési lehetőséget rejtenek magukban: 

  • Átlátható kutatás. A nyílt forráskódú mesterséges intelligencia fejlesztése nemcsak az innovációt ösztönzi és demokratizálja a hozzáférést, hanem számos biztonsági előnnyel is rendelkezik, a biztonsági hibák és a veszélyes fejlesztési irányok feltárásától kezdve a lehetséges visszaélések elleni védekezésig. A Big Tech eddig támogatja a nyílt forráskódú erőfeszítéseket, de ez megváltozhat, ha a verseny fokozódik. Jogalkotási intézkedésekre lehet szükség a nyílt forráskódú hozzáférés megőrzése érdekében.
  • Tartalmazzon kísérletezést. Minden kellően fejlett mesterséges intelligencia kísérletet homokozóba kell helyezni, és szigorúan be kell tartani a biztonsági eljárásokat. Ezek nem bolondbiztos intézkedések, de különbséget tehetnek a helyi zavarok és a globális katasztrófa között.
  • Kill kapcsolók. Az ellenszerekhez és vakcinákhoz hasonlóan az elszabadult vagy pusztító mesterséges intelligencia-változatok elleni ellenintézkedéseknek is a fejlesztési folyamat szerves részét kell képezniük. Még a zsarolóvírus-készítők is beépítenek egy kill switchet. 
  • Szabályozza a használat módját. A mesterséges intelligencia egy olyan technológia, amelyet az emberiség javára lehet alkalmazni, vagy visszaélni katasztrofális következményekkel. Alkalmazásainak szabályozása a világ kormányainak feladata, és sokkal sürgősebb, mint a ChatGPT következő verziójának cenzúrázása. A EU AI törvény egy jól megfogalmazott, tömör alap, amelynek célja a visszaélések megakadályozása az innováció elfojtása nélkül. Az Egyesült Államok AI Bill of Rights és a közelmúltban az MI-ről szóló végrehajtói rendelet kevésbé specifikus, és úgy tűnik, hogy inkább a politikai korrektségre összpontosít, mint a megfelelő modellfejlesztés, képzés és elszigetelés kérdéseire. Ezek az intézkedések azonban csak a kezdetet jelentik. 

Következtetés

A mesterséges intelligencia a kiberbiztonság felé közeledik, akár akarják a CISO-k, akár nem, és jelentős előnyökkel és kockázatokkal jár majd a kiberbiztonság területén, különösen a posztkvantum kriptográfia. A CISO-knak legalább időt kell fordítaniuk arra, hogy megértsék a mesterséges intelligencia által felkapott eszközök előnyeit és a mesterséges intelligencia által vezérelt támadások veszélyeit. Az, hogy pénzt fektetnek-e be az AI-ba, nagymértékben függ a mesterséges intelligencia biztonsági termékek kézzelfogható előnyeitől, az AI-támadások nyilvánosságra hozott következményeitől és bizonyos mértékig a ChatGPT-vel kapcsolatos személyes tapasztalataiktól. 

A CISO-k előtt álló kihívás az AI hatékony és felelősségteljes megvalósítása.

Időbélyeg:

Még több ADATVERZITÁS