Kiegyensúlyozó törvény: Az emberi szakértelem értéke a generatív mesterséges intelligencia korában – DATAVERSITY

Balancing Act: Az emberi szakértelem értéke a generatív mesterséges intelligencia korában – DATAVERSITY

Forrás csomópont: 3052574

Az embereket tekintik a vállalat leggyengébb láncszemének, ha a biztonságról van szó. Jogosan, mint 95% felett A kiberbiztonsági incidensek többségét emberi mulasztás okozza. Az emberek ingatagok, esendőek és kiszámíthatatlanok, így könnyű célpontokká válnak a kiberbűnözők számára, akik be akarnak jutni a szervezetek rendszereibe.  

Ez sokkal fontosabbá teszi a gépekre való támaszkodásunkat. Eddig a pontig bízhattunk abban, hogy a gépek kóddal működnek, mint az igazság. Annak ellenére, hogy a kód sérülékenysége vagy emberi üzemeltetőik társadalmi hibái révén veszélybe kerülhetnek, a problémákat általában egyértelmű megoldással kezelik. 

Azonban az emelkedésével generatív AI (GenAI) és nagy nyelvi modellek (LLM) szerint a szervezetek most olyan social engineering támadásokkal szembesülnek, amelyek ráveszik az AI-t, hogy olyan dolgokat tegyen, amelyekre nem volt szándékos. Ahogy egyre többet rakunk le a mesterséges intelligencia számára, érdekes lesz látni ezeket az új támadási mintákat.

Ezzel a dilemmával szemben ismét az embereken múlik, hogy eligazodjanak ezen az összetett és fejlődő mesterséges intelligencia biztonsági környezetben. Ez arra szólítja fel a CISO-kat, hogy egyértelműen kommunikálják az AI előnyeit és hiányosságait, és ismerjék el a mesterséges intelligencia által hajtott termékekhez és képességekhez kapcsolódó biztonsági megfontolások hosszú listáját. 

A generatív mesterséges intelligencia rohanó bevezetése új kiberbiztonsági kihívásokat jelent

Először is, a GenAI és az LLM-ek általános problémája a mesterséges intelligencia által generált tartalomra való túlzott támaszkodás. A mesterséges intelligencia által generált tartalomban való bizalom a félrevezető vagy félretájékoztatás ellenőrzése vagy ellenőrzése nélkül, emberi beavatkozás vagy felügyelet nélkül, hibás adatok terjedéséhez vezethet, amelyek rossz döntéshozatalt és csökkent kritikus gondolkodást eredményeznek. Az LLM-ekről ismert, hogy hallucinálnak, így a félretájékoztatás egy része nem is rosszindulatú szándékból származik.

Ugyanebben a szellemben a GenAI fejlődését követően bevezetett nem biztonságos kódok mennyisége is jelentős kihívást jelent majd a CISO-k számára, ha nem előre látják. Az AI-motorok köztudottan hibás kódokat írnak biztonsági résekkel. Megfelelő emberi felügyelet nélkül a GenAI felhatalmazza a megfelelő műszaki alapok nélküli embereket a kód szállítására. Ez megnövekedett biztonsági kockázathoz vezet a szoftverfejlesztési életciklus során azon szervezetek számára, amelyek nem megfelelően használják ezeket az eszközöket.

Az adatszivárgás egy másik gyakori probléma. Egyes esetekben a támadók azonnali befecskendezéssel kinyerhetik az érzékeny információkat, amelyeket az AI-modell egy másik felhasználótól tanult meg. Sokszor ez ártalmatlan lehet, de a rosszindulatú felhasználás biztosan nincs kizárva. A rossz szereplők szándékosan megvizsgálhatják az AI-eszközt aprólékosan kidolgozott utasításokkal, amelyek célja az eszköz által megjegyzett érzékeny információk kinyerése, ami érzékeny vagy bizalmas információk kiszivárgásához vezethet.

A mesterséges intelligencia növelheti a kiberbiztonsági hiányosságokat, de jelentős potenciállal zárhat másokat

Végül nyilvánvaló, hogy a GenAI és az LLM-ek terjedése néhány okból visszafogja iparágunk támadási felületének csökkentését. Először is, a GenAI-val kódgenerálás képessége lejjebb engedi annak a lécet, hogy ki lehet szoftvermérnök, ami gyengébb kódot és még gyengébb biztonsági szabványokat eredményez. Másodszor, a GenAI hatalmas mennyiségű adatot igényel, ami azt jelenti, hogy az adatszivárgások mértéke és hatása exponenciálisan nő. Harmadszor, mint minden feltörekvő technológia esetében, előfordulhat, hogy a fejlesztők nincsenek teljesen tisztában azzal, hogy ezek megvalósítását hogyan lehet kihasználni vagy visszaélni. 

Mindazonáltal elengedhetetlen a kiegyensúlyozott perspektíva elfogadása. Míg a Gen AI megkönnyíti a kódgenerálást, aggodalomra ad okot, ugyanakkor pozitív tulajdonságokat is hoz a kiberbiztonsági környezetbe. Például hatékonyan képes azonosítani a biztonsági réseket, mint például a Cross-Site Scripting (XSS) vagy az SQL injekció. Ez a kettős természet hangsúlyozza az árnyalt megértés fontosságát. Ahelyett, hogy az AI-t kizárólag károsnak tekintené, hangsúlyozza a mesterséges intelligencia és az emberi kiberbiztonságban való részvétel közötti kiegészítő kapcsolatot. A CISO-knak fel kell ismerniük a GenAI és az LLM-ek kapcsolódó kockázatait, miközben egyidejűleg emberközpontú megközelítéseket kell vizsgálniuk a GenAI megvalósítására és szervezeteik megerősítésére.

Az emberek felveszik, amit a mesterséges intelligencia hagy maga után

A CISO-k feladata nem csupán a GenAI bonyolultságának feltárása. Nekik kell utat nyitniuk szervezetük számára, és be kell mutatniuk a vezetőknek, hogyan tud szervezetük továbbra is boldogulni a GenAI által uralt világban. 

Míg a végfelhasználók gyakran felelősek számos biztonsági résért, nincs jobb védekezés a számítógépes bűnözés ellen, mint egy jól képzett és biztonsággal foglalkozó ember. Nem számít, milyen fenyegetésészlelési eszközöket alkalmaz egy szervezet, a szoftvertesztelés során egyszerűen nem lehet lecserélni a képernyő mögött álló személyt. 

A szervezetek a hatalmat használva felülmúlhatják a kiberbűnözőket etikus hackelés. Míg néhányan tétováznak, hogy hackereket hívjanak be a hálózatukba az elavult tévhitek miatt, ezek a törvénytisztelő kiberbiztonsági szakértők a legmegfelelőbbek a rossz szereplők leküzdésére – mert az AI-val ellentétben ők bejuthatnak a kibertámadók fejébe.

Valójában a hackerek már most kiegészítik az automatizált eszközöket a kiberbűnözők elleni küzdelemben 92% -a etikus hackerek mondván, hogy találhatnak olyan sebezhetőségeket, amelyeket a szkennerek nem. Azáltal, hogy végleg lerántják a leplet a hackelésről, az üzleti vezetők felkarolhatják az etikus hackelést és az emberi támogatást, hogy hatékonyabb egyensúlyt teremtsenek a mesterséges intelligencia és a humán szakértők között a modern kiberbűnözés elleni küzdelemben. A legutóbbi Hacker által vezérelt biztonsági jelentés rávilágít erre, ügyfeleink 91%-a szerint a hackerek hatásosabb és értékesebb sebezhetőségi jelentéseket készítenek, mint az AI vagy a szkennelési megoldások. Ahogy a mesterséges intelligencia továbbra is alakítja jövőnket, az etikus hackerközösség elkötelezett marad a biztonságos integráció biztosítása mellett.

Az automatizálás és a magasan képzett hackerek hálózatának kombinációja azt jelenti, hogy a vállalatok még azelőtt azonosíthatják a kritikus alkalmazási hibákat, mielőtt azokat kihasználnák. Amikor a szervezetek hatékonyan ötvözik az automatizált biztonsági eszközöket az etikus hackeléssel, bezárják a hiányosságokat a folyamatosan fejlődő digitális támadási felületen. 

Ennek az az oka, hogy az emberek és a mesterséges intelligencia együtt tudnak működni a biztonsági csapat termelékenységének javítása érdekében: 

  1. Támadási felszíni felderítés: A modern szervezetek kiterjedt és összetett informatikai infrastruktúrát fejleszthetnek ki, amely számos engedélyezett és nem engedélyezett hardvert és szoftvert tartalmaz. Az IT-eszközök, például szoftverek és hardverek mindenre kiterjedő indexének kidolgozása fontos a sebezhetőségek csökkentése, a javítások kezelésének egyszerűsítése és az iparági megbízások teljesítésének elősegítése érdekében. Segít azonosítani és elemezni azokat a pontokat is, amelyeken keresztül a támadó célba vehet egy szervezetet.
  2. Folyamatos értékelések: A pont-időbeli biztonságon túl a szervezetek a humánbiztonsági szakértők találékonyságát a valós idejű támadási felületi betekintésekkel kombinálhatják a digitális környezet folyamatos tesztelése érdekében. A folyamatos behatolási tesztelés lehetővé teszi az informatikai csapatok számára, hogy megtekintsék az állandó szimulációk eredményeit, amelyek megmutatják, hogyan nézne ki a jogsértés a jelenlegi környezetben, és olyan lehetséges gyenge pontokat, amelyekhez a csapatok valós időben alkalmazkodhatnak.
  3. Folyamatfejlesztések: A megbízható emberi hackerek értékes információkat adhatnak át a biztonsági csapatoknak a sebezhetőségekről és az eszközökről, hogy elősegítsék a folyamatfejlesztést.

Következtetés

Mivel a generatív mesterséges intelligencia továbbra is ilyen gyors ütemben fejlődik, a CISO-knak ki kell használniuk tudásukat arról, hogy az emberek hogyan tudnak együttműködni, hogy fokozzák az AI biztonságát, és támogatást szerezzenek igazgatótanácsuktól és vezetői csapatuktól. Ennek eredményeként a szervezetek megfelelő személyzettel és erőforrásokkal rendelkezhetnek ahhoz, hogy hatékonyan kezeljék ezeket a kihívásokat. A megfelelő egyensúly megtalálása a gyors mesterségesintelligencia-megvalósítás és az átfogó biztonság között az etikus hackerekkel való együttműködés révén, megerősíti a megfelelő AI-alapú megoldásokba való befektetés melletti érvet.

Időbélyeg:

Még több ADATVERZITÁS