The Impact of AI on Cybersecurity - DATAVERSITY

Effekten av AI på cybersäkerhet – DATAVERSITET

Källnod: 2995031

Artificiell intelligens har dragit mycket uppmärksamhet i media för allt från att ta människors jobb till att sprida desinformation och göra intrång i upphovsrätt, men AI:s inverkan på cybersäkerhet kan vara den mest akuta frågan.

AI:s inverkan på säkerhetsteam är förutsägbart dubbelsidig. När den tillämpas på rätt sätt kan den vara en kraftfull kraftmultiplikator för cybersäkerhetsutövare, genom sådana metoder som att bearbeta stora mängder data i datorhastigheter, hitta kopplingar mellan avlägsna datapunkter, upptäcka mönster, upptäcka attacker och förutsäga attackförlopp. Men som säkerhetsutövare är väl medvetna om är AI inte alltid korrekt tillämpad. Det intensifierar det redan imponerande utbudet av cybersäkerhetshot, från identitetskompromisser och nätfiske till ransomware och attacker i leveranskedjan.

CISO:er och säkerhetsteam måste förstå både fördelarna och riskerna med AI, vilket kräver en betydande ombalansering av kompetens. Säkerhetsingenjörer måste till exempel förstå grunderna i maskininlärning, modellkvalitet och fördomar, konfidensnivåer och prestandamått. Datavetare behöver lära sig grundläggande cybersäkerhet, attackmönster och riskmodellering för att effektivt bidra till hybridteam.

AI-modeller behöver rätt utbildning för att underlätta cybersäkerhet

Uppgiften att hantera spridningen av AI-drivna hot förvärrar utmaningarna för CISO:er och redan överarbetade säkerhetsteam som inte bara måste ta itu med nya sofistikerade nätfiskekampanjer skapade av en stor språkmodell (LLM) gillar ChatGPT, men måste fortfarande oroa sig för en oparpad server i DMZ som kan utgöra ett större hot.

AI, å andra sidan, kan spara team mycket tid och ansträngning vid riskbedömning och upptäckt av hot. Det kan också hjälpa till med svar – även om det måste göras försiktigt. En AI-modell kan axelsurfa analytiker för att lära sig hur de triagerar incidenter och sedan antingen utföra dessa uppgifter på egen hand eller prioritera fall för mänsklig granskning. Men team måste vara säkra på att rätt personer ger AI-instruktionerna.

För år sedan körde jag till exempel ett experiment där jag lät 10 analytiker med olika kompetensnivå granska 100 fall av misstänkt dataexfiltrering. Två senioranalytiker identifierade korrekt alla positiva och negativa, tre mindre erfarna analytiker fick nästan alla fall fel, och de återstående fem fick slumpmässiga resultat. Oavsett hur bra en AI-modell är, skulle den vara värdelös om den tränades av ett sånt lag.

AI är som en kraftfull bil: Den kan göra underverk i händerna på en erfaren förare eller mycket skada i händerna på en oerfaren. Det är ett område där kompetensbristen kan påverka AI:s cybersäkerhetseffekt.

Hur kan CTO:er välja en AI-lösning?

Med tanke på hypen om AI kan organisationer frestas att helt enkelt skynda på att ta till sig tekniken. Men förutom att träna AI på rätt sätt, finns det frågor som CTO:er måste svara på, med början med lämplighetsfrågor:

  • Passar AI in i organisationens ekosystem? Detta inkluderar plattformen, externa komponenter som en databas och sökmotor, gratis och öppen källkod och licensiering, och även organisationens säkerhet och certifieringar, backup och failover. 
  • Skalar AI till företagets storlek?
  • Vilka färdigheter krävs för att säkerhetsteamet ska kunna underhålla och driva AI?

CTO:er måste också ta upp frågor specifikt för en AI-lösning: 

  • Vilka av de påstådda funktionerna hos en specifik AI-produkt stämmer överens med dina affärsmål?
  • Kan samma funktionalitet uppnås med befintliga verktyg?
  • Upptäcker lösningen verkligen hot?

Den sista frågan kan vara svår att svara på eftersom skadliga cybersäkerhetshändelser inträffar i en minimal skala jämfört med legitim aktivitet. I en begränsad proof-of-concept-studie med livedata kan ett AI-verktyg inte upptäcka någonting om ingenting finns där. Leverantörer använder ofta syntetiska data eller Red Team-attacker för att demonstrera en AI:s förmåga, men frågan kvarstår om det är att demonstrera sann detekteringsförmåga eller helt enkelt validera antagandet under vilket indikatorerna genererades.

Det är svårt att avgöra varför en AI tror att något var en attack eftersom AI-algoritmer i huvudsak är svarta lådor, men de kan fortfarande inte förklara hur de nådde en viss slutsats – vilket visas av DARPA:s Förklarlig AI (XAI) programmet.

Minska riskerna med AI

En AI-lösning är bara så bra som den data den arbetar med. För att säkerställa etiskt beteende bör AI-modeller tränas på etisk data, inte på grossistinsamling av sopor som finns på World Wide Web. Och vilken datavetare som helst vet att det är en svår, tråkig och oglamorös uppgift att producera en välbalanserad, opartisk, ren datauppsättning för att träna en modell. 

På grund av detta kan AI-modeller, inklusive LLM:er, så småningom hanteras på ett sätt som liknar hur de bäst skulle tjäna cybersäkerhet – som specialiserade modeller (i motsats till "allvetande" modeller för allmänna ändamål) som tjänar särskilda områden och är utbildade på data kurerade av ämnesexperter på området. 

Att försöka censurera AI som svar på ögonblickets medieskrik kommer inte att lösa problemet. Endast idogt arbete med att skapa tillförlitliga datauppsättningar kan göra det. Tills AI-företag – och VCs som stödjer dem – accepterar detta tillvägagångssätt som det enda sättet att leverera respektabelt innehåll, är det skräp in/skräp ut. 

Bör AI-utveckling vara mer reglerad?

AI:s utveckling har genererat mycket legitima problem om allt från deepfakes och röstkloning till avancerad phishing/vishing/smishing, mördarrobotar och till och med möjligheten till en AI-apokalyps. Eliezer Yudkowsky, ett av de mest respekterade namnen inom artificiell allmän intelligens (AGI), utfärdade nyligen en uppmaning till "stäng av allt”, att säga att ett föreslaget moratorium på sex månader inte var tillräckligt.

Men du kan inte stoppa utvecklingen av ny teknik, ett faktum som har varit uppenbart sedan alkemisternas dagar i antiken. Så, från en praktisk synvinkel, vad kan göras för att hindra AI från att växa utom kontroll och för att minska risken för en AI-driven utrotningshändelse? Svaret är många av samma uppsättningar kontroller som används inom andra områden som har en potential för vapenisering: 

  • Transparent forskning. AI-utveckling med öppen källkod driver inte bara innovation och demokratiserar åtkomst, utan den har också många säkerhetsfördelar, från att upptäcka säkerhetsbrister och farliga utvecklingslinjer till att skapa försvar mot potentiellt missbruk. Big Tech stöder hittills öppen källkod, men det kan förändras om konkurrensen hårdnar. Det kan finnas behov av lagstiftningsåtgärder för att behålla öppen källkod.
  • Innehålla experiment. Alla experiment med tillräckligt avancerad AI måste vara sandlåda, med säkerhets- och säkerhetsprocedurer strikt upprätthållna. Dessa är inte idiotsäkra åtgärder men kan göra skillnaden mellan en lokal störning och en global katastrof.
  • Kill switchar. Liksom motgift och vacciner måste motåtgärder mot skenande eller destruktiva AI-varianter vara en integrerad del av utvecklingsprocessen. Även skapare av ransomware bygger in en kill switch. 
  • Reglera hur det används. AI är en teknik som kan användas för mänsklighetens bästa eller missbrukas med katastrofala konsekvenser. Reglering av dess applikationer är en uppgift för världens regeringar, och brådskan är mycket högre än behovet av att censurera nästa version av ChatGPT. De EU:s AI-lag är en vällagd, kortfattad grund som syftar till att förhindra missbruk utan att kväva innovation. USA AI Bill of Rights och den senaste Executive Order om AI är mindre specifika och verkar fokusera mer på politisk korrekthet än på frågorna om korrekt modellutveckling, utbildning och inneslutning. Dessa åtgärder är dock bara en början. 

Slutsats

AI kommer till cybersäkerhet oavsett om CISO:er vill det eller inte, och det kommer att medföra både betydande fördelar och risker för cybersäkerhetsområdet, särskilt med den slutliga ankomsten av post-kvantkryptografi. CISO:er bör åtminstone investera tid för att förstå fördelarna med AI-hypade verktyg och hoten med AI-drivna attacker. Huruvida de investerar pengar i AI beror till stor del på de påtagliga fördelarna med AI-säkerhetsprodukter, de publicerade konsekvenserna av AI-attacker och, till en viss grad, deras personliga erfarenhet av ChatGPT. 

Utmaningen som CISO står inför är hur man implementerar AI effektivt och ansvarsfullt.

Tidsstämpel:

Mer från DATAVERSITET