Effekten av AI på cybersikkerhet - DATAVERSITET

Effekten av AI på cybersikkerhet – DATAVERSITET

Kilde node: 2995031

Kunstig intelligens har trukket mye oppmerksomhet i media for alt fra å ta folks jobber til å spre desinformasjon og krenke opphavsrettigheter, men AIs innvirkning på cybersikkerhet kan være det mest presserende umiddelbare problemet.

AIs innvirkning på sikkerhetsteam er forutsigbart tokantet. Når den brukes riktig, kan den være en kraftig kraftmultiplikator for cybersikkerhetsutøvere, gjennom midler som å behandle enorme mengder data ved datamaskinhastigheter, finne forbindelser mellom fjerne datapunkter, oppdage mønstre, oppdage angrep og forutsi angrepsprogresjon. Men som sikkerhetsutøvere er godt klar over, er AI ikke alltid riktig brukt. Det intensiverer det allerede imponerende utvalget av cybersikkerhetstrusler, fra identitetskompromittering og phishing til løsepengevare- og forsyningskjedeangrep.

CISOer og sikkerhetsteam må forstå både fordelene og risikoene ved AI, noe som krever en betydelig rebalansering av ferdigheter. Sikkerhetsingeniører, for eksempel, må forstå det grunnleggende om maskinlæring, modellkvalitet og skjevheter, konfidensnivåer og ytelsesmålinger. Data forskere trenger å lære grunnleggende cybersikkerhet, angrepsmønstre og risikomodellering for å effektivt bidra til hybride team.

AI-modeller trenger riktig opplæring for å hjelpe cybersikkerhet

Oppgaven med å håndtere spredningen av AI-drevne trusler forsterker utfordringene for CISOer og allerede overarbeidede sikkerhetsteam som ikke bare må håndtere nye sofistikerte phishing-kampanjer laget av en stor språkmodell (LLM) liker ChatGPT, men må fortsatt bekymre seg for en uopprettet server i DMZ som kan utgjøre en større trussel.

AI, på den annen side, kan spare team for mye tid og krefter i risikovurdering og oppdage trusler. Det kan også hjelpe med respons – selv om det må gjøres nøye. En AI-modell kan skulder-surfe analytikere for å lære hvordan de triagerer hendelser, og deretter enten utføre disse oppgavene på egen hånd eller prioritere saker for menneskelig vurdering. Men teamene må være sikre på at de riktige personene gir AI-instruksjonene.

For år siden kjørte jeg for eksempel et eksperiment der jeg fikk 10 analytikere med varierende ferdighetsnivå til å gjennomgå 100 tilfeller av mistenkt dataeksfiltrering. To senioranalytikere identifiserte alle positive og negative resultater korrekt, tre mindre erfarne analytikere tok nesten alle sakene feil, og de resterende fem fikk tilfeldige resultater. Uansett hvor god en AI-modell er, ville den vært ubrukelig om den ble trent av et slikt lag.

AI er som en kraftig bil: Den kan gjøre underverker i hendene på en erfaren sjåfør eller mye skade i hendene på en uerfaren. Det er et område hvor mangel på ferdigheter kan påvirke AIs cybersikkerhetspåvirkning.

Hvordan kan CTOer velge en AI-løsning?

Gitt hypen om AI, kan organisasjoner bli fristet til å skynde seg å ta i bruk teknologien. Men i tillegg til å trene AI på riktig måte, er det spørsmål CTOer må svare på, og starter med egnethetsproblemer:

  • Passer AI inn i organisasjonens økosystem? Dette inkluderer plattformen, eksterne komponenter som en database og søkemotor, gratis og åpen kildekode programvare og lisensiering, og også organisasjonens sikkerhet og sertifiseringer, backup og failover. 
  • Skalerer AI til størrelsen på bedriften?
  • Hvilke ferdigheter kreves for at sikkerhetsteamet skal vedlikeholde og drifte AI?

CTOer må også ta opp spørsmål spesifikt for en AI-løsning: 

  • Hvilke av de påståtte funksjonene til et spesifikt AI-produkt stemmer overens med forretningsmålene dine?
  • Kan samme funksjonalitet oppnås ved bruk av eksisterende verktøy?
  • Oppdager løsningen faktisk trusler?

Det siste spørsmålet kan være vanskelig å svare på fordi ondsinnede cybersikkerhetshendelser forekommer i en minimal skala sammenlignet med legitim aktivitet. I en begrenset proof-of-concept-studie som bruker live data, kan et AI-verktøy ikke oppdage noe hvis ingenting er der. Leverandører bruker ofte syntetiske data eller Red Team-angrep for å demonstrere en AIs evne, men spørsmålet gjenstår om det demonstrerer ekte deteksjonsevne eller bare validerer forutsetningen som indikatorene ble generert under.

Det er vanskelig å avgjøre hvorfor en AI tror at noe var et angrep, fordi AI-algoritmer i hovedsak er svarte bokser, som fortsatt ikke kan forklare hvordan de kom til en bestemt konklusjon – som demonstrert av DARPAs Forklarbar AI (XAI) program.

Redusere risikoen ved AI

En AI-løsning er bare så god som dataene den jobber med. For å sikre etisk oppførsel, bør AI-modeller trenes på etiske data, ikke på engrosinnsamling av søppel som er på World Wide Web. Og enhver dataforsker vet at det å produsere et velbalansert, objektivt, rent datasett for å trene en modell er en vanskelig, kjedelig og uglamorøs oppgave. 

På grunn av dette kan AI-modeller, inkludert LLM-er, etter hvert administreres på en måte som ligner på hvordan de best ville tjene cybersikkerhet - som spesialiserte modeller (i motsetning til "allvitende" generelle formål) som tjener bestemte felt og er trent på data kuratert av fageksperter på området. 

Å prøve å sensurere AI som svar på medieopprøret for øyeblikket vil ikke løse problemet. Bare flittig arbeid med å lage pålitelige datasett kan gjøre det. Inntil AI-selskaper – og VC-ene som støtter dem – aksepterer denne tilnærmingen som den eneste måten å levere respektabelt innhold på, er det søppel inn/søppel ut. 

Bør AI-utvikling være mer regulert?

AIs utvikling har generert mye legitime bekymringer om alt fra deepfakes og stemmekloning til avansert phishing/vishing/smishing, morderroboter og til og med muligheten for en AI-apokalypse. Eliezer Yudkowsky, et av de mest respekterte navnene innen Artificial General Intelligence (AGI), sendte nylig ut en oppfordring til "slå av alt,” sa at et foreslått seks måneders moratorium ikke var nok.

Men du kan ikke stoppe utviklingen av nye teknologier, et faktum som har vært tydelig siden alkymistenes dager i antikken. Så fra et praktisk synspunkt, hva kan gjøres for å forhindre at AI vokser ut av kontroll og for å redusere risikoen for en AI-drevet utryddelseshendelse? Svaret er mange av de samme settene med kontroller som brukes på andre felt som har et potensial for våpen: 

  • Transparent forskning. Åpen kildekode AI-utvikling driver ikke bare innovasjon og demokratiserer tilgang, men den har også mange sikkerhetsfordeler, fra å oppdage sikkerhetsfeil og farlige utviklingslinjer til å skape forsvar mot potensielt misbruk. Big Tech støtter så langt åpen kildekode-innsats, men det kan endre seg hvis konkurransen øker. Det kan være behov for lovgivningstiltak for å beholde åpen kildekode-tilgang.
  • Inneholder eksperimentering. Alle eksperimenter med tilstrekkelig avansert AI må være i sandkasse, med sikkerhets- og sikkerhetsprosedyrer strengt håndhevet. Dette er ikke idiotsikre tiltak, men kan utgjøre forskjellen mellom en lokal forstyrrelse og en global katastrofe.
  • Slå av brytere. Som motgift og vaksiner, må mottiltak mot løpske eller destruktive AI-varianter være en integrert del av utviklingsprosessen. Selv løsepengevareskapere bygger inn en kill-switch. 
  • Reguler hvordan den brukes. AI er en teknologi som kan brukes til menneskehetens beste eller misbrukes med katastrofale konsekvenser. Regulering av applikasjonene er en oppgave for verdens myndigheter, og det haster mye høyere enn behovet for å sensurere neste versjon av ChatGPT. De EUs AI-lov er et velformulert, kortfattet grunnlag som tar sikte på å forhindre misbruk uten å kvele innovasjon. USA AI Bill of Rights og den nylige Executive Order om AI er mindre spesifikke og ser ut til å fokusere mer på politisk korrekthet enn på spørsmål om riktig modellutvikling, opplæring og inneslutning. Disse tiltakene er imidlertid bare en start. 

konklusjonen

AI kommer til cybersikkerhet enten CISOer vil det eller ikke, og det vil gi både betydelige fordeler og risikoer for cybersikkerhetsfeltet, spesielt med den eventuelle ankomsten av post-kvante kryptografi. CISOer bør som et minimum investere tid for å forstå fordelene med AI-hypede verktøy og truslene ved AI-drevne angrep. Hvorvidt de investerer penger i AI avhenger i stor grad av de konkrete fordelene med AI-sikkerhetsprodukter, de publiserte konsekvensene av AI-angrep og til en viss grad deres personlige erfaring med ChatGPT. 

Utfordringen CISOer står overfor er hvordan implementere AI effektivt og ansvarlig.

Tidstempel:

Mer fra DATAVERSITET