Indvirkningen af ​​kunstig intelligens på cybersikkerhed - DATAVERSITET

Indvirkningen af ​​kunstig intelligens på cybersikkerhed – DATAVERSITET

Kildeknude: 2995031

Kunstig intelligens har trukket en masse opmærksomhed i medierne for alt fra at tage folks job til at sprede desinformation og krænke ophavsrettigheder, men AI's indvirkning på cybersikkerhed kan være det mest presserende øjeblikkelige problem.

AI's indvirkning på sikkerhedsteams er forudsigeligt dobbeltkantet. Når det anvendes korrekt, kan det være en kraftfuld kraftmultiplikator for cybersikkerhedsudøvere, gennem sådanne midler som at behandle enorme mængder data ved computerhastigheder, finde forbindelser mellem fjerne datapunkter, opdage mønstre, detektere angreb og forudsige angrebsforløb. Men som sikkerhedsudøvere er godt klar over, er AI ikke altid korrekt anvendt. Det intensiverer den allerede imponerende række af cybersikkerhedstrusler, fra identitetskompromis og phishing til ransomware og forsyningskædeangreb.

CISO'er og sikkerhedshold skal forstå både fordelene og risiciene ved AI, hvilket kræver en væsentlig rebalancering af færdigheder. Sikkerhedsingeniører skal for eksempel forstå det grundlæggende i maskinlæring, modelkvalitet og skævheder, tillidsniveauer og præstationsmålinger. Dataforskere behov for at lære grundlæggende cybersikkerhed, angrebsmønstre og risikomodellering for effektivt at bidrage til hybride teams.

AI-modeller har brug for ordentlig træning for at hjælpe cybersikkerhed

Opgaven med at håndtere spredningen af ​​AI-drevne trusler øger udfordringerne for CISO'er og allerede overbebyrdede sikkerhedsteams, som ikke kun skal beskæftige sig med nye sofistikerede phishing-kampagner lavet af en stor sprogmodel (LLM) kan lide ChatGPT, men er stadig nødt til at bekymre sig om en ikke-patchet server i DMZ, der kan udgøre en større trussel.

AI kan på den anden side spare teams for en masse tid og kræfter i risikovurdering og opdagelse af trusler. Det kan også hjælpe med respons - selvom det skal gøres omhyggeligt. En AI-model kan skulder-surfe analytikere for at lære, hvordan de triagerer hændelser, og derefter enten udføre disse opgaver alene eller prioritere sager til menneskelig gennemgang. Men hold skal være sikre på, at de rigtige mennesker giver AI-instruktionen.

For år siden kørte jeg for eksempel et eksperiment, hvor jeg fik 10 analytikere med varierende færdighedsniveauer til at gennemgå 100 tilfælde af formodet dataeksfiltrering. To senioranalytikere identificerede korrekt alle positive og negative resultater, tre mindre erfarne analytikere tog næsten alle sagerne forkert, og de resterende fem fik tilfældige resultater. Uanset hvor god en AI-model er, ville den være ubrugelig, hvis den blev trænet af et hold som det.

AI er som en kraftfuld bil: Den kan gøre underværker i hænderne på en erfaren chauffør eller meget skade i hænderne på en uerfaren. Det er et område, hvor manglen på færdigheder kan påvirke AI's cybersikkerhedspåvirkning.

Hvordan kan CTO'er vælge en AI-løsning?

I lyset af hypen om kunstig intelligens kan organisationer blive fristet til blot at skynde sig at tage teknologien i brug. Men ud over at træne AI korrekt, er der spørgsmål, CTO'er skal besvare, begyndende med egnethedsproblemer:

  • Passer AI ind i organisationens økosystem? Dette inkluderer platformen, eksterne komponenter såsom en database og søgemaskine, gratis og open source software og licenser, og også organisationens sikkerhed og certificeringer, backup og failover. 
  • Skalerer AI til virksomhedens størrelse?
  • Hvilke færdigheder kræves for, at sikkerhedsteamet kan vedligeholde og betjene AI?

CTO'er skal også adressere spørgsmål specifikt til en AI-løsning: 

  • Hvilke af de påståede funktioner i et specifikt kunstig intelligens-produkt stemmer overens med dine forretningsmål?
  • Kan den samme funktionalitet opnås med eksisterende værktøjer?
  • Registrerer løsningen rent faktisk trusler?

Det sidste spørgsmål kan være svært at besvare, fordi ondsindede cybersikkerhedsbegivenheder forekommer i en minimal skala sammenlignet med legitim aktivitet. I et begrænset proof-of-concept-studie, der bruger live-data, kan et kunstig intelligens-værktøj ikke finde noget, hvis intet er der. Leverandører bruger ofte syntetiske data eller Red Team-angreb til at demonstrere en AI's evne, men spørgsmålet er stadig, om det demonstrerer ægte detektionsevne eller blot validerer den antagelse, under hvilken indikatorerne blev genereret.

Det er svært at afgøre, hvorfor en AI tror, ​​at noget var et angreb, fordi AI-algoritmer i det væsentlige er sorte bokse, som stadig er ude af stand til at forklare, hvordan de nåede frem til en bestemt konklusion - som demonstreret af DARPA's Forklarlig AI (XAI) program.

Afbødning af risiciene ved AI

En AI-løsning er kun så god som de data, den arbejder med. For at sikre etisk adfærd bør AI-modeller trænes i etiske data, ikke på engrosindsamling af affald, der er på World Wide Web. Og enhver dataforsker ved, at det er en vanskelig, kedelig og uglamorøs opgave at producere et velafbalanceret, upartisk, rent datasæt til at træne en model. 

På grund af dette kan AI-modeller, herunder LLM'er, i sidste ende styres på en måde svarende til, hvordan de bedst tjener cybersikkerhed - som specialiserede modeller (i modsætning til "alvidende" generelle formål), der tjener bestemte områder og er trænet i data kurateret af fageksperter på området. 

At forsøge at censurere kunstig intelligens som reaktion på øjeblikkets medieopråb vil ikke løse problemet. Kun flittigt arbejde med at skabe pålidelige datasæt kan gøre det. Indtil AI-virksomheder – og de VC'er, der støtter dem – accepterer denne tilgang som den eneste måde at levere respektabelt indhold på, er det skrald ind/affald ud. 

Bør AI-udvikling være mere reguleret?

AI's udvikling har genereret en masse legitime bekymringer om alt fra deepfakes og stemmekloning til avanceret phishing/vishing/smishing, dræberrobotter og endda muligheden for en AI apokalypse. Eliezer Yudkowsky, et af de mest respekterede navne inden for Artificial General Intelligence (AGI), udsendte for nylig en opfordring til "lukke det hele ned,” sagde et foreslået seks måneders moratorium ikke var nok.

Men du kan ikke stoppe udviklingen af ​​nye teknologier, et faktum, der har været tydeligt siden alkymisternes dage i oldtiden. Så fra et praktisk synspunkt, hvad kan der gøres for at forhindre AI i at vokse ud af kontrol og for at mindske risikoen for en AI-drevet udryddelseshændelse? Svaret er mange af de samme sæt kontroller, der anvendes på andre områder, der har et potentiale for våben: 

  • Gennemsigtig forskning. Open-source AI-udvikling driver ikke kun innovation og demokratiserer adgang, men den har også mange sikkerhedsfordele, lige fra at opdage sikkerhedsfejl og farlige udviklingslinjer til at skabe forsvar mod potentielt misbrug. Big Tech støtter indtil videre open source-indsatser, men det kan ændre sig, hvis konkurrencen skærpes. Der kan være behov for lovgivningsmæssige foranstaltninger for at bevare open source-adgang.
  • Indeholder eksperimenter. Alle eksperimenter med tilstrækkeligt avanceret kunstig intelligens skal være sandboxed, med sikkerheds- og sikkerhedsprocedurer strengt håndhævet. Disse er ikke idiotsikre foranstaltninger, men kan gøre forskellen mellem en lokal forstyrrelse og en global katastrofe.
  • Dræb kontakter. Ligesom modgift og vacciner skal modforanstaltninger mod løbske eller destruktive AI-varianter være en integreret del af udviklingsprocessen. Selv ransomware-skabere indbygger en kill-switch. 
  • Reguler, hvordan det bruges. AI er en teknologi, der kan anvendes til gavn for menneskeheden eller misbruges med katastrofale konsekvenser. Regulering af dets applikationer er en opgave for verdens regeringer, og det haster meget højere end behovet for at censurere den næste version af ChatGPT. Det EU's AI-lov er et veloplagt, kortfattet fundament, der har til formål at forhindre misbrug uden at kvæle innovation. USA AI Bill of Rights og den seneste bekendtgørelse om kunstig intelligens er mindre specifikke og ser ud til at fokusere mere på politisk korrekthed end på spørgsmålene om korrekt modeludvikling, træning og indeslutning. Disse tiltag er dog kun en begyndelse. 

Konklusion

AI kommer til cybersikkerhed, uanset om CISO'er ønsker det eller ej, og det vil medføre både væsentlige fordele og risici for cybersikkerhedsområdet, især med den endelige ankomst af post-kvante kryptografi. CISO'er bør som minimum investere tid til at forstå fordelene ved AI-hypede værktøjer og truslerne fra AI-drevne angreb. Om de investerer penge i AI afhænger i høj grad af de håndgribelige fordele ved AI-sikkerhedsprodukter, de offentliggjorte konsekvenser af AI-angreb og til en vis grad deres personlige erfaring med ChatGPT. 

Udfordringen CISO'er står over for er, hvordan man implementerer AI effektivt og ansvarligt.

Tidsstempel:

Mere fra DATAVERSITET