Balansakt: Värdet av mänsklig expertis i en ålder av generativ AI - DATAVERSITET

Balansering: Värdet av mänsklig expertis i en ålder av generativ AI – DATAVERSITET

Källnod: 3052574

Människor anses vara den svagaste länken i företaget när det kommer till säkerhet. Med rätta, som uppemot 95% av cybersäkerhetsincidenter orsakas av mänskliga fel. Människor är ombytliga, felbara och oförutsägbara, vilket gör dem till lätta mål för cyberbrottslingar som vill komma in i organisationers system.  

Detta gör vårt beroende av maskiner så mycket viktigare. Fram till denna punkt har vi kunnat lita på att maskiner fungerar med kod som sanning. Även om de kan äventyras genom sårbarheter i koden eller genom sociala brister hos deras mänskliga operatörer, möts problemen vanligtvis med en tydlig lösning. 

Men med uppkomsten av generativ AI (GenAI) och stora språkmodeller (LLMs), organisationer står nu inför sociala ingenjörsattacker som lurar AI:n att göra saker den inte var avsedd att göra. När vi laddar ner mer till AI kommer det att bli intressant att se dessa nya attackmönster spela ut.

Inför detta dilemma är det återigen upp till människor att navigera i detta komplexa och utvecklande AI-säkerhetslandskap. Detta uppmanar CISO:er att tydligt kommunicera fördelarna och bristerna med AI och att erkänna den långa listan av säkerhetsöverväganden som är knutna till AI-drivna produkter och kapacitet. 

Förhastad implementering av generativ AI ger nya cybersäkerhetsutmaningar

Till att börja med är ett vanligt problem när det kommer till GenAI och LLMs en bred övertro till AI-genererat innehåll. Att lita på AI-genererat innehåll utan att verifiera eller kontrollera för vilseledande eller desinformation utan mänsklig input eller tillsyn kan leda till spridning av felaktig data som informerar dåligt beslutsfattande och minskat kritiskt tänkande. LLM är kända för att hallucinera, så en del av desinformationen kanske inte ens härrör från illvilliga avsikter.

På samma sätt kommer mängden osäker kod som introduceras efter utvecklingen av GenAI också att bli en betydande utmaning för CISO:er, om inte proaktivt förutsett. AI-motorer är kända för att skriva buggy-kod med säkerhetsbrister. Utan rätt mänsklig tillsyn ger GenAI människor utan den rätta tekniska grunden för att skicka kod. Detta leder till ökad säkerhetsrisk under hela mjukvaruutvecklingens livscykel för organisationer som använder dessa verktyg på ett felaktigt sätt.

Dataläckage är ett annat utbrett problem. I vissa fall kan angripare använda snabbinjektion för att extrahera känslig information som AI-modellen har lärt sig från en annan användare. Många gånger kan detta vara ofarligt, men skadlig användning är verkligen inte utesluten. Dåliga aktörer kan avsiktligt undersöka AI-verktyget med noggrant utformade uppmaningar, i syfte att extrahera känslig information som verktyget har memorerat, vilket leder till läckage av känslig eller konfidentiell information.

AI kan öka vissa cybersäkerhetsluckor men har betydande potential att stänga andra

Slutligen är det underförstått att spridningen av GenAI och LLM kommer att regressera en del av vår industris minskning av attackytan av några anledningar. För det första sänker möjligheten att generera kod med GenAI ribban för vem som kan vara mjukvaruingenjör, vilket resulterar i svagare kod och ännu svagare säkerhetsstandarder. För det andra kräver GenAI stora mängder data, vilket innebär att omfattningen och effekten av dataintrång kommer att växa exponentiellt. För det tredje, som med all ny teknik, kanske utvecklare inte är helt medvetna om hur deras implementering kan utnyttjas eller missbrukas. 

Ändå är det viktigt att ha ett balanserat perspektiv. Även om Gen AI:s underlättande av kodgenerering kan väcka oro, ger det också positiva egenskaper till cybersäkerhetslandskapet. Till exempel kan den effektivt identifiera säkerhetssårbarheter som Cross-Site Scripting (XSS) eller SQL-injektion. Denna dubbla natur understryker vikten av en nyanserad förståelse. Istället för att se AI som enbart skadligt, betonar den det komplementära förhållandet mellan artificiell intelligens och mänskligt engagemang i cybersäkerhet. CISO:er måste förstå de associerade riskerna med GenAI och LLMs samtidigt som de utforskar mänskligt centrerade tillvägagångssätt för att implementera GenAI och stärka sina organisationer.

Människor plockar upp det AI lämnar efter sig

CISO:er har inte bara till uppgift att reda ut komplexiteten i GenAI. De måste bana väg framåt för sin organisation och visa för ledarskapet hur deras organisation kan fortsätta att frodas i en GenAI-dominerad värld. 

Även om slutanvändare ofta är ansvariga för många säkerhetsbrister, finns det inget bättre försvar mot cyberbrott än en välutbildad och säkerhetsinriktad människa. Oavsett vilka hotdetektionsverktyg en organisation har på plats, finns det helt enkelt ingen möjlighet att ersätta personen bakom skärmen när det kommer till att testa programvara. 

Organisationer kan överträffa cyberkriminella genom att använda kraften i etiskt hackande. Medan vissa är tveksamma till att bjuda in hackare till sitt nätverk på grund av föråldrade missuppfattningar, är dessa laglydiga cybersäkerhetsexperter den bästa matchen att ta emot dåliga skådespelare – eftersom de, till skillnad från AI, kan komma in i cyberanfallarnas huvuden.

Faktum är att hackare redan kompletterar automatiserade verktyg i kampen mot cyberbrottslingar, med 92% av etiska hackare säger att de kan hitta sårbarheter som skannrar inte kan. Genom att dra tillbaka slöjan för hackning för gott, kan företagsledare anamma etisk hacking och mänskligt stöd för att hitta en mer effektiv balans mellan AI och mänskliga experter i att bekämpa modern cyberbrottslighet. Vår senaste Hackerdriven säkerhetsrapport framhåller detta, där 91 % av våra kunder säger att hackare tillhandahåller mer effektfulla och värdefulla sårbarhetsrapporter än AI eller skanningslösningar. När AI fortsätter att forma vår framtid, kommer den etiska hackergemenskapen att fortsätta vara engagerad i att säkerställa dess säkra integration.

Kombinationen av automatisering med ett nätverk av mycket skickliga hackare innebär att företag kan lokalisera kritiska applikationsbrister innan de utnyttjas. När organisationer effektivt blandar automatiserade säkerhetsverktyg med etisk hackning, täpper de till luckor i den ständigt föränderliga digitala attackytan. 

Detta beror på att människor och AI kan arbeta tillsammans för att förbättra säkerhetsteamets produktivitet: 

  1. Attack ytspaning: Moderna organisationer kan utveckla en omfattande och komplex IT-infrastruktur som består av en mängd både auktoriserad och icke sanktionerad hårdvara och mjukvara. Att utveckla ett allomfattande index över IT-tillgångar som mjukvara och hårdvara är viktigt för att minska sårbarheter, effektivisera patchhantering och underlätta efterlevnaden av industrimandat. Det hjälper också att identifiera och analysera de punkter genom vilka en angripare kan rikta in sig på en organisation.
  2. Kontinuerliga bedömningar: Genom att gå bortom punkt-i-tid-säkerhet kan organisationer kombinera uppfinningsrikedomen hos experter på mänsklig säkerhet med insikter om attackytan i realtid för att uppnå kontinuerliga tester av det digitala landskapet. Kontinuerlig penetrationstestning gör det möjligt för IT-team att se resultaten av konstanta simuleringar som visar hur ett intrång skulle se ut i den nuvarande miljön och potentiella svaga punkter där teamen kan anpassa sig i realtid.
  3. Processförbättringar: Pålitliga mänskliga hackare kan ge säkerhetsteam värdefull information om sårbarheter och tillgångar för att underlätta processförbättringar.

Slutsats

Eftersom generativ AI fortsätter att utvecklas i så snabb takt måste CISO:er utnyttja sin förståelse för hur människor kan samarbeta för att förbättra AI-säkerheten och få stöd från sin styrelse och ledningsgrupp. Som ett resultat kan organisationer ha tillräcklig personal och resurser för att hantera dessa utmaningar effektivt. Att hitta rätt balans mellan snabb AI-implementering och omfattande säkerhet genom samarbete med etiska hackare stärker argumentet för att investera i lämpliga AI-drivna lösningar.

Tidsstämpel:

Mer från DATAVERSITET