Balance Act: Værdien af ​​menneskelig ekspertise i en alder af generativ AI - DATAVERSITET

Balance Act: Værdien af ​​menneskelig ekspertise i en alder af generativ AI – DATAVERSITET

Kildeknude: 3052574

Mennesker betragtes som det svageste led i virksomheden, når det kommer til sikkerhed. Med rette, som op mod 95 % af cybersikkerhedshændelser er forårsaget af menneskelige fejl. Mennesker er omskiftelige, fejlbarlige og uforudsigelige, hvilket gør dem til lette mål for cyberkriminelle, der ønsker at få adgang til organisationers systemer.  

Dette gør vores afhængighed af maskiner så meget vigtigere. Indtil dette tidspunkt har vi været i stand til at stole på, at maskiner fungerer med kode som sandheden. Selvom de kan blive kompromitteret gennem sårbarheder i koden eller gennem de sociale fejl hos deres menneskelige operatører, bliver problemerne normalt mødt med en klar løsning. 

Men med fremkomsten af generativ AI (GenAI) og store sprogmodeller (LLM'er), organisationer står nu over for sociale ingeniørangreb, der narrer AI'en til at gøre ting, den ikke var beregnet til. Efterhånden som vi overfører mere til AI, vil det være interessant at se disse nye angrebsmønstre udspille sig.

I lyset af dette dilemma er det igen op til mennesker at navigere i dette komplekse og udviklende AI-sikkerhedslandskab. Dette opfordrer CISO'er til klart at kommunikere fordelene såvel som manglerne ved AI og at anerkende den lange liste af sikkerhedsovervejelser knyttet til AI-drevne produkter og muligheder. 

Forhastet implementering af generativ AI bringer nye cybersikkerhedsudfordringer

Til at begynde med er et almindeligt problem, når det kommer til GenAI og LLM'er, en bred overdreven afhængighed af AI-genereret indhold. At stole på AI-genereret indhold uden at verificere eller kontrollere for vildledende eller misinformation uden menneskeligt input eller tilsyn kan føre til udbredelse af fejlagtige data, der informerer om dårlig beslutningstagning og reduceret kritisk tænkning. LLM'er er kendt for at hallucinere, så noget af desinformationen skyldes muligvis ikke engang ondsindede hensigter.

På samme måde vil mængden af ​​usikker kode, der introduceres efter udviklingen af ​​GenAI, også blive en væsentlig udfordring for CISO'er, hvis det ikke forventes proaktivt. AI-motorer er kendt for at skrive buggy-kode med sikkerhedssårbarheder. Uden det rette menneskelige tilsyn bemyndiger GenAI mennesker uden det rette tekniske grundlag til at sende kode. Dette fører til øget sikkerhedsrisiko gennem hele softwareudviklingens livscyklus for organisationer, der bruger disse værktøjer forkert.

Datalækage er et andet udbredt problem. I nogle tilfælde kan angribere bruge prompt-injektion til at udtrække følsomme oplysninger, som AI-modellen har lært af en anden bruger. Mange gange kan dette være harmløst, men ondsindet brug er bestemt ikke udelukket. Dårlige aktører kunne med vilje undersøge AI-værktøjet med omhyggeligt udformede prompter med det formål at udtrække følsom information, som værktøjet har husket, hvilket fører til læk af følsomme eller fortrolige oplysninger.

AI kan øge nogle cybersikkerhedshuller, men har et betydeligt potentiale til at lukke andre

Endelig er det underforstået, at udbredelsen af ​​GenAI og LLM'er vil regressere noget af vores industris angrebsoverfladereduktion af et par årsager. For det første sænker evnen til at generere kode med GenAI barren for, hvem der kan være softwareingeniør, hvilket resulterer i svagere kode og endnu svagere sikkerhedsstandarder. For det andet kræver GenAI enorme mængder data, hvilket betyder, at omfanget og virkningen af ​​databrud vil vokse eksponentielt. For det tredje, som med enhver ny teknologi, er udviklere muligvis ikke fuldt ud klar over, hvordan deres implementering kan udnyttes eller misbruges. 

Ikke desto mindre er det vigtigt at anlægge et afbalanceret perspektiv. Selvom Gen AI's facilitering af kodegenerering kan give anledning til bekymring, bringer det også positive egenskaber til cybersikkerhedslandskabet. For eksempel kan den effektivt identificere sikkerhedssårbarheder såsom Cross-Site Scripting (XSS) eller SQL-injektion. Denne dobbelte natur understreger vigtigheden af ​​en nuanceret forståelse. I stedet for at se AI som udelukkende skadeligt, understreger den det komplementære forhold mellem kunstig intelligens og menneskelig involvering i cybersikkerhed. CISO'er skal forstå de tilknyttede risici ved GenAI og LLM'er, mens de samtidig udforsker menneskecentrerede tilgange til at implementere GenAI og styrke deres organisationer.

Mennesker opfanger, hvad AI efterlader

CISO'er har ikke kun til opgave at optrevle kompleksiteten af ​​GenAI. De skal bane en vej frem for deres organisation og demonstrere over for ledelsen, hvordan deres organisation kan fortsætte med at trives i en GenAI-domineret verden. 

Mens slutbrugere ofte er ansvarlige for mange sikkerhedssårbarheder, er der intet bedre forsvar mod cyberkriminalitet end et veluddannet og sikkerhedsmindet menneske. Uanset hvilke trusselsdetektionsværktøjer en organisation har på plads, er der simpelthen ingen erstatning for personen bag skærmen, når det kommer til at teste software. 

Organisationer kan overgå cyberkriminelle ved at bruge kraften i etisk hacking. Mens nogle er tøvende med at invitere hackere ind i deres netværk på grund af forældede misforståelser, er disse lovlydige cybersikkerhedseksperter det bedste match at tage imod dårlige skuespillere – fordi de, i modsætning til AI, kan komme ind i cyberangribernes hoveder.

Faktisk supplerer hackere allerede automatiserede værktøjer i kampen mod cyberkriminelle, med 92% af etiske hackere siger, at de kan finde sårbarheder, som scannere ikke kan. Ved at trække sløret for hacking tilbage for altid, kan virksomhedsledere omfavne etisk hacking og menneskelig støtte for at finde en mere effektiv balance mellem AI og menneskelige eksperter i at bekæmpe moderne cyberkriminalitet. Vores seneste Hacker-drevet sikkerhedsrapport fremhæver dette, hvor 91 % af vores kunder siger, at hackere leverer mere virkningsfulde og værdifulde sårbarhedsrapporter end AI eller scanningsløsninger. Mens kunstig intelligens fortsætter med at forme vores fremtid, vil det etiske hackerfællesskab forblive forpligtet til at sikre dets sikre integration.

Kombinationen af ​​automatisering med et netværk af højt kvalificerede hackere betyder, at virksomheder kan lokalisere kritiske applikationsfejl, før de udnyttes. Når organisationer effektivt blander automatiserede sikkerhedsværktøjer med etisk hacking, lukker de huller i den konstant udviklende digitale angrebsoverflade. 

Dette skyldes, at mennesker og kunstig intelligens kan arbejde sammen for at forbedre sikkerhedsteamets produktivitet: 

  1. Angrebsoverfladerekognoscering: Moderne organisationer kan udvikle en omfattende og kompleks it-infrastruktur, der omfatter en række både autoriseret og ikke-godkendt hardware og software. Udvikling af et altomfattende indeks over it-aktiver som software og hardware er vigtigt for at reducere sårbarheder, strømline patch-håndtering og hjælpe med at overholde industriens mandater. Det hjælper også med at identificere og analysere de punkter, hvorigennem en angriber kan målrette en organisation.
  2. Løbende vurderinger: Ud over punkt-i-tidssikkerhed kan organisationer kombinere opfindsomheden fra menneskelige sikkerhedseksperter med real-time angrebsoverfladeindsigt for at opnå kontinuerlig test af det digitale landskab. Kontinuerlig penetrationstest gør det muligt for it-teams at se resultaterne af konstante simuleringer, der viser, hvordan et brud ville se ud i det nuværende miljø og potentielle svage punkter, hvor teams kan tilpasse sig i realtid.
  3. Procesforbedringer: Betroede menneskelige hackere kan give sikkerhedsteams værdifuld information om sårbarheder og aktiver for at hjælpe med procesforbedringer.

Konklusion

Da generativ AI fortsætter med at udvikle sig i så hurtigt et tempo, skal CISO'er udnytte deres forståelse af, hvordan mennesker kan samarbejde for at forbedre AI-sikkerheden og få støtte fra deres bestyrelse og ledelsesteam. Som følge heraf kan organisationer have tilstrækkeligt personale og ressourcer til at tackle disse udfordringer effektivt. At finde den rette balance mellem hurtig AI-implementering og omfattende sikkerhed gennem samarbejde med etiske hackere styrker argumentet for at investere i passende AI-drevne løsninger.

Tidsstempel:

Mere fra DATAVERSITET