Evenwichtsoefening: de waarde van menselijke expertise in het tijdperk van generatieve AI - DATAVERSITY

Evenwichtsoefening: de waarde van menselijke expertise in het tijdperk van generatieve AI – DATAVERSITY

Bronknooppunt: 3052574

Mensen worden beschouwd als de zwakste schakel in de onderneming als het gaat om veiligheid. Terecht, zoals meer dan 95% van de cyberveiligheidsincidenten wordt veroorzaakt door menselijke fouten. Mensen zijn wispelturig, feilbaar en onvoorspelbaar, waardoor ze een gemakkelijk doelwit zijn voor cybercriminelen die toegang willen krijgen tot de systemen van organisaties.  

Dit maakt onze afhankelijkheid van machines des te belangrijker. Tot nu toe hebben we erop kunnen vertrouwen dat machines met code als waarheid werken. Hoewel ze gecompromitteerd kunnen worden door kwetsbaarheden in de code of door de sociale tekortkomingen van hun menselijke operators, worden de problemen meestal met een duidelijke oplossing opgelost. 

Echter, met de opkomst van generatieve AI (Gen AI) en grote taalmodellen (LLM’s) worden organisaties nu geconfronteerd met social engineering-aanvallen die de AI ertoe verleiden dingen te doen waarvoor ze niet bedoeld waren. Naarmate we meer overgeven aan AI, zal het interessant zijn om deze nieuwe aanvalspatronen te zien spelen.

In het licht van dit dilemma is het opnieuw aan de mens om door dit complexe en evoluerende AI-beveiligingslandschap te navigeren. Dit roept CISO's op om duidelijk de voordelen en tekortkomingen van AI te communiceren en de lange lijst van beveiligingsoverwegingen te erkennen die verband houden met door AI aangedreven producten en mogelijkheden. 

Overhaaste implementatie van generatieve AI brengt nieuwe uitdagingen op het gebied van cyberbeveiliging met zich mee

Om te beginnen is een veelvoorkomend probleem als het gaat om GenAI en LLM's een breed overmatig vertrouwen in door AI gegenereerde inhoud. Het vertrouwen op door AI gegenereerde inhoud zonder verificatie of controle op misleidende of desinformatie zonder menselijke inbreng of toezicht kan leiden tot de verspreiding van foutieve gegevens die slechte besluitvorming bevorderen en het kritisch denken verminderen. Het is bekend dat LLM's hallucineren, dus een deel van de desinformatie is mogelijk niet eens het gevolg van kwade bedoelingen.

In dezelfde geest zal de hoeveelheid onveilige code die wordt geïntroduceerd als gevolg van de evolutie van GenAI ook een aanzienlijke uitdaging worden voor CISO's, als er niet proactief op wordt geanticipeerd. Het is bekend dat AI-engines buggy-code schrijven met beveiligingsproblemen. Zonder het juiste menselijke toezicht stelt GenAI mensen zonder de juiste technische basis in staat code te verzenden. Dit leidt tot een verhoogd beveiligingsrisico gedurende de gehele levenscyclus van softwareontwikkeling voor organisaties die deze tools op ongepaste wijze gebruiken.

Datalekken zijn een ander veelvoorkomend probleem. In sommige gevallen kunnen aanvallers snelle injectie gebruiken om gevoelige informatie te extraheren die het AI-model van een andere gebruiker heeft geleerd. Vaak kan dit onschadelijk zijn, maar kwaadwillig gebruik is zeker niet uitgesloten. Slechte actoren kunnen de AI-tool opzettelijk onderzoeken met zorgvuldig opgestelde aanwijzingen, met als doel gevoelige informatie te extraheren die de tool uit het hoofd heeft geleerd, wat kan leiden tot het lekken van gevoelige of vertrouwelijke informatie.

AI kan sommige hiaten op het gebied van cyberbeveiliging vergroten, maar heeft een aanzienlijk potentieel om andere te dichten

Ten slotte is het duidelijk dat de verspreiding van GenAI en LLM’s om een ​​aantal redenen een deel van de vermindering van het aanvalsoppervlak in onze sector zal terugdringen. Ten eerste verlaagt de mogelijkheid om code te genereren met GenAI de lat voor wie een software-ingenieur kan zijn, wat resulteert in zwakkere code en zelfs zwakkere beveiligingsnormen. Ten tweede heeft GenAI enorme hoeveelheden data nodig, wat betekent dat de omvang en impact van datalekken exponentieel zullen groeien. Ten derde zijn ontwikkelaars, net als bij elke opkomende technologie, mogelijk niet volledig op de hoogte van de manieren waarop de implementatie ervan kan worden uitgebuit of misbruikt. 

Niettemin is het essentieel om een ​​evenwichtig perspectief te hanteren. Hoewel het faciliteren van codegeneratie door Gen AI zorgen kan baren, brengt het ook positieve eigenschappen met zich mee voor het cyberbeveiligingslandschap. Het kan bijvoorbeeld effectief beveiligingskwetsbaarheden zoals Cross-Site Scripting (XSS) of SQL-injectie identificeren. Deze dubbele aard onderstreept het belang van een genuanceerd begrip. In plaats van AI als uitsluitend schadelijk te beschouwen, benadrukt het de complementaire relatie tussen kunstmatige intelligentie en menselijke betrokkenheid bij cyberbeveiliging. CISO's moeten de bijbehorende risico's van GenAI en LLM's begrijpen en tegelijkertijd mensgerichte benaderingen onderzoeken om GenAI te implementeren en hun organisaties te versterken.

Mensen pikken op wat AI achterlaat

CISO's hebben niet alleen de taak om de complexiteit van GenAI te ontrafelen. Ze moeten een weg voorwaarts bereiden voor hun organisatie en aan het leiderschap laten zien hoe hun organisatie kan blijven bloeien in een door GenAI gedomineerde wereld. 

Hoewel eindgebruikers vaak verantwoordelijk zijn voor veel beveiligingsproblemen, is er geen betere verdediging tegen cybercriminaliteit dan een goed opgeleid en op veiligheid gericht mens. Welke tools voor bedreigingsdetectie een organisatie ook heeft, er is simpelweg geen vervanging van de persoon achter het scherm als het gaat om het testen van software. 

Organisaties kunnen cybercriminelen voorbijstreven met behulp van de kracht van ethisch hacken. Terwijl sommigen aarzelen om hackers in hun netwerk uit te nodigen vanwege verouderde misvattingen, zijn deze gezagsgetrouwe cyberbeveiligingsexperts de beste match om slechte actoren aan te pakken – omdat ze, in tegenstelling tot AI, in de hoofden van de cyberaanvallers kunnen kruipen.

In feite vullen hackers al geautomatiseerde tools aan in de strijd tegen cybercriminelen 92% van ethische hackers zeggen dat ze kwetsbaarheden kunnen vinden die scanners niet kunnen. Door de sluier over hacken voorgoed op te trekken, kunnen bedrijfsleiders ethisch hacken en menselijke steun omarmen om een ​​effectiever evenwicht te vinden tussen AI en menselijke experts in de strijd tegen moderne cybercriminaliteit. Onze recente Door hackers aangedreven beveiligingsrapport benadrukt dit: 91% van onze klanten zegt dat hackers effectievere en waardevollere kwetsbaarheidsrapporten opleveren dan AI- of scanoplossingen. Terwijl AI onze toekomst blijft vormgeven, zal de ethische hackergemeenschap zich blijven inzetten voor het garanderen van de veilige integratie ervan.

De combinatie van automatisering met een netwerk van zeer bekwame hackers betekent dat bedrijven kritieke applicatiefouten kunnen opsporen voordat ze worden uitgebuit. Wanneer organisaties geautomatiseerde beveiligingstools effectief combineren met ethisch hacken, dichten ze gaten in het steeds evoluerende digitale aanvalsoppervlak. 

Dit komt omdat mensen en AI kunnen samenwerken om de productiviteit van het beveiligingsteam te verbeteren: 

  1. Aanvalsoppervlakteverkenning: Moderne organisaties kunnen een uitgebreide en complexe IT-infrastructuur opbouwen die bestaat uit een verscheidenheid aan zowel geautoriseerde als niet-goedgekeurde hardware en software. Het ontwikkelen van een allesomvattende index van IT-middelen zoals software en hardware is belangrijk voor het terugdringen van kwetsbaarheden, het stroomlijnen van patchbeheer en het helpen naleven van industriële mandaten. Het helpt ook bij het identificeren en analyseren van de punten waarlangs een aanvaller zich op een organisatie kan richten.
  2. Continue evaluaties: Organisaties kunnen verder gaan dan point-in-time beveiliging en kunnen de vindingrijkheid van menselijke beveiligingsexperts combineren met realtime inzicht in aanvalsoppervlakken om het digitale landschap voortdurend te testen. Door voortdurende penetratietests kunnen IT-teams de resultaten bekijken van constante simulaties die laten zien hoe een inbreuk er in de huidige omgeving uit zou zien en potentiële zwakke plekken waar teams zich in realtime kunnen aanpassen.
  3. Procesverbeteringen: Vertrouwde menselijke hackers kunnen beveiligingsteams waardevolle informatie over kwetsbaarheden en activa overhandigen om procesverbeteringen te ondersteunen.

Conclusie

Omdat generatieve AI zich in zo’n snel tempo blijft ontwikkelen, moeten CISO’s hun inzicht in de manier waarop mensen kunnen samenwerken benutten om de AI-beveiliging te verbeteren en steun te krijgen van hun bestuur en leiderschapsteam. Als gevolg hiervan kunnen organisaties over voldoende personeel en middelen beschikken om deze uitdagingen effectief aan te pakken. Het vinden van de juiste balans tussen snelle AI-implementatie en uitgebreide beveiliging door samenwerking met ethische hackers versterkt het argument om te investeren in passende, door AI aangedreven oplossingen.

Tijdstempel:

Meer van DATAVERSITEIT