AI en beveiliging: het is ingewikkeld, maar dat hoeft niet zo te zijn | IoT Now-nieuws en -rapporten

AI en beveiliging: het is ingewikkeld, maar dat hoeft niet | IoT Now-nieuws en -rapporten

Bronknooppunt: 3071147

AI wordt steeds populairder en deze trend zal zich alleen maar voortzetten. Dit wordt ondersteund door Gartner waarin wordt gesteld dat ongeveer 80% van de ondernemingen generatieve kunstmatige intelligentie zal hebben gebruikt (Gen AI) application programming interfaces (API's) of modellen tegen 2026. AI is echter een brede en alomtegenwoordige term, en in veel gevallen omvat het een reeks technologieën. Niettemin biedt AI doorbraken in het vermogen om logica op een andere manier te verwerken, wat de aandacht trekt van zowel bedrijven als consumenten die tegenwoordig met verschillende vormen van AI experimenteren. Tegelijkertijd trekt deze technologie soortgelijke aandacht van bedreigingsactoren die zich realiseren dat het een zwakte in de beveiliging van een bedrijf kan zijn, terwijl het ook een instrument kan zijn dat bedrijven helpt deze zwakheden te identificeren en aan te pakken.

Beveiligingsuitdagingen van AI

Eén manier waarop bedrijven AI gebruiken, is door grote datasets te beoordelen om patronen te identificeren en de gegevens dienovereenkomstig te rangschikken. Dit wordt bereikt door tabellarische gegevenssets te maken die doorgaans rijen en rijen met gegevens bevatten. Hoewel dit aanzienlijke voordelen voor bedrijven heeft, van het verbeteren van de efficiëntie tot het identificeren van patronen en inzichten, verhoogt het ook de veiligheidsrisico's. Mocht er zich toch een inbreuk voordoen, dan worden deze gegevens op een manier gesorteerd die voor bedreigingsactoren gemakkelijk te gebruiken is.

Een verdere dreiging ontstaat bij het gebruik van Large Language Model (LLM)-technologieën die beveiligingsbarrières wegnemen omdat gegevens in een publiek domein worden geplaatst, zodat iedereen die de technologie gebruikt, deze kan tegenkomen en gebruiken. Omdat LLM in feite een bot is die de details niet begrijpt, produceert hij de meest waarschijnlijke reactie op basis van waarschijnlijkheid op basis van de informatie die hij bij de hand heeft. Als zodanig voorkomen veel bedrijven dat werknemers bedrijfsgegevens in tools als ChatGPT plaatsen om gegevens veilig te houden binnen de grenzen van het bedrijf.

Beveiligingsvoordelen van AI

Hoewel AI een potentieel risico voor bedrijven kan vormen, kan het ook een deel van de oplossing zijn. Omdat AI informatie anders verwerkt dan mensen, kan het anders naar problemen kijken en met baanbrekende oplossingen komen. AI produceert bijvoorbeeld betere algoritmen en kan wiskundige problemen oplossen waar mensen al jaren mee worstelen. Als het om informatiebeveiliging gaat, zijn algoritmen dan ook koning AI, machinaal leren (ML) of een soortgelijke cognitieve computertechnologie, zou een manier kunnen bedenken om gegevens te beveiligen.

Dit is een echt voordeel van AI, omdat het niet alleen enorme hoeveelheden informatie kan identificeren en sorteren, maar ook patronen kan identificeren waardoor organisaties dingen kunnen zien die ze nog nooit eerder hebben opgemerkt. Dit brengt een geheel nieuw element met zich mee voor informatiebeveiliging. Terwijl AI door bedreigingsactoren zal worden gebruikt als een instrument om hun effectiviteit bij het hacken van systemen te verbeteren, zal het ook door ethische hackers worden gebruikt als een instrument om te proberen uit te vinden hoe de beveiliging kan worden verbeterd, wat zeer gunstig zal zijn voor bedrijven.

De uitdaging van medewerkers en veiligheid

Werknemers, die de voordelen van AI in hun persoonlijke leven zien, gebruiken tools zoals ChatGPT om hun vermogen om taken uit te voeren te verbeteren. Tegelijkertijd dragen deze medewerkers bij aan de complexiteit van gegevensbeveiliging. Bedrijven moeten zich bewust zijn van de informatie die werknemers op deze platforms plaatsen en van de bedreigingen die daarmee gepaard gaan.

Omdat deze oplossingen voordelen opleveren voor de werkplek, kunnen bedrijven overwegen om niet-gevoelige gegevens in systemen te plaatsen om de blootstelling van interne datasets te beperken en tegelijkertijd de efficiëntie in de hele organisatie te vergroten. Organisaties moeten zich echter realiseren dat ze niet beide kanten op kunnen, en dat de gegevens die ze in dergelijke systemen stoppen niet privé zullen blijven. Om deze reden zullen bedrijven hun informatiebeveiligingsbeleid moeten herzien en moeten vaststellen hoe ze gevoelige gegevens kunnen beschermen en er tegelijkertijd voor kunnen zorgen dat werknemers toegang hebben tot kritieke gegevens.

Geen gevoelige maar nuttige gegevens

Bedrijven zijn zich bewust van de waarde die AI kan bieden en tegelijkertijd een toegevoegde waarde kan bieden veiligheidsrisico in de mix. Om waarde uit deze technologie te halen en tegelijkertijd gegevens privé te houden, onderzoeken ze manieren om geanonimiseerde gegevens te implementeren met behulp van pseudonimisering, waarbij bijvoorbeeld identificeerbare informatie wordt vervangen door een pseudoniem of een waarde en waardoor het individu niet rechtstreeks kan worden geïdentificeerd.

Een andere manier waarop bedrijven data kunnen beschermen is met generatieve AI voor synthetische data. Als een bedrijf bijvoorbeeld een klantdataset heeft en deze met een derde partij moet delen voor analyse en inzichten, richten ze een synthetisch datageneratiemodel op de dataset. Dit model leert alles over de dataset, identificeert patronen uit de informatie en produceert vervolgens een dataset met fictieve individuen die niemand vertegenwoordigen in de echte gegevens, maar stelt de ontvanger in staat de hele dataset te analyseren en nauwkeurige informatie terug te geven. Dit betekent dat bedrijven valse maar nauwkeurige informatie kunnen delen zonder gevoelige of privégegevens vrij te geven. TZijn aanpak maakt het mogelijk dat enorme hoeveelheden informatie kunnen worden gebruikt door machine learning-modellen voor analyse en, in sommige gevallen, om gegevens te testen voor ontwikkeling.

Omdat er tegenwoordig verschillende gegevensbeschermingsmethoden beschikbaar zijn voor bedrijven, kan de waarde van AI-technologieën worden benut met de zekerheid dat persoonlijke gegevens veilig blijven. Dit is van groot belang voor bedrijven, omdat zij de echte voordelen ervaren die data met zich meebrengen voor het verbeteren van de efficiëntie, de besluitvorming en de algehele klantervaring.

Artikel door Clyde Williamson, hoofdbeveiligingsarchitect en Nathan Vega, vice-president productmarketing en strategie bij Protegrity.

Reageer hieronder of via X op dit artikel: @IoTNow_

Tijdstempel:

Meer van IoT Nu