AI og sikkerhet: Det er komplisert, men trenger ikke å være | IoT nå nyheter og rapporter

AI og sikkerhet: Det er komplisert, men trenger ikke å være | IoT nå nyheter og rapporter

Kilde node: 3071147

AI vokser i popularitet, og denne trenden vil bare fortsette. Dette støttes av Gartner som sier at omtrent 80 % av virksomhetene vil ha brukt generativ kunstig intelligens (GenAI) applikasjonsprogrammeringsgrensesnitt (API) eller modeller innen 2026. Imidlertid er AI et bredt og allestedsnærværende begrep, og i mange tilfeller dekker det en rekke teknologier. Ikke desto mindre presenterer AI gjennombrudd i evnen til å behandle logikk annerledes, noe som tiltrekker seg oppmerksomhet fra både bedrifter og forbrukere som eksperimenterer med ulike former for AI i dag. Samtidig tiltrekker denne teknologien lignende oppmerksomhet fra trusselaktører som innser at den kan være en svakhet i en bedrifts sikkerhet, samtidig som den også kan være et verktøy som hjelper bedrifter med å identifisere disse svakhetene og adressere dem.

Sikkerhetsutfordringer ved AI

En måte selskaper bruker AI på, er å gjennomgå store datasett for å identifisere mønstre og sekvensere data deretter. Dette oppnås ved å lage tabellformede datasett som vanligvis inneholder rader og rader med data. Selv om dette har betydelige fordeler for bedrifter, fra å forbedre effektiviteten til å identifisere mønstre og innsikt, øker det også sikkerhetsrisikoen dersom et brudd skulle oppstå, disse dataene sorteres ut på en måte som er enkel å bruke for trusselaktører.

Ytterligere trussel utvikles ved bruk av Large Language Model-teknologier (LLM) som fjerner sikkerhetsbarrierer ettersom data plasseres i et offentlig domene for alle som bruker teknologien til å snuble over og bruke. Siden LLM faktisk er en bot som ikke forstår detaljene, produserer den den mest sannsynlige responsen basert på sannsynlighet ved å bruke informasjonen den har for hånden. Som slike hindrer mange selskaper ansatte fra å legge noen bedriftsdata inn i verktøy som ChatGPT for å holde data sikre i bedriftens rammer.

Sikkerhetsfordeler med AI

Selv om AI kan utgjøre en potensiell risiko for bedrifter, kan det også være en del av løsningen. Ettersom AI behandler informasjon annerledes enn mennesker, kan den se på problemer annerledes og komme med banebrytende løsninger. For eksempel produserer AI bedre algoritmer og kan løse matematiske problemer som mennesker har slitt med i mange år. Som sådan, når det gjelder informasjonssikkerhet, er algoritmer kongen og AI, maskinlæring (ML) eller en lignende kognitiv datateknologi, kan komme opp med en måte å sikre data på.

Dette er en reell fordel med AI ettersom den ikke bare kan identifisere og sortere enorme mengder informasjon, men den kan identifisere mønstre som lar organisasjoner se ting de aldri har lagt merke til før. Dette bringer et helt nytt element til informasjonssikkerhet. Mens AI kommer til å bli brukt av trusselaktører som et verktøy for å forbedre effektiviteten av hacking inn i systemer, vil den også bli brukt som et verktøy av etiske hackere for å prøve å finne ut hvordan man kan forbedre sikkerheten, noe som vil være svært fordelaktig for bedrifter.

Utfordringen til ansatte og sikkerhet

Ansatte, som ser fordelene med AI i deres personlige liv, bruker verktøy som ChatGPT å forbedre deres evne til å utføre jobbfunksjoner. Samtidig øker disse ansatte kompleksiteten til datasikkerhet. Bedrifter må være klar over hvilken informasjon ansatte legger på disse plattformene og truslene knyttet til dem.

Siden disse løsningene vil gi fordeler for arbeidsplassen, kan bedrifter vurdere å sette ikke-sensitive data inn i systemer for å begrense eksponeringen av interne datasett samtidig som de øker effektiviteten på tvers av organisasjonen. Imidlertid må organisasjoner innse at de ikke kan ha det begge veier, og data de legger inn i slike systemer vil ikke forbli private. Av denne grunn vil bedrifter måtte gjennomgå sine retningslinjer for informasjonssikkerhet og identifisere hvordan de kan beskytte sensitive data samtidig som de sikrer at ansatte har tilgang til kritiske data.

Ikke sensitive, men nyttige data

Bedrifter er klar over verdien som AI kan gi samtidig som de legger til en sikkerhetsrisiko inn i blandingen. For å få verdi fra denne teknologien mens de holder data privat, utforsker de måter å implementere anonymiserte data ved å bruke pseudonymisering som for eksempel erstatter identifiserbar informasjon med et pseudonym, eller en verdi og ikke tillater at individet blir direkte identifisert.

En annen måte selskaper kan beskytte data på er med generativ AI for syntetiske data. For eksempel, hvis et selskap har et kundedatasett og trenger å dele det med en tredjepart for analyse og innsikt, peker de en syntetisk datagenereringsmodell mot datasettet. Denne modellen vil lære alt om datasettet, identifisere mønstre fra informasjonen og deretter produsere et datasett med fiktive individer som ikke representerer noen i de virkelige dataene, men lar mottakeren analysere hele datasettet og gi nøyaktig informasjon tilbake. Dette betyr at selskaper kan dele falsk, men nøyaktig informasjon uten å avsløre sensitive eller private data. Thans tilnærming tillater at enorme mengder informasjon kan brukes av maskinlæringsmodeller for analyser og, i noen tilfeller, for å teste data for utvikling.

Med flere databeskyttelsesmetoder tilgjengelig for bedrifter i dag, kan verdien av AI-teknologier utnyttes med trygghet om at personopplysninger forblir trygge og sikre. Dette er viktig for bedrifter ettersom de opplever de sanne fordelene data gir for å forbedre effektiviteten, beslutningstakingen og den generelle kundeopplevelsen.

Artikkel av Clyde Williamson, en hovedsikkerhetsarkitekt og Nathan Vega, en visepresident, produktmarkedsføring og strategi hos Protegrity.

Kommenter denne artikkelen nedenfor eller via X: @IoTNow_

Tidstempel:

Mer fra IoT nå