AI og sikkerhed: Det er kompliceret, men behøver ikke at være | IoT Now News & Reports

AI og sikkerhed: Det er kompliceret, men behøver ikke at være | IoT Now News & Reports

Kildeknude: 3071147

AI vokser i popularitet, og denne tendens vil kun fortsætte. Dette understøttes af Gartner som siger, at ca. 80 % af virksomhederne vil have brugt generativ kunstig intelligens (GenAI) applikationsprogrammeringsgrænseflader (API'er) eller modeller inden 2026. AI er imidlertid et bredt og allestedsnærværende begreb, og det dækker i mange tilfælde en række teknologier. Ikke desto mindre præsenterer AI gennembrud i evnen til at behandle logik anderledes, hvilket tiltrækker opmærksomhed fra både virksomheder og forbrugere, som eksperimenterer med forskellige former for AI i dag. Samtidig tiltrækker denne teknologi lignende opmærksomhed fra trusselsaktører, som er klar over, at det kan være en svaghed i en virksomheds sikkerhed, mens den også kan være et værktøj, der hjælper virksomheder med at identificere disse svagheder og adressere dem.

Sikkerhedsudfordringer ved AI

En måde, hvorpå virksomheder bruger kunstig intelligens, er at gennemgå store datasæt for at identificere mønstre og sekvensere data i overensstemmelse hermed. Dette opnås ved at oprette datasæt i tabelform, der typisk indeholder rækker og rækker af data. Selvom dette har betydelige fordele for virksomheder, lige fra at forbedre effektiviteten til at identificere mønstre og indsigt, øger det også sikkerhedsrisici, hvis der skulle opstå et brud, sorteres disse data på en måde, der er nem at bruge for trusselsaktører.

Yderligere trusler udvikler sig ved brug af Large Language Model-teknologier (LLM), som fjerner sikkerhedsbarrierer, da data placeres i et offentligt domæne for enhver, der bruger teknologien til at snuble over og bruge. Da LLM faktisk er en bot, der ikke forstår detaljerne, producerer den det mest sandsynlige svar baseret på sandsynlighed ved at bruge de oplysninger, den har ved hånden. Som sådan forhindrer mange virksomheder medarbejdere i at lægge nogen virksomhedsdata ind i værktøjer som ChatGPT for at holde data sikre i virksomhedens rammer.

Sikkerhedsfordele ved AI

Selvom kunstig intelligens kan udgøre en potentiel risiko for virksomheder, kan det også være en del af løsningen. Da AI behandler information anderledes end mennesker, kan den se anderledes på problemer og komme med banebrydende løsninger. For eksempel producerer AI bedre algoritmer og kan løse matematiske problemer, som mennesker har kæmpet med i mange år. Som sådan, når det kommer til informationssikkerhed, er algoritmer konge og AI, Machine Learning (ML) eller en lignende kognitiv computerteknologi, kunne komme med en måde at sikre data på.

Dette er en reel fordel ved AI, da det ikke kun kan identificere og sortere enorme mængder information, men det kan identificere mønstre, der gør det muligt for organisationer at se ting, som de aldrig har bemærket før. Dette bringer et helt nyt element til informationssikkerhed. Mens AI vil blive brugt af trusselsaktører som et værktøj til at forbedre deres effektivitet ved at hacke ind i systemer, vil det også blive brugt som et værktøj af etiske hackere til at forsøge at finde ud af, hvordan man kan forbedre sikkerheden, hvilket vil være yderst gavnligt for virksomheder.

Udfordringen med medarbejdere og sikkerhed

Medarbejdere, der ser fordelene ved AI i deres personlige liv, bruger værktøjer som ChatGPT at forbedre deres evne til at udføre jobfunktioner. Samtidig tilføjer disse medarbejdere datasikkerhedens kompleksitet. Virksomheder skal være opmærksomme på, hvilken information medarbejderne lægger på disse platforme og de trusler, der er forbundet med dem.

Da disse løsninger vil bringe fordele til arbejdspladsen, kan virksomheder overveje at lægge ikke-følsomme data ind i systemer for at begrænse eksponeringen af ​​interne datasæt og samtidig fremme effektiviteten på tværs af organisationen. Organisationer skal dog indse, at de ikke kan have det begge veje, og data, de lægger i sådanne systemer, vil ikke forblive private. Af denne grund bliver virksomheder nødt til at gennemgå deres informationssikkerhedspolitikker og identificere, hvordan de beskytter følsomme data, samtidig med at de sikrer medarbejderne adgang til kritiske data.

Ikke følsomme, men nyttige data

Virksomheder er opmærksomme på den værdi, som AI kan tilføre, samtidig med at de tilføjer en sikkerhedsrisiko ind i blandingen. For at få værdi af denne teknologi og samtidig holde data private udforsker de måder at implementere anonymiserede data ved hjælp af f.eks. pseudonymisering, som erstatter identificerbar information med et pseudonym eller en værdi og ikke tillader individet at blive direkte identificeret.

En anden måde, virksomheder kan beskytte data på, er med generativ AI til syntetiske data. For eksempel, hvis en virksomhed har et kundedatasæt og skal dele det med en tredjepart for analyse og indsigt, peger de en syntetisk datagenereringsmodel mod datasættet. Denne model vil lære alt om datasættet, identificere mønstre fra informationen og derefter producere et datasæt med fiktive personer, der ikke repræsenterer nogen i de rigtige data, men som giver modtageren mulighed for at analysere hele datasættet og give nøjagtige oplysninger tilbage. Det betyder, at virksomheder kan dele falske, men nøjagtige oplysninger uden at afsløre følsomme eller private data. Thans tilgang tillader, at enorme mængder information kan bruges af maskinlæringsmodeller til analyser og i nogle tilfælde til at teste data til udvikling.

Med adskillige databeskyttelsesmetoder, der er tilgængelige for virksomheder i dag, kan værdien af ​​AI-teknologier udnyttes med ro i sindet om, at personlige data forbliver sikre. Dette er vigtigt for virksomheder, da de oplever de sande fordele, som data bringer til forbedring af effektiviteten, beslutningstagningen og den overordnede kundeoplevelse.

Artikel af Clyde Williamson, en chefsikkerhedsarkitekt og Nathan Vega, en vicepræsident, produktmarkedsføring og strategi hos Protegrity.

Kommenter denne artikel nedenfor eller via X: @IoTNow_

Tidsstempel:

Mere fra IoT nu