AI och säkerhet: Det är komplicerat men behöver inte vara | IoT Now News & Reports

AI och säkerhet: Det är komplicerat men behöver inte vara | IoT Now News & Reports

Källnod: 3071147

AI växer i popularitet och denna trend kommer bara att fortsätta. Detta stöds av Gartner som säger att cirka 80 % av företagen kommer att ha använt generativ artificiell intelligens (GenAI) applikationsprogrammeringsgränssnitt (API) eller modeller senast 2026. AI är dock ett brett och allmänt förekommande begrepp, och i många fall täcker det en rad olika tekniker. Ändå presenterar AI genombrott i förmågan att bearbeta logik på olika sätt, vilket väcker uppmärksamhet från både företag och konsumenter som experimenterar med olika former av AI idag. Samtidigt drar denna teknik till sig liknande uppmärksamhet från hotaktörer som inser att den kan vara en svaghet i ett företags säkerhet samtidigt som den också kan vara ett verktyg som hjälper företag att identifiera dessa svagheter och åtgärda dem.

Säkerhetsutmaningar för AI

Ett sätt som företag använder AI på är att granska stora datamängder för att identifiera mönster och sekvensera data därefter. Detta uppnås genom att skapa datauppsättningar i tabellform som vanligtvis innehåller rader och rader med data. Även om detta har betydande fördelar för företag, från att förbättra effektiviteten till att identifiera mönster och insikter, ökar det också säkerhetsriskerna om ett intrång skulle inträffa, denna data sorteras ut på ett sätt som är lätt för hotaktörer att använda.

Ytterligare hot utvecklas vid användning av Large Language Model (LLM)-teknologier som tar bort säkerhetsbarriärer eftersom data placeras i en offentlig domän för alla som använder tekniken för att snubbla på och använda. Eftersom LLM faktiskt är en bot som inte förstår detaljerna, producerar den det mest sannolika svaret baserat på sannolikhet med hjälp av informationen som den har till hands. Som sådana hindrar många företag anställda från att lägga in företagsdata i verktyg som ChatGPT för att hålla data säker inom företagets ramar.

Säkerhetsfördelar med AI

Även om AI kan utgöra en potentiell risk för företag, kan det också vara en del av lösningen. Eftersom AI bearbetar information annorlunda än människor kan den se på problem på olika sätt och komma med banbrytande lösningar. Till exempel producerar AI bättre algoritmer och kan lösa matematiska problem som människor har kämpat med i många år. Som sådan, när det kommer till informationssäkerhet, är algoritmer kung och AI, maskininlärning (ML) eller en liknande kognitiv datorteknik, kan komma på ett sätt att säkra data.

Detta är en verklig fördel med AI eftersom det inte bara kan identifiera och sortera enorma mängder information, utan det kan identifiera mönster som gör att organisationer kan se saker som de aldrig märkt tidigare. Detta tillför ett helt nytt element till informationssäkerhet. Även om AI kommer att användas av hotaktörer som ett verktyg för att förbättra effektiviteten av att hacka in i system, kommer den också att användas som ett verktyg av etiska hackare för att försöka ta reda på hur man kan förbättra säkerheten, vilket kommer att vara mycket fördelaktigt för företag.

Utmaningen med anställda och säkerhet

Anställda, som ser fördelarna med AI i sina personliga liv, använder verktyg som ChatGPT att förbättra sin förmåga att utföra arbetsuppgifter. Samtidigt bidrar dessa anställda till datasäkerhetens komplexitet. Företag måste vara medvetna om vilken information anställda lägger på dessa plattformar och de hot som är förknippade med dem.

Eftersom dessa lösningar kommer att medföra fördelar för arbetsplatsen kan företag överväga att lägga in icke-känsliga data i system för att begränsa exponeringen av interna datamängder samtidigt som effektiviteten ökar i organisationen. Organisationer måste dock inse att de inte kan ha det åt båda hållen, och data som de lägger in i sådana system kommer inte att förbli privata. Av denna anledning kommer företag att behöva se över sina policyer för informationssäkerhet och identifiera hur känsliga uppgifter kan skyddas samtidigt som de säkerställer att anställda har tillgång till kritisk data.

Inte känslig men användbar data

Företag är medvetna om värdet som AI kan tillföra samtidigt som de lägger till en säkerhetsrisk i blandningen. För att dra nytta av denna teknik samtidigt som de håller data privat undersöker de sätt att implementera anonymiserad data med hjälp av till exempel pseudonymisering som ersätter identifierbar information med en pseudonym eller ett värde och inte tillåter att individen direkt identifieras.

Ett annat sätt som företag kan skydda data är med generativ AI för syntetisk data. Till exempel, om ett företag har en kunddatauppsättning och behöver dela den med en tredje part för analys och insikter, pekar de en syntetisk datagenereringsmodell mot datamängden. Denna modell kommer att lära sig allt om datamängden, identifiera mönster från informationen och sedan producera en datamängd med fiktiva individer som inte representerar någon i den verkliga datan men låter mottagaren analysera hela datamängden och ge korrekt information tillbaka. Det innebär att företag kan dela falsk men korrekt information utan att avslöja känsliga eller privata uppgifter. Thans tillvägagångssätt gör att enorma mängder information kan användas av maskininlärningsmodeller för analys och, i vissa fall, för att testa data för utveckling.

Med flera dataskyddsmetoder tillgängliga för företag idag, kan värdet av AI-teknik utnyttjas med sinnesfrid att personlig information förblir säker och säker. Detta är viktigt för företag eftersom de upplever de verkliga fördelarna som data ger för att förbättra effektiviteten, beslutsfattandet och den övergripande kundupplevelsen.

Artikel av Clyde Williamson, chefsarkitekt och Nathan Vega, vicepresident, produktmarknadsföring och strategi på Protegrity.

Kommentera den här artikeln nedan eller via X: @IoTNow_

Tidsstämpel:

Mer från IoT nu