Adatkezelés a generatív mesterséges intelligencia korában – DATAVERSITY

Adatkezelés a generatív AI korában – DATAVERSITY

Forrás csomópont: 2887173

A mesterséges intelligencia alapú üzleti modellek és termékek, amelyek generatív AI-t (GenAI) használnak, az iparágak széles körében terjednek. A mesterséges intelligencia jelenlegi hulláma új munkamódszereket hoz létre, és a kutatások azt sugallják, hogy az üzleti vezetők optimistán érzik magukat a mérhető termelékenység és ügyfélszolgálati fejlesztések lehetőségét illetően, valamint a termékek és szolgáltatások létrehozásának és elosztásának módozataiban.

A vállalatok többsége (90%) lehetővé teszi, hogy az alkalmazottak valamilyen szinten alkalmazzák a mesterséges intelligenciát, a cégem adatai szerint 2023. évi strukturálatlan adatkezelési jelentés. Ugyanebben a szellemben a Salesforce Az informatika állapota A jelentés kimutatta, hogy az IT-vezetők 86%-a úgy gondolja, hogy a generatív AI hamarosan kiemelkedő szerepet kap szervezetében.

Ennek ellenére a mesterséges intelligencia ezen új formájában számos potenciális veszély rejlik, a magánéleti és biztonsági kockázatoktól az etikai aggályokig, a pontatlanságig, az adatok torzításáig és a rosszindulatú szereplőkig. Kormányzati és üzleti vezetők elemzik a problémákat, és mérlegelik a megoldásokat az AI biztonságos és sikeres bevezetéséhez.

Ez a cikk áttekinti a mesterséges intelligencia legújabb kutatásait strukturálatlan adatok menedzsment és vállalati informatikai tervek. 

Főbb jellemzők:

  • Napjainkban a generatív mesterséges intelligencia a legfontosabb üzleti és technológiai stratégia, de egyben vezető prioritás az adattárolás-kezelők számára is.
  • Bár a generatív mesterséges intelligencia sok potenciállal rendelkezik, számos adatkezelési aggályt is felvet a magánélet, a biztonság és az etika tekintetében, ami hátráltatja az elfogadást.
  • A vállalatok engedélyezik a generatív mesterséges intelligencia használatát, de gyakran korlátokat szabnak az alkalmazottak által felhasználható alkalmazásokra és adatokra.
  • A legtöbb szervezet többoldalú megközelítést alkalmaz, amely magában foglalja a tárolást, az adatkezelést és a biztonsági eszközöket a generatív mesterségesintelligencia-kockázatok elleni védelem érdekében.

Vezető vállalati aggodalmak a generatív AI-val kapcsolatban 

A generatív AI-val kapcsolatos aggodalmak és kockázatok azzal fenyegetnek, hogy a technológia számos előnyét megvonják, és kárt okoznak a vállalatoknak, alkalmazottaiknak és ügyfeleiknek. Cégem felmérése szerint a magánélet és a biztonság megsértése jelenti az IT-vezetők legfőbb aggodalmát a vállalati mesterségesintelligencia-használat miatt (28%), ezt követi az adatforrások átláthatóságának hiánya és a pontatlan vagy elfogult adatokból eredő kockázatok (21%). 

Más kutatások további aggályokat tárnak fel:

  • Az általa megkérdezett vezetők szerint a generatív AI három legnagyobb kockázata KPMG, a kiberbiztonság, a személyes adatokkal kapcsolatos adatvédelmi aggályok és a felelősség.
  • A közelmúltban idézett elsődleges aggályok Harris Poll a minőség és az ellenőrzés (51%), a biztonsági és biztonsági kockázatok (49%), az emberi innováció korlátozása (39%), valamint az eszköz használatának ismeretének hiánya és a szervezeti adatok véletlen megsértése miatti emberi hiba (38%). . 
  • A Salesforce által megkérdezett IT-vezetők 64%-a aggódik a generatív mesterséges intelligencia etikája miatt.
  • A válaszadók mintegy fele (49%) egy IDC fehér papír aggodalmát fejezték ki azzal kapcsolatban, hogy szervezetük szabadalmaztatott tartalmait a generatív mesterséges intelligencia-technológiát szolgáltatók széles nyelvi modelljeibe hozzák.

Nézzünk egy kicsit mélyebbre ezekben az aggodalomra okot adó területeken. Adatvédelem és a biztonság a legnyilvánvalóbb. Az adathasználatra vonatkozó korlátok nélkül az alkalmazottak akaratlanul is megoszthatnak bizalmas vállalati adatokat, például IP-címet, védjegytitkokat, termékterveket, védett képeket és ügyféladatokat, amelyeket egy mesterségesintelligencia-eszközbe betáplált fájlokban rejtettek el. 

Egy generatív AI eszköz nyelvtanulási modell Az (LLM) ezután tartalmazná azokat az érzékeny adatokat, amelyek később bekerülhetnek a mások által ugyanezzel az eszközzel megrendelt művekbe. Ezek az adatok akár közkinccsé is kerülhetnek, és korlátlan ideig ott maradhatnak. Az újabb mesterséges intelligencia funkciók, mint például az eszközök által generált beszélgetések „megosztott linkjei”, még könnyebbé teszik az érzékeny információk véletlenszerű felfedését, ha a link rossz kezekbe kerül. Ezzel szemben a vállalat felelősségre vonható, ha egy alkalmazott olyan származékos művet hoz létre az MI-ben, amely egy másik szervezettől kiszivárgott védett adatokat tartalmaz. 

Egy másik fontos probléma a pontatlan vagy káros következmények lehetősége, ha a modellben szereplő adatok elfogultak, rágalmazóak vagy ellenőrizetlenek. Perek is özönlöttek művészek és írók részéről műveik képzési modellekben való felhasználásával kapcsolatban. 

A szervezetek akaratlanul is felelősek lehetnek számos lehetséges követelésért, ha általános mesterséges intelligencia-képzési modelleket használnak. Ez hosszú távon károsíthatja a vállalat ügyfélkapcsolatait, a márka hírnevét és bevételi forrásait. Ennek megfelelően a KPMG kutatása szerint a vezetők 45%-a gondolta úgy, hogy a mesterséges intelligencia negatív hatással lehet a szervezeti bizalomra, ha nem vezetik be a megfelelő kockázatkezelési eszközöket.

Felkészülés az AI-ra

Ahogy a kereskedelmi AI-technológiák gyorsan fejlődnek, az IT-szervezetek mesterséges intelligencia-stratégiákon és irányelveken gondolkodnak és alkalmaznak. Az AI-ra való felkészülés valójában az IT-vezetők vezető adattárolási prioritása 2023-ban, szemben azzal, hogy 2022-ben a felhőbe való migrációra helyezik a hangsúlyt – derül ki a cégem felméréséből. Az informatikai vezetők mindössze 26%-a mondta azt, hogy nincs bevezetett szabályzata a mesterséges intelligencia szabályozására, és csak 21%-uk engedélyezi az AI-t anélkül, hogy az alkalmazottak által felhasználható adatokra vagy alkalmazásokra vonatkozóan korlátozást jelentene. 

A mesterséges intelligencia előkészületei a következő befektetéseket és stratégiákat foglalhatják magukban: 

Válassza ki a megfelelő eszközt: A nagy felhőszolgáltatók, valamint a kiemelkedő vállalati szoftvergyártók mind felszabadítják a maguk ízét a generatív AI-val kapcsolatos megoldások terén, hogy megfeleljenek a különböző használati eseteknek és üzleti követelményeknek. Szánjon időt szervezete céljainak és kockázati profiljának megértésére. A kiválasztási folyamat része annak meghatározása, hogy egy általános célú előre betanított AI-modellt, például a ChatGPT-t vagy a Google Bairdet használ, vagy egyéni modellt hoz létre. Ez a blogbejegyzés részletezi a két különböző megközelítést. A szigorú biztonsági és megfelelőségi követelményeket támasztó szervezet választhatja az egyedi fejlesztési megközelítést, ez azonban jelentős technológiai és szakértelem-befektetést igényel.

Fektessen be az AI-kompatibilis tárolási infrastruktúrába: A generatív AI-alkalmazások futtatása sok lóerőt igényel. Az AI számítási verem jellemzően nagy teljesítményű számítási kapacitásból (CPU-k és GPU-k), hatékony flash-tárolóból, például a Vast és Pure Storage-tól, valamint a megfelelő biztonsági rendszerekből áll, amelyek megvédik az LLM-ben használt érzékeny IP-adatokat. A legjobb felhőszolgáltatók, az AWS, az Azure és a Google számos új szolgáltatást bocsátottak ki generatív AI-projektek futtatására, valamint az IT-szervezetek költségeinek, energiafelhasználásának és összetettségének csökkentésére.

Vegye figyelembe az adatkezelés következményeit: Öt kulcsfontosságú területet kell figyelembe venni az AI-eszközök strukturálatlan adatkezelésének használatához, beleértve a biztonságot, az adatvédelmet, a származást, a tulajdonjogot és a strukturálatlan adatok irányítását vagy az SPLOG-ot. A mérlegelés a fájlok és objektumok adatainak alapos áttekintésével kezdődik a helyszíni, a szélső és a felhőalapú tárolás során. A taktika a következőket tartalmazza:

  • Különítse el az érzékeny és védett adatokat egy privát, biztonságos tartományba, amely korlátozza a kereskedelmi AI-alkalmazásokkal való megosztást. 
  • Tartson fenn egy audit nyomvonalat arról, hogy ki milyen vállalati adatokat táplált be az AI-alkalmazásokba.
  • Tudja meg, hogy a szállítói milyen garanciákat vállalnak az Ön adatainak AI algoritmusaikban való felhasználására vonatkozóan. Ez túlmutat az AI-szállítókon, mivel más vállalati szoftveralkalmazások már beépítik az AI-t a platformjukba.
  • Kérje meg a mesterséges intelligencia szállítóit, hogy osszák meg az LLM számára összegyűjtött adatforrásokról és arról, hogyan védik meg szervezetét a képzési modellel kapcsolatos káros következményekkel vagy kötelezettségekkel szemben.

A cégem felmérésében részt vevő informatikai vezetők 35 százaléka azt mondta, hogy a generatív mesterségesintelligencia-kockázatok elleni megfelelő védelem érdekében a tárolást, az adatkezelést és a biztonsági eszközöket magában foglaló sokoldalú megközelítést alkalmazza. A kapcsolódó megállapítások a következők: 32%-uk együttműködik meglévő biztonsági/irányítási beszállítóival a kockázatok csökkentése érdekében; 31% mondja azt, hogy rendelkezik kockázatcsökkentő képességekkel az adattárolás és/vagy a strukturálatlan adatkezelési megoldások terén; 26%-uk belső munkacsoportot hozott létre a stratégia kidolgozására és végrehajtására; XNUMX%-uk pedig csak olyan mesterségesintelligencia-szállítóval fog működni, amelyik megfelelő védelemmel és vezérléssel rendelkezik.

A technológián túl az informatikai és üzleti vezetőknek be kell fektetniük az alkalmazottak képzésébe és oktatásába, hogyan kell megfelelően és biztonságosan használni az AI-technológiákat, hogy megfeleljenek a vállalati céloknak, és megelőzzék a rengeteg adatvédelmi, biztonsági, etikai és pontatlansági problémát. Annak ellenére, hogy a mesterséges intelligencia készségeit megkövetelő szerepek száma húszszorosára nőtt, az elmúlt évben a munkavállalók mindössze 20%-ának ajánlottak fel bármilyen mesterséges intelligenciával foglalkozó képzést a munkáltatók az elmúlt évben – derül ki egy felmérésből. Randstad.

2023 a mesterséges intelligencia éve lesz, amikor a kísérleti koncepcióból stratégiai prioritássá válik a legtöbb vállalat számára, a költségvetés ennek megfelelően módosul. Az, hogy az IT és az üzleti vezetők hogyan valósítják meg az AI-t adatirányítási és kockázatkezelési szempontból, meghatározza, hogy ez általánosságban pozitív fejlemény-e az emberiség számára vagy sem.

Időbélyeg:

Még több ADATVERZITÁS