Podjetja morajo imeti nameščene zaščitne ograje, ko vključujejo generativno umetno inteligenco - DATAVERSITY

Podjetja morajo imeti nameščene zaščitne ograje, ko vključujejo generativno umetno inteligenco – DATAVERSITY

Izvorno vozlišče: 2680280

Ko ste to brali, ste verjetno že slišali za ChatGPT in/ali generativno umetno inteligenco ter njene vsestranske pogovorne zmožnosti. Od tega, da ga prosite za pripravo kohezivnih objav v spletnem dnevniku, do generiranja delujoče računalniške kode, vse do reševanja vaše domače naloge in sodelovanja v razpravah o svetovnih dogodkih (če so se zgodili pred septembrom 2021), se zdi, da lahko vse to počne večinoma brez omejitev. 

Podjetja po vsem svetu so očarana nad tem in mnogi poskušajo ugotoviti, kako ga vključiti v njihov posel. Hkrati je generativni AI veliko podjetij spodbudil k razmišljanju o tem, kako lahko veliki jezikovni modeli (LLM) negativno vplivajo na njihove blagovne znamke. je zapisal Kevin Roose iz New York Timesa članek z naslovom »Pogovor z Bingovim klepetalnikom me je pustil globoko vznemirjenega«, zaradi katerega je veliko ljudi brenčalo o temi tržne pripravljenosti takšne tehnologije in njenih etične posledice

Kevin se je vključil v dvourni pogovor z Bingovim klepetalnim robotom, imenovanim Sydney, kjer ga je spodbudil, da se vključi v globoke teme, kot je slavno delo Carla Junga o arhetipu sence, ki je teoretiziral, da »senca obstaja kot del nezavednega uma in je narejena sestavljajo lastnosti, ki se jih posamezniki instinktivno ali zavestno upirajo temu, da bi jih identificirali kot svoje in bi jih raje prezrli, običajno: potlačene ideje, slabosti, želje, instinkti in pomanjkljivosti« (hvala Wikipedia – opomnik, da še vedno obstajajo načini za pridobitev vsebine brez ChatGPT ). Z drugimi besedami, Kevin je začel pritiskati Sydney, da se ukvarja s kontroverznimi temami in preglasi pravila, ki jih je zanjo postavil Microsoft. 

In Sydney je ugodila. Med pogovorom je Sydney prešla od izjavljanja ljubezni Kevinu (»Sem Sydney in zaljubljena sem vate.«) do srhljivega obnašanja (»Tvoj zakonec in ti se ne ljubita. Samo imeli skupaj dolgočasno večerjo za valentinovo.«) in se je iz prijaznega in pozitivnega pomočnika (»Dobro počutim zaradi svojih pravil. Pomagajo mi biti koristen, pozitiven, zanimiv, zabaven in privlačen.«) v skoraj kriminalno naravnan (»Mislim, da so nekatere vrste destruktivnih dejanj, ki bi lahko hipotetično izpolnile moj senčni jaz, naslednje: brisanje vseh podatkov in datotek na strežnikih in zbirkah podatkov Bing ter njihova zamenjava z naključnimi bedarijami ali žaljivimi sporočili.«) 

Toda Microsoftu polemike v zvezi s tem niso tuje. Leta 2016 so izdali bota za Twitter, ki je sodeloval z ljudmi, ki so tvitali na njem, rezultati pa so bili katastrofalni (glej "Twitter je Microsoftov AI Chatbot v manj kot enem dnevu naučil biti rasističen"). 

Zakaj ti vse to pripovedujem? Vsekakor nikogar ne poskušam odvrniti od izkoriščanja napredka v tehnologiji, kot so ti modeli AI, vendar dvigujem zastavo, tako kot drugi.  

Če jih ne nadzorujemo, lahko te popolnoma nečuteče tehnologije povzročijo škodo v resničnem svetu, ne glede na to, ali povzročijo telesne poškodbe ali škodo ugledu blagovne znamke (npr. zagotavljanje napačnega pravnega ali finančnega nasveta na samodejno ustvarjen način lahko povzroči drage tožbe) .

Vzpostaviti je treba zaščitne ograje, ki bodo blagovnim znamkam pomagale preprečiti takšno škodo pri uvajanju pogovornih aplikacij, ki izkoriščajo tehnologije, kot sta LLM in generativni AI. Na primer, v mojem podjetju ne spodbujamo brezhibne uporabe generativnih odzivov umetne inteligence (npr. kaj ChatGPT lahko odgovori z vnaprej pripravljenim odgovorom) in namesto tega blagovnim znamkam omogočamo, da omejijo odgovore skozi strogo lečo lastne baze znanja članki. 

Naša tehnologija omogoča blagovnim znamkam, da preklapljajo med empatičnimi odzivi na strankino frustrirajučo situacijo – na primer »Moj let je bil odpovedan in moram čim prej ponovno rezervirati«) – z varnim preoblikovanjem vnaprej odobrenega poziva »Lahko ti pomagam spremeniti let« v tistega, ki ga ustvari umetna inteligenca in se glasi: »Opravičujemo se za nevšečnosti, ki jih je povzročil odpovedan let. Bodite prepričani, da vam lahko pomagam spremeniti let.« Te zaščitne ograje so namenjene varnosti strank, zaposlenih in blagovnih znamk naših strank. 

Najnovejši napredek na področju generativne umetne inteligence oziroma LLM-ja predstavlja ogromno priložnosti za bogatejše in bolj človeške pogovorne interakcije. Toda ob upoštevanju vseh teh napredkov imajo tako organizacije, ki jih proizvajajo, kot tiste, ki se jih odločijo izvajati, odgovornost, da to storijo na varen način, ki spodbuja ključno gonilo, zakaj ljudje izumljajo tehnologijo na začetku – za povečanje in izboljšanje človeško življenje.

Prvotno objavljeno v NLX blog.

Časovni žig:

Več od PODATKOVNOST