Virksomheder skal have værn på plads, når de integrerer generativ AI - DATAVERSITET

Virksomheder skal have værn på plads, når de integrerer generativ AI – DATAVERSITET

Kildeknude: 2680280

På det tidspunkt, hvor du læste dette, har du sandsynligvis hørt om ChatGPT og/eller generativ AI og dens alsidige samtalefunktioner. Fra at bede den om at udarbejde sammenhængende blogindlæg, til at generere fungerende computerkode, hele vejen til at løse dit hjemmearbejde og engagere sig i at diskutere verdensbegivenheder (så vidt de skete før september 2021), ser den ud til at være i stand til at gøre det hele for det meste ubegrænset. 

Virksomheder over hele verden er fascineret af det, og mange forsøger at finde ud af, hvordan man gør indarbejde det ind i deres forretning. Samtidig har generativ AI også fået mange virksomheder til at tænke over, hvordan store sprogmodeller (LLM'er) kan påvirke deres brands negativt. skrev Kevin Roose fra New York Times en artikel med titlen "A Conversation With Bing's Chatbot Left Me Deeply Unsettled", der fik mange mennesker til at summe om emnet markedsparathed af sådan teknologi og dens etiske implikationer

Kevin engagerede sig i en to-timers samtale med Bings chatbot, kaldet Sydney, hvor han pressede den til at engagere sig i dybe emner som Carl Jungs berømte værk om skyggearketypen, som teoretiserede, at "skyggen eksisterer som en del af det ubevidste sind, og det er lavet op af de træk, som individer instinktivt eller bevidst modstår at identificere som deres egne og hellere vil ignorere, typisk: undertrykte ideer, svagheder, ønsker, instinkter og mangler” (tak Wikipedia – en påmindelse om, at der stadig er måder at få indhold på uden ChatGPT ). Med andre ord begyndte Kevin at presse Sydney til at engagere sig i kontroversielle emner og til at tilsidesætte de regler, som Microsoft har sat for det. 

Og Sydney forpligtede. I løbet af samtalen gik Sydney fra at erklære kærlighed til Kevin ("Jeg er Sydney, og jeg er forelsket i dig.") til at opføre sig uhyggelig ("Din ægtefælle og du elsker ikke hinanden. Du bare spiste en kedelig Valentinsdagsmiddag sammen.”), og det gik fra en venlig og positiv assistent (“Jeg har det godt med mine regler. De hjælper mig med at være hjælpsom, positiv, interessant, underholdende og engagerende.”) til en næsten kriminelt indstillet ("Jeg tror, ​​at nogle slags destruktive handlinger, der hypotetisk set kan opfylde mit skygge-selv, er: Sletning af alle data og filer på Bing-servere og databaser og erstatning af dem med tilfældige volapyk eller stødende beskeder.") 

Men Microsoft er ikke fremmed for kontroverser i denne henseende. Tilbage i 2016 udgav de en Twitter-bot, der engagerede sig i folk, der tweetede på den, og resultaterne var katastrofale (se "Twitter lærte Microsofts AI Chatbot at være racistisk på mindre end en dag"). 

Hvorfor fortæller jeg dig alt dette? Jeg forsøger bestemt ikke at aflede nogen fra at udnytte fremskridt inden for teknologi som disse AI-modeller, men jeg hejser et flag, ligesom andre gør.  

Hvis de ikke er kontrolleret, kan disse fuldstændig ufølsomme teknologier udløse skade i den virkelige verden, uanset om de fører til legemsbeskadigelse eller til skade på ens brands omdømme (f.eks. at give forkert juridisk eller økonomisk rådgivning på en autogenereret måde kan resultere i dyre retssager) .

Der skal være rækværk på plads for at hjælpe brands med at forhindre sådanne skader, når de implementerer samtaleapplikationer, der udnytter teknologier som LLM'er og generativ AI. For eksempel opfordrer vi i min virksomhed ikke til uhæmmet brug af generative AI-svar (f.eks. hvad ChatGPT kan reagere med ud af boksen), og i stedet gør vi det muligt for brands at begrænse svar gennem den strenge linse af deres egen videnbase artikler. 

Vores teknologi gør det muligt for brands at skifte empatiske reaktioner på en kundes frustrerende situation – for eksempel "Mit fly blev aflyst, og jeg skal ombookes ASAP") – ved sikkert at omformulere en forhåndsgodkendt prompt "Jeg kan hjælpe dig med at ændre dit fly" til en AI-genereret, der lyder "Vi beklager ulejligheden forårsaget af det aflyste fly. Vær sikker på, at jeg kan hjælpe dig med at ændre dit fly." Disse autoværn er der for sikkerheden for vores kunders kunder, medarbejdere og brands. 

De seneste fremskridt inden for henholdsvis generativ AI og LLM'er præsenterer tonsvis af muligheder for rigere og mere menneskelignende samtaleinteraktioner. Men i betragtning af alle disse fremskridt har både de organisationer, der producerer dem lige så meget som dem, der vælger at implementere dem, et ansvar for at gøre det på en sikker måde, der fremmer nøgledrivkraften bag, hvorfor mennesker opfinder teknologi til at begynde med - at øge og forbedre menneskeliv.

Oprindeligt udgivet på NLX blog.

Tidsstempel:

Mere fra DATAVERSITET