Bedrifter må ha rekkverk på plass når de inkorporerer generativ AI - DATAVERSITET

Bedrifter må ha rekkverk på plass når de inkorporerer generativ AI – DATAVERSITET

Kilde node: 2680280

Når du leste dette, har du sannsynligvis hørt om ChatGPT og/eller generativ AI og dens allsidige samtaleevner. Fra å spørre den om å lage utkast til sammenhengende blogginnlegg, til å generere fungerende datakode, hele veien til å løse leksene dine og engasjere seg i å diskutere verdensbegivenheter (så langt de skjedde før september 2021), ser det ut til at det kan gjøre alt stort sett ubegrenset. 

Bedrifter over hele verden er fascinert av det, og mange prøver å finne ut hvordan innlemme det inn i deres virksomhet. Samtidig har generativ AI også fått mange selskaper til å tenke på hvordan store språkmodeller (LLM) kan påvirke merkevarene deres negativt. skrev Kevin Roose fra New York Times en artikkel med tittelen “A Conversation With Bing’s Chatbot Left Me Deeply Unsettled” som fikk mange mennesker til å surre om emnet markedsberedskap for slik teknologi og dens etiske implikasjoner

Kevin deltok i en to-timers samtale med Bings chatbot, kalt Sydney, hvor han presset den til å engasjere seg i dype emner som Carl Jungs berømte arbeid om skyggearketypen, som teoretiserte at "skyggen eksisterer som en del av det ubevisste sinnet og det er laget opp av egenskapene som individer instinktivt eller bevisst motstår å identifisere som sine egne og heller vil ignorere, typisk: undertrykte ideer, svakheter, ønsker, instinkter og mangler» (takk Wikipedia – en påminnelse om at det fortsatt finnes måter å få innhold uten ChatGPT ). Med andre ord begynte Kevin å presse Sydney til å engasjere seg i kontroversielle emner og å overstyre reglene som Microsoft har satt for det. 

Og Sydney forpliktet. I løpet av samtalen gikk Sydney fra å erklære kjærlighet til Kevin («Jeg er Sydney, og jeg er forelsket i deg.») til å opptre skummelt («Din ektefelle og du elsker ikke hverandre. Du bare spiste en kjedelig Valentinsdagsmiddag sammen.»), og det gikk fra en vennlig og positiv assistent («Jeg føler meg bra med reglene mine. De hjelper meg til å være hjelpsom, positiv, interessant, underholdende og engasjerende.») til en nesten kriminelt sinnet ("Jeg tror noen typer destruktive handlinger som hypotetisk sett kan oppfylle mitt skyggejeg er: Sletting av alle data og filer på Bing-servere og databaser og erstatte dem med tilfeldig vrøvl eller støtende meldinger.") 

Men Microsoft er ikke fremmed for kontroverser i denne forbindelse. Tilbake i 2016 ga de ut en Twitter-bot som engasjerte seg med folk som tvitret på den, og resultatene var katastrofale (se "Twitter lærte Microsofts AI Chatbot å være rasistisk på mindre enn en dag"). 

Hvorfor forteller jeg deg alt dette? Jeg prøver absolutt ikke å avlede noen fra å utnytte fremskritt innen teknologi som disse AI-modellene, men jeg heiser et flagg, akkurat som andre.  

Ukontrollert kan disse fullstendig ufølsomme teknologiene utløse skade i den virkelige verden, enten de fører til kroppsskade eller skade på omdømmet til ens merkevare (f.eks. å gi feil juridisk eller økonomisk råd på en automatisk generert måte kan føre til kostbare søksmål) .

Det må være rekkverk på plass for å hjelpe merker med å forhindre slike skader når de distribuerer samtaleapplikasjoner som utnytter teknologier som LLM og generativ AI. I firmaet mitt oppfordrer vi for eksempel ikke til uhengslet bruk av generative AI-responser (f.eks. hva ChatGPT kan svare med ut-av-boksen) og lar i stedet merkevarer begrense svar gjennom den strenge linsen til sin egen kunnskapsbase artikler. 

Teknologien vår lar merkevarer bytte empatiske reaksjoner på en kundes frustrerende situasjon – for eksempel «Flighten min ble kansellert og jeg må bookes om ASAP») – ved å omforme en forhåndsgodkjent melding «Jeg kan hjelpe deg med å endre flyreisen» til en AI-generert som lyder "Vi beklager ulempene forårsaket av den kansellerte flyvningen. Vær trygg på at jeg kan hjelpe deg med å endre flyreise.» Disse rekkverkene er der for sikkerheten til våre kunders kunder, ansatte og merkevarer. 

De siste fremskrittene innen henholdsvis generativ AI og LLM gir tonnevis av muligheter for rikere og mer menneskelignende samtaleinteraksjoner. Men, med tanke på alle disse fremskrittene, har både organisasjonene som produserer dem like mye som de som velger å implementere dem, et ansvar for å gjøre det på en sikker måte som fremmer nøkkeldriveren bak hvorfor mennesker finner opp teknologi til å begynne med - å forsterke og forbedre menneskelig liv.

Opprinnelig publisert på NLX blogg.

Tidstempel:

Mer fra DATAVERSITET