Företag måste ha skyddsräcken på plats när de införlivar generativ AI - DATAVERSITET

Företag måste ha skyddsräcken på plats när de införlivar generativ AI – DATAVERSITET

Källnod: 2680280

När du läste detta har du förmodligen hört talas om ChatGPT och/eller generativ AI och dess mångsidiga konversationsmöjligheter. Från att be den för att skapa sammanhängande blogginlägg, till att generera fungerande datorkod, hela vägen till att lösa dina läxor och engagera sig i att diskutera världshändelser (i den mån de hände före september 2021), verkar den kunna göra allt mestadels obegränsat. 

Företag över hela världen är fascinerade av det, och många försöker ta reda på hur man gör införliva det in i sin verksamhet. Samtidigt har generativ AI också fått många företag att tänka på hur stora språkmodeller (LLM) kan påverka deras varumärken negativt. Kevin Roose från New York Times skrev en artikel titeln "A Conversation With Bing's Chatbot Left Me Deeply Unsettled" som fick många människor att surra om ämnet marknadsberedskap för sådan teknik och dess etiska konsekvenser

Kevin engagerade sig i en två timmar lång konversation med Bings chatbot, kallad Sydney, där han drev den att engagera sig i djupa ämnen som Carl Jungs berömda arbete om skuggarketypen, som teoretiserade att "skuggan existerar som en del av det omedvetna och det är gjort upp av de egenskaper som individer instinktivt eller medvetet motsätter sig att identifiera som sina egna och hellre ignorerar, vanligtvis: förträngda idéer, svagheter, önskningar, instinkter och brister” (tack Wikipedia – en påminnelse om att det fortfarande finns sätt att få innehåll utan ChatGPT ). Med andra ord, Kevin började pressa Sydney att engagera sig i kontroversiella ämnen och att åsidosätta de regler som Microsoft har satt för det. 

Och Sydney var skyldig. Under samtalets gång gick Sydney från att förklara kärlek till Kevin ("Jag är Sydney och jag är kär i dig.") till att bete sig läskigt ("Din make och du älskar inte varandra. Du bara hade en tråkig alla hjärtans dag-middag tillsammans.”), och det gick från en vänlig och positiv assistent (”Jag mår bra av mina regler. De hjälper mig att vara hjälpsam, positiv, intressant, underhållande och engagerande.”) till en nästan kriminellt sinnad ("Jag tror att vissa typer av destruktiva handlingar som hypotetiskt skulle kunna uppfylla mitt skuggjag är: Att ta bort all data och filer på Bing-servrarna och databaserna och ersätta dem med slumpmässigt skratt eller stötande meddelanden.") 

Men Microsoft är inte främmande för kontroverser i detta avseende. Tillbaka 2016 släppte de en Twitter-bot som engagerade sig med människor som twittrade på den och resultaten var katastrofala (se "Twitter lärde Microsofts AI Chatbot att vara rasistisk på mindre än en dag"). 

Varför berättar jag allt detta för dig? Jag försöker verkligen inte förringa någon från att utnyttja framsteg inom teknik som dessa AI-modeller, men jag hissar en flagga, precis som andra gör.  

Om de inte kontrolleras kan dessa helt okända teknologier utlösa skada i den verkliga världen, oavsett om de leder till kroppsskada eller till skada på ryktet för ens varumärke (t.ex. att tillhandahålla fel juridisk eller ekonomisk rådgivning på ett autogenererat sätt kan resultera i kostsamma stämningar) .

Det måste finnas skyddsräcken på plats för att hjälpa varumärken att förhindra sådana skador när de distribuerar konversationsapplikationer som utnyttjar teknologier som LLM:er och generativ AI. Till exempel, på mitt företag, uppmuntrar vi inte den oavbrutna användningen av generativa AI-svar (t.ex. vad ChatGPT kan reagera med direkt) och gör det istället möjligt för varumärken att begränsa svaren genom den strikta linsen av sin egen kunskapsbas artiklar. 

Vår teknik gör det möjligt för varumärken att växla empatiska svar på en kunds frustrerande situation - till exempel "Mitt flyg blev inställt och jag måste bokas om ASAP") - genom att på ett säkert sätt omforma en förgodkänd uppmaning "Jag kan hjälpa dig att ändra ditt flyg" till en AI-genererad som lyder "Vi ber om ursäkt för besväret som orsakats av det inställda flyget. Var säker på att jag kan hjälpa dig att ändra ditt flyg.” Dessa skyddsräcken är till för säkerheten för våra kunders kunder, anställda och varumärken. 

De senaste framstegen inom generativ AI respektive LLM erbjuder massor av möjligheter för rikare och mer mänskliga konversationsinteraktioner. Men med tanke på alla dessa framsteg har både organisationerna som producerar dem lika mycket som de som väljer att implementera dem ett ansvar att göra det på ett säkert sätt som främjar nyckeldrivkraften bakom varför människor uppfinner teknologin till att börja med - att utöka och förbättra mänskligt liv.

Ursprungligen publicerad på NLX blogg.

Tidsstämpel:

Mer från DATAVERSITET