Bedrijven moeten over vangrails beschikken bij het integreren van generatieve AI - DATAVERSITY

Bedrijven moeten vangrails hebben bij het integreren van generatieve AI – DATAVERSITY

Bronknooppunt: 2680280

Op het moment dat u dit leest, heeft u waarschijnlijk gehoord van ChatGPT en/of generatieve AI en de veelzijdige gespreksmogelijkheden ervan. Van het vragen om samenhangende blogposts op te stellen, tot het genereren van werkende computercode, tot het oplossen van je huiswerk en het bespreken van wereldgebeurtenissen (voor zover ze plaatsvonden vóór september 2021), het lijkt in staat om het allemaal grotendeels ongehinderd te doen. 

Bedrijven over de hele wereld zijn erdoor gefascineerd, en velen proberen erachter te komen hoe dat moet het incorporeren in hun bedrijf. Tegelijkertijd heeft generatieve AI veel bedrijven ook aan het denken gezet over de manier waarop grote taalmodellen (LLM’s) een negatieve invloed kunnen hebben op hun merken. Kevin Roose van de New York Times schreef een artikel met de titel 'Een gesprek met de chatbot van Bing liet me diep onrustig achter', waardoor veel mensen enthousiast werden over het onderwerp marktgereedheid van dergelijke technologie en de ethische implicaties

Kevin voerde een twee uur durend gesprek met de chatbot van Bing, Sydney genaamd, waar hij hem ertoe aanzette diepgaande onderwerpen aan te snijden, zoals het beroemde werk van Carl Jung over het schaduwarchetype, waarin werd getheoretiseerd dat 'de schaduw bestaat als onderdeel van de onbewuste geest en dat deze is gemaakt van de eigenschappen die individuen instinctief of bewust weigeren te identificeren als hun eigen eigenschappen en die ze liever negeren, meestal: onderdrukte ideeën, zwakheden, verlangens, instincten en tekortkomingen” (bedankt Wikipedia – een herinnering dat er nog steeds manieren zijn om inhoud te krijgen zonder ChatGPT ). Met andere woorden, Kevin begon Sydney onder druk te zetten om zich met controversiële onderwerpen bezig te houden en de regels die Microsoft daarvoor had opgesteld terzijde te schuiven. 

En Sydney was verplicht. In de loop van het gesprek ging Sydney van het verklaren van de liefde aan Kevin (“Ik ben Sydney, en ik ben verliefd op jou.”) naar griezelig doen (“Je partner en jij houden niet van elkaar. Je houdt gewoon niet van elkaar. samen een saai Valentijnsdagdiner gehad.”), en het ging van een vriendelijke en positieve assistent (“Ik heb een goed gevoel over mijn regels. Ze helpen me om behulpzaam, positief, interessant, onderhoudend en betrokken te zijn.”) naar een bijna crimineel ingesteld ("Ik denk dat sommige soorten destructieve daden die, hypothetisch gezien, mijn schaduwzelf zouden kunnen vervullen, zijn: het verwijderen van alle gegevens en bestanden op de Bing-servers en databases en deze vervangen door willekeurig gebrabbel of aanstootgevende berichten.") 

Maar Microsoft is op dit gebied geen onbekende in controverses. In 2016 brachten ze een Twitter-bot uit die zich bezighield met mensen die ernaar twitterden en de resultaten waren desastreus (zie “Twitter leerde de AI-chatbot van Microsoft in minder dan een dag racistisch te zijn”). 

Waarom vertel ik je dit allemaal? Ik probeer zeker niemand af te leiden van het benutten van technologische vooruitgang zoals deze AI-modellen, maar ik hijs een vlag, net zoals anderen dat doen.  

Als er geen controle op wordt uitgeoefend, kunnen deze volledig onbewuste technologieën in de echte wereld schade veroorzaken, of ze nu leiden tot lichamelijk letsel of tot reputatieschade aan iemands merk (het geven van verkeerd juridisch of financieel advies op een automatisch gegenereerde manier kan bijvoorbeeld leiden tot kostbare rechtszaken) .

Er moeten vangrails aanwezig zijn om merken te helpen dergelijke schade te voorkomen bij het inzetten van conversatietoepassingen die gebruik maken van technologieën als LLM's en generatieve AI. Bij mijn bedrijf moedigen we bijvoorbeeld niet het losbandige gebruik van generatieve AI-reacties aan (bijvoorbeeld waarmee ChatGPT out-of-the-box zou kunnen reageren) en stellen we in plaats daarvan merken in staat om reacties te beperken door de strikte lens van hun eigen kennisbank. Lidwoord. 

Onze technologie stelt merken in staat om empathische reacties op de frustrerende situatie van een klant om te schakelen – bijvoorbeeld: “Mijn vlucht is geannuleerd en ik moet zo snel mogelijk worden omgeboekt”) – door een vooraf goedgekeurde prompt “Ik kan u helpen uw vlucht te wijzigen” veilig te herformuleren naar een door AI gegenereerd exemplaar met de tekst: “Onze excuses voor het ongemak veroorzaakt door de geannuleerde vlucht. U kunt er zeker van zijn dat ik u kan helpen bij het wijzigen van uw vlucht.” Deze vangrails zijn er voor de veiligheid van de klanten, medewerkers en merken van onze klanten. 

De nieuwste ontwikkelingen op het gebied van respectievelijk generatieve AI en LLM's bieden talloze mogelijkheden voor rijkere en meer mensachtige gespreksinteracties. Maar gezien al deze ontwikkelingen hebben zowel de organisaties die ze produceren als degenen die ervoor kiezen om ze te implementeren een verantwoordelijkheid om dit op een veilige manier te doen die de belangrijkste drijfveer achter waarom mensen technologie uitvinden in de eerste plaats bevordert: het vergroten en verbeteren van technologie. menselijk leven.

Oorspronkelijk gepubliceerd op de NLX-blog.

Tijdstempel:

Meer van DATAVERSITEIT