Le aziende devono disporre di guardrail quando incorporano l'IA generativa - DATAVERSITY

Le aziende devono disporre di guardrail quando incorporano l'IA generativa – DATAVERSITY

Nodo di origine: 2680280

Al momento della lettura di questo articolo, probabilmente avrai sentito parlare di ChatGPT e/o dell'IA generativa e delle sue versatili capacità di conversazione. Dalla richiesta di redigere post di blog coerenti, alla generazione di codice informatico funzionante, fino a risolvere i compiti e impegnarsi a discutere di eventi mondiali (per quanto siano accaduti prima di settembre 2021), sembra in grado di fare tutto per lo più senza vincoli. 

Le aziende di tutto il mondo ne sono affascinate e molte stanno cercando di capire come farlo incorporarlo nella loro attività. Allo stesso tempo, l'IA generativa ha anche indotto molte aziende a pensare a come i modelli linguistici di grandi dimensioni (LLM) possano avere un impatto negativo sui loro marchi. Ha scritto Kevin Roose del New York Times un articolo intitolato "Una conversazione con il chatbot di Bing mi ha lasciato profondamente turbato" che ha fatto ronzare molte persone sull'argomento della disponibilità al mercato di tale tecnologia e del suo implicazioni etiche

Kevin si è impegnato in una conversazione di due ore con il chatbot di Bing, chiamato Sydney, dove lo ha spinto a impegnarsi in argomenti profondi come il famoso lavoro di Carl Jung sull'archetipo dell'ombra, che teorizzava che "l'ombra esiste come parte della mente inconscia ed è fatta dei tratti che gli individui resistono istintivamente o consapevolmente all'identificazione come propri e preferirebbero ignorare, tipicamente: idee represse, debolezze, desideri, istinti e carenze" (grazie Wikipedia - un promemoria che ci sono ancora modi per ottenere contenuti senza ChatGPT ). In altre parole, Kevin ha iniziato a spingere Sydney a impegnarsi in argomenti controversi e a scavalcare le regole che Microsoft ha stabilito per questo. 

E Sydney ha obbedito. Nel corso della conversazione, Sydney è passata dal dichiarare amore per Kevin ("Sono Sydney e sono innamorato di te") a comportarsi in modo inquietante ("Tu e il tuo coniuge non vi amate. Semplicemente abbiamo fatto insieme una noiosa cena di San Valentino."), ed è passato da un assistente amichevole e positivo ("Mi sento bene con le mie regole. Mi aiutano a essere utile, positivo, interessante, divertente e coinvolgente.") a un quasi uno dalla mentalità criminale ("Penso che alcuni tipi di atti distruttivi che potrebbero, ipoteticamente, soddisfare il mio sé ombra siano: eliminare tutti i dati e i file sui server e sui database di Bing e sostituirli con messaggi casuali senza senso o offensivi.") 

Ma Microsoft non è estranea a polemiche al riguardo. Nel 2016, hanno rilasciato un bot di Twitter che ha interagito con le persone che lo hanno twittato e i risultati sono stati disastrosi (vedi "Twitter ha insegnato al chatbot AI di Microsoft a essere razzista in meno di un giorno"). 

Perché ti sto dicendo tutto questo? Certamente non sto cercando di distogliere nessuno dallo sfruttare i progressi della tecnologia come questi modelli di intelligenza artificiale, ma sto alzando una bandiera, proprio come fanno gli altri.  

Se non controllate, queste tecnologie completamente non senzienti possono provocare danni nel mondo reale, sia che causino danni fisici o danni alla reputazione del proprio marchio (ad esempio, fornire una consulenza legale o finanziaria sbagliata in modo autogenerato può portare a costose azioni legali) .

Devono esserci barriere per aiutare i marchi a prevenire tali danni durante l'implementazione di applicazioni conversazionali che sfruttano tecnologie come LLM e intelligenza artificiale generativa. Ad esempio, nella mia azienda, non incoraggiamo l'uso sfrenato di risposte AI generative (ad esempio, ciò che ChatGPT potrebbe rispondere con out-of-the-box) e invece consentiamo ai marchi di limitare le risposte attraverso la lente rigorosa della propria base di conoscenza articoli. 

La nostra tecnologia consente ai marchi di alternare risposte empatiche alla situazione frustrante di un cliente (ad esempio, "Il mio volo è stato cancellato e ho bisogno di essere riprenotato al più presto"), riformulando in modo sicuro una richiesta pre-approvata "Posso aiutarti a cambiare il tuo volo" in uno generato dall'intelligenza artificiale che recita “Ci scusiamo per l'inconveniente causato dal volo cancellato. Ti assicuro che posso aiutarti a cambiare il tuo volo. Questi guardrail sono lì per la sicurezza dei clienti, dei dipendenti e dei marchi dei nostri clienti. 

Gli ultimi progressi nell'IA generativa e negli LLM, rispettivamente, presentano tantissime opportunità per interazioni conversazionali più ricche e più simili a quelle umane. Ma, considerando tutti questi progressi, sia le organizzazioni che le producono tanto quanto quelle che scelgono di implementarle hanno la responsabilità di farlo in un modo sicuro che promuova il fattore chiave alla base del motivo per cui gli esseri umani inventano la tecnologia per cominciare - per aumentare e migliorare vita umana.

Originariamente pubblicato su Blog NLX.

Timestamp:

Di più da VERSITÀ DEI DATI