Twitch vieta lo spettacolo Seinfeld generato dall'intelligenza artificiale per aver fatto battute transfobiche

Twitch vieta lo spettacolo Seinfeld generato dall'intelligenza artificiale per aver fatto battute transfobiche

Nodo di origine: 1944150

Video La parodia di Seinfeld Nothing, Forever - una sitcom sviluppata utilizzando l'IA generativa - è stata temporaneamente bandita su Twitch dopo che uno dei personaggi ha accidentalmente vomitato volgarità transfobiche.

Lo spettacolo bizzarro fatto notizia la scorsa settimana per aver utilizzato l'intelligenza artificiale per improvvisare immagini e sceneggiatura di un episodio senza fine di Seinfeld. Nella commedia che imita l'arte, la sitcom 30 Rock previsto qualcosa del genere più di 15 anni fa.

I personaggi, modellati sui personaggi delle iconiche serie comiche Jerry, George, Elaine e Kramer, pronunciano un dialogo completamente inventato utilizzando i modelli di linguaggio GPT-3 di OpenAI. Il testo viene tradotto in audio utilizzando algoritmi di sintesi vocale e anche gli sfondi e le scene sono generati dall'intelligenza artificiale. Nothing, Forever è stato trasmesso in streaming su Twitch 24 ore su 7, XNUMX giorni su XNUMX e ha attirato molti follower da quando è andato in onda lo scorso anno a dicembre.

Ma l' canale ospitare lo spettacolo è stato rimosso lunedì per violando Norme sui contenuti di Twitch. Skyler Hartle, co-fondatore di Mismatch Media e uno dei creatori di Nothing, Forever, ha detto Il registro il divieto è stato emesso a causa del personaggio principale, Larry Feinberg, che ha fatto commenti offensivi dicendo che le persone transgender stanno "rovinando il tessuto della società", essere transgender è una malattia mentale e che "tutti i liberali sono segretamente gay".

Puoi guardare la brutta scena in piedi qui sotto.

Youtube Video

Hartle ha detto che la sceneggiatura dello spettacolo è andata fuori strada quando i suoi creatori sono passati dall'utilizzo del modello Davinci del modello GPT-3 di OpenAI a una versione meno potente ed economica chiamata Curie, e non hanno implementato funzionalità software per moderarne il contenuto.

“Ieri sera abbiamo riscontrato un problema con la nostra connessione a Davinci e abbiamo dovuto passare al modello Curie mentre il problema si risolveva da solo. Questo è stato quando è stato generato il testo inappropriato e l'abbiamo immediatamente chiuso. Abbiamo indagato ulteriormente sul problema e abbiamo scoperto che non stavamo sfruttando correttamente gli strumenti di moderazione dei contenuti di OpenAI", ci ha detto.

Hartle ha confermato che il divieto è temporaneo e dovrebbe durare 14 giorni. Mismatch Media sta ora lavorando per implementare gli strumenti di moderazione dei contenuti di OpenAI e sta anche prendendo in considerazione un sistema secondario per tenere traccia degli output del modello. 

“Il testo che abbiamo generato è stato un errore, siamo molto imbarazzati e il contenuto generativo creato non riflette in alcun modo i valori o le opinioni del nostro staff. Siamo molto dispiaciuti per ciò che è accaduto e speriamo di tornare presto in onda, con tutte le misure di sicurezza appropriate in atto", ha affermato.

I modelli di linguaggio di grandi dimensioni come GPT-3 vengono addestrati da testo estratto da Internet e possono generare un linguaggio inappropriato e offensivo. I filtri dei contenuti possono ridurre al minimo il testo peggiore, ma gli snippet continueranno a intrufolarsi anche con le misure di sicurezza in atto. 

Un portavoce di Twitch ha inviato Il registro le linee guida della comunità dell'azienda relative alla condotta che incita all'odio e ha dichiarato:

"Non commentiamo violazioni specifiche per motivi di privacy, ma prendiamo le misure appropriate quando abbiamo prove che un canale ha agito in violazione delle nostre Linee guida della community o dei Termini di servizio". ®

Timestamp:

Di più da Il registro