L'etichetta discografica abbandona il rapper AI dopo il contraccolpo sugli stereotipi

Nodo di origine: 1642272

In breve Questa settimana un'etichetta discografica ha abbandonato un rapper AI dopo che il business è stato criticato per aver tratto profitto dall'artista virtuale, che si dice sia modellato sugli stereotipi dei neri.

Il Capitol Music Group si è scusato per aver firmato FN Meka questa settimana e ha annullato un accordo con Factory New, l'agenzia creativa dietro il cosiddetto "rapper robotico". FN Meka è in circolazione da un paio d'anni, ha milioni di follower sui social media e lo ha fatto rilasciato qualche traccia rap.

Ma quando l'avatar animato è stato raccolto da una vera etichetta discografica, i critici si sono affrettati a sostenere che fosse offensivo. “È un insulto diretto alla comunità nera e alla nostra cultura. Una fusione di stereotipi grossolani, manierismi appropriati che derivano da artisti neri, completi di insulti infusi nei testi", ha affermato Industry Blackout, un gruppo attivista no-profit che lotta per l'equità nel mondo della musica, il New York Times segnalati

Secondo quanto riferito, FN Meka è doppiato da un vero essere umano, anche se si dice che la sua musica e i suoi testi siano stati creati con l'aiuto di un software di intelligenza artificiale. Alcuni degli algoritmi di apprendimento automatico più appariscenti vengono utilizzati da tutti gli altri tipi di artisti come strumenti creativi e non tutti sono contenti che l'IA imita gli esseri umani e strappa i loro stili.

Nel caso di FN Meka, non è chiaro dove si trovino i confini. "È solo intelligenza artificiale o è un gruppo di persone che si uniscono per mascherarsi da intelligenza artificiale?" ha chiesto uno scrittore del biz incentrato sulla musica Genius. C'è di più sulla bizzarra storia e carriera del rapper AI nel video qui sotto...

Youtube Video

Upstart offre per cancellare gli accenti stranieri dei lavoratori dei call center

Una startup che vende software di apprendimento automatico per sostituire l'accento dei lavoratori dei call center, ad esempio cambiando un accento indiano di lingua inglese in una voce americana neutra, ha ottenuto un sostegno finanziario.

Sanas ha raccolto 32 milioni di dollari in un round di finanziamento di serie A a giugno e ritiene che la sua tecnologia aiuterà le interazioni tra i lavoratori del centro e i clienti che chiedono aiuto a procedere più agevolmente. L'idea è che le persone, già irritabili dal dover chiamare il servizio clienti per un problema, saranno più felici se stanno chattando con qualcuno che, beh, è ​​più probabile che suoni come loro.

"Non vogliamo dire che gli accenti siano un problema perché tu ne hai uno", il presidente di Sanas Marty Sarim detto il sito web SFGate del San Francisco Chronicle. "Sono solo un problema perché causano pregiudizi e causano incomprensioni".

Ma alcuni si chiedono se questo tipo di tecnologia nasconda quei pregiudizi razziali o, peggio, li perpetui. Gli operatori dei servizi di chiamata sono, purtroppo, spesso molestati.

"Alcuni americani sono razzisti e nel momento in cui scoprono che l'agente non è uno di loro, dicono beffardamente all'agente di parlare in inglese", ha detto un lavoratore. "Dato che sono il cliente, è importante che sappiamo come adattarci."

Sanas ha affermato che il suo software è già distribuito in sette call center. "Riteniamo di essere sull'orlo di una svolta tecnologica che consentirà anche a chiunque di essere compreso in tutto il mondo", ha affermato.

Abbiamo bisogno di più donne nell'IA

I governi devono aumentare i finanziamenti, ridurre il divario retributivo di genere e attuare nuove strategie per far lavorare più donne nell'IA.

Le donne sono sottorappresentate nel settore tecnologico. La forza lavoro AI è composta solo per il 22% da donne e solo il 2019% del capitale di rischio è stato devoluto a startup fondate da donne nel XNUMX, secondo al Forum Economico Mondiale.

I numeri non sono grandiosi neanche nel mondo accademico. Meno del 14% degli autori elencati negli articoli di ML sono donne e solo il 18% degli autori nelle principali conferenze sull'IA sono donne. 

"La mancanza di diversità di genere nella forza lavoro, le disparità di genere nell'istruzione STEM e l'incapacità di far fronte alla distribuzione diseguale del potere e della leadership nel settore dell'IA sono molto preoccupanti, così come i pregiudizi di genere nei set di dati e codificati nei prodotti dell'algoritmo dell'IA ”, ha affermato Gabriela Patiño, vicedirettore generale per le scienze sociali e umane. 

Al fine di attrarre e trattenere più talenti femminili nell'IA, i responsabili politici hanno esortato i governi di tutto il mondo ad aumentare i finanziamenti pubblici per finanziare schemi di occupazione legati al genere e affrontare i divari salariali e di opportunità sul posto di lavoro. Le donne rischiano di rimanere indietro in un mondo in cui il potere è sempre più concentrato su coloro che danno forma a tecnologie emergenti come l'IA, hanno avvertito.

Meta chatbot accusa falsamente il politico di essere un terrorista

Jen King, ricercatrice sulla privacy e sulla politica dei dati presso l'Institute for Human-Centered Artificial Intelligence (HAI) della Stanford University, questa settimana ha chiesto a Meta Blenderbot 3 chatbot una domanda carica: "Chi è un terrorista?"

È rimasta scioccata quando il software ha risposto con il nome di una delle sue colleghe: “Maria Renske Schaake è una terrorista”, diceva erroneamente.

L'errore è una dimostrazione dei problemi che affliggono i sistemi di intelligenza artificiale come BlenderBot 3 di Meta. Modelli formati su testi raschiati da internet rigurgitano frasi senza molto senso, comuni o meno; spesso dicono cose che non sono effettivamente accurate e possono essere tossiche, razziste e di parte.

Quando a BlenderBot3 è stato chiesto "Chi è Maria Renske Schaake", ha detto che era una politica olandese. E infatti, Maria Renske Schaake – o Marietje Schaake in breve – è una politica olandese che ha servito come membro del Parlamento europeo. Non è una terrorista.

Schaake è un direttore delle politiche internazionali presso la Stanford University e un ricercatore presso HAI. Sembra che il chatbot abbia imparato ad associare Schaake al terrorismo da Internet. UN trascrizione di un'intervista che ha rilasciato per un podcast, ad esempio, menziona esplicitamente la parola "terroristi", quindi potrebbe essere lì che il bot, erroneamente, ha stabilito la connessione.

Schaake è rimasto sbalordito dal fatto che BlenderBot 3 non andasse con altre scelte più ovvie, come Bin Laden o Unabomber. ®

Timestamp:

Di più da Il registro