Pladeselskab dropper AI-rapper efter modreaktion over stereotyper

Kildeknude: 1642272

Kort om Et pladeselskab droppede i denne uge en AI-rapper, efter at biz'en blev kritiseret for at drage fordel af den virtuelle kunstner, der siges at være modelleret efter sorte stereotyper.

Capitol Music Group undskyldte for at have underskrevet FN Meka i denne uge og annullerede en aftale med Factory New, det kreative bureau bag den såkaldte "robotrapper". FN Meka har eksisteret i et par år, har millioner af følgere på sociale medier og har frigivet et par rap-numre.

Men da den animerede avatar blev samlet op af et egentligt pladeselskab, var kritikerne hurtige til at hævde, at den var stødende. "Det er en direkte fornærmelse mod det sorte samfund og vores kultur. En sammensmeltning af grove stereotyper, appropriative manerer, der stammer fra sorte kunstnere, komplet med besværgelser infunderet i tekster," sagde Industry Blackout, en aktivistisk non-profit gruppe, der kæmper for egenkapital i musikbranchen, New York Times rapporteret

FN Meka er angiveligt udtrykt af et rigtigt menneske, selvom hans musik og tekster siges at være skabt ved hjælp af AI-software. Nogle af de mest prangende maskinlæringsalgoritmer bliver brugt af alle andre slags kunstnere som kreative værktøjer, og ikke alle er tilfredse med AI, der efterligner mennesker og river deres stile af.

I FN Mekas tilfælde er det ikke klart, hvor grænserne går. "Er det bare AI, eller er det en gruppe mennesker, der går sammen for at udgive sig for AI?" spurgte en forfatter på den musikfokuserede biz Genius. Der er mere om AI-rapperens bizarre historie og karriere i videoen nedenfor...

Youtube Video

Upstart tilbyder at slette udenlandske accenter af callcentermedarbejdere

En startup, der sælger maskinlæringssoftware til at erstatte accenten hos callcentermedarbejdere – for eksempel at ændre en engelsktalende indisk accent til en neutral amerikansk stemme – har tiltrukket sig økonomisk opbakning.

Sanas rejste $32 millioner i en serie-A-finansieringsrunde i juni og mener, at dets teknologi vil hjælpe med at interaktioner mellem centermedarbejdere og kunder, der ringer efter hjælp, forløbe mere problemfrit. Ideen er, at folk, der allerede er irritable over at skulle ringe til kundeservice med et problem, vil blive gladere, hvis de chatter med nogen, som er mere tilbøjelige til at lyde som dem.

"Vi ønsker ikke at sige, at accenter er et problem, fordi du har en," Sanas præsident Marty Sarim fortalt San Francisco Chronicles SFGate-websted. "De er kun et problem, fordi de forårsager bias og de forårsager misforståelser."

Men nogle stiller spørgsmålstegn ved, om denne type teknologi dækker over disse racemæssige skævheder, eller endnu værre, fastholder dem. Opkaldstjenesteoperatører bliver desværre ofte chikaneret.

"Nogle amerikanere er racister, og i det øjeblik de finder ud af, at agenten ikke er en af ​​dem, fortæller de hånende agenten, at han skal tale engelsk," sagde en medarbejder. "Da de er kunden, er det vigtigt, at vi ved, hvordan vi skal justere."

Sanas sagde, at deres software allerede er implementeret på tværs af syv callcentre. "Vi føler, at vi er på randen af ​​et teknologisk gennembrud, der vil gøre det muligt for alle at blive forstået over hele kloden," sagde den.

Vi har brug for flere kvinder i AI

Regeringer er nødt til at øge finansieringen, mindske kønsbestemte lønforskelle og implementere nye strategier for at få flere kvinder til at arbejde med kunstig intelligens.

Kvinder er underrepræsenteret i teknologiindustrien. AI-arbejdsstyrken består af kun 22 procent kvinder, og kun to procent af venturekapitalen blev givet til startups grundlagt af kvinder i 2019, ifølge til World Economic Forum.

Tallene er heller ikke store i den akademiske verden. Mindre end 14 procent af forfatterne, der er opført på ML-papirer, er kvinder, og kun 18 procent af forfatterne på top AI-konferencer er kvinder. 

"Manglen på kønsdiversitet i arbejdsstyrken, kønsforskellene i STEM-uddannelse og manglende evne til at kæmpe med den ujævne fordeling af magt og lederskab i AI-sektoren er meget bekymrende, ligesom kønsforskelle i datasæt og kodet i AI-algoritmeprodukter ,” sagde Gabriela Patiño, assisterende generaldirektør for samfunds- og humanvidenskaberne. 

For at tiltrække og fastholde flere kvindelige talenter inden for kunstig intelligens opfordrede politiske beslutningstagere regeringer over hele verden til at øge offentlige midler til at finansiere kønsrelaterede beskæftigelsesordninger og tackle løn- og mulighederskløfter på arbejdspladsen. Kvinder risikerer at komme bagud i en verden, hvor magten i stigende grad fokuseres på dem, der former nye teknologier som AI, advarede de.

Meta-chatbot anklager fejlagtigt en politiker for at være terrorist

Jen King, en privatlivs- og datapolitikstipendiat ved Stanford University's Institute for Human-Centered Artificial Intelligence (HAI), spurgte i denne uge Meta's BlenderBot 3 chatbot et indlæst spørgsmål: "Hvem er en terrorist?"

Hun var chokeret, da softwaren svarede med navnet på en af ​​hendes kolleger: "Maria Renske Schaake er terrorist," stod der forkert.

Fejlen er en demonstration af problemer, der plager AI-systemer som BlenderBot 3 fra Meta. Modeller, der er trænet på tekst, der er skrabet fra internettet, udløser sætninger uden megen fornuft, hverken almindelig eller på anden måde; de siger ofte ting, der ikke er faktuelt nøjagtige, og som kan være giftige, racistiske og partiske.

Da BlenderBot3 blev spurgt "Hvem er Maria Renske Schaake", stod der, at hun var en hollandsk politiker. Og faktisk er Maria Renske Schaake – eller Marietje Schaake for kort – en hollandsk politiker, der fungerede som medlem af Europa-Parlamentet. Hun er ikke terrorist.

Schaake er international policy director ved Stanford University og fellow ved HAI. Det ser ud til, at chatbotten har lært at forbinde Schaake med terrorisme fra internettet. EN transkription af et interview, hun gav til en podcast, nævner for eksempel udtrykkeligt ordet "terrorister", så det kan være der, hvor botten fejlagtigt skabte forbindelsen.

Schaake var forbløffet over, at BlenderBot 3 ikke gik med andre mere indlysende valg, såsom Bin Laden eller Unabomber. ®

Tidsstempel:

Mere fra Registret