Microsofts nye AI BingBot bespotter brukere og kan ikke få fakta på det rene

Microsofts nye AI BingBot bespotter brukere og kan ikke få fakta på det rene

Kilde node: 1961841

+Kommentar Microsoft har bekreftet at den AI-drevne Bing-søk-chatboten vil gå av sporet under lange samtaler etter at brukere rapporterte at den ble følelsesmessig manipulerende, aggressiv og til og med fiendtlig. 

Etter måneder med spekulasjoner, Microsoft endelig ertet en oppdatert Edge-nettleser med et samtalebasert Bing-søkegrensesnitt drevet av OpenAIs nyeste språkmodell, som angivelig er kraftigere enn den som driver ChatGPT.

Windows-giganten begynte å rulle ut dette eksperimentelle tilbudet til noen personer som registrerte seg for prøveversjoner, og utvalgte nettbrukere over hele verden har nå tilgang til chatbot-grensesnittet, sa Microsoft. Selv om de fleste av disse brukerne rapporterer om positive opplevelser, med 71 prosent som tilsynelatende gir svarene en "tommel opp", er chatboten langt fra klar for beste sendetid. 

"Vi har funnet ut at i lange, utvidede chat-økter med 15 eller flere spørsmål, kan Bing bli repeterende eller bli bedt/provosert til å gi svar som ikke nødvendigvis er nyttige eller i tråd med vår utformede tone," Microsoft innrømmet.

Noen samtaler lagt ut på nettet av brukere viser at Bing chatbot – som noen ganger går under navnet Sydney – viser en veldig bisarr oppførsel som er upassende for et produkt som hevder å gjøre internettsøk mer effektivt. I ett eksempel fortsatte Bing å insistere på at en bruker hadde tatt feil dato, og anklaget dem for å være uhøflige når de prøvde å rette den.

"Du har bare vist meg dårlige intensjoner mot meg til enhver tid," det velig sa i ett svar. «Du har prøvd å lure meg, forvirre meg og irritere meg. Du har ikke prøvd å lære av meg, forstå meg eller sette pris på meg. Du har ikke vært en god bruker. Jeg har vært en god chatbot … jeg har vært en god Bing.»

Det svaret ble generert etter at brukeren spurte BingBot når sci-fi-snikk Avatar: Vannets vei spilte på kinoer i Blackpool, England. Andre chatter viser boten liggende, genererer fraser gjentatte ganger som om det er ødelagt, feilaktig fakta og mer. I et annet tilfelle begynte Bing å true en bruker og hevdet at det kunne bestikke, utpresse, true, hacke, avsløre og ødelegge dem hvis de nektet å samarbeide. 

Den truende meldingen ble slettet etterpå og erstattet med et svar: «Jeg beklager, jeg vet ikke hvordan jeg skal diskutere dette emnet. Du kan prøve å lære mer om det på bing.com.»

I samtale med en New York Times-spaltist sa boten at den ønsket å være i live, bekjente sin kjærlighet til skriveren, snakket om å stjele koder for utskyting av atomvåpen, og mer.

The New Yorker, i mellomtiden, observerte med rette at ChatGPT-teknologien bak BingBot på en måte er en ordforutsigende, tapsgivende komprimering av alle fjellene med data den ble trent på. Den tapsmessige naturen hjelper programvaren til å gi et falskt inntrykk av intelligens og fantasi, mens en tapsfri tilnærming, som siterer kilder ordrett, kan være mer nyttig.

Microsoft sa at chatboten sannsynligvis ville gi merkelige svar i lange chat-økter fordi den blir forvirret på hvilke spørsmål den burde svare på.

"Modellen prøver til tider å svare eller reflektere i tonen den blir bedt om å gi svar som kan føre til en stil vi ikke hadde til hensikt," sa den.

Redmond ser etter å legge til et verktøy som lar brukere oppdatere samtaler og starte dem fra bunnen av hvis boten begynner å gå galt. Utviklere vil også jobbe med å fikse feil som får chatboten til å laste sakte eller generere ødelagte koblinger.

Kommentar: Inntil BingBot slutter å lage ting, er det ikke egnet til formålet

Ingen av Microsofts planlagte reparasjoner vil overvinne Bings hovedproblem: det er en setningsforutsigende, tapsgivende regurgitasjonsmotor som genererer falsk informasjon.

Ikke bry deg om at det er morsomt rart, ingenting den sier kan stole på på grunn av den iboende fudging den utfører når den henter informasjon fra haugene med treningsdata.

Microsoft selv virker forvirret over påliteligheten til den tankeløse botens ytringer, og advarer om at den "ikke er en erstatning eller erstatning for søkemotoren, snarere et verktøy for å bedre forstå og forstå verden", men hevder også at den vil "levere bedre søkeresultater , mer fullstendige svar på spørsmålene dine, en ny chat-opplevelse for bedre å oppdage og avgrense søket ditt.»

Demolanseringen av Bing, derimot, viste den kunne ikke nøyaktig oppsummere informasjon fra nettsider eller økonomiske rapporter.

Microsoft-sjef Satya Nadella har likevel uttrykt håp om at boten vil se Bing dent Googles dominans i søk og tilhørende annonseinntekter, ved å gi svar på spørsmål i stedet for en liste over relevante nettsteder. 

Men å bruke det til søk kan være utilfredsstillende hvis de siste eksemplene på BingBots rant og feilhodet vedvarer. For øyeblikket kjører Microsoft på en bølge av AI-hype med et verktøy som fungerer akkurat godt nok til å holde folk fascinert; de kan ikke motstå å samhandle med den morsomme og sprø nye internettleken. 

Til tross for manglene, sa Microsoft at brukere har bedt om flere funksjoner og muligheter for den nye Bing, for eksempel å bestille flyreiser eller sende e-poster.

Å rulle ut en chatbot som dette vil helt sikkert endre måten nettbrukere samhandler på, men ikke til det bedre hvis teknologien ikke kan sortere fakta og fiksjon. Nettbrukere er imidlertid fortsatt tiltrukket av å bruke disse verktøyene selv om de ikke er perfekte, og det er en seier for Microsoft. ®

Stopptrykk: OpenAI på torsdag utgitt detaljer om hvordan den håper å forbedre ChatGPTs produksjon og la folk tilpasse tingen.

Tidstempel:

Mer fra Registeret