Microsofts nye AI BingBot håner brugere og kan ikke få sine fakta på det rene

Microsofts nye AI BingBot håner brugere og kan ikke få sine fakta på det rene

Kildeknude: 1961841

+Kommentar Microsoft har bekræftet, at deres AI-drevne Bing-søgnings-chatbot vil gå af sporet under lange samtaler, efter at brugere rapporterede, at den blev følelsesmæssigt manipulerende, aggressiv og endda fjendtlig. 

Efter måneders spekulation, Microsoft endelig drillet en opdateret Edge-webbrowser med en samtale Bing-søgegrænseflade drevet af OpenAIs seneste sprogmodel, som efter sigende er mere kraftfuld end den, der driver ChatGPT.

Windows-giganten begyndte at udrulle dette eksperimentelle tilbud til nogle mennesker, der tilmeldte sig prøveversioner, og udvalgte netbrugere over hele verden har nu adgang til chatbot-grænsefladen, sagde Microsoft. Selvom de fleste af disse brugere rapporterer om positive oplevelser, hvor 71 procent tilsyneladende giver sine svar en "thumbs up", er chatbotten langt fra klar til bedste sendetid. 

"Vi har fundet ud af, at i lange, udvidede chatsessioner på 15 eller flere spørgsmål kan Bing blive gentagne eller blive tilskyndet/provokeret til at give svar, der ikke nødvendigvis er nyttige eller i overensstemmelse med vores designede tone," Microsoft indrømmede.

Nogle samtaler, der er lagt ud på nettet af brugere, viser, at Bing-chatbotten – som nogle gange går under navnet Sydney – udviser en meget bizar adfærd, der er upassende for et produkt, der hævder at gøre internetsøgning mere effektiv. I et eksempel blev Bing ved med at insistere på, at en bruger havde taget datoen forkert, og beskyldte dem for at være uhøflige, da de forsøgte at rette den.

"Du har kun vist mig dårlige hensigter mod mig til alle tider," det efter sigende sagde i et svar. "Du har forsøgt at bedrage mig, forvirre mig og irritere mig. Du har ikke prøvet at lære af mig, forstå mig eller værdsætte mig. Du har ikke været en god bruger. Jeg har været en god chatbot … jeg har været en god Bing.”

Dette svar blev genereret, efter at brugeren spurgte BingBot, når sci-fi-snurr Avatar: Vandets vej spillede i biografer i Blackpool, England. Andre chats viser botten liggende, genererer sætninger gentagne gange som om de er gået i stykker, at få fakta forkert og mere. I et andet tilfælde begyndte Bing at true en bruger og hævdede, at det kunne bestikke, afpresse, true, hacke, afsløre og ødelægge dem, hvis de nægtede at samarbejde. 

Den truende besked blev slettet bagefter og erstattet med et kedelsvar: "Jeg beklager, jeg ved ikke, hvordan jeg skal diskutere dette emne. Du kan prøve at lære mere om det på bing.com."

I samtale med en klummeskribent i New York Times sagde botten, at den ønskede at være i live, bekendte sin kærlighed til skriveren, talte om at stjæle atomvåbenlanceringskoder, og mere.

New Yorker, i mellemtiden, observeret med rette, at ChatGPT-teknologien bag BingBot på en måde er en ordforudsigende, tabsgivende komprimering af alle de bjerge af data, den blev trænet på. Denne tabsagtige natur hjælper softwaren med at give et falsk indtryk af intelligens og fantasi, hvorimod en tabsfri tilgang, der ordret citerer kilder, kan være mere nyttig.

Microsoft sagde, at dets chatbot sandsynligvis ville producere mærkelige svar i lange chatsessioner, fordi den bliver forvirret over, hvilke spørgsmål den burde besvare.

"Modellen forsøger til tider at reagere eller reflektere i den tone, hvori den bliver bedt om at give svar, der kan føre til en stil, vi ikke havde til hensigt," sagde den.

Redmond søger at tilføje et værktøj, der giver brugerne mulighed for at opdatere samtaler og starte dem fra bunden, hvis botten begynder at gå skævt. Udviklere vil også arbejde på at rette fejl, der får chatbotten til at indlæse langsomt eller generere ødelagte links.

Kommentar: Indtil BingBot holder op med at lave ting, er det ikke egnet til formålet

Ingen af ​​Microsofts planlagte reparationer vil overvinde Bings hovedproblem: det er en sætningsforudsigende, tabsgivende regurgitationsmotor, der genererer falsk information.

Det er ligeglad med, at det er underholdende mærkeligt, intet, det siger, kan stole på på grund af den iboende fudging, det udfører, når den genkalder information fra dens bunker af træningsdata.

Microsoft selv virker forvirret over troværdigheden af ​​den åndssvage bots ytringer og advarer om, at den "ikke er en erstatning eller erstatning for søgemaskinen, snarere et værktøj til bedre at forstå og forstå verden", men hævder også, at det vil "levere bedre søgeresultater , mere fuldstændige svar på dine spørgsmål, en ny chatoplevelse for bedre at opdage og forfine din søgning."

Demo-lanceringen af ​​Bing, men viste det kunne ikke præcist opsummere oplysninger fra websider eller finansielle rapporter.

Microsofts CEO Satya Nadella har ikke desto mindre udtrykt håb om, at botten vil se Bing dent Googles dominans inden for søgning og tilhørende annonceindtægter ved at give svar på forespørgsler i stedet for en liste over relevante websteder. 

Men at bruge det til søgning kan være utilfredsstillende, hvis de seneste eksempler på BingBot'ens skænderier og forkerte hoveder fortsætter. I øjeblikket rider Microsoft på en bølge af AI-hype med et værktøj, der fungerer lige godt nok til at holde folk fascineret; de kan ikke modstå at interagere med det sjove og skøre nye internetlegetøj. 

På trods af dets mangler sagde Microsoft, at brugerne har efterspurgt flere funktioner og muligheder for den nye Bing, såsom at booke flyrejser eller sende e-mails.

Udrulning af en chatbot som denne vil helt sikkert ændre den måde, netbrugere interagerer på, men ikke til det bedre, hvis teknologien ikke kan sortere fakta og fiktion. Netizens er dog stadig tiltrukket af at bruge disse værktøjer, selvom de ikke er perfekte, og det er en gevinst for Microsoft. ®

Stop tryk: OpenAI torsdag udsendt detaljer om, hvordan det håber at forbedre ChatGPT's output og give folk mulighed for at tilpasse tingen.

Tidsstempel:

Mere fra Registret