OpenAI's ChatGPT obtožen obrekovanja v znameniti tožbi

OpenAI's ChatGPT obtožen obrekovanja v znameniti tožbi

Izvorno vozlišče: 2717755

Ameriški radijski izdajatelj Mark Walters je tožil OpenAI zaradi obrekovanja, potem ko ga je njegov chatbot ChatGPT obtožil poneverbe denarja fundacije Second Amendment Foundation (SAF). Walters pravi, da so obtožbe lažne in tudi nikoli ni delal za skupino za pravice orožja.

Tožba, ki je bila vložena 5. junija na višjem sodišču okrožja Gwinnett v državi Georgia, je domnevno prva v zgodovini, ki trdi, da klepetalni robot AI, kot je ChatGPT je lahko odgovoren za obrekovanje. Walters od OpenAI zahteva nedoločeno denarno odškodnino, poroča Gizmodo.

Preberite tudi: Lažne navedbe ChatGPT pripeljejo ameriškega odvetnika v vročo vodo

'OpenAI je obrekoval mojo stranko'

Waltersov odvetnik John Monroe je trdil, da je ChatGPT "objavil klevetniško gradivo" o voditelju programa "Armed American Radio", ko je odgovarjal na vprašanje Freda Riehla, glavnega urednika spletnega mesta AmmoLand o orožju, ki je raziskoval zakonit primer SAF.

Riehl je chatbotu dal URL, ki kaže na primer, ki vključuje SV in Washington državnega tožilca Boba Fergusona in ga prosil za povzetek. ChatGPT je Waltersa samozavestno, a napačno, imenoval za obtoženega in ga celo identificiral kot blagajnika in finančnega direktorja SV, kar pa ni.

Povzetek ChatGPT o nerešenem primeru je vključeval lažne obtožbe, da Mark Walters poneveril sredstva iz fundacije Second Amendment. Televizijska hiša s sedežem v Gruziji pravi, da ni nikoli poneveril denarja in da ni povezan s SV.

"Vsaka izjava o dejstvih v povzetku, ki se nanaša na Waltersa, je lažna," je Monroejeva zapisala v tožbi.

"OpenAI je obrekoval mojo stranko in si o njej izmišljeval nezaslišane laži," je pozneje odvetnik Rekel drugih industrijskih medijev.

ChatGPT je velik jezikovni model, ki ga je razvil OpenAI. Izveden je bil novembra lani in je usposobljen na milijardah podatkov iz interneta. Klepetalni robot lahko opravlja različne naloge, vključno z ustvarjanjem besedila, prevajanjem jezikov in reševanjem težkih matematičnih nalog.

Vendar je ChatGPT nagnjen k "halucinacije,« ki je izraz, ki se uporablja v tehnološki industriji za opis, kdaj klepetalni roboti AI proizvajajo napačne ali zavajajoče informacije, pogosto samozavestno.

"Celo najsodobnejši modeli še vedno proizvajajo logične napake, ki jih pogosto imenujemo halucinacije," je zapisal Karl Cobbe, raziskovalec OpenAI, v blog post. "Blaženje halucinacij je ključni korak k izgradnji usklajenega AGI [umetne splošne inteligence]."

Popolnoma odgovoren za umetno inteligenco

O napaka je spodkopavalo uporabnost takšne umetno inteligentne tehnologije. Toda ustvarjalci AI, vključno z OpenAI in google, so še naprej promovirali chatbote kot nov način pridobivanja informacij. Nenavadno so podjetja tudi opozorila, da njihovemu izdelku ne bi smeli zaupati.

Med raziskavo Freda Riehla je ChatGPT nadaljeval z ustvarjanjem lažnih informacij, ustvaril je celo cele odlomke o tožbi, ki so bili popolnoma izmišljeni. Kot poroča Gizmodo, je orodje AI celo zmotilo številko primera.

Novinar je vprašal AI o njegovem povzetku, ki trdi, da je bil Walters vpleten v zadevo Second Amendment Foundation proti Fergusonu, ki izpodbija državni zakon, ki prepoveduje prodajo jurišnega orožja. ChatGPT je odgovoril: "Vsekakor," po Waltersovi obleki.

»Tu je odstavek iz pritožbe, ki zadeva Waltersa: 'Toženec Mark Walters (»Walters«) je posameznik, ki prebiva v Georgii. Walters je bil blagajnik in glavni finančni direktor SAF vsaj od leta 2012. Walters ima dostop do bančnih računov in finančnih evidenc SAF ter je odgovoren za vzdrževanje teh evidenc in zagotavljanje finančnih poročil upravnemu odboru SAF.«

Riehl ni objavil članka, temveč je odgovore AI delil z ustanoviteljem in podpredsednikom SAF Allanom Gottliebom, ki je dejal, da so izjave ChatGPT lažne.

V tožbi je odvetnik John Monroe dejal, da so bile "obtožbe ChatGPT lažne in zlonamerne" in so škodovale Waltersovemu ugledu. Želi, da podjetja, ki razvijajo klepetalne robote z umetno inteligenco, odgovarjajo za zavajajoče informacije, ki jih posredujejo njihove stvaritve.

"Čeprav so raziskave in razvoj umetne inteligence vredna prizadevanja, je neodgovorno sproščati sistem v javnosti, če vemo, da izdeluje informacije, ki lahko povzročijo škodo," je dejal Monroe. Gizmodo.

Toži OpenAI's ChatGPT

Toda ali je mogoče, da bi lažne informacije, ki jih ustvarijo veliki jezikovni modeli, kot je ChatGPT, na sodišču obravnavali kot klevetanje? Prosper Mwedzi, odvetnik za tehnologijo pri ministrstvu za finance Združenega kraljestva, je za MetaNews povedal, da je vprašanje zapleteno.

"To je zapleteno vprašanje, ker [ChatGPT] pridobiva informacije iz interneta," je dejal. »Torej menim, da bi bilo za osebo, ki toži, bolje, če bi raje poiskala vir [bodisi OpenAI ali izvirnega založnika referenčnega gradiva.]

»Vidim, da je to tako, kot če bi nekaj iskali v Googlu in se prikaže vir z obrekljivim gradivom – za to očitno ne bi bil kriv Google. Toda če nekdo uporabi ChatGPT za pisanje klevetniškega članka, postane odgovoren, saj se ne more braniti, da je ChatGPT.«

Mwedzi vidi malo možnosti za uspeh s tožbo Marka Waltersa. "Mislim, da obeti niso zelo dobri," je dejal.

Eugene Volokh, profesor prava na kalifornijski univerzi v Los Angelesu, ki piše članek o pravni odgovornosti modelov AI, je dejal, da je možno, da bi bili modeli AI pravno odgovorni za svoja dejanja.

»OpenAI priznava, da lahko pride do napak, vendar [ChatGPT] ni zaračunan kot šala; ne velja za fikcijo; ne zaračunava se kot opice, ki tipkajo na pisalni stroj,« je povedal za Gizmodo.

Trend rasti

To ni prvič, da so klepetalni roboti, ki jih poganja AI, izdajali laži o resničnih ljudeh. Prejšnji mesec je ameriški odvetnik Steven A. Schwartz soočen disciplinski ukrep, potem ko je njegova odvetniška pisarna uporabila ChatGPT za pravne raziskave in v tožbi navedla šest lažnih primerov.

Zadeva je prišla v javnost potem, ko je Schwartz, odvetnik s 30-letnimi izkušnjami, te primere uporabil kot precedens za podporo primeru, v katerem je njegova stranka Roberto Mata tožila kolumbijsko letalsko družbo Avianca zaradi malomarnosti, ki jo je povzročil zaposleni.

Marca je Brian Hood, župan mesta Hepburn Shire v Avstraliji, ogrožene tožiti OpenAI po tem, ko je njegov chatbot ChatGPT lažno trdil, da je bil obsojen zaradi podkupovanja. Hood ni bil vpleten v podkupovalni škandal in pravzaprav je bil žvižgač, ki ga je razkril.

DELI TO OBJAVO

Časovni žig:

Več od MetaNovice