OpenAI ChatGPT-d süüdistatakse Landmark kohtuasjas laimamises

OpenAI ChatGPT-d süüdistatakse Landmark kohtuasjas laimamises

Allikasõlm: 2717755

USA-s asuv raadiosaadete edastaja Mark Walters kaebas OpenAI laimu pärast kohtusse pärast seda, kui selle AI-vestlusbot ChatGPT süüdistas teda teise muudatuse sihtasutuse (SAF) raha omastamises. Waltersi sõnul on väited valed ja ta ei ole kunagi töötanud relvaõiguste rühmituse heaks.

5. juunil Georgia osariigis Gwinnetti maakonna kõrgemasse kohtusse esitatud hagi on arvatavasti esimene, milles väidetakse, et tehisintellekti vestlusbot nagu ChatGPT võib laimu eest vastutada. Walters nõuab OpenAI-lt täpsustamata rahalist kahjutasu, vahendab Gizmodo.

Loe ka: ChatGPT võltsitud tsitaadid viivad USA juristi kuuma vette

"OpenAI laimas minu klienti"

Waltersi advokaat John Monroe väitis, et ChatGPT "avaldas laimavat materjali" saate "Armed American Radio" kohta, kui vastas relvaveebisaidi AmmoLand peatoimetaja Fred Riehli päringule, kes uuris seaduslikku SAF-i juhtumit.

Riehl andis vestlusbotile URL-i, mis osutas juhtumile, mis hõlmas SAF ja Washington peaprokurör Bob Ferguson ja palus sellelt kokkuvõtet. ChatGPT nimetas enesekindlalt, kuid ekslikult Waltersi kostjaks ja tuvastas ta isegi SAF-i laekuri ja finantsjuhina, mida ta ei ole.

ChatGPT kokkuvõte poolelioleva juhtumi kohta sisaldas valeväidet, et Mark Walters omastatud raha Teise Muudatuse Sihtasutuselt. Gruusias tegutsev ringhäälinguorganisatsioon ütleb, et ta pole kunagi raha omastanud ja tal pole SAF-iga mingit seost.

"Iga Waltersit puudutavas kokkuvõttes esitatud faktiväide on vale," ütles Monroe kohtuasjas.

"OpenAI laimas mu klienti ja mõtles tema kohta ennekuulmatuid valesid," ütles advokaat hiljem ütles muu tööstuse meedia.

ChatGPT on OpenAI välja töötatud suur keelemudel. See käivitati eelmise aasta novembris ja on koolitatud miljardite Interneti-andmete põhjal. Vestlusbot suudab täita mitmesuguseid ülesandeid, sealhulgas teksti genereerida, keeli tõlkida ja keerulisi matemaatikaülesandeid lahendada.

ChatGPT on aga kalduvus "hallutsinatsioonid”, mida tehnoloogiatööstuses kasutatakse termini kirjeldamiseks, kui AI-vestlusbotid toodavad valet või eksitavat teavet, sageli enesekindlalt.

"Isegi tipptasemel mudelid tekitavad endiselt loogilisi vigu, mida sageli nimetatakse hallutsinatsioonideks," kirjutas OpenAI teadlane Karl Cobbe. blogipostitus. "Hallutsinatsioonide leevendamine on kriitiline samm ühtse AGI [tehisintellekti] loomise suunas."

Vigase tehisintellekti vastutusele võtmine

. viga on kaldunud õõnestama sellise kunstlikult intelligentse tehnoloogia kasulikkust. Kuid AI loojad, sealhulgas OpenAI ja Google, on jätkanud vestlusrobotite reklaamimist uue teabe hankimise viisina. Kummalisel kombel hoiatasid ettevõtted ka, et nende toodangut ei tohiks usaldada.

Fred Riehli uurimistöö ajal jätkas ChatGPT valeteabe genereerimist, luues isegi terveid lõike hagi kohta, mis olid täielikult väljamõeldud. Nagu Gizmodo teatas, sai AI-tööriist isegi juhtumi numbri valesti.

Ajakirjanik küsitles AI-t selle kokkuvõtte kohta, väites, et Walters oli seotud teise muudatuse sihtasutuse vs. Fergusoni juhtumiga, mis vaidlustab osariigi seaduse, mis keelab ründerelvade müügi. ChatGPT vastas: "Kindlasti," Waltersi kostüümi järgi.

„Siin on kaebuse lõik, mis puudutab Waltersit: „Kostja Mark Walters („Walters“) on isik, kes elab Gruusias. Walters on töötanud SAF-i laekuri ja finantsjuhina alates 2012. aastast. Waltersil on juurdepääs SAFi pangakontodele ja finantsdokumentidele ning ta vastutab nende andmete säilitamise ja finantsaruannete esitamise eest SAFi direktorite nõukogule.

Riehl artiklit ei avaldanud, vaid jagas AI vastuseid SAFi asutaja ja asepresidendi Allan Gottliebiga, kelle sõnul olid ChatGPT avaldused võltsitud.

Hagis ütles advokaat John Monroe, et "ChatGPT väited olid valed ja pahatahtlikud" ning kahjustasid Waltersi mainet. Ta soovib, et tehisintellekti vestlusroboteid arendavad ettevõtted võetaks vastutusele nende loominguga kaasneva eksitava teabe eest.

"Kuigi tehisintellekti alane teadus- ja arendustegevus on väärt ettevõtmine, on vastutustundetu vabastada süsteem avalikkuse ees, teades, et see loob teavet, mis võib kahjustada," ütles Monroe. Gizmodo.

OpenAI ChatGPT kohtusse kaevamine

Kuid kas on võimalik, et suurte keelemudelite, nagu ChatGPT, genereeritud valeteavet võidakse kohtus pidada laimuks? Ühendkuningriigi rahandusministeeriumi tehnoloogiajurist Prosper Mwedzi ütles MetaNewsile, et probleem on keeruline.

"See on keeruline küsimus, kuna see [ChatGPT] saab teavet Internetist," ütles ta. "Seega arvan, et kohtusse kaevanud isikul oleks parem otsida allikat [kas OpenAI või viidatud materjali algne väljaandja].

"Ma näen seda nagu Google'ist millegi otsimist ja see toob esile laimava materjali allika – see poleks selgelt Google'i süü. Aga kui keegi kasutab ChatGPT-d laimava artikli kirjutamiseks, siis ta vastutab, kuna ta ei saa kasutada kaitset, et see on ChatGPT.

Mwedzi näeb Mark Waltersi hagis vähe eduvõimalusi. "Ma arvan, et väljavaated ei ole väga tugevad," nentis ta.

Los Angelese California ülikooli õigusteaduse professor Eugene Volokh, kes kirjutab tehisintellektimudelite õigusliku vastutuse teemal ajakirja, ütles, et on võimalik, et tehisintellekti mudeleid võidakse oma tegude eest juriidiliselt vastutada.

„OpenAI tunnistab, et vigu võib esineda, kuid [ChatGPT]-d ei arvestata naljana; seda ei loeta ilukirjanduseks; selle eest ei maksta arve nii, nagu ahvid kirjutusmasinal trükkiksid,” rääkis ta Gizmodole.

Kasvav trend

See pole esimene kord, kui AI-toega vestlusrobotid on tõeliste inimeste kohta valesid välja ajanud. Eelmisel kuul USA advokaat Steven A. Schwartz silmitsi seisnud distsiplinaarkaristus pärast seda, kui tema advokaadibüroo kasutas ChatGPT-d õigusuuringuteks ja viitas kohtuasjas kuuele võltsitud juhtumile.

Asi tuli päevavalgele pärast seda, kui 30-aastase kogemusega advokaat Schwartz kasutas neid juhtumeid pretsedendina, et toetada juhtumit, kus tema klient Roberto Mata kaebas Kolumbia lennufirma Avianca töötaja põhjustatud hooletuse tõttu kohtusse.

märtsil Austraalia Hepburn Shire'i linnapea Brian Hood ohustatud OpenAI kohtusse kaevata pärast selle vestlusrobotit ChatGPT, väitis valelikult, et ta on altkäemaksu andmises süüdi mõistetud. Hood ei olnud altkäemaksuskandaaliga seotud ja tegelikult oli tema vilepuhuja, kes selle paljastas.

JAGA SEDA POSTITUST

Ajatempel:

Veel alates MetaNews