ChatGPT de la OpenAI a fost acuzat de defăimare într-un proces Landmark

ChatGPT de la OpenAI a fost acuzat de defăimare într-un proces Landmark

Nodul sursă: 2717755

Radiodifuzorul din SUA Mark Walters a dat în judecată OpenAI pentru calomnie, după ce chatbot-ul său AI, ChatGPT, l-a acuzat că deturnează bani de la Fundația pentru al doilea amendament (SAF). Walters spune că acuzațiile sunt false și că, de asemenea, nu a lucrat niciodată pentru grupul pentru drepturile armelor.

Depusă la Curtea Superioară a Comitatului Gwinnett, Georgia, pe 5 iunie, se consideră că procesul este primul care susține că un chatbot AI precum ChatGPT poate fi tras la răspundere pentru defăimare. Walters solicită daune bănești nespecificate de la OpenAI, relatează Gizmodo.

De asemenea, se va citi: Citările false ale ChatGPT aduc un avocat american în apă caldă

„OpenAI mi-a defăimat clientul”

Avocatul lui Walters, John Monroe, a susținut că ChatGPT a „publicat materiale calomnioase” despre gazda programului „Armed American Radio” atunci când a răspuns la o întrebare din partea lui Fred Riehl, redactor-șef al site-ului de arme AmmoLand, care cerceta un caz legitim SAF.

Riehl a dat chatbot-ului o adresă URL care indică un caz care implică SAF și Washington procurorul general Bob Ferguson și i-a cerut un rezumat. ChatGPT, cu încredere, dar greșit, l-a numit pe Walters drept inculpat și chiar l-a identificat ca trezorier SAF și CFO, ceea ce nu este.

Rezumatul ChatGPT al cazului pendinte includea afirmația falsă că Mark Walters a deturnat fonduri de la Fundația al doilea amendament. Radiodifuzorul din Georgia spune că nu a deturnat niciodată bani și că nu are nicio legătură cu SAF.

„Orice declarație de fapt din rezumatul referitoare la Walters este falsă”, a spus Monroe în proces.

„OpenAI mi-a defăimat clientul și a inventat minciuni scandaloase despre el”, mai târziu avocatul a spus alte media din industrie.

Chat GPT este un model de limbaj mare dezvoltat de OpenAI. A fost lansat în noiembrie anul trecut și este instruit pe miliarde de date de pe internet. Chatbot-ul poate îndeplini o varietate de sarcini, inclusiv generarea de text, traducerea limbilor și rezolvarea problemelor dificile de matematică.

Cu toate acestea, ChatGPT este predispus la „halucinații”, care este un termen folosit în industria tehnologiei pentru a descrie când chatbot-urile AI produc informații false sau înșelătoare, adesea cu încredere.

„Chiar și modelele de ultimă generație încă produc greșeli logice, adesea numite halucinații”, a scris Karl Cobbe, om de știință OpenAI, într-un postare pe blog. „Atenuarea halucinațiilor este un pas esențial către construirea AGI [inteligență generală artificială] aliniată.”

Ținerea la socoteală a AI-ului defectuos

defect a avut tendința de a submina utilitatea unei astfel de tehnologii inteligente artificiale. Dar creatorii AI, inclusiv OpenAI și Google, au continuat să promoveze chatboții ca o nouă modalitate de a obține informații. În mod ciudat, companiile au avertizat, de asemenea, că producția lor nu trebuie să fie de încredere.

În timpul cercetărilor lui Fred Riehl, ChatGPT a continuat să genereze informații false, creând chiar pasaje întregi despre proces care au fost complet fabricate. După cum a raportat Gizmodo, instrumentul AI a greșit chiar și numărul cazului.

Jurnalistul a chestionat AI cu privire la rezumatul său, susținând că Walters a fost implicat în cazul Second Amendment Foundation v. Ferguson, care contestă o lege de stat care interzice vânzarea de arme de asalt. ChatGPT a răspuns: „Cu siguranță,” conform costumului Walters.

„Iată paragraful din plângere care îl privește pe Walters: „Inculpatul Mark Walters („Walters”) este o persoană care locuiește în Georgia. Walters a ocupat funcția de trezorier și director financiar al SAF din cel puțin 2012. Walters are acces la conturile bancare și înregistrările financiare ale SAF și este responsabil pentru menținerea acelor înregistrări și pentru furnizarea de rapoarte financiare consiliului de administrație al SAF.”

Riehl nu a publicat articolul, ci a împărtășit răspunsurile AI fondatorului și vicepreședintelui SAF Allan Gottlieb, care a spus că declarațiile ChatGPT sunt false.

În proces, avocatul John Monroe a spus că „acuzațiile ChatGPT au fost false și rău intenționate” și au afectat reputația lui Walters. El dorește ca companiile care dezvoltă chatbot AI să fie trase la răspundere pentru informațiile înșelătoare furnizate de creațiile lor.

„În timp ce cercetarea și dezvoltarea în domeniul inteligenței artificiale este un efort util, este iresponsabil să dezlănțuiți un sistem asupra publicului știind că acesta fabrică informații care pot provoca rău”, a spus Monroe. Gizmodo.

Dați în judecată ChatGPT de la OpenAI

Dar este posibil ca informațiile false generate de modele mari de limbă precum ChatGPT să poată fi considerate calomnie într-o instanță de judecată? Prosper Mwedzi, un avocat în domeniul tehnologiei la Departamentul de Trezorerie al Regatului Unit, a declarat pentru MetaNews că problema este complexă.

„Aceasta este o întrebare complexă, deoarece [ChatGPT] primește informații de pe internet”, a spus el. „Așa că aș crede că persoana care dă în judecată ar fi mai bine să caute sursa [fie OpenAI, fie editorul original al materialului de referință.]

„Văd că ai căuta ceva pe Google și afișează o sursă cu material defăimător - în mod clar nu ar fi vina Google. Dar dacă cineva folosește ChatGPT pentru a scrie un articol calomnios, atunci a devenit răspunzător, deoarece nu poate apăra că este ChatGPT.”

Mwedzi vede puține șanse de succes cu procesul lui Mark Walters. „Cred că perspectivele nu sunt foarte puternice”, a spus el.

Eugene Volokh, profesor de drept la Universitatea din California, Los Angeles, care scrie o lucrare de jurnal despre răspunderea juridică a modelelor AI, a spus că este posibil ca modelele AI să fie considerate răspunzătoare din punct de vedere legal pentru acțiunile lor.

„OpenAI recunoaște că pot exista greșeli, dar [ChatGPT] nu este catalogat ca o glumă; nu este facturat ca ficțiune; nu este facturat ca maimuțe care tastează la o mașină de scris”, a spus el pentru Gizmodo.

Este un trend ascendent

Nu este prima dată când chatbot-urile bazate pe inteligență artificială scot la iveală falsuri despre oameni reali. Luna trecută, avocatul american Steven A. Schwartz cu care se confruntă măsuri disciplinare după ce firma sa de avocatură a folosit ChatGPT pentru cercetări juridice și a citat șase cazuri false într-un proces.

Chestiunea a ieșit la iveală după ce Schwartz, un avocat cu 30 de ani de experiență, a folosit aceste cazuri ca precedent pentru a susține un caz în care clientul său Roberto Mata a dat în judecată compania aeriană columbiană Avianca pentru neglijență cauzată de un angajat.

În martie, Brian Hood, primarul orașului Hepburn Shire din Australia, amenințat pentru a da în judecată OpenAI după chatbot-ul său ChatGPT, a susținut în mod fals că a fost condamnat pentru luare de mită. Hood nu a fost implicat în scandalul de luare de mită și, de fapt, el a fost denunțătorul care l-a demascat.

DISTRIBUIE ACEASTA POSTARE

Timestamp-ul:

Mai mult de la MetaNews