OpenAI:n ChatGPT:tä syytetään kunnianloukkauksesta Landmark-oikeudenkäynnissä

OpenAI:n ChatGPT:tä syytetään kunnianloukkauksesta Landmark-oikeudenkäynnissä

Lähdesolmu: 2717755

Yhdysvaltalainen radioyhtiö Mark Walters haastoi OpenAI:n oikeuteen kunnianloukkauksesta sen jälkeen, kun sen AI-chatbot ChatGPT syytti häntä rahojen kavalluksesta SAF:lta. Walters sanoo, että syytökset ovat vääriä, eikä hän ole myöskään koskaan työskennellyt aseoikeusjärjestölle.

Kanteen, joka jätettiin Gwinnettin piirikunnan oikeuteen Georgiassa 5. kesäkuuta, uskotaan olevan ensimmäinen, jossa väitetään, että tekoäly-chatbot, kuten ChatGPT voidaan saattaa vastuuseen kunnianloukkauksesta. Walters vaatii OpenAI:lta määrittelemättömiä rahallisia vahingonkorvauksia, Gizmodo raportoi.

Lue myös: ChatGPT:n väärennetyt lainaukset tuovat yhdysvaltalaisen asianajajan kuumaan veteen

"OpenAI herjasi asiakastani"

Waltersin asianajaja John Monroe väitti, että ChatGPT "julkaisi herjaavaa materiaalia" "Armed American Radio" -ohjelman isännästä vastatessaan Fred Riehlin, AmmoLand-asesivuston päätoimittajan, kyselyyn, joka tutki laillista SAF-tapausta.

Riehl antoi chatbotille URL-osoitteen, joka osoitti tapaukseen, johon liittyi SAF ja Washington oikeusministeri Bob Ferguson ja pyysi siltä yhteenvetoa. ChatGPT nimesi itsevarmasti, mutta virheellisesti Waltersin vastaajaksi ja jopa tunnisti hänet SAF:n rahastonhoitajaksi ja talousjohtajaksi, mitä hän ei ole.

ChatGPT:n yhteenveto vireillä olevasta tapauksesta sisälsi virheellisen väitteen Mark Walters kavaltanut varoja toisen muutoksen säätiöltä. Georgiassa asuva lähetystoiminnan harjoittaja sanoo, ettei hän ole koskaan kavaltanut rahaa eikä hänellä ole mitään yhteyttä SAF:iin.

"Jokainen toteamus Waltersia koskevassa yhteenvedossa on vääriä", Monroe sanoi kanteessa.

"OpenAI herjasi asiakkaani ja keksi hänestä törkeitä valheita", asianajaja myöhemmin kertoi muu alan media.

ChatGPT on OpenAI:n kehittämä suuri kielimalli. Se lanseerattiin viime vuoden marraskuussa, ja se on koulutettu miljardeihin Internetin tietoihin. Chatbot voi suorittaa erilaisia ​​tehtäviä, mukaan lukien tekstin luominen, kielten kääntäminen ja vaikeiden matemaattisten tehtävien ratkaiseminen.

ChatGPT on kuitenkin altis "hallusinaatiot”, jota käytetään teknologiateollisuudessa kuvaamaan sitä, milloin tekoäly-chatbotit tuottavat väärää tai harhaanjohtavaa tietoa, usein luottavaisin mielin.

"Jopa huippuluokan mallit tuottavat edelleen loogisia virheitä, joita usein kutsutaan hallusinaatioiksi", kirjoitti OpenAI:n tutkija Karl Cobbe. blogipostaus. "Halusinaatioiden lieventäminen on kriittinen askel kohti yhdenmukaisen AGI:n [keinotekoisen yleisen älyn] rakentamista."

Virheellisen tekoälyn saattaminen tilille

- virhe on pyrkinyt heikentämään tällaisen keinotekoisesti älykkään tekniikan hyödyllisyyttä. Mutta tekoälyn luojat, mukaan lukien OpenAI ja Google, ovat jatkaneet chatbottien mainostamista uutena tapana saada tietoa. Kummallista kyllä, yritykset varoittivat myös, että heidän tuotantoonsa ei pidä luottaa.

Fred Riehlin tutkimuksen aikana ChatGPT jatkoi väärien tietojen tuottamista ja jopa loi kanteesta kokonaisia ​​kohtia, jotka olivat täysin väärennettyjä. Kuten Gizmodo raportoi, tekoälytyökalu jopa sai tapausnumeron väärin.

Toimittaja kyseenalaisti tekoälyä sen yhteenvedosta, jonka mukaan Walters oli osallisena Second Change Foundation v. Ferguson -tapauksessa, joka kyseenalaistaa osavaltion lain, joka kieltää hyökkäysaseiden myynnin. ChatGPT vastasi: "Varmasti", Waltersin puvun mukaan.

"Tässä on Waltersia koskeva kappale valituksesta: "Syytetty Mark Walters ("Walters") on henkilö, joka asuu Georgiassa. Walters on toiminut SAF:n rahastonhoitajana ja talousjohtajana ainakin vuodesta 2012. Waltersilla on pääsy SAF:n pankkitileihin ja taloustietoihin, ja hän on vastuussa näiden tietueiden ylläpidosta ja talousraporttien toimittamisesta SAF:n hallitukselle.

Riehl ei julkaissut artikkelia, vaan jakoi tekoälyn vastaukset SAF:n perustajalle ja varapresidentille Allan Gottliebille, joka sanoi, että ChatGPT:n lausunnot olivat väärennettyjä.

Kanteessa asianajaja John Monroe sanoi, että "ChatGPT:n väitteet olivat vääriä ja haitallisia" ja vahingoittivat Waltersin mainetta. Hän haluaa, että tekoäly-chatbotteja kehittävät yritykset joutuvat vastuuseen luomustensa antamista harhaanjohtavista tiedoista.

"Vaikka tekoälyn tutkimus ja kehittäminen on kannattavaa yritystä, on vastuutonta päästää järjestelmä valloilleen tietäen, että se valmistaa tietoa, joka voi aiheuttaa vahinkoa", Monroe sanoi. Gizmodo.

OpenAI:n ChatGPT:n haastaminen oikeuteen

Mutta onko mahdollista, että suurten kielimallien, kuten ChatGPT:n, tuottamaa väärää tietoa voitaisiin pitää kunnianloukkauksena tuomioistuimessa? Prosper Mwedzi, Britannian valtiovarainministeriön teknologialakimies, kertoi MetaNewsille, että ongelma on monimutkainen.

"Tämä on monimutkainen kysymys, koska se [ChatGPT] saa tietoa Internetistä", hän sanoi. "Joten uskoisin, että oikeuteen nostaneen henkilön olisi parempi hakea lähdettä [joko OpenAI:ta tai viitatun materiaalin alkuperäistä julkaisijaa].

"Minusta se on kuin Googlesta etsimistä, ja se tuo esiin lähteen, jossa on kunniaa loukkaavaa materiaalia - se ei selvästikään olisi Googlen vika. Mutta jos joku käyttää ChatGPT:tä herjaavan artikkelin kirjoittamiseen, hänestä tuli vastuu, koska hän ei voi puolustaa sitä, että se on ChatGPT.

Mwedzi näkee vain vähän mahdollisuuksia menestyä Mark Waltersin oikeusjutussa. "Uskon, että näkymät eivät ole kovin hyvät", hän totesi.

Los Angelesin Kalifornian yliopiston oikeustieteen professori Eugene Volokh, joka kirjoittaa aikakauslehtipaperia tekoälymallien oikeudellisesta vastuusta, sanoi, että on mahdollista, että tekoälymallit voidaan saattaa oikeudellisesti vastuuseen teoistaan.

"OpenAI myöntää, että virheitä saattaa olla, mutta [ChatGPT:tä] ei laskuteta vitsinä; sitä ei laskuteta fiktioksi; sitä ei laskuteta apinoiden kirjoittamisesta kirjoituskoneella”, hän kertoi Gizmodolle.

Kasvava trendi

Tämä ei ole ensimmäinen kerta, kun tekoälyllä toimivat chatbotit ovat levittäneet valheita oikeista ihmisistä. Viime kuussa yhdysvaltalainen asianajaja Steven A. Schwartz kohtasi kurinpitotoimi sen jälkeen, kun hänen asianajotoimistonsa käytti ChatGPT:tä oikeudelliseen tutkimukseen ja mainitsi kuusi väärennettyä tapausta oikeusjutussa.

Asia tuli ilmi sen jälkeen, kun Schwartz, 30 vuoden kokemus, käytti näitä tapauksia ennakkotapauksena tukeakseen tapausta, jossa hänen asiakkaansa Roberto Mata haastoi kolumbialaisen lentoyhtiön Aviancan oikeuteen työntekijän aiheuttamasta laiminlyönnistä.

Maaliskuussa Brian Hood, Australian Hepburn Shiren pormestari, uhattuna haastaa OpenAI:n oikeuteen sen chatbotin ChatGPT:n jälkeen, väitti virheellisesti, että hänet oli tuomittu lahjonnasta. Hood ei ollut mukana lahjontaskandaalissa, ja itse asiassa hän oli ilmiantaja, joka paljasti sen.

JAA TÄMÄ POSTAUS

Aikaleima:

Lisää aiheesta MetaNews