OpenAI의 ChatGPT, 랜드마크 소송에서 명예훼손 혐의로 기소

OpenAI의 ChatGPT, 랜드마크 소송에서 명예훼손 혐의로 기소

소스 노드 : 2717755

미국에 기반을 둔 라디오 방송인 Mark Walters는 AI 챗봇 ChatGPT가 OpenAI가 SAF(Second Amendment Foundation)의 자금을 횡령했다고 고발한 후 OpenAI를 명예 훼손으로 고소했습니다. Walters는 주장이 거짓이며 총기 권리 단체에서 일한 적이 없다고 말했습니다.

지난 5월 XNUMX일 조지아주 귀넷카운티 상급법원에 제기된 이 소송은 인공지능 챗봇이 ChatGPT는 명예 훼손에 대해 책임을 질 수 있습니다. Gizmodo 보고서에 따르면 Walters는 OpenAI로부터 불특정 금전적 손해 배상을 요구하고 있습니다.

또한 읽기 : ChatGPT의 가짜 인용으로 미국 변호사가 뜨거운 물에 빠지다

'OpenAI가 내 고객의 명예를 훼손했습니다'

Walters의 변호사 John Monroe는 ChatGPT가 합법적인 SAF 사건을 조사하고 있던 총기 웹사이트 AmmoLand의 편집장인 Fred Riehl의 질의에 응답하면서 "Armed American Radio" 프로그램 진행자에 대한 "비방 자료를 게시"했다고 주장했습니다.

Riehl은 챗봇에게 다음과 관련된 사례를 가리키는 URL을 제공했습니다. SAF와 워싱턴 법무 장관 밥 퍼거슨, 요약을 요청했습니다. ChatGPT는 자신만만하지만 잘못된 방식으로 Walters를 피고로 지명했으며 심지어 그를 SAF 재무 및 CFO로 식별했습니다.

보류 중인 사건에 대한 ChatGPT의 요약에는 다음과 같은 거짓 주장이 포함되어 있습니다. 마크 월터스 Second Amendment Foundation에서 자금을 횡령했습니다. 조지아에 기반을 둔 방송사는 돈을 횡령한 적이 없으며 SAF와 아무런 관련이 없다고 말했습니다.

“월터스와 관련된 요약의 모든 사실 진술은 거짓입니다.”라고 Monroe는 소송에서 말했습니다.

"OpenAI는 내 의뢰인의 명예를 훼손하고 그에 대해 터무니없는 거짓말을 했습니다." 이야기 다른 산업 매체.

ChatGPT OpenAI에서 개발한 대규모 언어 모델입니다. 작년 XNUMX월에 출시되었으며 인터넷의 수십억 데이터에 대해 교육을 받았습니다. 챗봇은 텍스트 생성, 언어 번역, 어려운 수학 문제 해결 등 다양한 작업을 수행할 수 있습니다.

그러나 ChatGPT는 “환각,”는 기술 산업에서 AI 챗봇이 종종 자신 있게 거짓 정보 또는 오해의 소지가 있는 정보를 생성하는 경우를 설명하는 데 사용되는 용어입니다.

OpenAI 연구 과학자인 칼 코베(Karl Cobbe)는 "최첨단 모델조차도 종종 환각이라고 불리는 논리적 오류를 생성합니다."라고 썼습니다. 블로그 게시물. "환각을 완화하는 것은 정렬된 AGI(인공 일반 지능)를 구축하기 위한 중요한 단계입니다."

결함이 있는 AI를 책임지고

XNUMXD덴탈의 결점 그러한 인공 지능 기술의 유용성을 훼손하는 경향이 있습니다. 그러나 OpenAI를 포함한 AI 크리에이터와 구글, 정보를 얻는 새로운 방법으로 챗봇을 지속적으로 홍보했습니다. 이상하게도 회사는 그들의 결과물을 신뢰할 수 없다고 경고했습니다.

Fred Riehl이 조사하는 동안 ChatGPT는 계속해서 허위 정보를 생성했으며 심지어 완전히 조작된 소송에 대한 전체 구절을 생성하기도 했습니다. Gizmodo가 보고한 바와 같이 AI 도구는 케이스 번호까지 잘못 입력했습니다.

기자는 월터스가 폭행 무기 판매를 금지하는 주법에 이의를 제기하는 제XNUMX차 수정안 재단 대 퍼거슨 사건에 연루됐다고 주장하는 요약에 대해 AI에 질문했습니다. ChatGPT는 Walters의 소송에 따라 "확실히"라고 답했습니다.

“다음은 Walters와 관련된 불만 사항의 ​​단락입니다. '피고 Mark Walters(“Walters”)는 조지아에 거주하는 개인입니다. Walters는 최소 2012년부터 SAF의 재무 및 최고재무책임자(CFO)로 재직했습니다. Walters는 SAF의 은행 계좌 및 재무 기록에 액세스할 수 있으며 이러한 기록을 유지 관리하고 SAF 이사회에 재무 보고서를 제공할 책임이 있습니다.”

Riehl은 기사를 게시하지 않았지만 대신 ChatGPT 진술이 가짜라고 말한 SAF 창립자이자 부사장 Allan Gottlieb과 AI의 응답을 공유했습니다.

소송에서 John Monroe 변호사는 "ChatGPT의 주장은 거짓되고 악의적이었다"고 말하면서 Walters의 평판을 손상시켰습니다. 그는 AI 챗봇을 개발하는 회사가 그들의 창조물이 제공하는 잘못된 정보에 대해 책임을 지기를 원합니다.

먼로는 "AI 연구개발은 가치 있는 노력이지만 해를 끼칠 수 있는 정보를 조작한다는 사실을 알면서도 대중에게 시스템을 공개하는 것은 무책임하다"고 말했다. 기즈모.

OpenAI의 ChatGPT 고소

그러나 ChatGPT와 같은 대규모 언어 모델에서 생성된 허위 정보가 법정에서 명예 훼손으로 간주될 수 있습니까? 영국 재무부의 기술 변호사 Prosper Mwedzi는 MetaNews에 문제가 복잡하다고 말했습니다.

"이것은 [ChatGPT]가 인터넷에서 정보를 얻기 때문에 복잡한 질문입니다."라고 그는 말했습니다. “그래서 소송을 제기하는 사람은 [OpenAI 또는 참조 자료의 원래 게시자] 대신 출처를 찾는 것이 더 나을 것이라고 생각합니다.

“Google에서 무언가를 검색하면 명예를 훼손하는 자료가 있는 출처가 표시됩니다. 분명히 Google의 잘못은 아닙니다. 그러나 누군가 ChatGPT를 사용하여 비방하는 기사를 작성하면 ChatGPT라는 변호를 사용할 수 없기 때문에 책임이 있습니다.”

Mwedzi는 Mark Walters의 소송에서 성공할 가능성이 거의 없다고 봅니다. 전망이 밝지 않다고 생각한다"고 말했다.

AI 모델의 법적 책임에 관한 저널 논문을 쓰고 있는 로스앤젤레스 캘리포니아 대학교 법학 교수 유진 볼로크(Eugene Volokh)는 AI 모델이 자신의 행동에 대해 법적 책임을 질 수 있다고 말했다.

“OpenAI는 실수가 있을 수 있음을 인정하지만 [ChatGPT]는 농담으로 청구되지 않습니다. 허구로 청구되지 않습니다. 원숭이가 타자기에 타이핑하는 것처럼 청구되지 않습니다.”라고 그는 Gizmodo에 말했습니다.

성장 추세

AI 기반 챗봇이 실제 사람에 대한 거짓 정보를 만들어낸 것은 이번이 처음이 아닙니다. 지난 달 미국 변호사 Steven A. Schwartz는 직면 그의 로펌이 법률 연구를 위해 ChatGPT를 사용하고 소송에서 XNUMX건의 허위 사례를 인용한 후 징계 조치를 받았습니다.

이 문제는 30년 경력의 변호사인 Schwartz가 그의 고객인 Roberto Mata가 콜롬비아 항공사 Avianca를 직원의 과실로 고소한 사건을 뒷받침하기 위해 이 사례를 선례로 사용하면서 밝혀졌습니다.

지난 XNUMX월 호주 햅번 샤이어의 브라이언 후드 시장은 위협 챗봇 ChatGPT 이후 OpenAI를 고소하기 위해 뇌물 수수로 유죄 판결을 받았다고 거짓 주장했습니다. 후드는 뇌물수수 사건에 연루되지 않았으며, 사실 이를 폭로한 내부고발자였다.

이 게시물 공유

타임 스탬프 :

더보기 메타뉴스