ChatGPT của OpenAI bị cáo buộc phỉ báng trong vụ kiện Landmark

ChatGPT của OpenAI bị cáo buộc phỉ báng trong vụ kiện Landmark

Nút nguồn: 2717755

Phát thanh viên Mark Walters có trụ sở tại Hoa Kỳ đã kiện OpenAI vì tội phỉ báng sau khi chatbot AI ChatGPT của họ cáo buộc ông biển thủ tiền từ Tổ chức Sửa đổi Thứ hai (SAF). Walters nói rằng các cáo buộc là sai và anh ta cũng chưa bao giờ làm việc cho nhóm bảo vệ quyền sở hữu súng.

Được đệ trình lên Tòa án Tối cao của Quận Gwinnett, Georgia, vào ngày 5 tháng XNUMX, vụ kiện được cho là lần đầu tiên cáo buộc rằng một chatbot AI như ChatGPT có thể phải chịu trách nhiệm về hành vi phỉ báng. Walters đang tìm kiếm các thiệt hại tiền tệ không xác định từ OpenAI, báo cáo của Gizmodo.

Ngoài ra đọc: ChatGPT's Bogus Citations Land US Luật sư trong nước nóng

'OpenAI đã bôi nhọ khách hàng của tôi'

John Monroe, luật sư của Walters, cáo buộc rằng ChatGPT đã “xuất bản tài liệu bôi nhọ” về người dẫn chương trình “Đài phát thanh vũ trang của Mỹ” khi trả lời câu hỏi từ Fred Riehl, tổng biên tập của trang web về súng AmmoLand, người đang nghiên cứu một trường hợp hợp pháp của SAF.

Riehl đã cung cấp cho chatbot một URL trỏ đến một trường hợp liên quan đến SAF và Washington tổng chưởng lý Bob Ferguson, và yêu cầu nó tóm tắt. ChatGPT tự tin, nhưng đã nhầm, gọi Walters là bị cáo và thậm chí xác định anh ta là thủ quỹ và giám đốc tài chính của SAF, mà anh ta không phải.

Bản tóm tắt của ChatGPT về trường hợp đang chờ xử lý bao gồm cáo buộc sai sự thật rằng Đánh dấu Walters biển thủ tiền từ Quỹ Tu chính án thứ hai. Người môi giới có trụ sở tại Georgia nói rằng anh ta chưa bao giờ biển thủ bất kỳ khoản tiền nào và anh ta không có mối liên hệ nào với SAF.

“Mọi tuyên bố về sự thật trong bản tóm tắt liên quan đến Walters đều sai,” Monroe nói trong vụ kiện.

“OpenAI đã phỉ báng khách hàng của tôi và bịa ra những lời nói dối thái quá về anh ta,” luật sư sau đó nói với các phương tiện truyền thông công nghiệp khác.

ChatGPT là một mô hình ngôn ngữ lớn được phát triển bởi OpenAI. Nó được ra mắt vào tháng XNUMX năm ngoái và được đào tạo dựa trên hàng tỷ dữ liệu từ internet. Chatbot có thể thực hiện nhiều tác vụ khác nhau, bao gồm tạo văn bản, dịch ngôn ngữ và giải các bài toán khó.

Tuy nhiên, ChatGPT có xu hướng “ảo giác,” là một thuật ngữ được sử dụng trong ngành công nghệ để mô tả khi các chatbot AI tạo ra thông tin sai lệch hoặc gây hiểu lầm, thường là một cách đáng tin cậy.

Karl Cobbe, một nhà khoa học nghiên cứu về OpenAI, đã viết trong một bài báo: “Ngay cả những mô hình hiện đại nhất vẫn tạo ra những lỗi logic, thường được gọi là ảo giác. bài viết trên blog. “Giảm thiểu ảo giác là một bước quan trọng để xây dựng AGI [trí thông minh nhân tạo tổng hợp] phù hợp.”

Giữ AI bị lỗi vào tài khoản

Sản phẩm lỗ hổng đã có xu hướng làm suy yếu tính hữu dụng của công nghệ thông minh nhân tạo như vậy. Nhưng những người sáng tạo AI bao gồm OpenAI và Google, đã tiếp tục quảng bá chatbot như một cách mới để lấy thông tin. Kỳ lạ thay, các công ty cũng cảnh báo rằng không nên tin tưởng vào sản lượng của họ.

Trong quá trình nghiên cứu của Fred Riehl, ChatGPT tiếp tục tạo ra thông tin sai lệch, thậm chí tạo ra toàn bộ đoạn về vụ kiện hoàn toàn bịa đặt. Như Gizmodo đã báo cáo, công cụ AI thậm chí còn sai số trường hợp.

Nhà báo đã đặt câu hỏi cho AI về bản tóm tắt của nó cáo buộc rằng Walters có liên quan đến Tổ chức Tu chính án thứ hai kiện Ferguson, vụ kiện thách thức luật tiểu bang cấm bán vũ khí tấn công. ChatGPT đã trả lời: “Chắc chắn rồi,” theo bộ đồ của Walters.

“Đây là đoạn trong đơn khiếu nại liên quan đến Walters: 'Bị cáo Mark Walters (“Walters”) là một cá nhân cư trú tại Georgia. Walters đã từng là Thủ quỹ và Giám đốc tài chính của SAF ít nhất kể từ năm 2012. Walters có quyền truy cập vào tài khoản ngân hàng và hồ sơ tài chính của SAF và chịu trách nhiệm duy trì các hồ sơ đó cũng như cung cấp báo cáo tài chính cho ban giám đốc của SAF.”

Riehl đã không xuất bản bài báo mà thay vào đó chia sẻ phản hồi của AI với người sáng lập và phó chủ tịch SAF Allan Gottlieb, người đã nói rằng các tuyên bố ChatGPT là giả mạo.

Trong vụ kiện, luật sư John Monroe nói rằng “Các cáo buộc của ChatGPT là sai và ác ý” và đã làm tổn hại danh tiếng của Walters. Anh ấy muốn các công ty phát triển chatbot AI phải chịu trách nhiệm về thông tin sai lệch do sáng tạo của họ cung cấp.

Monroe nói: “Mặc dù nghiên cứu và phát triển AI là một nỗ lực đáng giá, nhưng thật vô trách nhiệm khi tung ra một hệ thống cho công chúng biết rằng nó bịa đặt thông tin có thể gây hại”. Gizmodo.

Kiện ChatGPT của OpenAI

Nhưng liệu thông tin sai lệch do các mô hình ngôn ngữ lớn như ChatGPT tạo ra có thể bị coi là phỉ báng trước tòa án không? Prosper Mwedzi, một luật sư công nghệ của Bộ Tài chính Vương quốc Anh, nói với MetaNews rằng vấn đề này rất phức tạp.

“Đây là một câu hỏi phức tạp vì nó [ChatGPT] lấy thông tin từ internet,” anh ấy nói. “Vì vậy, tôi nghĩ rằng người khởi kiện sẽ tốt hơn nếu tìm nguồn [OpenAI hoặc nhà xuất bản gốc của tài liệu được tham chiếu].

“Tôi thấy nó giống như tìm kiếm thứ gì đó trên Google và nó đưa ra một nguồn có tài liệu phỉ báng - rõ ràng đó không phải là lỗi của Google. Nhưng nếu ai đó sử dụng ChatGPT để viết một bài báo bôi nhọ thì họ phải chịu trách nhiệm pháp lý vì họ không thể biện hộ rằng đó là ChatGPT.”

Mwedzi thấy ít cơ hội thành công với vụ kiện của Mark Walters. “Tôi nghĩ triển vọng không mạnh lắm,” anh nói.

Eugene Volokh, giáo sư luật tại Đại học California, Los Angeles, người đang viết một bài báo về trách nhiệm pháp lý của các mô hình AI, nói rằng có thể các mô hình AI phải chịu trách nhiệm pháp lý cho hành động của họ.

“OpenAI thừa nhận có thể có sai sót nhưng [ChatGPT] không được coi là một trò đùa; nó không được quảng cáo là hư cấu; anh ấy nói với Gizmodo.

Xu hướng phát triển

Đây không phải là lần đầu tiên các chatbot do AI cung cấp đưa ra những thông tin sai lệch về người thật. Tháng trước, luật sư Hoa Kỳ Steven A. Schwartz phải đối mặt hành động kỷ luật sau khi công ty luật của anh ấy sử dụng ChatGPT để nghiên cứu pháp lý và trích dẫn sáu trường hợp giả mạo trong một vụ kiện.

Vụ việc được đưa ra ánh sáng sau khi Schwartz, một luật sư có 30 năm kinh nghiệm, sử dụng những trường hợp này làm tiền lệ để hỗ trợ cho vụ án mà thân chủ của ông là Roberto Mata kiện hãng hàng không Avianca của Colombia vì sơ suất do một nhân viên gây ra.

Vào tháng XNUMX, Brian Hood, thị trưởng của Hepburn Shire ở Australia, bị đe dọa kiện OpenAI sau khi chatbot ChatGPT của họ tuyên bố sai sự thật rằng anh ta đã bị kết tội hối lộ. Hood không liên quan đến vụ bê bối hối lộ và trên thực tế, anh ta là người tố cáo đã vạch trần nó.

CHIA SẺ BÀI NÀY

Dấu thời gian:

Thêm từ MetaNews