ChatGPT از OpenAI به افترا در دعوای تاریخی متهم شد

ChatGPT از OpenAI به افترا در دعوای تاریخی متهم شد

گره منبع: 2717755

مارک والترز، پخش کننده رادیویی مستقر در ایالات متحده، پس از اینکه ربات چت هوش مصنوعی ChatGPT او را به اختلاس پول از بنیاد اصلاحیه دوم (SAF) متهم کرد، از OpenAI به دلیل افترا شکایت کرد. والترز می گوید که این اتهامات نادرست است و او همچنین هرگز برای گروه حقوق اسلحه کار نکرده است.

این شکایت که در 5 ژوئن در دادگاه عالی شهرستان گوینت، جورجیا ارائه شد، گمان می‌رود اولین شکایتی است که ادعا می‌کند یک ربات چت هوش مصنوعی مانند ChatGPT را می توان در قبال افترا مسئول دانست. Gizmodo گزارش می دهد که والترز به دنبال خسارات مالی نامشخص از OpenAI است.

همچنین بخوانید: نقل قول های جعلی ChatGPT وکیل ایالات متحده را در آب داغ فرو می برد

"OpenAI مشتری من را بدنام کرد"

جان مونرو، وکیل والترز، ادعا کرد که ChatGPT هنگام پاسخ به پرسش فرد ریهل، سردبیر وب سایت اسلحه آمولند، که در حال تحقیق در مورد یک پرونده قانونی SAF بود، «مطالب افتراآمیز» را درباره مجری برنامه «رادیو آمریکایی مسلح» منتشر کرد.

Riehl به چت بات یک URL داد که به موردی مربوط به آن اشاره می کند SAF و واشنگتن دادستان کل، باب فرگوسن، و از آن خواست تا خلاصه ای از آن ارائه دهد. ChatGPT با اطمینان، اما به اشتباه، والترز را به عنوان متهم معرفی کرد و حتی او را به عنوان خزانه دار و مدیر مالی SAF معرفی کرد، که او نیست.

خلاصه ChatGPT از پرونده معلق شامل این ادعای نادرست بود مارک والترز اختلاس وجوه از بنیاد متمم دوم. این مجری مستقر در گرجستان می گوید که او هرگز پولی را اختلاس نکرده است و هیچ ارتباطی با SAF ندارد.

مونرو در کت و شلوار گفت: «هر بیانیه واقعیت در خلاصه مربوط به والترز نادرست است.

وکیل بعداً "OpenAI موکل من را بدنام کرد و درباره او دروغ های ظالمانه ساخت." گفته شده سایر رسانه های صنعت

GPT چت یک مدل زبان بزرگ است که توسط OpenAI توسعه یافته است. این در نوامبر سال گذشته راه اندازی شد و بر روی میلیاردها داده از اینترنت آموزش داده شده است. چت بات می تواند کارهای مختلفی از جمله تولید متن، ترجمه زبان ها و حل مسائل ریاضی دشوار را انجام دهد.

با این حال، ChatGPT مستعد این است کهتوهم"، اصطلاحی است که در صنعت فناوری برای توصیف زمانی که چت ربات‌های هوش مصنوعی اطلاعات نادرست یا گمراه‌کننده، اغلب با اطمینان، تولید می‌کنند، استفاده می‌شود.

کارل کوبه، دانشمند تحقیقاتی OpenAI، در مقاله ای نوشت: «حتی مدل های پیشرفته هنوز هم اشتباهات منطقی ایجاد می کنند که اغلب توهم نامیده می شود. پست وبلاگ. کاهش توهمات گامی حیاتی در جهت ایجاد AGI همسو [هوش عمومی مصنوعی] است.

در نظر گرفتن هوش مصنوعی معیوب

La نقص تمایل به تضعیف سودمندی چنین فناوری هوشمند مصنوعی دارد. اما سازندگان هوش مصنوعی از جمله OpenAI و گوگل، به تبلیغ چت بات ها به عنوان روشی جدید برای کسب اطلاعات ادامه داده اند. به طرز عجیبی، این شرکت ها همچنین هشدار دادند که نباید به خروجی آنها اعتماد کرد.

در طول تحقیقات فرد ریهل، ChatGPT به تولید اطلاعات نادرست ادامه داد، حتی متن‌های کاملی درباره این دعوا ایجاد کرد که کاملا ساختگی بودند. همانطور که Gizmodo گزارش داد، ابزار هوش مصنوعی حتی شماره پرونده را نیز اشتباه گرفته است.

این روزنامه‌نگار هوش مصنوعی را در مورد خلاصه‌ای که ادعا می‌کرد والترز در پرونده دوم اصلاحیه علیه فرگوسن، که قانون ایالتی را که فروش سلاح‌های تهاجمی را ممنوع می‌کند، به چالش می‌کشد، زیر سوال برد. ChatGPT پاسخ داد: "مطمئنا"، طبق لباس والترز.

در اینجا پاراگراف شکایت مربوط به والترز آمده است: متهم مارک والترز ("والترز") فردی است که در جورجیا زندگی می کند. والترز حداقل از سال 2012 به عنوان خزانه دار و مدیر ارشد مالی SAF خدمت کرده است. والترز به حساب های بانکی و سوابق مالی SAF دسترسی دارد و مسئول نگهداری آن سوابق و ارائه گزارش های مالی به هیئت مدیره SAF است.

Riehl مقاله را منتشر نکرد اما در عوض پاسخ های هوش مصنوعی را با آلن گوتلیب بنیانگذار و معاون رئیس جمهور SAF در میان گذاشت که گفت اظهارات ChatGPT جعلی است.

جان مونرو، وکیل دادگستری در دادخواست گفت که «ادعاهای ChatGPT نادرست و بدخواهانه بود» و به شهرت والترز لطمه زد. او می‌خواهد شرکت‌هایی که چت ربات‌های هوش مصنوعی را توسعه می‌دهند، در قبال اطلاعات گمراه‌کننده ارائه‌شده توسط خلاقیت‌هایشان پاسخگو باشند.

مونرو گفت: «در حالی که تحقیق و توسعه در هوش مصنوعی یک تلاش ارزشمند است، رها کردن یک سیستم برای عموم مردم غیرمسئولانه است که می‌دانند اطلاعاتی را که می‌تواند باعث آسیب شود، جعل می‌کند.» Gizmodo به.

شکایت از ChatGPT OpenAI

اما آیا این امکان وجود دارد که اطلاعات نادرست تولید شده توسط مدل های زبان بزرگ مانند ChatGPT در دادگاه قانون افترا در نظر گرفته شود؟ Prosper Mwedzi، وکیل فناوری در وزارت خزانه داری بریتانیا، به متانیوز گفت که این موضوع پیچیده است.

او گفت: "این یک سوال پیچیده است زیرا [ChatGPT] اطلاعات را از اینترنت دریافت می کند." "بنابراین من فکر می کنم شخصی که شکایت می کند بهتر است به جای منبع (اعم از OpenAI یا ناشر اصلی مطالب ارجاع شده) مراجعه کند.

"من آن را مانند جستجوی چیزی در گوگل می بینم و منبعی را با مطالب بدنام کننده نشان می دهد - واضح است که تقصیر گوگل نیست. اما اگر کسی از ChatGPT برای نوشتن یک مقاله افتراآمیز استفاده کند، مسئولیت پذیرفته می شود زیرا نمی تواند از دفاعی استفاده کند که ChatGPT است.

Mwedzi شانس کمی برای موفقیت با شکایت مارک والترز می بیند. او گفت: «من فکر می‌کنم چشم‌اندازها چندان قوی نیستند.

یوجین ولوخ، استاد حقوق در دانشگاه کالیفرنیا، لس آنجلس، که در حال نوشتن مقاله ای در ژورنال در مورد مسئولیت قانونی مدل های هوش مصنوعی است، گفت که این امکان وجود دارد که مدل های هوش مصنوعی از نظر قانونی در قبال اقدامات خود مسئول شناخته شوند.

«OpenAI تصدیق می‌کند که ممکن است اشتباهاتی وجود داشته باشد، اما [ChatGPT] به عنوان یک شوخی در نظر گرفته نمی‌شود. آن را به عنوان یک داستان تخیلی عنوان نمی شود. او به Gizmodo گفت.

روند رو به رشد

این اولین بار نیست که چت ربات‌های مبتنی بر هوش مصنوعی درباره افراد واقعی دروغ می‌گویند. ماه گذشته، وکیل آمریکایی استیون آ. شوارتز در مواجهه پس از اینکه شرکت حقوقی او از ChatGPT برای تحقیقات حقوقی استفاده کرد و شش مورد جعلی را در یک دادخواست ذکر کرد، اقدام انضباطی کرد.

این موضوع پس از آن آشکار شد که شوارتز، وکیلی با 30 سال تجربه، از این موارد به عنوان سابقه برای حمایت از پرونده ای استفاده کرد که در آن موکلش روبرتو ماتا از شرکت هواپیمایی کلمبیایی آویانکا به دلیل سهل انگاری ناشی از یک کارمند شکایت کرد.

در ماه مارس، برایان هود، شهردار هپبورن شایر در استرالیا، تهدید برای شکایت از OpenAI پس از چت ربات ChatGPT، به دروغ ادعا کرد که به اتهام رشوه محکوم شده است. هود در رسوایی رشوه دخالتی نداشت و در واقع او افشاگری بود که آن را افشا کرد.

این پست رو به اشتراک بگذارید

تمبر زمان:

بیشتر از متانیوز