مارک والترز، پخش کننده رادیویی مستقر در ایالات متحده، پس از اینکه ربات چت هوش مصنوعی ChatGPT او را به اختلاس پول از بنیاد اصلاحیه دوم (SAF) متهم کرد، از OpenAI به دلیل افترا شکایت کرد. والترز می گوید که این اتهامات نادرست است و او همچنین هرگز برای گروه حقوق اسلحه کار نکرده است.
این شکایت که در 5 ژوئن در دادگاه عالی شهرستان گوینت، جورجیا ارائه شد، گمان میرود اولین شکایتی است که ادعا میکند یک ربات چت هوش مصنوعی مانند ChatGPT را می توان در قبال افترا مسئول دانست. Gizmodo گزارش می دهد که والترز به دنبال خسارات مالی نامشخص از OpenAI است.
همچنین بخوانید: نقل قول های جعلی ChatGPT وکیل ایالات متحده را در آب داغ فرو می برد
"OpenAI مشتری من را بدنام کرد"
جان مونرو، وکیل والترز، ادعا کرد که ChatGPT هنگام پاسخ به پرسش فرد ریهل، سردبیر وب سایت اسلحه آمولند، که در حال تحقیق در مورد یک پرونده قانونی SAF بود، «مطالب افتراآمیز» را درباره مجری برنامه «رادیو آمریکایی مسلح» منتشر کرد.
Riehl به چت بات یک URL داد که به موردی مربوط به آن اشاره می کند SAF و واشنگتن دادستان کل، باب فرگوسن، و از آن خواست تا خلاصه ای از آن ارائه دهد. ChatGPT با اطمینان، اما به اشتباه، والترز را به عنوان متهم معرفی کرد و حتی او را به عنوان خزانه دار و مدیر مالی SAF معرفی کرد، که او نیست.
خلاصه ChatGPT از پرونده معلق شامل این ادعای نادرست بود مارک والترز اختلاس وجوه از بنیاد متمم دوم. این مجری مستقر در گرجستان می گوید که او هرگز پولی را اختلاس نکرده است و هیچ ارتباطی با SAF ندارد.
مونرو در کت و شلوار گفت: «هر بیانیه واقعیت در خلاصه مربوط به والترز نادرست است.
وکیل بعداً "OpenAI موکل من را بدنام کرد و درباره او دروغ های ظالمانه ساخت." گفته شده سایر رسانه های صنعت
GPT چت یک مدل زبان بزرگ است که توسط OpenAI توسعه یافته است. این در نوامبر سال گذشته راه اندازی شد و بر روی میلیاردها داده از اینترنت آموزش داده شده است. چت بات می تواند کارهای مختلفی از جمله تولید متن، ترجمه زبان ها و حل مسائل ریاضی دشوار را انجام دهد.
با این حال، ChatGPT مستعد این است کهتوهم"، اصطلاحی است که در صنعت فناوری برای توصیف زمانی که چت رباتهای هوش مصنوعی اطلاعات نادرست یا گمراهکننده، اغلب با اطمینان، تولید میکنند، استفاده میشود.
کارل کوبه، دانشمند تحقیقاتی OpenAI، در مقاله ای نوشت: «حتی مدل های پیشرفته هنوز هم اشتباهات منطقی ایجاد می کنند که اغلب توهم نامیده می شود. پست وبلاگ. کاهش توهمات گامی حیاتی در جهت ایجاد AGI همسو [هوش عمومی مصنوعی] است.
در نظر گرفتن هوش مصنوعی معیوب
La نقص تمایل به تضعیف سودمندی چنین فناوری هوشمند مصنوعی دارد. اما سازندگان هوش مصنوعی از جمله OpenAI و گوگل، به تبلیغ چت بات ها به عنوان روشی جدید برای کسب اطلاعات ادامه داده اند. به طرز عجیبی، این شرکت ها همچنین هشدار دادند که نباید به خروجی آنها اعتماد کرد.
در اینجا GPT-4، تواناترین و همسوترین مدل ما تا کنون است. امروز در API ما (با لیست انتظار) و در ChatGPT+ در دسترس است.https://t.co/2ZFC36xqAJ
هنوز هم معیوب است، هنوز محدود است، و هنوز هم در اولین استفاده تاثیرگذارتر از زمانی است که زمان بیشتری را با آن می گذرانید.
- سام آلتمن (sama) مارس 14، 2023
در طول تحقیقات فرد ریهل، ChatGPT به تولید اطلاعات نادرست ادامه داد، حتی متنهای کاملی درباره این دعوا ایجاد کرد که کاملا ساختگی بودند. همانطور که Gizmodo گزارش داد، ابزار هوش مصنوعی حتی شماره پرونده را نیز اشتباه گرفته است.
این روزنامهنگار هوش مصنوعی را در مورد خلاصهای که ادعا میکرد والترز در پرونده دوم اصلاحیه علیه فرگوسن، که قانون ایالتی را که فروش سلاحهای تهاجمی را ممنوع میکند، به چالش میکشد، زیر سوال برد. ChatGPT پاسخ داد: "مطمئنا"، طبق لباس والترز.
در اینجا پاراگراف شکایت مربوط به والترز آمده است: متهم مارک والترز ("والترز") فردی است که در جورجیا زندگی می کند. والترز حداقل از سال 2012 به عنوان خزانه دار و مدیر ارشد مالی SAF خدمت کرده است. والترز به حساب های بانکی و سوابق مالی SAF دسترسی دارد و مسئول نگهداری آن سوابق و ارائه گزارش های مالی به هیئت مدیره SAF است.
Riehl مقاله را منتشر نکرد اما در عوض پاسخ های هوش مصنوعی را با آلن گوتلیب بنیانگذار و معاون رئیس جمهور SAF در میان گذاشت که گفت اظهارات ChatGPT جعلی است.
جان مونرو، وکیل دادگستری در دادخواست گفت که «ادعاهای ChatGPT نادرست و بدخواهانه بود» و به شهرت والترز لطمه زد. او میخواهد شرکتهایی که چت رباتهای هوش مصنوعی را توسعه میدهند، در قبال اطلاعات گمراهکننده ارائهشده توسط خلاقیتهایشان پاسخگو باشند.
مونرو گفت: «در حالی که تحقیق و توسعه در هوش مصنوعی یک تلاش ارزشمند است، رها کردن یک سیستم برای عموم مردم غیرمسئولانه است که میدانند اطلاعاتی را که میتواند باعث آسیب شود، جعل میکند.» Gizmodo به.
شکایت از ChatGPT OpenAI
اما آیا این امکان وجود دارد که اطلاعات نادرست تولید شده توسط مدل های زبان بزرگ مانند ChatGPT در دادگاه قانون افترا در نظر گرفته شود؟ Prosper Mwedzi، وکیل فناوری در وزارت خزانه داری بریتانیا، به متانیوز گفت که این موضوع پیچیده است.
او گفت: "این یک سوال پیچیده است زیرا [ChatGPT] اطلاعات را از اینترنت دریافت می کند." "بنابراین من فکر می کنم شخصی که شکایت می کند بهتر است به جای منبع (اعم از OpenAI یا ناشر اصلی مطالب ارجاع شده) مراجعه کند.
"من آن را مانند جستجوی چیزی در گوگل می بینم و منبعی را با مطالب بدنام کننده نشان می دهد - واضح است که تقصیر گوگل نیست. اما اگر کسی از ChatGPT برای نوشتن یک مقاله افتراآمیز استفاده کند، مسئولیت پذیرفته می شود زیرا نمی تواند از دفاعی استفاده کند که ChatGPT است.
Mwedzi شانس کمی برای موفقیت با شکایت مارک والترز می بیند. او گفت: «من فکر میکنم چشماندازها چندان قوی نیستند.
یوجین ولوخ، استاد حقوق در دانشگاه کالیفرنیا، لس آنجلس، که در حال نوشتن مقاله ای در ژورنال در مورد مسئولیت قانونی مدل های هوش مصنوعی است، گفت که این امکان وجود دارد که مدل های هوش مصنوعی از نظر قانونی در قبال اقدامات خود مسئول شناخته شوند.
«OpenAI تصدیق میکند که ممکن است اشتباهاتی وجود داشته باشد، اما [ChatGPT] به عنوان یک شوخی در نظر گرفته نمیشود. آن را به عنوان یک داستان تخیلی عنوان نمی شود. او به Gizmodo گفت.
روند رو به رشد
این اولین بار نیست که چت رباتهای مبتنی بر هوش مصنوعی درباره افراد واقعی دروغ میگویند. ماه گذشته، وکیل آمریکایی استیون آ. شوارتز در مواجهه پس از اینکه شرکت حقوقی او از ChatGPT برای تحقیقات حقوقی استفاده کرد و شش مورد جعلی را در یک دادخواست ذکر کرد، اقدام انضباطی کرد.
این موضوع پس از آن آشکار شد که شوارتز، وکیلی با 30 سال تجربه، از این موارد به عنوان سابقه برای حمایت از پرونده ای استفاده کرد که در آن موکلش روبرتو ماتا از شرکت هواپیمایی کلمبیایی آویانکا به دلیل سهل انگاری ناشی از یک کارمند شکایت کرد.
در ماه مارس، برایان هود، شهردار هپبورن شایر در استرالیا، تهدید برای شکایت از OpenAI پس از چت ربات ChatGPT، به دروغ ادعا کرد که به اتهام رشوه محکوم شده است. هود در رسوایی رشوه دخالتی نداشت و در واقع او افشاگری بود که آن را افشا کرد.
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- EVM Finance. رابط یکپارچه برای امور مالی غیرمتمرکز دسترسی به اینجا.
- گروه رسانه ای کوانتومی. IR/PR تقویت شده دسترسی به اینجا.
- PlatoAiStream. Web3 Data Intelligence دانش تقویت شده دسترسی به اینجا.
- منبع: https://metanews.com/openais-chatgpt-accused-of-defamation-in-landmark-lawsuit/
- : دارد
- :است
- :نه
- $UP
- 13
- 14
- 2012
- 30
- 8
- a
- درباره ما
- دسترسی
- پاسخگو
- حساب ها
- متهم
- عمل
- اقدامات
- پس از
- AGI
- AI
- AI chatbot
- مجهز به هوش مصنوعی
- شرکت هواپیمایی
- هم راستا
- اتهامات
- ادعا شده است
- همچنین
- امریکایی
- an
- و
- آنجلس
- هر
- API
- هستند
- مقاله
- مصنوعی
- هوش عمومی مصنوعی
- AS
- At
- وکیل
- دادستان کل
- استرالیا
- در دسترس
- بانک
- حساب های بانکی
- ممنوعیت
- بی بی سی
- BE
- شد
- زیرا
- بوده
- اعتقاد بر این
- بهتر
- میلیاردها
- تخته
- هيئت مدیره
- فریب
- برایان
- به ارمغان می آورد
- بنا
- اما
- by
- کالیفرنیا
- نام
- آمد
- CAN
- توانا
- مورد
- موارد
- علت
- ایجاد می شود
- cfo
- چالش ها
- شانس
- chatbot
- chatbots
- GPT چت
- رئیس
- رئیس مالی
- مامور مالی اصلی
- اشاره
- ادعا کرد که
- به وضوح
- مشتری
- شرکت
- شکایت
- به طور کامل
- پیچیده
- نگرانی ها
- اعتماد به نفس
- با اطمینان
- ارتباط
- در نظر گرفته
- ادامه داد:
- میتوانست
- شهرستان
- دادگاه
- ایجاد
- خلاقیت
- سازندگان
- بحرانی
- داده ها
- افتراء
- دفاع
- بخش
- توصیف
- توسعه
- توسعه
- پروژه
- DID
- مشکل
- مدیران
- انضباطی
- میکند
- سردبیر
- هر دو
- کارمند
- تلاش کن
- تمام
- حتی
- تجربه
- قرار گرفتن در معرض
- واقعیت
- جعلی
- غلط
- اشتباهات
- داستان
- مالی
- شرکت
- نام خانوادگی
- بار اول
- برای اولین بار
- ناقص
- برای
- پایه
- موسس
- از جانب
- بودجه
- سوالات عمومی
- هوش عمومی
- تولید می کنند
- تولید
- مولد
- گرجستان
- دریافت کنید
- رفتن
- گوگل
- گوگل
- گروه
- بود
- صدمه
- آیا
- he
- برگزار شد
- هپبورن
- او را
- خود را
- کاپوت
- میزبان
- HOT
- HTTPS
- i
- شناسایی
- if
- موثر
- in
- مشمول
- از جمله
- فرد
- صنعت
- اطلاعات
- در عوض
- اطلاعات
- هوشمند
- اینترنت
- گرفتار
- شامل
- موضوع
- IT
- ITS
- جان
- روزنامه
- روزنامه نگار
- ژوئن
- دانا
- زمین
- نقطه ی عطف بود
- زبان
- زبان ها
- بزرگ
- نام
- پارسال
- بعد
- راه اندازی
- قانون
- شرکت حقوقی
- طرح دعوی در دادگاه
- وکیل
- کمترین
- قانونی
- قانونا
- قانونی
- بدهی
- نهفته است
- سبک
- پسندیدن
- محدود شده
- کوچک
- منطقی
- آنها
- لس آنجلس
- نگهداری
- مارس
- علامت
- ماتا
- ماده
- ریاضی
- ماده
- ممکن است..
- شهردار
- رسانه ها
- متانیوز
- گمراه کننده
- اشتباهات
- مدل
- مدل
- پولی
- پول
- ماه
- بیش
- اکثر
- my
- تحت عنوان
- هرگز
- جدید
- نه
- نوامبر
- عدد
- of
- خاموش
- افسر
- غالبا
- on
- OpenAI
- or
- اصلی
- دیگر
- ما
- خارج
- تولید
- مقاله
- انتظار
- مردم
- انجام دادن
- شخص
- افلاطون
- هوش داده افلاطون
- PlatoData
- ممکن
- پست
- قبلی
- رئيس جمهور
- مشکلات
- تولید کردن
- معلم
- برنامه
- ترویج
- چشم انداز
- ارائه
- ارائه
- عمومی
- منتشر کردن
- ناشر
- سوال
- مورد سوال
- رادیو
- خواندن
- واقعی
- سوابق
- گزارش
- گزارش ها
- شهرت
- تحقیق
- تحقیق و توسعه
- پاسخ دادن
- پاسخ
- مسئوليت
- رویترز
- حقوق
- s
- سعید
- فروش
- سام
- می گوید:
- رسوایی
- دانشمند
- جستجو
- دوم
- دیدن
- به دنبال
- به نظر می رسد
- می بیند
- به اشتراک گذاشته شده
- باید
- پس از
- شش
- حل کردن
- کسی
- چیزی
- منبع
- خرج کردن
- دولت
- وضعیت هنر
- اظهار داشت:
- بیانیه
- اظهارات
- گام
- هنوز
- قوی
- موفقیت
- چنین
- تعقیب قانونی کردن
- شکایت
- کت و شلوار
- خلاصه
- برتر
- پشتیبانی
- سیستم
- وظایف
- فن آوری
- صنعت فناوری
- مدت
- نسبت به
- که
- La
- منبع
- انگلستان
- شان
- سپس
- آنجا.
- اینها
- آنها
- فکر می کنم
- این
- کسانی که
- زمان
- به
- امروز
- ابزار
- طرف
- آموزش دیده
- خزانه دار
- خزانه داری
- وزارت خزانه داری
- درست
- مورد اعتماد
- ما
- Uk
- خزانه داری انگلستان
- تضعیف
- دانشگاه
- دانشگاه کالیفرنیا
- رها کردن
- URL
- us
- استفاده کنید
- استفاده
- استفاده
- تنوع
- بسیار
- معاون رئیس جمهور
- می خواهد
- بود
- مسیر..
- تسلیحات
- سایت اینترنتی
- بود
- چه زمانی
- که
- افشاگر
- WHO
- با
- مشغول به کار
- ارزشمند
- خواهد بود
- نوشتن
- نوشته
- اشتباه
- سال
- سال
- هنوز
- شما
- زفیرنت