پکن مواردی را فهرست می کند که می خواهد هوش مصنوعی مولد را سانسور کند

پکن مواردی را فهرست می کند که می خواهد هوش مصنوعی مولد را سانسور کند

گره منبع: 2578501

در حالی که غول های فناوری چین کلون های ChatGPT خود را مستقر می کنند، پکن مقررات پیشنهادی را برای تحقیق، توسعه و استفاده از چت ربات های هوش مصنوعی مولد منتشر کرده است، بدون اینکه کاملاً پاسخ دهد که آیا این ابزارها می توانند با آرمان های سوسیالیستی مطابقت داشته باشند یا خیر.

پیش نویس قوانین، دیروز منتشر شد توسط اداره فضای مجازی چین و با عنوان بزرگ اقدامات اداری برای خدمات هوش مصنوعی مولد، جزئیات 21 مقاله که خواستار محتوای تولید شده توسط هوش مصنوعی است تا «منعکس کننده ارزش های اصلی سوسیالیسم باشد و نباید حاوی براندازی قدرت دولتی، سرنگونی نظام سوسیالیستی، تحریک برای تجزیه کشور باشد».

این سند همچنین ممنوعیت قاطعانه ای را علیه ترویج تروریسم، افراط گرایی، نفرت قومی و تبعیض بیان می کند. خشونت، اطلاعات مستهجن و مستهجن، اطلاعات نادرست و محتوایی که ممکن است نظم اقتصادی و اجتماعی را مختل کند نیز ممنوع است.

این قوانین وظیفه طراحان ابزارهای هوش مصنوعی را برای جلوگیری از تبعیض بر اساس نژاد، قومیت، اعتقاد، کشور، منطقه، جنسیت، سن، شغل، از طریق انتخاب دقیق داده‌های آموزشی، طراحی الگوریتم و هر بهینه‌سازی دیگر بر عهده دارند.

کاربران باید با نام واقعی خود ثبت نام کنند و کسانی که خدمات هوش مصنوعی مولد ارائه می دهند یا به دیگران در انجام این کار کمک می کنند، تولید کننده محتوای تولید شده توسط ربات ها فرض می شوند. آن تولید کننده مسئولیت هر گونه اقدامات مربوط به حفظ حریم خصوصی - از جمله اقدامات مرتبط با اطلاعات شخصی را بر عهده می گیرد.

کسانی که از هوش مصنوعی برای ارائه خدمات به عموم استفاده می کنند، باید قبل از انتشار خدماتشان، ابتدا یک ارزیابی امنیتی انجام دهند. سپس آن ارائه دهندگان مسئول نتیجه و هرگونه درز اطلاعات شخصی یا نقض IP می شوند. آنها همچنین باید به وضوح محتوای تولید شده توسط هوش مصنوعی را برچسب گذاری کنند و به هر گونه شکایت رسیدگی کنند و همچنین از اعتیاد یا وابستگی کاربران به ابزار اطمینان حاصل کنند.

آن ارائه‌دهنده همچنین باید خدمات کاربرانی را که متوجه می‌شوند محتوای آن‌ها برای اهداف شرورانه یا صرفاً در نقض قوانین پکن، از جمله درگیر شدن در تبلیغات شبکه، ارسال و نظر مخرب، ایجاد هرزنامه، نوشتن نرم‌افزارهای مخرب و پیاده‌سازی استفاده شده است، به حالت تعلیق درآورد یا خاتمه دهد. بازاریابی تجاری نامناسب.»

قوانین پس از آن آغاز شد Huawei در و علی بابا در حالی که شرکت‌ها دوست دارند، به‌روزرسانی‌هایی را برای مدل‌های هوش مصنوعی تولیدی و خدمات مرتبط خود آماده کردند بایدو با خدمات اولیه ادامه داد - همه بخشی از مسابقه برای تبدیل شدن به اولین آنالوگ ChatGPT چینی قابل دوام است.

غول های فناوری چین در حال مسابقه دادن هستند تا ابزارهای مولد هوش مصنوعی را به بازار بیاورند. هوش مصنوعی یک اولویت سیاست ملی است، و چین از FOMO مصون نیست، زمانی که یک فناوری جدید شروع به کار کند، زیرا ChatGPT OpenAI این کار را به طرز چشمگیری انجام داده است.

صحبت از ChatGPT، در چین مسدود نشده است، اما دسترسی به آن دشوار است زیرا کاربران باید با شماره تلفن ثبت نام کنند و کاربران چینی پذیرفته نمی شوند.

این یک موقعیت مناسب برای پکن است، زیرا دولت چین ترجیح می‌دهد فناوری‌هایی که از خارج از کشور تهیه می‌شود به فروش برسد و/یا توسط شرکت‌های محلی اداره شود.

اکثر شرکت‌های چینی که در توسعه مدل‌های زبان بزرگ (LLM) شرکت دارند، با رژیم‌های تنظیم‌کننده آنلاین ترجیحی غریبه نیستند، زیرا در سال‌های اخیر تجربه کرده‌اند. سرکوب های چندگانه و دستورالعمل هایی در مورد نوع محتوا و رفتاری که در اینترنت چین قابل تحمل نیست. بنابراین مقررات AI و LLM به وضوح قریب الوقوع بود.

بنابراین قوانین پیشنهادی CAC غیرقابل تعجب است و موضوعات و اهدافی آشنا برای سایر مقررات محتوایی آن دارد.

پیش نویس قوانین تا 10 می برای بازخورد عمومی باز است و پس از آن پکن برخی قوانین سخت را «در سال 2023» به اجرا در خواهد آورد. پیش نویس قوانین جریمه ها و تحقیقات جنایی احتمالی را برای متخلفان مشخص می کند.

با وجود این مقررات، CAC گفت که دولت از توسعه و استفاده از الگوریتم‌ها و چارچوب‌های هوش مصنوعی حمایت می‌کند. این ادعاها احتمالا درست است و منعکس کننده اقدامات انجام شده توسط نهادهای دولتی مانند اداره اقتصاد و فناوری اطلاعات شهرداری پکن است که اعلام کرده است همکاری ساخت مدل‌های هوش مصنوعی و چارچوب‌های منبع باز در ماه فوریه.

اما پر کردن لیست آرزوهای پکن دشوار خواهد بود زیرا از فناوری نابالغ و خطاپذیر می‌خواهد که قوانین سانسور ظریف را رعایت کند و با انجام این کار ممکن است استفاده از مدل‌های داده را برای جلوگیری از اشتباه محدود کند.

اما غول‌های وب محلی قبلاً نشان داده‌اند که می‌دانند پکن چه می‌خواهد.

مدل ERNIE بایدو عرضه شد ماه گذشته و فاش کرد که این شرکت سانسور مطالب حساس سیاسی را اجرا کرده است در حالی که بسیاری از درخواست‌های نسبتا آسان را ناکام گذاشته است.

علاوه بر این، پکن می خواهد از IP، اسرار شرکت و اطلاعات کاربران محافظت کند، اما LLM ها به طور مداوم توسط کاربرانش داده های آموزشی جدید تغذیه می کنند. سامسونگ اخیرا متوجه شده است کنترل داده های حساس چقدر دشوار بود، زمانی که اسرار آن سه بار در 20 روز اول استفاده ChatGPT در chaebol کره ای فاش شد.

بدیهی است که پکن می‌خواهد از bloopers ChatGPT بیاموزد، اما اینکه چگونه از این خطاها جلوگیری می‌کند، در حالی که فرهنگ منعکس‌کننده ارزش‌های خود را حفظ می‌کند و همچنان یک محصول مفید هوش مصنوعی ارائه می‌کند. ®

تمبر زمان:

بیشتر از ثبت نام