مشاوران نخست‌وزیر هند می‌گویند هوش مصنوعی می‌تواند باعث «اسکیزوفرنی جمعی» شود.

مشاوران نخست‌وزیر هند می‌گویند هوش مصنوعی می‌تواند باعث «اسکیزوفرنی جمعی» شود.

گره منبع: 3091579

شورای مشاوره اقتصادی هند به نخست وزیر (EACPM) سندی را تنظیم کرده است که هشدار می دهد مقررات جهانی هوش مصنوعی احتمالاً ناکارآمد هستند و توصیه می کند که این فناوری با تاکتیک های جایگزین - مانند آنچه در بازارهای مالی استفاده می شود - تنظیم شود.

شورا در مورد هوش مصنوعی بسیار نگران است. سند آن هشدار می‌دهد: «از طریق ترکیبی از نظارت، پیام‌های متقاعدکننده و تولید رسانه‌های مصنوعی، هوش مصنوعی بدخواه می‌تواند به طور فزاینده‌ای اکوسیستم‌های اطلاعاتی را کنترل کند و حتی واقعیت‌های فریبنده سفارشی‌سازی‌شده برای وادار کردن رفتار انسان، ایجاد اسکیزوفرنی جمعی را بسازد.»

این سازمان از رویکرد ایالات متحده به هوش مصنوعی انتقاد می کند که بیش از حد دست به دست می شود، بریتانیا به دلیل ارائه خطر از طریق طرفدار نوآوری و آزادسازی، و قوانین هوش مصنوعی اتحادیه اروپا به دلیل انشعاب کشورهای عضو اتحادیه و اتخاذ تأکیدات و کاربردهای مختلف از آن، ناقص است. اقدامات اجرایی

این سند همچنین استدلال می‌کند که گرایش چین به تنظیم مقررات با «یک سیستم بوروکراتیک متمرکز و همه‌قدر قدرتمند» ناقص است - همانطور که با «منشاء احتمالی نشت آزمایشگاهی COVID-19» نشان داده شده است.

مردم، ما در اینجا از شیشه ی نگاه عبور می کنیم.

(برای ثبت، دفتر مدیر اطلاعات ملی ایالات متحده هیچ نشانه ای پیدا نکرد که ویروس از یک آزمایشگاه چینی نشت کرده است.)

اما ما دور می زنیم

شورا پیشنهاد می‌کند که هوش مصنوعی یک «سیستم خودسازمان‌دهی غیرمتمرکز [که تکامل می‌یابد] از طریق حلقه‌های بازخورد، انتقال فاز و حساسیت به شرایط اولیه» در نظر گرفته شود و نمونه‌های دیگری از چنین سیستم‌هایی را ارائه می‌کند - مانند موجودیت‌های غیرخطی که در بازارهای مالی دیده می‌شوند، رفتار مستعمرات مورچه‌ها. ، یا الگوهای ترافیکی

روش‌های سنتی به دلیل ماهیت غیرخطی و غیرقابل پیش‌بینی هوش مصنوعی کوتاهی می‌کنند. سیستم‌های هوش مصنوعی شبیه به سیستم‌های تطبیقی ​​پیچیده (CAS) هستند، که در آن اجزا به روش‌های غیرقابل پیش‌بینی با هم تعامل دارند و تکامل می‌یابند. توضیح داده شده [PDF] شورا.

شورا تمایلی به تکیه بر اقدامات «قبلی» ندارد، زیرا نمی‌توان از قبل از خطراتی که یک سیستم هوش مصنوعی ایجاد می‌کند، دانست – رفتار آن نتیجه عوامل بسیار زیادی است.

بنابراین، این سند به هند پیشنهاد می کند که پنج اقدام نظارتی را اتخاذ کند:

  • نصب نرده ها و پارتیشن هاکه باید اطمینان حاصل کند که فناوری‌های هوش مصنوعی نه از عملکرد مورد نظرشان فراتر می‌روند و نه به مناطق خطرناک - مانند تصمیم‌گیری درباره تسلیحات هسته‌ای - تجاوز می‌کنند. اگر به نحوی آن نرده محافظ را در یک سیستم بشکنند، پارتیشن ها برای اطمینان از پخش نشدن آن وجود دارند.
  • حصول اطمینان از لغو دستی و نقاط قطع مجوز که انسان را تحت کنترل نگه می دارد و با احراز هویت چند عاملی و فرآیند بررسی چند لایه برای تصمیم گیرندگان انسانی ایمن نگه می دارد.
  • شفافیت و توضیح پذیری با اقداماتی مانند صدور مجوز باز برای الگوریتم های اصلی برای ایجاد محیطی مناسب برای حسابرسی، ممیزی ها و ارزیابی های منظم و اسناد توسعه استاندارد.
  • مسئولیت پذیری متمایز از طریق پروتکل‌های مسئولیت از پیش تعریف‌شده، گزارش‌دهی استاندارد شده حادثه، و مکانیسم‌های تحقیق.
  • تصویب یک نهاد نظارتی تخصصیکه دستوری گسترده دارد، رویکردی مبتنی بر بازخورد را در پیش می گیرد، رفتار سیستم هوش مصنوعی را رصد و ردیابی می کند، سیستم های هشدار خودکار را یکپارچه می کند و یک ثبت ملی ایجاد می کند.

شورا توصیه می کند که برای یافتن ایده هایی در مورد چگونگی ارائه ایده های خود - در درجه اول، بازارهای مالی - به سایر سیستم های CAS مراجعه کنید.

در این سند آمده است: «بینش‌های حاصل از حاکمیت سیستم‌های پر هرج و مرج مانند بازارهای مالی، رویکردهای قانون‌گذاری عملی را برای فناوری‌های پیچیده نشان می‌دهد،» این سند نشان می‌دهد که تنظیم‌کننده‌های اختصاصی هوش مصنوعی می‌توانند از تنظیم‌کننده‌های مالی مانند SEBI هند یا SEC ایالات متحده الگوبرداری شوند.

درست همانطور که این نهادها در مواقعی که بازارها در خطر هستند توقف معاملات را اعمال می کنند، تنظیم کننده ها نیز می توانند «نقاط خفه کردن» مشابهی را اتخاذ کنند که در آن هوش مصنوعی به پایان برسد. گزارش‌گری مالی اجباری مدل خوبی برای افشای اطلاعاتی است که اپراتورهای هوش مصنوعی باید ارائه کنند.

نگرانی های نویسندگان با این باور تقویت می شود که افزایش فراگیر هوش مصنوعی - همراه با شفافیت عملکرد آن - به این معنی است که زیرساخت های حیاتی، عملیات دفاعی و بسیاری از زمینه های دیگر در معرض خطر هستند.

از جمله خطراتی که آن‌ها بیان می‌کنند عبارتند از «هوش مصنوعی فراری» که در آن سیستم‌ها ممکن است به صورت بازگشتی و فراتر از کنترل انسان بهبود یابند و «با رفاه انسان همخوانی نادرست دارند» و اثر پروانه‌ای - سناریویی «که در آن تغییرات جزئی می‌تواند منجر به عواقب قابل‌توجه و پیش‌بینی نشده شود».

شورا هشدار داد: «بنابراین، یک سیستم کنترل غیرشفاف دولت بر الگوریتم‌ها، مجموعه‌های آموزشی و مدل‌ها با هدف به حداکثر رساندن علایق می‌تواند منجر به نتایج فاجعه‌بار شود».

این سند خاطرنشان می کند که مقررات پیشنهادی آن ممکن است به این معنی باشد که برخی سناریوها باید رد شوند.

شورا اذعان می‌کند: «ممکن است هرگز اجازه یک اینترنت فوق‌العاده متصل از همه چیز را بدهیم. اما نتیجه می گیرد که بشریت ممکن است از قوانین قوی بیشتر به دست آورد.

کسانی که ابزارهای هوش مصنوعی را ایجاد می کنند به راحتی به خاطر عواقب ناخواسته فرضی رها نخواهند شد - در نتیجه یک "پوست در بازی" از قبل وارد می شود. انسان‌ها قدرت‌های نادیده گرفتن و مجوز را حفظ خواهند کرد. ممیزی های اجباری منظم باید قابلیت توضیح را اعمال کنند.» ®

تمبر زمان:

بیشتر از ثبت نام