بریتانیا به کتاب سفید هوش مصنوعی با آزمایش‌های نظارتی پاسخ می‌دهد

بریتانیا به کتاب سفید هوش مصنوعی با آزمایش‌های نظارتی پاسخ می‌دهد

گره منبع: 3070094

دولت بریتانیا آزمایش هایی را برای قوانین جدید هوش مصنوعی با تمرکز بر ایمنی و رشد صنعت منتشر خواهد کرد. مؤسسه ایمنی هوش مصنوعی، با مقرراتی که ناشی از خطرات ایمنی یا عدم انطباق توسط شرکت‌های هوش مصنوعی مانند OpenAI و Google است، نقشی ایفا خواهد کرد.

طبق گزارش فایننشال تایمز، این قوانین مطابق با تمرکز دولت بر مقاومت در برابر ایجاد یک رژیم نظارتی سخت‌تر برای فناوری‌هایی هستند که به سرعت در حال توسعه هستند. در هفته‌های آتی، وزرای بریتانیا معیارهایی را منتشر خواهند کرد که شرایطی را بیان می‌کنند که تحت آن، مدل‌های قدرتمند هوش مصنوعی (AI) ایجاد شده توسط گوگل، OpenAI و سایر شرکت‌ها را محدود می‌کنند.

La دولت انگلستان سیستمی را برای تماشای این موضوع ایجاد کنید، که موسسه ایمنی هوش مصنوعی است، بدنی متشکل از دانشگاهیان و کارشناسان یادگیری. اگر مؤسسه ایمنی هوش مصنوعی نتواند خطرات پیرامون فناوری را شناسایی کند، مداخله آغاز خواهد شد. آزمایش دیگری که می‌تواند قانون‌گذاری را آغاز کند، این است که شرکت‌های هوش مصنوعی نتوانند تعهدات داوطلبانه خود را برای جلوگیری از آسیب رعایت کنند.

رویکرد دولت بریتانیا به هوش مصنوعی

بیانیه منتشر شده توسط دولت تأیید می کند که رویکرد لمسی سبک دولت بریتانیا برای تنظیم هوش مصنوعی در انتشار این آزمایش ها منعکس خواهد شد. بر اساس این بیانیه، آنها برای کاهش خطرات و حمایت ایمن و مسئولانه اقدام خواهند کرد فناوری AI همان طور که خواسته شده. در ادامه بیانیه آمده است که آنها با مشورت نزدیک با جامعه مدنی و صنعت، رویکرد حامی نوآوری را حفظ خواهند کرد.

در نتیجه، این فلسفه از طریق «آزمایش‌ها» برای تصویب قوانین هوش مصنوعی که توسط دولت بریتانیا پیشنهاد می‌شود، با این شرط که هر قانون جدید بدون دلیل به نوآوری آسیب نرساند، انجام می‌شود.

قابل درک است که این آزمایش ها به عنوان بخشی از فرآیند مشاوره برای مقاله سفید هوش مصنوعی دولت منتشر شده در مارس 2023 منتشر می شود.

وایت پیپر بدون انتقاد نبود. کارن یونگ، استاد دانشگاه بیرمنگام و کاندیدای دکترا، اما احمد رنجرز، گفت که این سند مبنای ناکافی برای سیاست صحیح است. آنها افزودند که این سند نمی تواند به عنوان پایه و اساس یک چارچوب نظارتی مؤثر و مشروع به نفع عموم باشد.

با این حال، برخی از افراد دیگر اشاره کردند که تنظیم مقررات هوش مصنوعی در بریتانیا توسط تنظیم کننده های بخش آغاز شده است. این شامل Ofcom و دفتر کمیسر اطلاعات است که شروع به انجام ممیزی های الگوریتمی در حوزه های قضایی خود کرده اند.

بریتانیا بر روی هنجارهای هوش مصنوعی در سطح بین المللی فعال است

شرکت‌های هوش مصنوعی، از جمله OpenAI، Google، DeepMind، Microsoft و Meta، چندین سیاست داوطلبانه را در ماه نوامبر امضا کردند. آنها در مورد ایمنی محصولات خود به عنوان بخشی از اجلاس جهانی ایمنی هوش مصنوعی که توسط دولت بریتانیا برگزار می شود، نگران هستند.

این شرکت ها موافقت کردند که اجازه دهند موسسه ایمنی هوش مصنوعی بریتانیا برای ارزیابی ایمنی مدل هایی که محصولاتی مانند GPT چت قبل از اینکه توسط مشاغل و مصرف کنندگان استفاده شود.

در نتیجه، ارزیابی این مدل‌ها در حال انجام است، اما نحوه اجرای آنها مشخص نیست. همچنین، مشخص نیست که آیا شرکت‌های هوش مصنوعی دسترسی جامع را فراهم خواهند کرد یا خیر. به گفته یک مقام دولتی، آنها در حال حاضر خوش شانس هستند زیرا از هر دو طرف به حسن نیت متکی هستند. این مقام مسئول ادامه داد: ارزیابی این مدل ها وابسته به شخصیت و مدیر عامل است.

تمبر زمان:

بیشتر از متانیوز