استرالیا یک نهاد مشورتی برای رسیدگی به نگرانی های مربوط به خطر هوش مصنوعی تشکیل می دهد

استرالیا یک نهاد مشورتی برای رسیدگی به نگرانی های مربوط به خطر هوش مصنوعی تشکیل می دهد

گره منبع: 3076679

استرالیا در اقدامی برای مقابله با چالش های ناشی از هوش مصنوعی، این کار را انجام داده است اعلام کرد تشکیل هیئت مشورتی جدید

این ابتکار، همانطور که توسط دولت فاش شده است، نشان دهنده تلاش های شدید استرالیا برای تنظیم فناوری های هوش مصنوعی است. تأسیس این نهاد بر تمرکز این کشور بر پیمایش چشم‌انداز پیچیده هوش مصنوعی، متعادل کردن منافع اقتصادی آن در برابر خطرات احتمالی تأکید می‌کند.

درک چشم انداز هوش مصنوعی

هوش مصنوعی به سرعت در حال تسخیر صنایع است که نشانگر میزان رشد اقتصادی است. اد هوسیک وزیر علوم و صنعت تاکید کرد که هوش مصنوعی چگونه پتانسیل رشد اقتصاد را دارد. با این حال، او همچنین به کاربرد ناهموار هوش مصنوعی در تجارت اشاره کرد که نشان دهنده نیاز به یکپارچگی گسترده تر و سازگارتر است. در حالی که پتانسیل بالایی دارد، در مورد فناوری هوش مصنوعی تردید وجود دارد. مسائل مربوط به اعتماد مربوط به فناوری هوش مصنوعی به موضوعی تبدیل شده است که مانع پذیرش این فناوری می شود. Husic این اعتماد کم را به عنوان بخشی از دلیل مانع از جذب فناوری های سودمند هوش مصنوعی معرفی کرد.

همچنین یک مسئله اعتماد در اطراف خود فناوری وجود دارد و این اعتماد کم به ترمز دستی در برابر جذب فناوری تبدیل می شود و این چیزی است که ما باید با آن مقابله کنیم.

با این حال، اقدام پیشگیرانه استرالیا با مقررات هوش مصنوعی کاملاً جدید نیست. در سال 2015، این کشور مسیری را برای ایجاد اولین کمیسیون امنیت الکترونیکی در جهان ایجاد کرد. با این حال، استرالیا نسبت به سایر کشورهایی که تلاش می کنند به هوش مصنوعی برسند، دیرتر عمل کرده است. تأسیس این نهاد مشورتی مطابق با هنجارهای جهانی به ویژه اتحادیه اروپا است که قبلاً مقررات اجباری در زمینه هوش مصنوعی برای شرکت های فناوری دارد. با این حال، اولین مجموعه دستورالعمل های استرالیا داوطلبانه خواهد بود، که منعکس کننده یک رویکرد محتاطانه به حاکمیت هوش مصنوعی است.

به سوی آینده ای امن تر هوش مصنوعی

در پاسخ به اهمیت روزافزون هوش مصنوعی، استرالیا سال گذشته مشاوره ای را آغاز کرد که بیش از 500 پاسخ دریافت کرد. این امر نشان دهنده علاقه و نگرانی بالای مردم و سهامداران صنعت است. دولت به دنبال محدود کردن برنامه های کاربردی هوش مصنوعی به "خطر کم" و آنهایی که "خطر بالا" دارند، است. به عنوان مثال، استفاده از هوش مصنوعی برای فیلتر کردن ایمیل‌های اسپم کم خطر در نظر گرفته می‌شود، در حالی که ایجاد محتوای دستکاری شده مانند «جعلی عمیق» پرخطر محسوب می‌شود. پاسخ کامل دولت به این مشاوره که در اواخر سال جاری برگزار می شود، بسیار پیش بینی شده است و احتمالاً جهت آینده سیاست هوش مصنوعی در استرالیا را شکل خواهد داد.

علاوه بر این، دولت استرالیا قصد دارد با نهادهای صنعتی دست به دست هم دهد و مجموعه‌ای از این موارد را ارائه کند دستورالعمل های هوش مصنوعی. این دستورالعمل‌ها شرکت‌های فناوری را تشویق می‌کند تا شیوه‌هایی مانند برچسب‌گذاری و واترمارک کردن محتوای تولید شده توسط هوش مصنوعی را اتخاذ کنند. چنین مراحلی در افزایش شفافیت و اعتماد با برنامه‌های هوش مصنوعی حیاتی هستند و سهولت در تمایز را تسهیل می‌کنند.محتوای جعلی عمیق ایجاد شده توسط هوش مصنوعی از آنچه انسان ها می سازند.

تعادل نوآوری و ایمنی

ایجاد هیئت مشاوره و دستورالعمل های پیشنهادی نشان دهنده تلاشی برای ایجاد تعادل ظریف بین تقویت نوآوری و تضمین ایمنی است. ماهیت داوطلبانه دستورالعمل های اولیه نشان دهنده تمایل به تشویق به انطباق بدون سرکوب نوآوری است. این رویکرد ممکن است با تغییر چشم‌انداز هوش مصنوعی تکامل یابد و دولت را ملزم کند تا استراتژی‌های خود را با پیشرفت‌ها و چالش‌های جدید در هوش مصنوعی تطبیق دهد.

از آنجایی که دولت آماده می شود تا پاسخ کامل خود را به مشاوره هوش مصنوعی در اواخر سال جاری منتشر کند، پیش بینی های زیادی در مورد آینده مقررات هوش مصنوعی در استرالیا وجود دارد. این پاسخ احتمالاً مشخص خواهد کرد که چگونه استرالیا از تعامل پیچیده بین پیشرفت فناوری و ملاحظات اخلاقی عبور می کند.

تمبر زمان:

بیشتر از متانیوز