المملكة المتحدة سترد على الكتاب الأبيض للذكاء الاصطناعي باختبارات تنظيمية

المملكة المتحدة سترد على الكتاب الأبيض للذكاء الاصطناعي باختبارات تنظيمية

عقدة المصدر: 3070094

ستنشر حكومة المملكة المتحدة اختبارات لقوانين الذكاء الاصطناعي الجديدة، مع التركيز على السلامة ونمو الصناعة. وسيلعب معهد سلامة الذكاء الاصطناعي دورًا، من خلال اللوائح التنظيمية الناجمة عن مخاطر السلامة أو عدم الامتثال من قبل شركات الذكاء الاصطناعي مثل OpenAI وجوجل.

وتتوافق هذه القوانين مع تركيز الحكومة على مقاومة إنشاء نظام تنظيمي أكثر صرامة للتكنولوجيا سريعة التطور، وفقًا لصحيفة فايننشال تايمز. وفي الأسابيع المقبلة، سوف ينشر الوزراء البريطانيون المعايير، التي سوف تحدد الظروف التي بموجبها سوف يفرضون قيوداً على نماذج الذكاء الاصطناعي القوية التي أنشأتها جوجل، وOpenAI، وشركات أخرى.

حكومة المملكة المتحدة ووضع نظام لمراقبة ذلك، وهو معهد سلامة الذكاء الاصطناعي، وهو هيئة تتألف من أكاديميين وخبراء في التعلم. إذا فشل معهد سلامة الذكاء الاصطناعي في تحديد المخاطر المحيطة بالتكنولوجيا، فسيتم التدخل. الاختبار الآخر الذي يمكن أن يؤدي إلى التشريع هو إذا فشلت شركات الذكاء الاصطناعي في الوفاء بالالتزامات الطوعية لتجنب الضرر.

نهج حكومة المملكة المتحدة تجاه الذكاء الاصطناعي

ويؤكد بيان نشرته الحكومة أن النهج الخفيف الذي تتبعه حكومة المملكة المتحدة لتنظيم الذكاء الاصطناعي سوف ينعكس في نشر هذه الاختبارات. وبحسب البيان، فإنهم سيتخذون الإجراءات اللازمة للتخفيف من المخاطر ودعم السلامة والمسؤولية تقنية الذكاء الاصطناعي كما هو مطلوب. وتابع البيان بالقول إنهم سيحافظون على نهج مؤيد للابتكار بالتشاور الوثيق مع المجتمع المدني والصناعة.

وبالتالي، ستمر الفلسفة عبر "الاختبارات" لتمرير تشريع الذكاء الاصطناعي الذي ستقترحه حكومة المملكة المتحدة بشرط ألا تؤدي أي قوانين جديدة إلى إضعاف الابتكار دون سبب.

ومن المفهوم أنه سيتم نشر الاختبارات كجزء من عملية التشاور بشأن التقرير الحكومي بشأن الذكاء الاصطناعي، والذي نُشر في مارس 2023.

لم تمر الورقة البيضاء دون انتقادات. وقالت كارين يونج، الأستاذة في جامعة برمنجهام والمرشحة للحصول على درجة الدكتوراه إيما أحمد رينجرز، إن الوثيقة لا تشكل أساسًا كافيًا لسياسة سليمة. وأضافوا أن الوثيقة لا يمكن أن تكون بمثابة الأساس لإطار تنظيمي فعال وشرعي لصالح الجمهور.

ومع ذلك، أشار بعض الأشخاص الآخرين إلى أن تنظيم الذكاء الاصطناعي في المملكة المتحدة قد بدأ في تناوله من قبل الهيئات التنظيمية القطاعية. ويشمل ذلك مكتب Ofcom ومكتب مفوض المعلومات، اللذين بدأا في إجراء عمليات تدقيق خوارزمية في مناطق اختصاصهما.

المملكة المتحدة نشطة في معايير الذكاء الاصطناعي على المستوى الدولي

وقعت شركات الذكاء الاصطناعي، بما في ذلك OpenAI، وGoogle، وDeepMind، وMicrosoft، وMeta، على العديد من السياسات التطوعية في نوفمبر. إنهم قلقون بشأن سلامة منتجاتهم كجزء من القمة العالمية لسلامة الذكاء الاصطناعي التي نظمتها حكومة المملكة المتحدة.

وافقت هذه الشركات على السماح معهد سلامة الذكاء الاصطناعي في المملكة المتحدة لتقييم سلامة النماذج التي تصنع المنتجات مثل شات جي بي تي قبل أن يتم استخدامها من قبل الشركات والمستهلكين.

وبالتالي، فإن تقييم هذه النماذج جارٍ حاليًا، لكن كيفية إجرائها لا تزال غير واضحة. ومن غير الواضح أيضًا ما إذا كانت شركات الذكاء الاصطناعي ستوفر وصولاً شاملاً. ووفقاً لمسؤول حكومي، فإنهم محظوظون حالياً لأنهم يعتمدون على حسن النية من كلا الجانبين. وتابع المسؤول قائلا إن تقييم هذه النماذج يعتمد على الشخصية والرئيس التنفيذي.

الطابع الزمني:

اكثر من ميتا نيوز