أوبن إيه آي تدعو وكالة عالمية لتنظيم الذكاء الخارق

أوبن إيه آي تدعو وكالة عالمية لتنظيم الذكاء الخارق

عقدة المصدر: 2674707

يجب أن تكون الوكالة الدولية مسؤولة عن فحص ومراجعة الذكاء الاصطناعي العام للتأكد من أن التكنولوجيا آمنة للبشرية ، وفقًا لكبار المسؤولين التنفيذيين في شركة OpenAI المصنعة لـ GPT-4.

قال الرئيس التنفيذي سام التمان والمؤسسان المشاركان جريج بروكمان وإيليا سوتسكيفر أنه من "المتصور" أن يكتسب الذكاء الاصطناعي قدرات غير عادية تتجاوز البشر خلال العقد المقبل.

"فيما يتعلق بكل من الجوانب الإيجابية والسلبية المحتملة ، سيكون الذكاء الخارق أقوى من التقنيات الأخرى التي كان على البشرية مواجهتها في الماضي. يمكننا أن نحظى بمستقبل أكثر ازدهارًا بشكل كبير ؛ ولكن علينا إدارة المخاطر للوصول إلى هناك ، "الثلاثي كتب يوم الثلاثاء.

وجادلوا بأن تكاليف بناء مثل هذه التكنولوجيا القوية آخذة في التناقص فقط حيث يعمل المزيد من الناس على تطويرها. من أجل السيطرة على التقدم ، يجب أن يتم الإشراف على التطوير من قبل منظمة دولية مثل الوكالة الدولية للطاقة الذرية (الوكالة الدولية للطاقة الذرية).

تأسست الوكالة الدولية للطاقة الذرية عام 1957 في وقت كانت فيه الحكومات تخشى تطوير أسلحة نووية خلال الحرب الباردة. تساعد الوكالة في تنظيم الطاقة النووية ، وتضع ضمانات للتأكد من عدم استخدام الطاقة النووية للأغراض العسكرية.

"من المحتمل أن نحتاج في النهاية إلى شيء مثل الوكالة الدولية للطاقة الذرية لجهود الاستخبارات الفائقة ؛ يجب أن يخضع أي جهد يتجاوز حد قدرة معينة (أو موارد مثل الحوسبة) لسلطة دولية يمكنها فحص الأنظمة ، وتتطلب عمليات تدقيق ، واختبار الامتثال لمعايير السلامة ، وتضع قيودًا على درجات النشر ومستويات الأمان ، وما إلى ذلك ، قالوا.

ستكون مثل هذه المجموعة مسؤولة عن تتبع استخدام الحوسبة والطاقة ، والموارد الحيوية اللازمة لتدريب وتشغيل النماذج الكبيرة والقوية.

اقترح كبار المسؤولين في شركة OpenAI "يمكننا أن نتفق بشكل جماعي على أن معدل النمو في قدرة الذكاء الاصطناعي على الحدود يقتصر على معدل معين سنويًا". يتعين على الشركات الموافقة طواعية على عمليات التفتيش ، ويجب أن تركز الوكالة على "الحد من المخاطر الوجودية" ، وليس القضايا التنظيمية التي تحددها وتحدّدها القوانين الفردية للبلد.

في الأسبوع الماضي ، طرح ألتمان فكرة أن الشركات يجب أن تحصل على ترخيص لبناء نماذج ذات قدرات متقدمة أعلى من عتبة معينة في مجلس الشيوخ السمع. تم انتقاد اقتراحه لاحقًا لأنه قد يؤثر بشكل غير عادل على أنظمة الذكاء الاصطناعي التي أنشأتها الشركات الصغيرة أو مجتمع المصادر المفتوحة الذين تقل احتمالية امتلاكهم للموارد لتلبية المتطلبات القانونية.

وقالوا: "نعتقد أنه من المهم السماح للشركات ومشاريع المصادر المفتوحة بتطوير نماذج أقل من عتبة قدرة كبيرة ، دون نوع التنظيم الذي نصفه هنا (بما في ذلك الآليات المرهقة مثل التراخيص أو عمليات التدقيق)".

كان Elon Musk في أواخر مارس واحدًا من 1,000 موقع على خطاب مفتوح دعا إلى توقف لمدة ستة أشهر في تطوير وتدريب الذكاء الاصطناعي بشكل أقوى من GPT4 بسبب المخاطر المحتملة على البشرية ، وهو الأمر الذي قاله ألتمان مؤكد في منتصف أبريل كان يفعل.

وجاء في الرسالة: "يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة".

كتب Alphabet والرئيس التنفيذي لشركة Google Sundar Pichai مقالاً في Financial Times في عطلة نهاية الأسبوع ، قول: "ما زلت أعتقد أن الذكاء الاصطناعي مهم جدًا لعدم التنظيم ، ومن المهم جدًا عدم التنظيم بشكل جيد". ®

الطابع الزمني:

اكثر من السجل