سكاينيت أهوي؟ ما يمكن توقعه بالنسبة للمخاطر الأمنية للجيل القادم من الذكاء الاصطناعي

سكاينيت أهوي؟ ما يمكن توقعه بالنسبة للمخاطر الأمنية للجيل القادم من الذكاء الاصطناعي

عقدة المصدر: 3037761

مع استمرار الابتكار في مجال الذكاء الاصطناعي (AI) على قدم وساق، سيكون عام 2024 وقتًا حاسمًا للمؤسسات والهيئات الإدارية لوضع معايير وبروتوكولات أمنية وغيرها من حواجز الحماية لمنع الذكاء الاصطناعي من التقدم، كما يحذر خبراء الأمن.

تُظهِر نماذج اللغات الكبيرة (LLMs)، المدعومة بخوارزميات متطورة ومجموعات بيانات ضخمة، فهمًا رائعًا للغة وقدرات محادثة تشبه القدرات البشرية. واحدة من أكثر هذه المنصات تطورًا حتى الآن هي GPT-4 من OpenAI، والتي تتميز بقدرات متقدمة على التفكير وحل المشكلات وتدعم روبوت ChatGPT الخاص بالشركة. وبدأت الشركة بالشراكة مع مايكروسوفت العمل على GPT-5، وهو ما قاله الرئيس التنفيذي سام ألتمان سوف تذهب أبعد من ذلك بكثير - لدرجة امتلاك "الذكاء الفائق".

تمثل هذه النماذج إمكانات هائلة لتحقيق مكاسب كبيرة في الإنتاجية والكفاءة للمؤسسات، لكن الخبراء يتفقون على أن الوقت قد حان للصناعة ككل لمعالجة المخاطر الأمنية الكامنة التي يطرحها تطويرها ونشرها. بالفعل، الأبحاث الأخيرة التي أجراها Writerbuddy AI، التي تقدم أداة لكتابة المحتوى تعتمد على الذكاء الاصطناعي، وجدت أن ChatGPT قد حصل بالفعل على 14 مليار زيارة والعدد في ازدياد.

بينما تسير المؤسسات نحو التقدم في مجال الذكاء الاصطناعي، "يجب أن يقترن ذلك باعتبارات أخلاقية صارمة وتقييمات للمخاطر"، كما يقول جال رينجل، الرئيس التنفيذي لشركة MineOS للخصوصية والأمن القائمة على الذكاء الاصطناعي.

هل الذكاء الاصطناعي يمثل تهديدًا وجوديًا؟

بدأت المخاوف بشأن أمن الجيل القادم من الذكاء الاصطناعي في الانتشار في شهر مارس، مع رسالة مفتوحة موقعة من قبل ما يقرب من 34,000 من كبار التقنيين تدعو إلى وقف تطوير أنظمة ذكاء اصطناعي أكثر قوة من OpenAI's GPT-4. أشارت الرسالة إلى "المخاطر العميقة" التي تمثلها التكنولوجيا للمجتمع و"السباق الخارج عن السيطرة الذي تجريه مختبرات الذكاء الاصطناعي لتطوير ونشر عقول رقمية أكثر قوة لا يستطيع أحد - ولا حتى مبدعوها - فهمها أو التنبؤ بها أو السيطرة بشكل موثوق."

على الرغم من هذه المخاوف البائسة، فإن معظم خبراء الأمن لا يشعرون بالقلق إزاء سيناريو يوم القيامة الذي تصبح فيه الآلات أكثر ذكاءً من البشر وتسيطر على العالم.

يقول مات ويلسون، مدير هندسة المبيعات في شركة Netrix للأمن السيبراني: "أشارت الرسالة المفتوحة إلى مخاوف مشروعة بشأن التقدم السريع والتطبيقات المحتملة للذكاء الاصطناعي على نطاق واسع، هل هذا مفيد للإنسانية؟". "على الرغم من أنها مثيرة للإعجاب في بعض السيناريوهات، إلا أن الإصدارات العامة من أدوات الذكاء الاصطناعي لا تبدو خطيرة إلى هذا الحد."

ويشير الباحثون إلى أن ما يثير القلق هو حقيقة أن تطورات الذكاء الاصطناعي واعتماده تتحرك بسرعة كبيرة جدًا بحيث لا يمكن إدارة المخاطر بشكل صحيح. يقول باتريك هار، الرئيس التنفيذي لشركة SlashNext لأمن الذكاء الاصطناعي: "لا يمكننا أن نعيد الغطاء إلى صندوق باندورا".

علاوة على ذلك، فإن مجرد "محاولة وقف معدل الابتكار في هذا المجال لن يساعد في تخفيف" المخاطر التي يمثلها، والتي يجب معالجتها بشكل منفصل، كما لاحظ ماركوس فاولر، الرئيس التنفيذي لشركة DarkTrace Federal لأمن الذكاء الاصطناعي. ويقول إن هذا لا يعني أن تطوير الذكاء الاصطناعي يجب أن يستمر دون رادع. على العكس من ذلك، يجب أن يتوافق معدل تقييم المخاطر وتنفيذ الضمانات المناسبة مع المعدل الذي يتم به تدريب وتطوير حاملي شهادات الماجستير في القانون.

يوضح فاولر: "تتطور تكنولوجيا الذكاء الاصطناعي بسرعة، لذا يجب على الحكومات والمنظمات التي تستخدم الذكاء الاصطناعي أيضًا تسريع المناقشات حول سلامة الذكاء الاصطناعي".

مخاطر الذكاء الاصطناعي التوليدية

هناك العديد من المخاطر المعترف بها على نطاق واسع والتي تواجه الذكاء الاصطناعي التوليدي والتي تتطلب الاهتمام وستزداد سوءًا مع زيادة ذكاء الأجيال القادمة من التكنولوجيا. ولحسن الحظ بالنسبة للبشر، لا يطرح أي منها حتى الآن سيناريو يوم القيامة من الخيال العلمي، حيث يتآمر الذكاء الاصطناعي لتدمير منشئيه.

وبدلاً من ذلك، فإنها تتضمن تهديدات مألوفة أكثر بكثير، مثل تسرب البيانات، ومن المحتمل أن تكون معلومات حساسة للأعمال؛ إساءة الاستخدام للأنشطة الضارة؛ والمخرجات غير الدقيقة التي يمكن أن تضلل المستخدمين أو تربكهم، مما يؤدي في النهاية إلى عواقب سلبية على الأعمال.

نظرًا لأن LLMs تتطلب الوصول إلى كميات هائلة من البيانات لتوفير مخرجات دقيقة وذات صلة بالسياق، فقد يتم الكشف عن المعلومات الحساسة أو إساءة استخدامها عن غير قصد.

"الخطر الرئيسي هو قيام الموظفين بإطعامه بمعلومات حساسة للأعمال عندما يُطلب منها كتابة خطة أو إعادة صياغة رسائل البريد الإلكتروني أو مجموعات الأعمال التي تحتوي على معلومات خاصة بالشركة،" يلاحظ رينجل.

من منظور الهجمات الإلكترونية، وجدت الجهات الفاعلة في مجال التهديد بالفعل طرقًا لا تعد ولا تحصى لاستخدام ChatGPT وأنظمة الذكاء الاصطناعي الأخرى كسلاح. وتتمثل إحدى الطرق في استخدام النماذج لإنشاء اختراقات بريد إلكتروني معقدة للأعمال (BEC) وغيرها من هجمات التصيد الاحتيالي، والتي تتطلب إنشاء رسائل شخصية مصممة اجتماعيًا ومصممة لتحقيق النجاح.

يقول هار: "باستخدام البرامج الضارة، يمكّن ChatGPT مجرمي الإنترنت من إنشاء أشكال لا حصر لها من التعليمات البرمجية للبقاء في صدارة محركات الكشف عن البرامج الضارة".

تشكل هلوسة الذكاء الاصطناعي أيضًا تهديدًا أمنيًا كبيرًا وتسمح للجهات الخبيثة بتسليح التكنولوجيا المستندة إلى LLM مثل ChatGPT بطريقة فريدة. هلوسة الذكاء الاصطناعي هي استجابة معقولة من الذكاء الاصطناعي غير كافية أو متحيزة أو غير صحيحة تمامًا. تحذر أفيفاه ليتان، نائبة رئيس شركة Gartner، من أن "الاستجابات الخيالية أو غيرها من الاستجابات غير المرغوب فيها يمكن أن تقود المؤسسات إلى اتخاذ قرارات وعمليات واتصالات مضللة خاطئة".

يمكن للجهات الفاعلة في مجال التهديد أيضًا استخدام هذه الهلوسة لتسميم حاملي شهادة الماجستير في القانون و"توليد معلومات مضللة محددة ردًا على سؤال"، كما يلاحظ مايكل رينهارت، نائب رئيس الذكاء الاصطناعي في شركة Securiti لأمن البيانات. "وهذا قابل للتوسيع ليشمل توليد التعليمات البرمجية المصدرية الضعيفة، وربما نماذج الدردشة القادرة على توجيه مستخدمي الموقع إلى إجراءات غير آمنة."

يمكن للمهاجمين أن يذهبوا إلى أبعد من ذلك نشر إصدارات ضارة من حزم البرامج التي قد يوصي بها برنامج LLM لمطور البرامج، معتقدًا أنه حل شرعي لمشكلة ما. وبهذه الطريقة، يمكن للمهاجمين استخدام الذكاء الاصطناعي كسلاح لشن هجمات على سلسلة التوريد.

الطريق إلى الأمام

ويشير الخبراء إلى أن إدارة هذه المخاطر ستتطلب إجراءات محسوبة وجماعية قبل أن يتجاوز ابتكار الذكاء الاصطناعي قدرة الصناعة على السيطرة عليه. ولكن لديهم أيضًا أفكارًا حول كيفية معالجة مشكلة الذكاء الاصطناعي.

يؤمن هار بـ "محاربة الذكاء الاصطناعي مع أ"استراتيجية، حيث "يجب أن يتطور التقدم في الحلول والاستراتيجيات الأمنية لإحباط المخاطر التي يغذيها الذكاء الاصطناعي بوتيرة مساوية أو أكبر.

ويضيف: "تحتاج حماية الأمن السيبراني إلى الاستفادة من الذكاء الاصطناعي لمحاربة التهديدات السيبرانية بنجاح باستخدام تكنولوجيا الذكاء الاصطناعي". "وبالمقارنة، فإن تكنولوجيا الأمان القديمة لا تملك أي فرصة ضد هذه الهجمات."

ومع ذلك، يجب على المؤسسات أيضًا اتباع نهج مدروس لاعتماد الذكاء الاصطناعي - بما في ذلك الحلول الأمنية القائمة على الذكاء الاصطناعي - خشية أن يجلبوا المزيد من المخاطر إلى بيئتهم، يحذر ويلسون من شركة نيتريكس.

وينصح قائلاً: "افهم ما هو الذكاء الاصطناعي وما هو ليس كذلك". "تحدي الموردين الذين يدعون أنهم يستخدمون الذكاء الاصطناعي لوصف ما يفعله، وكيف يعزز حلولهم، وسبب أهمية ذلك لمؤسستك."

يقدم Rinehart من Securiti نهجًا من مستويين لدمج الذكاء الاصطناعي في البيئة من خلال نشر حلول مركزة ومن ثم وضع حواجز الحماية في مكانها مباشرة قبل تعريض المؤسسة لمخاطر غير ضرورية.

يقول: "قم أولاً بتبني نماذج خاصة بالتطبيقات، والتي يمكن تعزيزها بقواعد المعرفة، والتي تم تصميمها لتوفير قيمة في حالات استخدام محددة". "ثم... قم بتنفيذ نظام مراقبة لحماية هذه النماذج من خلال فحص الرسائل الواردة منها وإليها بحثًا عن مشكلات الخصوصية والأمن."

ويوصي الخبراء أيضًا بوضع سياسات وإجراءات أمنية حول الذكاء الاصطناعي قبل نشره وليس كفكرة لاحقة للتخفيف من المخاطر. ويمكنهم أيضًا تعيين مسؤول مخاطر الذكاء الاصطناعي أو فريق عمل مخصص للإشراف على الامتثال.

خارج المؤسسة، يجب على الصناعة ككل أيضًا اتخاذ خطوات لوضع معايير وممارسات أمنية حول الذكاء الاصطناعي يمكن لكل شخص يقوم بتطوير التكنولوجيا واستخدامها - وهو الأمر الذي سيتطلب عملاً جماعيًا من قبل كل من القطاعين العام والخاص على نطاق عالمي. يقول فاولر من DarkTrace Federal.

يستشهد المبادئ التوجيهية لبناء أنظمة الذكاء الاصطناعي الآمنة تم نشره بالتعاون بين وكالة الأمن السيبراني وأمن البنية التحتية الأمريكية (CISA) والمركز الوطني للأمن السيبراني في المملكة المتحدة (NCSC) كمثال على نوع الجهود التي يجب أن تصاحب التطور المستمر للذكاء الاصطناعي.

يقول رينهارت من Securiti: "في جوهر الأمر، سيشهد عام 2024 تكيفًا سريعًا لكل من الأمن التقليدي وتقنيات الذكاء الاصطناعي المتطورة نحو حماية المستخدمين والبيانات في عصر الذكاء الاصطناعي التوليدي الناشئ هذا."

الطابع الزمني:

اكثر من قراءة مظلمة