الذكاء الاصطناعي والأمن: إنه أمر معقد ولكن ليس من الضروري أن يكون | إنترنت الأشياء الآن الأخبار والتقارير

الذكاء الاصطناعي والأمن: إنه أمر معقد ولكن ليس من الضروري أن يكون كذلك | إنترنت الأشياء الآن الأخبار والتقارير

عقدة المصدر: 3071147

تتزايد شعبية الذكاء الاصطناعي ومن المتوقع أن يستمر هذا الاتجاه. ويدعم هذا غارتنر والذي ينص على أن ما يقرب من 80٪ من المؤسسات سوف تستخدم الذكاء الاصطناعي التوليدي (جيناي) واجهات برمجة التطبيقات (APIs) أو النماذج بحلول عام 2026. ومع ذلك، فإن الذكاء الاصطناعي هو مصطلح واسع ومنتشر في كل مكان، وفي كثير من الحالات، فإنه يغطي مجموعة من التقنيات. ومع ذلك، يقدم الذكاء الاصطناعي اختراقات في القدرة على معالجة المنطق بشكل مختلف وهو ما يجذب انتباه الشركات والمستهلكين على حد سواء الذين يقومون بتجربة أشكال مختلفة من الذكاء الاصطناعي اليوم. وفي الوقت نفسه، تجتذب هذه التكنولوجيا اهتمامًا مماثلاً من الجهات الفاعلة في مجال التهديدات التي تدرك أنها قد تكون نقطة ضعف في أمن الشركة، بينما يمكن أن تكون أيضًا أداة تساعد الشركات على تحديد نقاط الضعف هذه ومعالجتها.

التحديات الأمنية للذكاء الاصطناعي

إحدى الطرق التي تستخدم بها الشركات الذكاء الاصطناعي هي مراجعة مجموعات البيانات الكبيرة لتحديد الأنماط وتسلسل البيانات وفقًا لذلك. يتم تحقيق ذلك عن طريق إنشاء مجموعات بيانات جدولية تحتوي عادةً على صفوف وصفوف من البيانات. وفي حين أن هذا له فوائد كبيرة للشركات، بدءًا من تحسين الكفاءات وحتى تحديد الأنماط والرؤى، فإنه يزيد أيضًا من المخاطر الأمنية كما في حالة حدوث خرق، ويتم فرز هذه البيانات بطريقة يسهل على الجهات الفاعلة في مجال التهديد استخدامها.

يتطور المزيد من التهديد عند استخدام تقنيات نموذج اللغة الكبيرة (LLM) التي تزيل الحواجز الأمنية حيث يتم وضع البيانات في المجال العام لأي شخص يستخدم التكنولوجيا للتعثر عليها واستخدامها. نظرًا لأن LLM عبارة عن روبوت لا يفهم التفاصيل، فإنه ينتج الاستجابة الأكثر ترجيحًا بناءً على الاحتمالية باستخدام المعلومات المتوفرة لديه. على هذا النحو، تمنع العديد من الشركات الموظفين من وضع أي بيانات خاصة بالشركة في أدوات مثل ChatGPT للحفاظ على أمان البيانات داخل حدود الشركة.

الفوائد الأمنية للذكاء الاصطناعي

في حين أن الذكاء الاصطناعي قد يمثل خطرًا محتملاً على الشركات، إلا أنه قد يكون أيضًا جزءًا من الحل. نظرًا لأن الذكاء الاصطناعي يعالج المعلومات بشكل مختلف عن البشر، فيمكنه النظر إلى المشكلات بشكل مختلف والتوصل إلى حلول مذهلة. على سبيل المثال، ينتج الذكاء الاصطناعي خوارزميات أفضل ويمكنه حل المشكلات الرياضية التي عانى منها البشر لسنوات عديدة. على هذا النحو، عندما يتعلق الأمر بأمن المعلومات، فإن الخوارزميات هي الملك الذكاء الاصطناعي، التعلم الآلي (ML) أو تقنية حوسبة معرفية مماثلة، يمكن أن تتوصل إلى طريقة لتأمين البيانات.

وهذه فائدة حقيقية للذكاء الاصطناعي لأنه لا يمكنه فقط تحديد وفرز كميات هائلة من المعلومات، بل يمكنه تحديد الأنماط التي تسمح للمؤسسات برؤية الأشياء التي لم يلاحظوها من قبل. وهذا يجلب عنصرًا جديدًا تمامًا لأمن المعلومات. في حين سيتم استخدام الذكاء الاصطناعي من قبل الجهات الفاعلة في مجال التهديد كأداة لتحسين فعاليتهم في اختراق الأنظمة، سيتم استخدامه أيضًا كأداة من قبل المتسللين الأخلاقيين لمحاولة اكتشاف كيفية تحسين الأمان وهو ما سيكون مفيدًا للغاية للشركات.

تحدي الموظفين والأمن

يستخدم الموظفون، الذين يرون فوائد الذكاء الاصطناعي في حياتهم الشخصية، أدوات مثل شات جي بي تي لتحسين قدرتهم على أداء المهام الوظيفية. وفي الوقت نفسه، يزيد هؤلاء الموظفون من تعقيد أمن البيانات. يجب أن تكون الشركات على دراية بالمعلومات التي يضعها الموظفون على هذه المنصات والتهديدات المرتبطة بها.

وبما أن هذه الحلول ستجلب فوائد لمكان العمل، فقد تفكر الشركات في وضع بيانات غير حساسة في الأنظمة للحد من التعرض لمجموعات البيانات الداخلية مع زيادة الكفاءة في جميع أنحاء المؤسسة. ومع ذلك، يتعين على المؤسسات أن تدرك أنها لا تستطيع الحصول على الأمرين في كلا الاتجاهين، وأن البيانات التي تضعها في مثل هذه الأنظمة لن تظل خاصة. ولهذا السبب، ستحتاج الشركات إلى مراجعة سياسات أمن المعلومات الخاصة بها وتحديد كيفية حماية البيانات الحساسة مع ضمان وصول الموظفين في الوقت نفسه إلى البيانات المهمة.

ليست بيانات حساسة ولكنها مفيدة

تدرك الشركات القيمة التي يمكن أن يجلبها الذكاء الاصطناعي وفي نفس الوقت تضيف خطر أمني في هذا المزيج. للحصول على قيمة من هذه التكنولوجيا مع الحفاظ على خصوصية البيانات، فإنهم يستكشفون طرقًا لتنفيذ البيانات مجهولة المصدر باستخدام الأسماء المستعارة على سبيل المثال، والتي تستبدل معلومات التعريف باسم مستعار أو قيمة ولا تسمح بتحديد هوية الفرد مباشرة.

هناك طريقة أخرى يمكن للشركات من خلالها حماية البيانات وهي استخدام الذكاء الاصطناعي التوليدي للبيانات الاصطناعية. على سبيل المثال، إذا كانت الشركة لديها مجموعة بيانات العملاء وتحتاج إلى مشاركتها مع طرف ثالث للتحليل والرؤى، فإنها تشير إلى نموذج توليد البيانات الاصطناعية في مجموعة البيانات. سيتعلم هذا النموذج كل شيء عن مجموعة البيانات، ويحدد الأنماط من المعلومات ثم ينتج مجموعة بيانات مع أفراد خياليين لا يمثلون أي شخص في البيانات الحقيقية ولكن يسمح للمستلم بتحليل مجموعة البيانات بأكملها وتقديم معلومات دقيقة مرة أخرى. وهذا يعني أنه يمكن للشركات مشاركة معلومات مزيفة ولكن دقيقة دون الكشف عن بيانات حساسة أو خاصة. Tويسمح نهجه باستخدام كميات هائلة من المعلومات من خلال نماذج التعلم الآلي للتحليلات، وفي بعض الحالات، لاختبار البيانات من أجل التطوير.

مع وجود العديد من أساليب حماية البيانات المتاحة للشركات اليوم، يمكن الاستفادة من قيمة تقنيات الذكاء الاصطناعي مع راحة البال بأن البيانات الشخصية تظل آمنة ومأمونة. يعد هذا أمرًا مهمًا للشركات لأنها تختبر الفوائد الحقيقية التي تجلبها البيانات لتحسين الكفاءة وصنع القرار وتجربة العملاء الشاملة.

مقال بقلم كلايد ويليامسون، كبير مهندسي الأمن وناثان فيجا، نائب الرئيس لتسويق المنتجات والاستراتيجية في Protegrity.

قم بالتعليق على هذه المقالة أدناه أو عبر X: IoTNow_

الطابع الزمني:

اكثر من إنترنت الأشياء الآن