الحاجة الملحة لمعالجة التمييز ضد الذكاء الاصطناعي: الشفافية والمساءلة والجداول الزمنية التنظيمية

الحاجة الملحة لمعالجة التمييز ضد الذكاء الاصطناعي: الشفافية والمساءلة والجداول الزمنية التنظيمية

عقدة المصدر: 2747320

أحدث الذكاء الاصطناعي (AI) ثورة في العديد من الصناعات، حيث قدم العديد من الفوائد والفرص. ومع ذلك، ظهرت مخاوف بشأن إمكانية قيام الذكاء الاصطناعي بإدامة التمييز والتحيز. يستكشف هذا المقال موضوع التمييز في الذكاء الاصطناعي، ويسلط الضوء على تحديات تحديد ومعالجة التحيزات المضمنة في أنظمة الذكاء الاصطناعي. ويعرب المطلعون على الصناعة عن شكوكهم حول الآثار الأخلاقية والمعنوية للذكاء الاصطناعي، مشيرين إلى المخاوف بشأن المعلومات الخاطئة، والتحيز في الخوارزميات، وتوليد المحتوى المضلل. مع احتدام المناقشات المحيطة بالذكاء الاصطناعي، هناك دعوة متزايدة إلى وضع تنظيمات هادفة لضمان الشفافية والمساءلة وحماية الحقوق الأساسية.

تحديات الصناعات المالية مع الذكاء الاصطناعي

وفقًا لنبيل منجي، رئيس قسم العملات المشفرة وWeb3 في Worldpay by FIS، فإن فعالية منتجات الذكاء الاصطناعي تعتمد بشكل كبير على جودة المواد المصدرية المستخدمة للتدريب. وفي مقابلة مع CNBC، أوضح مانجي أن هناك عاملين رئيسيين يساهمان في أداء الذكاء الاصطناعي: البيانات التي يمكنه الوصول إليها وقدرات النموذج اللغوي الكبير.

لتوضيح أهمية البيانات، ذكر مانجي أن شركات مثل Reddit قد أعلنت علنًا عن قيود على جمع البيانات، مما يتطلب الدفع مقابل الوصول إليها. وفي قطاع الخدمات المالية، سلط الضوء على التحدي الذي تمثله أنظمة البيانات المجزأة بمختلف اللغات والأشكال. ويحد هذا الافتقار إلى الدمج والمواءمة من فعالية المنتجات التي تعتمد على الذكاء الاصطناعي، وخاصة عند مقارنتها بالصناعات التي تتمتع ببنية تحتية موحدة وحديثة للبيانات.

وفقًا لمانجي، فإن استخدام تقنية blockchain أو تقنية دفتر الأستاذ الموزع قد يوفر حلاً محتملاً لمعالجة هذه المشكلة. يمكن لهذا النهج المبتكر أن يوفر شفافية معززة في البيانات المجزأة المخزنة داخل الأنظمة المعقدة للبنوك التقليدية. ومع ذلك، فقد أقر بأن طبيعة البنوك شديدة التنظيم وبطيئة الحركة قد تعيق قدرتها على تبني أدوات جديدة للذكاء الاصطناعي بسرعة، على عكس شركات التكنولوجيا الأكثر مرونة مثل مايكروسوفت وجوجل، والتي كانت في طليعة قيادة الابتكار خلال السنوات القليلة الماضية. عقود.

وبالنظر إلى هذه العوامل، يصبح من الواضح أن الصناعة المالية تواجه تحديات فريدة في الاستفادة من الذكاء الاصطناعي بسبب تعقيدات تكامل البيانات والطبيعة المتأصلة للقطاع المصرفي.

وفقًا لرومان شودري، الرئيس السابق لأخلاقيات التعلم الآلي والشفافية والمساءلة في تويتر، يعد الإقراض مثالًا بارزًا على كيفية تأثير التحيز في أنظمة الذكاء الاصطناعي سلبًا على المجتمعات المهمشة. وفي حديثه خلال حلقة نقاش في أمستردام، سلط شودري الضوء على الممارسة التاريخية المتمثلة في "الخطوط الحمراء" في شيكاغو خلال الثلاثينيات. تضمنت عملية إعادة الخط رفض القروض للأحياء التي تسكنها أغلبية من الأمريكيين من أصل أفريقي على أساس التركيبة السكانية العنصرية.

أوضح تشودري أنه على الرغم من أن الخوارزميات الحديثة قد لا تتضمن العرق بشكل صريح كنقطة بيانات، إلا أنه لا يزال من الممكن تشفير التحيزات ضمنيًا. عند تطوير الخوارزميات لتقييم مدى خطورة المناطق والأفراد لأغراض الإقراض، فإن البيانات التاريخية التي تحتوي على تحيزات يمكن أن تؤدي إلى إدامة التمييز عن غير قصد.

وسلط أنجل بوش، صاحب الرؤية وراء النساء السود في الذكاء الاصطناعي، الضوء على أهمية الاعتراف بالمخاطر المرتبطة بإعادة إنتاج التحيزات المضمنة في البيانات التاريخية عند استخدام أنظمة الذكاء الاصطناعي لاتخاذ قرارات الموافقة على القروض. ومن الممكن أن تؤدي مثل هذه الممارسة إلى الرفض التلقائي لطلبات القروض المقدمة من المجتمعات المهمشة، وبالتالي إدامة عدم المساواة العرقية أو بين الجنسين.

وأشار فروست لي، أحد مطوري الذكاء الاصطناعي ذوي الخبرة، إلى تحديات التخصيص في تكامل الذكاء الاصطناعي. يمكن أن يتضمن اختيار "الميزات الأساسية" لتدريب نماذج الذكاء الاصطناعي في بعض الأحيان عوامل غير ذات صلة قد تؤدي إلى نتائج متحيزة. قدم لي مثالاً على كيفية مواجهة الشركات الناشئة في مجال التكنولوجيا المالية التي تستهدف الأجانب معايير تقييم ائتمانية مختلفة مقارنة بالبنوك المحلية، التي هي أكثر دراية بالمدارس والمجتمعات المحلية.

أوضح نيكلاس جوسكي، مدير العمليات في شركة Taktile، وهي شركة ناشئة متخصصة في أتمتة عملية صنع القرار في مجال التكنولوجيا المالية، أن الذكاء الاصطناعي التوليدي لا يُستخدم عادةً لإنشاء درجات ائتمانية أو تسجيل مخاطر المستهلكين. بل على العكس من ذلك، تكمن قوتها في المعالجة المسبقة للبيانات غير المنظمة، مثل الملفات النصية، لتعزيز جودة البيانات لنماذج الاكتتاب التقليدية.

باختصار، يثير استخدام الذكاء الاصطناعي في الإقراض والخدمات المالية مخاوف بشأن التحيز والتمييز. يمكن أن تؤدي التحيزات التاريخية المضمنة في البيانات واختيار الميزات غير ذات الصلة أثناء تدريب الذكاء الاصطناعي إلى نتائج غير عادلة. ومن الأهمية بمكان أن تعترف البنوك والمؤسسات المالية بهذه القضايا وتعالجها لمنع استمرار التمييز غير المقصود عند تنفيذ حلول الذكاء الاصطناعي.

إثبات التمييز بالذكاء الاصطناعي

قد يكون إثبات التمييز القائم على الذكاء الاصطناعي أمرًا صعبًا، كما يتضح من أمثلة مثل القضية المتعلقة بشركة أبل وجولدمان ساكس. رفضت إدارة الخدمات المالية بولاية نيويورك مزاعم فرض حدود أدنى على بطاقة أبل للنساء، مشيرة إلى عدم وجود أدلة تثبت ذلك.

ويشير كيم سموتر، مدير الشبكة الأوروبية لمناهضة العنصرية، إلى أن النشر الجماعي للذكاء الاصطناعي يؤدي إلى الغموض في عمليات صنع القرار، مما يجعل من الصعب على الأفراد تحديد التمييز ومعالجته.

يوضح سموتر أن الأفراد غالبًا ما يكون لديهم معرفة محدودة بكيفية عمل أنظمة الذكاء الاصطناعي، مما يجعل من الصعب اكتشاف حالات التمييز أو التحيز النظامي. ويصبح الأمر أكثر تعقيدًا عندما يكون التمييز جزءًا من قضية أوسع تؤثر على أفراد متعددين. يشير سموتر إلى فضيحة رعاية الطفل الهولندية، حيث تم تصنيف عدد كبير من مطالبات الإعانات بشكل خاطئ على أنها احتيالية بسبب التحيز المؤسسي. إن اكتشاف مثل هذه الاختلالات يمثل تحديًا، وقد يكون الحصول على الإنصاف أمرًا صعبًا ويستغرق وقتًا طويلاً، مما يؤدي إلى ضرر كبير وأحيانًا لا يمكن إصلاحه.

توضح هذه الأمثلة الصعوبات الكامنة في إثبات التمييز القائم على الذكاء الاصطناعي والحصول على سبل الانتصاف عند حدوث مثل هذا التمييز. إن تعقيد أنظمة الذكاء الاصطناعي وانعدام الشفافية في عمليات صنع القرار يمكن أن يجعل من الصعب على الأفراد التعرف على حالات التمييز ومعالجتها بشكل فعال.

ووفقا لتشودري، هناك حاجة ملحة لإنشاء هيئة تنظيمية عالمية مماثلة للأمم المتحدة لمعالجة المخاطر المرتبطة بالذكاء الاصطناعي. وفي حين أظهر الذكاء الاصطناعي ابتكارا ملحوظا، فقد أثار خبراء التكنولوجيا وعلماء الأخلاق مخاوف بشأن آثاره الأخلاقية والمعنوية. وتشمل هذه المخاوف قضايا مثل المعلومات المضللة، والتحيزات العنصرية والجنسانية المتأصلة في خوارزميات الذكاء الاصطناعي، وتوليد المحتوى المضلل بواسطة أدوات مثل ChatGPT.

يعرب تشودري عن قلقه بشأن الدخول إلى عالم ما بعد الحقيقة حيث تصبح المعلومات عبر الإنترنت، بما في ذلك النصوص والفيديو والصوت، غير جديرة بالثقة بسبب الذكاء الاصطناعي المولد. وهذا يثير تساؤلات حول كيف يمكننا ضمان سلامة المعلومات وكيف يمكننا الاعتماد عليها لاتخاذ قرارات مستنيرة. وباستخدام قانون الذكاء الاصطناعي التابع للاتحاد الأوروبي كمثال، فإن التنظيم الهادف للذكاء الاصطناعي يشكل أهمية بالغة في هذه اللحظة. ومع ذلك، هناك مخاوف بشأن الجدول الزمني الطويل الذي تستغرقه المقترحات التنظيمية لتصبح فعالة، مما قد يؤدي إلى تأخير الإجراءات الضرورية.

يؤكد سموتر على الحاجة إلى قدر أكبر من الشفافية والمساءلة في خوارزميات الذكاء الاصطناعي. ويتضمن ذلك جعل الخوارزميات أكثر قابلية للفهم بالنسبة لغير الخبراء، وإجراء الاختبارات ونشر النتائج، وإنشاء عمليات مستقلة لتقديم الشكاوى، وإجراء عمليات تدقيق وإعداد تقارير دورية، وإشراك المجتمعات العنصرية في تصميم ونشر التكنولوجيا. ومن المتوقع أن يبدأ إنفاذ قانون الذكاء الاصطناعي، الذي يأخذ منظور الحقوق الأساسية ويقدم مفاهيم مثل الإنصاف، في غضون عامين تقريبًا. وسيكون تقليص هذا الجدول الزمني مفيدًا لدعم الشفافية والمساءلة باعتبارهما جانبين أساسيين من جوانب الابتكار.

الطابع الزمني:

اكثر من أخبار الفوركس الآن