ChatGPT الخاص بـ OpenAI بموجب تحقيق القانون العام لحماية البيانات (GDPR) في إيطاليا: مواجهة الموعد النهائي للدفاع لمدة 30 يومًا

ChatGPT الخاص بـ OpenAI بموجب تحقيق القانون العام لحماية البيانات (GDPR) في إيطاليا: مواجهة الموعد النهائي للدفاع لمدة 30 يومًا

عقدة المصدر: 3088858

أثارت هيئة حماية البيانات الإيطالية، Garante، مخاوف بشأن الانتهاكات المحتملة للقانون العام لحماية البيانات (GDPR) من قبل ChatGPT من OpenAI، مما يتطلب من OpenAI الدفاع عن معالجتها للبيانات الشخصية لمدة 30 يومًا.

أثارت هيئة حماية البيانات الإيطالية، Garante اهتمامات حول الانتهاكات المحتملة للائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي من قبل ChatGPT الخاص بـ OpenAI. ويأتي ذلك بعد تحقيق دام عدة أشهر، مما أدى إلى إصدار إشعار رسمي إلى OpenAI، للاشتباه في حدوث انتهاكات للوائح الخصوصية في الاتحاد الأوروبي. تم منح OpenAI فترة 30 يومًا للرد وتقديم دفاع ضد هذه الادعاءات.

في السابق، أمرت السلطات الإيطالية بفرض حظر مؤقت على معالجة البيانات المحلية لـ ChatGPT في إيطاليا، مشيرة إلى مشكلات مثل عدم وجود أساس قانوني مناسب لجمع ومعالجة البيانات الشخصية لتدريب خوارزميات ChatGPT. كما تمت الإشارة إلى المخاوف بشأن سلامة الأطفال وميل أداة الذكاء الاصطناعي إلى إنتاج معلومات غير دقيقة. وقد عالجت شركة OpenAI مؤقتًا بعضًا من هذه المشكلات، لكنها تواجه الآن استنتاجات أولية مفادها أن عملياتها ربما تنتهك قانون الاتحاد الأوروبي. تدور المشكلة الأساسية حول الأساس القانوني الذي تعتمده OpenAI لمعالجة البيانات الشخصية لتدريب نماذج الذكاء الاصطناعي الخاصة بها، مع الأخذ في الاعتبار أن ChatGPT تم تطويره باستخدام البيانات المأخوذة من الإنترنت العام.

ادعى OpenAI في البداية أن "تنفيذ العقد" هو الأساس القانوني للتدريب على نموذج ChatGPT، لكن السلطة الإيطالية اعترضت على ذلك. الآن، الأسس القانونية الوحيدة المحتملة المتبقية هي الموافقة أو المصالح المشروعة. ويبدو أن الحصول على موافقة العديد من الأفراد الذين تمت معالجة بياناتهم أمر غير عملي، مما يترك المصالح المشروعة كأساس قانوني أساسي. ومع ذلك، يتطلب هذا الأساس من OpenAI السماح لأصحاب البيانات بالاعتراض على المعالجة، مما يشكل تحديات أمام التشغيل المستمر لروبوتات الدردشة المدعومة بالذكاء الاصطناعي.

استجابة للمخاطر التنظيمية المتزايدة في الاتحاد الأوروبي، تسعى OpenAI إلى إنشاء قاعدة فعلية في أيرلندا، بهدف الإشراف على الامتثال للقانون العام لحماية البيانات (GDPR) بقيادة لجنة حماية البيانات الأيرلندية. تعد هذه الخطوة جزءًا من جهد أوسع لمعالجة المخاوف المتعلقة بحماية البيانات في جميع أنحاء الاتحاد الأوروبي. بالإضافة إلى التحقيق الإيطالي، تخضع OpenAI أيضًا للتدقيق في بولندا بعد شكوى بشأن معلومات غير دقيقة قدمتها ChatGPT ورد OpenAI على صاحب الشكوى.

من المحتمل أن يكون لنتيجة هذا التحقيق آثار كبيرة ليس فقط على ChatGPT ولكن أيضًا على المشهد الأوسع لتطبيقات الذكاء الاصطناعي والتزامها بمعايير حماية البيانات في الاتحاد الأوروبي. مع تطور الوضع، فإنه يسلط الضوء على التحديات والتعقيدات التي تواجهها التقنيات المبتكرة مثل روبوتات الدردشة المدعمة بالذكاء الاصطناعي في التعامل مع لوائح حماية البيانات الصارمة في أوروبا.

مصدر الصورة: Shutterstock

الطابع الزمني:

اكثر من بلوكشين الأخبار