استخدام بياناتك الخاصة للتخفيف من مشكلات خصوصية الذكاء الاصطناعي وتحسين الثقة في الذكاء الاصطناعي | إنترنت الأشياء الآن الأخبار والتقارير

استخدام بياناتك الخاصة للتخفيف من مشكلات خصوصية الذكاء الاصطناعي وتحسين الثقة في الذكاء الاصطناعي | إنترنت الأشياء الآن الأخبار والتقارير

عقدة المصدر: 3068504

ومع قدرة نماذج الذكاء الاصطناعي على اكتشاف الأنماط وإجراء تنبؤات قد يكون من الصعب أو المستحيل على الإنسان القيام بها يدويًا، فإن التطبيقات المحتملة لأدوات مثل شات جي بي تي في قطاعات الرعاية الصحية والتمويل وخدمة العملاء ضخمة.

ومع ذلك، في حين أن أولويات المؤسسات حول الذكاء الاصطناعي يجب أن تتمثل في تقييم الفرص التي توفرها أدوات الذكاء الاصطناعي المولدة لأعمالها من حيث الميزة التنافسية، فقد أصبح موضوع خصوصية البيانات مصدر قلق رئيسي. إن إدارة الاستخدام المسؤول للذكاء الاصطناعي، مع قدرته على تحقيق نتائج متحيزة، تحتاج إلى دراسة متأنية. 

في حين أن الفوائد المحتملة لهذه النماذج هائلة، يجب على المؤسسات أن تدرس بعناية الاعتبارات الأخلاقية والعملية لاستخدام الذكاء الاصطناعي بطريقة مسؤولة مع حماية آمنة لبيانات الذكاء الاصطناعي. من خلال تحسين تجربة المستخدم الشاملة مع ChatGPT، يمكن للمؤسسات تحسين تجربة المستخدم الخاصة بها مصداقية الذكاء الاصطناعي

مخاوف خصوصية الذكاء الاصطناعي 

مثل العديد من التقنيات المتطورة الأخرى، سيثير الذكاء الاصطناعي بلا شك بعض الأسئلة والتحديات لأولئك الذين يتطلعون إلى نشره في مجموعاتهم التكنولوجية. في الواقع، استطلاع أجراه التقدّم وكشفت أن 65% من الشركات والمديرين التنفيذيين لتكنولوجيا المعلومات يعتقدون حاليًا أن هناك تحيزًا للبيانات في مؤسساتهم، ويقول 78% منهم إن هذا سيتفاقم مع زيادة اعتماد الذكاء الاصطناعي. 

من المحتمل أن يكون أكبر مخاوف الخصوصية هو استخدام بيانات الشركة الخاصة جنبًا إلى جنب مع منصات الذكاء الاصطناعي الداخلية والواجهات العامة. على سبيل المثال، قد تكون هذه منظمة رعاية صحية تقوم بتخزين بيانات سرية للمرضى أو بيانات رواتب الموظفين في شركة كبيرة. 

لكي يكون الذكاء الاصطناعي أكثر فعالية، فأنت بحاجة إلى حجم عينة كبير من البيانات العامة و/أو الخاصة عالية الجودة، كما تحتاج المؤسسات التي تتمتع بإمكانية الوصول إلى البيانات السرية، مثل شركات الرعاية الصحية التي لديها سجلات طبية، إلى ميزة تنافسية عند بناء حلول قائمة على الذكاء الاصطناعي. قبل كل شيء، يجب على هذه المنظمات التي لديها مثل هذه البيانات الحساسة أن تأخذ في الاعتبار المتطلبات الأخلاقية والتنظيمية المحيطة بها خصوصية البياناتوالعدالة وقابلية الشرح والشفافية والمتانة والوصول.  

نماذج اللغة الكبيرة (LLM) هي نماذج ذكاء اصطناعي قوية تم تدريبها على البيانات النصية لأداء مهام معالجة اللغة الطبيعية المختلفة، بما في ذلك ترجمة اللغة والإجابة على الأسئلة والتلخيص وتحليل المشاعر. تم تصميم هذه النماذج لتحليل اللغة بطريقة تحاكي الذكاء البشري، مما يسمح لها بمعالجة وفهم وتوليد الكلام البشري. 

مخاطر البيانات الخاصة عند استخدام الذكاء الاصطناعي 

ومع ذلك، تصاحب هذه النماذج المعقدة تحديات أخلاقية وفنية يمكن أن تشكل مخاطر على دقة البيانات وانتهاك حقوق الطبع والنشر وحالات التشهير المحتملة. تتضمن بعض التحديات التي تواجه استخدام Chatbot AIs بشكل فعال ما يلي: 

  • الهلوسة - في الذكاء الاصطناعي، تحدث الهلوسة عندما يُبلغ المستخدم بإجابات مليئة بالأخطاء، وهذه كلها شائعة جدًا. إن الطريقة التي يتنبأ بها طلاب LLM بالكلمة التالية تجعل الإجابات تبدو معقولة، في حين أن المعلومات قد تكون غير كاملة أو خاطئة. على سبيل المثال، إذا طلب مستخدم من برنامج الدردشة الآلية متوسط ​​إيرادات أحد المنافسين، فقد تكون هذه الأرقام بعيدة المنال.  
  • تحيز البيانات - يمكن لحاملي LLM أن يعرضوا أيضًا التحيزاتمما يعني أنها يمكن أن تنتج نتائج تعكس التحيزات في بيانات التدريب بدلاً من الواقع الموضوعي. على سبيل المثال، قد ينتج عن نموذج اللغة الذي تم تدريبه على مجموعة بيانات يهيمن عليها الذكور نتائج متحيزة فيما يتعلق بالموضوعات المرتبطة بالجنس. 
  • المنطق / الفهم – قد يحتاج حاملو شهادات LLM أيضًا إلى المساعدة في المهام التي تتطلب تفكيرًا أعمق أو فهمًا أعمق للمفاهيم المعقدة. يمكن تدريب LLM للإجابة على الأسئلة التي تتطلب فهمًا دقيقًا للثقافة أو التاريخ. من الممكن أن تعمل النماذج على إدامة الصور النمطية أو تقديم معلومات مضللة إذا لم يتم تدريبها ومراقبتها بشكل فعال. 

بالإضافة إلى ذلك، يمكن أن تشمل المخاطر الأخرى انقطاع البيانات، وهو عندما تصبح ذاكرة النموذج قديمة. التحدي الآخر المحتمل هو فهم كيفية قيام LLM بإنشاء استجابته لأن الذكاء الاصطناعي لم يتم تدريبه بشكل فعال لإظهار منطقه المستخدم لبناء الاستجابة. 

استخدام المعرفة الدلالية لتقديم بيانات جديرة بالثقة 

تبحث الفرق التقنية عن المساعدة في استخدام البيانات الخاصة لـ ChatGPT. على الرغم من الزيادة في الدقة والكفاءة، لا يزال من الممكن أن يحتاج حاملو شهادات LLM، ناهيك عن مستخدميهم، إلى المساعدة في الإجابات. خاصة وأن البيانات قد تفتقر إلى السياق والمعنى. إن الحل القوي والآمن والشفاف والمحكم لإدارة المعرفة بالذكاء الاصطناعي هو الحل. باستخدام منصة البيانات الدلالية، يمكن للمستخدمين زيادة الدقة والكفاءة أثناء تقديم الإدارة.  

من خلال تحقيق إجابة عبارة عن مزيج من إجابة ChatGPT التي تم التحقق من صحتها بالمعرفة الدلالية من منصة البيانات الدلالية، ستسمح النتائج المجمعة لـ LLMs والمستخدمين بالوصول بسهولة إلى النتائج والتحقق منها مقابل محتوى المصدر ومعرفة الشركات الصغيرة والمتوسطة التي تم التقاطها. 

يتيح ذلك لأداة الذكاء الاصطناعي تخزين البيانات المنظمة وغير المنظمة والاستعلام عنها بالإضافة إلى التقاط محتوى الخبراء المتخصصين (SME) عبر واجهة المستخدم الرسومية البديهية. من خلال استخلاص الحقائق الموجودة داخل البيانات ووضع علامات على البيانات الخاصة بالمعرفة الدلالية، يمكن أيضًا وضع علامة على أسئلة المستخدم أو المدخلات وإجابات ChatGPT المحددة بهذه المعرفة.  

إن حماية البيانات الحساسة يمكن أن تطلق العنان للإمكانات الحقيقية للذكاء الاصطناعي 

كما هو الحال مع جميع التقنيات، تعد الحماية ضد المدخلات أو المواقف غير المتوقعة أكثر أهمية مع LLMs. ومن خلال معالجة هذه التحديات بنجاح، ستزداد مصداقية حلولنا جنبًا إلى جنب مع رضا المستخدم مما يؤدي في النهاية إلى نجاح الحل. 

كخطوة أولى في استكشاف استخدام الذكاء الاصطناعي في مؤسساتهم، يجب على محترفي تكنولوجيا المعلومات والأمن البحث عن طرق لحماية البيانات الحساسة مع الاستفادة منها لتحسين النتائج لمؤسستهم وعملائها. 

ماتيو جونجليز، نائب الرئيس للتكنولوجيا - منصة التطبيقات والبيانات في Progress.ماتيو جونجليز، نائب الرئيس للتكنولوجيا - منصة التطبيقات والبيانات في Progress.

مقال بقلم Matthieu Jonglez، نائب الرئيس للتكنولوجيا – منصة التطبيقات والبيانات في تقدمSS.

قم بالتعليق على هذه المقالة أدناه أو عبر X: IoTNow_

الطابع الزمني:

اكثر من إنترنت الأشياء الآن