AI رازداری کے مسائل کو کم کرنے اور AI اعتماد کو بہتر بنانے کے لیے اپنا ڈیٹا استعمال کرنا | آئی او ٹی ناؤ خبریں اور رپورٹس

AI رازداری کے مسائل کو کم کرنے اور AI اعتماد کو بہتر بنانے کے لیے اپنا ڈیٹا استعمال کرنا | آئی او ٹی ناؤ خبریں اور رپورٹس

ماخذ نوڈ: 3068504

AI ماڈلز کے نمونوں کا پتہ لگانے اور ایسی پیشین گوئیاں کرنے کے قابل ہونے کے ساتھ جو انسان کے لیے دستی طور پر کرنا مشکل یا ناممکن ہو، ٹولز کے لیے ممکنہ ایپلی کیشنز جیسے چیٹ جی پی ٹی صحت کی دیکھ بھال، مالیات اور کسٹمر سروس کی صنعتوں میں بہت بڑی ہیں۔

اس کے باوجود جب کہ AI کے ارد گرد تنظیموں کی ترجیحات کو ان مواقع کا جائزہ لینا چاہیے جو پیدا کرنے والے AI ٹولز اپنے کاروبار کو مسابقتی فائدہ کے لحاظ سے پیش کرتے ہیں، ڈیٹا پرائیویسی کا موضوع ایک اہم تشویش بن گیا ہے۔ AI کے ذمہ دارانہ استعمال کا انتظام، اس کے متعصب نتائج پیدا کرنے کی صلاحیت کے ساتھ، احتیاط سے غور کرنے کی ضرورت ہے۔ 

اگرچہ ان ماڈلز کے ممکنہ فوائد بہت زیادہ ہیں، تنظیموں کو AI کو محفوظ اور محفوظ AI ڈیٹا کے تحفظ کے ساتھ ذمہ دارانہ انداز میں استعمال کرنے کے لیے اخلاقی اور عملی تحفظات کا بغور جائزہ لینا چاہیے۔ چیٹ جی پی ٹی کے ساتھ اپنے صارف کے مجموعی تجربے کو بہتر بنا کر، تنظیمیں اپنے کو بہتر بنا سکتی ہیں۔ AI قابل اعتماد

AI رازداری کے خدشات 

بالکل اسی طرح جیسے بہت سی دوسری جدید ٹیکنالوجیز، AI بلاشبہ ان لوگوں کے لیے کچھ سوالات اور چیلنجز اٹھائے گا جو اسے اپنے ٹیک اسٹیکس میں تعینات کرنا چاہتے ہیں۔ اصل میں، کی طرف سے ایک سروے پیش رفت نے انکشاف کیا کہ 65% کاروبار اور IT ایگزیکٹوز اس وقت یقین رکھتے ہیں کہ ان کی متعلقہ تنظیموں میں ڈیٹا کا تعصب ہے اور 78% کا کہنا ہے کہ AI کو اپنانے کے بڑھنے سے یہ مزید خراب ہو جائے گا۔ 

شاید رازداری کی سب سے بڑی تشویش نجی کمپنی کے ڈیٹا کو عوامی طور پر سامنا کرنے والے اور اندرونی AI پلیٹ فارمز کے ساتھ مل کر استعمال کرنا ہے۔ مثال کے طور پر، یہ صحت کی دیکھ بھال کرنے والی تنظیم ہو سکتی ہے جو مریض کے خفیہ ڈیٹا یا کسی بڑی کارپوریشن کے ملازم پے رول ڈیٹا کو محفوظ کرتی ہے۔ 

AI کے سب سے زیادہ موثر ہونے کے لیے، آپ کو اعلیٰ معیار کے عوامی اور/یا نجی ڈیٹا کے بڑے نمونے کی ضرورت ہے اور خفیہ ڈیٹا تک رسائی رکھنے والی تنظیمیں، جیسے طبی ریکارڈ رکھنے والی صحت کی دیکھ بھال کرنے والی کمپنیاں، AI پر مبنی حل تیار کرتے وقت مسابقتی فائدہ رکھتی ہیں۔ سب سے بڑھ کر، اس طرح کے حساس اعداد و شمار کے ساتھ ان تنظیموں کو اخلاقی اور ریگولیٹری تقاضوں پر غور کرنا چاہیے۔ ڈیٹا کی رازداری، انصاف، وضاحت، شفافیت، مضبوطی اور رسائی۔  

بڑے لینگویج ماڈلز (LLM) طاقتور AI ماڈلز ہیں جو متن کے ڈیٹا پر تربیت یافتہ ہیں تاکہ مختلف قدرتی زبان کی پروسیسنگ کے کاموں کو انجام دے سکیں، بشمول زبان کا ترجمہ، سوالوں کے جوابات، خلاصہ اور جذبات کا تجزیہ۔ ان ماڈلز کو زبان کا تجزیہ کرنے کے لیے اس طرح سے ڈیزائن کیا گیا ہے کہ وہ انسانی ذہانت کی نقل کرتا ہے، جس سے وہ انسانی تقریر کو پروسیس کرنے، سمجھنے اور تخلیق کرنے کی اجازت دیتے ہیں۔ 

AI استعمال کرتے وقت نجی ڈیٹا کے خطرات 

تاہم، ان پیچیدہ ماڈلز کے ساتھ اخلاقی اور تکنیکی چیلنجز آتے ہیں جو ڈیٹا کی درستگی، کاپی رائٹ کی خلاف ورزی اور ممکنہ توہین کے مقدمات کے لیے خطرات پیدا کر سکتے ہیں۔ چیٹ بوٹ AIs کو مؤثر طریقے سے استعمال کرنے کے لیے کچھ چیلنجز میں شامل ہیں: 

  • حدود - AI میں، ایک فریب اس وقت ہوتا ہے جب یہ صارف کو غلطی سے بھرے جوابات کی اطلاع دیتا ہے اور یہ سب بہت عام ہیں۔ جس طرح سے LLMs اگلے لفظ کی پیشین گوئی کرتے ہیں اس سے جوابات قابل فہم ہوتے ہیں، جبکہ معلومات نامکمل یا غلط ہو سکتی ہیں۔ مثال کے طور پر، اگر کوئی صارف چیٹ بوٹ سے کسی مدمقابل کی اوسط آمدنی کے بارے میں پوچھتا ہے، تو یہ نمبر بالکل بند ہو سکتے ہیں۔  
  • ڈیٹا کا تعصب - ایل ایل ایم بھی نمائش کر سکتے ہیں۔ باضابطہجس کا مطلب ہے کہ وہ ایسے نتائج پیدا کر سکتے ہیں جو معروضی حقیقت کے بجائے تربیتی ڈیٹا میں تعصبات کی عکاسی کرتے ہیں۔ مثال کے طور پر، بنیادی طور پر مرد ڈیٹاسیٹ پر تربیت یافتہ زبان کا ماڈل صنفی موضوعات کے حوالے سے متعصبانہ پیداوار پیدا کر سکتا ہے۔ 
  • استدلال/سمجھنا - LLMs کو ایسے کاموں میں بھی مدد کی ضرورت ہو سکتی ہے جن کے لیے گہرے استدلال یا پیچیدہ تصورات کو سمجھنے کی ضرورت ہوتی ہے۔ ایک LLM کو ایسے سوالات کے جوابات دینے کے لیے تربیت دی جا سکتی ہے جن کے لیے ثقافت یا تاریخ کی باریک بینی سے فہم کی ضرورت ہوتی ہے۔ ماڈلز کے لیے دقیانوسی تصورات کو برقرار رکھنا یا غلط معلومات فراہم کرنا ممکن ہے اگر تربیت یافتہ اور مؤثر طریقے سے نگرانی نہ کی جائے۔ 

ان کے علاوہ، دیگر خطرات میں ڈیٹا کٹ آف بھی شامل ہو سکتا ہے، جو اس وقت ہوتا ہے جب ماڈل کی یادداشت پرانی ہو جاتی ہے۔ ایک اور ممکنہ چیلنج یہ سمجھنا ہے کہ LLM نے اپنا ردعمل کیسے پیدا کیا کیونکہ AI کو مؤثر طریقے سے تربیت نہیں دی گئی ہے کہ وہ جواب کی تعمیر کے لیے استعمال ہونے والے استدلال کو ظاہر کرے۔ 

قابل اعتماد ڈیٹا فراہم کرنے کے لیے معنوی علم کا استعمال 

ٹیک ٹیمیں ChatGPT کے لیے نجی ڈیٹا استعمال کرنے میں مدد کی تلاش میں ہیں۔ درستگی اور کارکردگی میں اضافے کے باوجود، LLMs، اپنے صارفین کا ذکر نہ کرنے کے باوجود، جوابات میں مدد کی ضرورت ہو سکتی ہے۔ خاص طور پر چونکہ ڈیٹا میں سیاق و سباق اور معنی کی کمی ہوسکتی ہے۔ ایک مضبوط، محفوظ، شفاف، زیر انتظام AI نالج مینجمنٹ حل اس کا جواب ہے۔ سیمنٹک ڈیٹا پلیٹ فارم کے ساتھ، صارفین گورننس کو متعارف کرواتے ہوئے درستگی اور کارکردگی کو بڑھا سکتے ہیں۔  

ایک جواب حاصل کرنے سے جو کہ ChatGPT کے جواب کا مجموعہ ہے جس کی توثیق سیمنٹک ڈیٹا پلیٹ فارم سے سیمنٹک علم کے ساتھ کی گئی ہے، مشترکہ نتائج LLMs اور صارفین کو باآسانی رسائی حاصل کرنے اور ماخذ کے مواد اور حاصل کردہ SME علم کے خلاف نتائج کو حقیقت کی جانچ کرنے کی اجازت دیں گے۔ 

یہ AI ٹول کو سٹرکچرڈ اور غیر ساختہ ڈیٹا کو اسٹور کرنے اور استفسار کرنے کے ساتھ ساتھ اس کے بدیہی GUI کے ذریعے موضوع کے ماہر (SME) کے مواد کو حاصل کرنے کی اجازت دیتا ہے۔ ڈیٹا میں پائے جانے والے حقائق کو نکال کر اور پرائیویٹ ڈیٹا کو سیمنٹک علم کے ساتھ ٹیگ کر کے، صارف کے سوالات یا ان پٹ اور مخصوص چیٹ جی پی ٹی جوابات کو بھی اس علم کے ساتھ ٹیگ کیا جا سکتا ہے۔  

حساس ڈیٹا کی حفاظت AI کی حقیقی صلاحیت کو غیر مقفل کر سکتی ہے۔ 

جیسا کہ تمام ٹیکنالوجیز کے ساتھ، LLMs کے ساتھ غیر متوقع معلومات یا حالات سے بچنا اور بھی اہم ہے۔ ان چیلنجوں سے کامیابی کے ساتھ نمٹنے میں، صارف کے اطمینان کے ساتھ ساتھ ہمارے حلوں کی بھروسے میں اضافہ ہوگا جو بالآخر حل کی کامیابی کا باعث بنے گا۔ 

اپنی تنظیم کے لیے AI کے استعمال کو دریافت کرنے کے پہلے قدم کے طور پر، IT اور سیکیورٹی کے ماہرین کو حساس ڈیٹا کی حفاظت کے طریقے تلاش کرنا ہوں گے جبکہ اس کا فائدہ اٹھاتے ہوئے اپنی تنظیم اور اس کے صارفین کے لیے بہتر نتائج حاصل کیے جا سکتے ہیں۔ 

Matthieu Jonglez، ایک VP ٹیکنالوجی - پروگریس پر ایپلیکیشن اور ڈیٹا پلیٹ فارم۔Matthieu Jonglez، ایک VP ٹیکنالوجی - پروگریس پر ایپلیکیشن اور ڈیٹا پلیٹ فارم۔

میتھیو جونگلیز کا آرٹیکل، ایک VP ٹیکنالوجی – ایپلیکیشن اور ڈیٹا پلیٹ فارم پر پیشرفتss

ذیل میں یا X کے ذریعے اس مضمون پر تبصرہ کریں: @IoTNow_

ٹائم اسٹیمپ:

سے زیادہ آئی او ٹی اب