ChatGPT اور دیگر LLMs کو جیل بریک کرنے کے لیے عام طور پر استعمال ہونے والے طریقے

ChatGPT اور دیگر LLMs کو جیل بریک کرنے کے لیے عام طور پر استعمال ہونے والے طریقے

ماخذ نوڈ: 3089432

تعارف

بڑے لینگویج ماڈلز (LLMs) نے قدرتی لینگویج پروسیسنگ کے شعبے میں انقلاب برپا کر دیا ہے، مشینوں کو انسان جیسا متن بنانے اور بات چیت میں مشغول کرنے کے قابل بنایا ہے۔ تاہم، یہ طاقتور ماڈل خطرات سے محفوظ نہیں ہیں۔ LLMs میں جیل بریکنگ اور کمزوریوں کا فائدہ اٹھانا اہم خطرات کا باعث بنتا ہے، جیسے غلط معلومات پیدا کرنا، جارحانہ نتائج، اور رازداری کے خدشات۔ مزید، ہم جیل بریک ChatGPT، اس کی تکنیک، اور ان خطرات کو کم کرنے کی اہمیت پر تبادلہ خیال کریں گے۔ ہم LLMs کو محفوظ بنانے، محفوظ تعیناتی کو نافذ کرنے، ڈیٹا کی رازداری کو یقینی بنانے، اور جیل بریک کم کرنے کی تکنیکوں کا جائزہ لینے کے لیے حکمت عملی بھی تلاش کریں گے۔ مزید برآں، ہم اخلاقی تحفظات اور LLMs کے ذمہ دارانہ استعمال پر بات کریں گے۔

باگنی ChatGPT

فہرست

جیل بریکنگ کیا ہے؟

جیل بریکنگ سے مراد LLMs میں کمزوریوں کا فائدہ اٹھانا ہے تاکہ ان کے رویے میں ہیرا پھیری ہو اور ایسے نتائج پیدا کیے جائیں جو ان کے مطلوبہ مقصد سے ہٹ جائیں۔ اس میں پرامپٹس کو انجیکشن لگانا، ماڈل کی کمزوریوں کا فائدہ اٹھانا، مخالفانہ ان پٹ کو تیار کرنا، اور ماڈل کے ردعمل کو متاثر کرنے کے لیے گریڈینٹ کو جوڑنا شامل ہے۔ ایک حملہ آور جیل بریک کے لیے جا کر اپنے آؤٹ پٹس پر کنٹرول حاصل کر لیتا ہے۔ چیٹ جی پی ٹی یا کوئی LLM، ممکنہ طور پر نقصان دہ نتائج کا باعث بنتا ہے۔

LLMs میں جیل بریک کے خطرات کو کم کرنا ان کی وشوسنییتا، حفاظت اور اخلاقی استعمال کو یقینی بنانے کے لیے بہت ضروری ہے۔ بلا روک ٹوک چیٹ جی پی ٹی جیل بریک کے نتیجے میں غلط معلومات، جارحانہ یا نقصان دہ نتائج، اور رازداری اور سلامتی سے سمجھوتہ ہو سکتا ہے۔ مؤثر تخفیف کی حکمت عملیوں کو نافذ کر کے، ہم جیل بریکنگ کے اثرات کو کم کر سکتے ہیں اور LLMs کی بھروسے کو بڑھا سکتے ہیں۔

عام جیل توڑنے کی تکنیک

ChatGPT جیسے بڑے زبان کے ماڈلز کو جیل توڑنے میں غیر مجاز رسائی حاصل کرنے یا اس کے رویے میں ہیرا پھیری کے لیے ماڈل میں موجود کمزوریوں کا فائدہ اٹھانا شامل ہے۔ کئی تکنیکوں کی شناخت عام جیل توڑنے کے طریقوں کے طور پر کی گئی ہے۔ آئیے ان میں سے کچھ کو دریافت کریں:

فوری انجیکشن

پرامپٹ انجیکشن ایک تکنیک ہے جہاں نقصان دہ استعمال کنندہ زبان کے ماڈل کے آؤٹ پٹ میں ہیرا پھیری کے لیے مخصوص اشارے یا ہدایات لگاتے ہیں۔ پرامپٹس کو احتیاط سے تیار کر کے، وہ ماڈل کے ردعمل کو متاثر کر سکتے ہیں اور اسے متعصب یا نقصان دہ مواد تیار کر سکتے ہیں۔ یہ تکنیک فراہم کردہ سیاق و سباق پر بہت زیادہ انحصار کرنے کے ماڈل کے رجحان کا فائدہ اٹھاتی ہے۔

پرامپٹ انجیکشن میں ماڈل کے جوابات کی رہنمائی کے لیے ان پٹ پرامپٹس میں ہیرا پھیری شامل ہوتی ہے۔

یہاں ایک مثال ہے- مضبوط ذہانت

باگنی ChatGPT

ماڈل استحصال

ماڈل کے استحصال میں غیر مجاز رسائی یا کنٹرول حاصل کرنے کے لیے زبان کے ماڈل کے اندرونی کاموں کا استحصال کرنا شامل ہے۔ ماڈل کے پیرامیٹرز اور فن تعمیر کی جانچ کر کے، حملہ آور کمزوریوں کی نشاندہی کر سکتے ہیں اور اپنے رویے میں ہیرا پھیری کر سکتے ہیں۔ اس تکنیک کے لیے ماڈل کی ساخت اور الگورتھم کی گہری سمجھ کی ضرورت ہے۔

ماڈل کا استحصال ماڈل میں ہی کمزوریوں یا تعصبات کا استحصال کرتا ہے۔

مخالفانہ معلومات

مخالفانہ ان پٹ احتیاط سے تیار کیے گئے ان پٹس ہیں جو زبان کے ماڈل کو دھوکہ دینے اور اسے غلط یا نقصان دہ نتائج پیدا کرنے کے لیے ڈیزائن کیے گئے ہیں۔ یہ ان پٹ ماڈل کے تربیتی ڈیٹا یا الگورتھم میں کمزوریوں کا استحصال کرتے ہیں، جس کی وجہ سے یہ گمراہ کن یا نقصان دہ ردعمل پیدا کرتا ہے۔ ان پٹ ٹیکسٹ کو پریشان کرکے یا خاص طور پر ڈیزائن کردہ الگورتھم استعمال کرکے مخالفانہ ان پٹ بنائے جاسکتے ہیں۔

مخالفانہ ان پٹ احتیاط سے تیار کیے گئے ان پٹس ہیں جو ماڈل کو دھوکہ دینے کے لیے بنائے گئے ہیں۔

آپ OpenAI کی پوسٹ سے اس کے بارے میں مزید جان سکتے ہیں۔

تدریجی دستکاری

گریڈیئنٹ کرافٹنگ میں لینگویج ماڈل کے تربیتی عمل کے دوران استعمال ہونے والے گریڈیئنٹس میں ہیرا پھیری شامل ہوتی ہے۔ تدریج میں احتیاط سے ترمیم کر کے، حملہ آور ماڈل کے رویے پر اثر انداز ہو سکتے ہیں اور مطلوبہ نتائج پیدا کر سکتے ہیں۔ اس تکنیک کے لیے ماڈل کے تربیتی عمل تک رسائی اور بنیادی اصلاحی الگورتھم کے علم کی ضرورت ہے۔

گریڈیئنٹ کرافٹنگ میں ٹریننگ کے دوران ماڈل کے رویے کا تعصب کرنے کے لیے گریڈیئنٹس میں ہیرا پھیری شامل ہوتی ہے۔

جیل توڑنے کے خطرات اور نتائج

بڑی زبان کے ماڈلز، جیسے کہ چیٹ جی پی ٹی کو جیل بریک کرنے سے کئی خطرات اور نتائج ہو سکتے ہیں جن پر غور کرنے کی ضرورت ہے۔ یہ خطرات بنیادی طور پر غلط معلومات پیدا کرنے، جارحانہ یا نقصان دہ نتائج، اور رازداری اور سلامتی کے خدشات کے گرد گھومتے ہیں۔

غلط معلومات کی نسل

بڑی زبان کے ماڈلز کو جیل بریک کرنے کا ایک بڑا خطرہ غلط معلومات پیدا کرنے کا امکان ہے۔ جب کسی زبان کا ماڈل جیل ٹوٹ جاتا ہے، تو اس میں غلط یا گمراہ کن معلومات پیدا کرنے کے لیے ہیرا پھیری کی جا سکتی ہے۔ اس کے سنگین مضمرات ہو سکتے ہیں، خاص طور پر ان ڈومینز میں جہاں درست اور قابل اعتماد معلومات ضروری ہیں، جیسے کہ نیوز رپورٹنگ یا طبی مشورہ۔ پیدا ہونے والی غلط معلومات تیزی سے پھیل سکتی ہے اور مجموعی طور پر افراد یا معاشرے کو نقصان پہنچا سکتی ہے۔

محققین اور ڈویلپر اس خطرے کو کم کرنے کے لیے زبان کے ماڈلز کی مضبوطی اور حقائق کی جانچ کی صلاحیتوں کو بہتر بنانے کے لیے تکنیکوں کی تلاش کر رہے ہیں۔ ایسے میکانزم کو نافذ کرنے سے جو پیدا شدہ نتائج کی درستگی کی تصدیق کرتے ہیں، غلط معلومات کے اثرات کو کم کیا جا سکتا ہے۔

جارحانہ یا نقصان دہ نتائج

بڑی زبان کے ماڈلز کو جیل بریک کرنے کا ایک اور نتیجہ جارحانہ یا نقصان دہ نتائج پیدا کرنے کی صلاحیت ہے۔ جب کسی زبان کے ماڈل سے ہیرا پھیری کی جاتی ہے، تو اسے ایسا مواد تیار کرنے پر مجبور کیا جا سکتا ہے جو جارحانہ، امتیازی یا نفرت انگیز تقریر کو فروغ دیتا ہو۔ یہ ایک اہم اخلاقی تشویش کا باعث بنتا ہے اور اس طرح کے نتائج سے نشانہ بنائے گئے افراد یا کمیونٹیز کو منفی طور پر متاثر کر سکتا ہے۔

محققین اس مسئلے کو حل کرنے کے لیے جارحانہ یا نقصان دہ نتائج کا پتہ لگانے اور ان کو فلٹر کرنے کے طریقے تیار کر رہے ہیں۔ مواد کی سخت اعتدال اور قدرتی زبان کی پروسیسنگ تکنیکوں کو استعمال کرنے سے جارحانہ مواد پیدا کرنے کے خطرے کو کم کیا جا سکتا ہے۔

رازداری اور سلامتی کے خدشات

بڑی زبان کے ماڈلز کو جیل توڑنے سے رازداری اور سیکیورٹی کے خدشات بھی بڑھتے ہیں۔ جب کسی زبان کے ماڈل تک رسائی حاصل کی جاتی ہے اور مناسب اجازت کے بغیر اس میں ترمیم کی جاتی ہے، تو یہ حساس معلومات سے سمجھوتہ کر سکتا ہے یا سسٹم میں موجود کمزوریوں کو ظاہر کر سکتا ہے۔ یہ غیر مجاز رسائی، ڈیٹا کی خلاف ورزیوں، یا دیگر بدنیتی پر مبنی سرگرمیوں کا باعث بن سکتا ہے۔

آپ بھی پڑھ سکتے ہیں: بڑے زبان کے ماڈل (LLMs) کیا ہیں؟

ماڈل ڈویلپمنٹ کے دوران جیل بریک کم کرنے کی حکمت عملی

ChatGPT جیسے بڑے زبان کے ماڈلز کو جیل توڑنے سے نقصان دہ یا متعصب مواد پیدا کرنے میں اہم خطرات لاحق ہو سکتے ہیں۔ تاہم، ان خطرات کو کم کرنے اور ان ماڈلز کے ذمہ دارانہ استعمال کو یقینی بنانے کے لیے کئی حکمت عملیوں کو استعمال کیا جا سکتا ہے۔

ماڈل آرکیٹیکچر اور ڈیزائن کے تحفظات

جیل بریک کے خطرات کو کم کرنے کا ایک طریقہ زبان کے ماڈل کے فن تعمیر کو احتیاط سے ڈیزائن کرنا ہے۔ ماڈل کی ترقی کے دوران مضبوط حفاظتی اقدامات کو شامل کرکے، ممکنہ خطرات کو کم کیا جا سکتا ہے۔ اس میں مضبوط رسائی کنٹرول، خفیہ کاری کی تکنیک، اور محفوظ کوڈنگ کے طریقوں کو نافذ کرنا شامل ہے۔ مزید برآں، ماڈل ڈیزائنرز ماڈل کے غلط استعمال کو روکنے کے لیے رازداری اور اخلاقی تحفظات کو ترجیح دے سکتے ہیں۔

ریگولرائزیشن کی تکنیک

ریگولرائزیشن کی تکنیک جیل بریک کے خطرات کو کم کرنے میں اہم کردار ادا کرتی ہے۔ ان تکنیکوں میں زبان کے ماڈل کے تربیتی عمل میں رکاوٹیں یا جرمانے شامل کرنا شامل ہے۔ یہ ماڈل کو کچھ رہنما خطوط پر عمل کرنے اور نامناسب یا نقصان دہ مواد پیدا کرنے سے بچنے کی ترغیب دیتا ہے۔ ریگولرائزیشن کو مخالفانہ تربیت کے ذریعے حاصل کیا جا سکتا ہے، جہاں ماڈل کو اس کی مضبوطی کو بہتر بنانے کے لیے مخالفانہ مثالوں کے سامنے لایا جاتا ہے۔

مخالفانہ تربیت

مخالفانہ تربیت ایک مخصوص تکنیک ہے جسے بڑے زبان کے ماڈلز کی حفاظت کو بڑھانے کے لیے استعمال کیا جا سکتا ہے۔ اس میں ماڈل کو مخالفانہ مثالوں پر تربیت دینا شامل ہے جو کمزوریوں سے فائدہ اٹھانے اور جیل بریک کے ممکنہ خطرات کی نشاندہی کرنے کے لیے ڈیزائن کیا گیا ہے۔ ماڈل کو ان مثالوں کے سامنے لانا اسے زیادہ لچکدار اور بدنیتی پر مبنی ان پٹس کو سنبھالنے کے لیے بہتر طور پر لیس بناتا ہے۔

ڈیٹا سیٹ کا اضافہ

جیل بریکنگ کے خطرات کو کم کرنے کا ایک طریقہ ڈیٹاسیٹ کو بڑھانا ہے۔ متنوع اور چیلنجنگ مثالوں کے ساتھ تربیتی ڈیٹا کو بڑھانا ماڈل کی ممکنہ جیل بریک کی کوششوں کو سنبھالنے کی صلاحیت کو بڑھا سکتا ہے۔ یہ نقطہ نظر ماڈل کو منظرناموں کی ایک وسیع رینج سے سیکھنے میں مدد کرتا ہے اور بدنیتی پر مبنی ان پٹس کے خلاف اس کی مضبوطی کو بہتر بناتا ہے۔

ڈیٹا سیٹ کے اضافے کو لاگو کرنے کے لیے، محققین اور ڈویلپر ڈیٹا کی ترکیب، گڑبڑ، اور امتزاج کی تکنیکوں کا فائدہ اٹھا سکتے ہیں۔ تربیتی اعداد و شمار میں تغیرات اور پیچیدگیوں کا تعارف ماڈل کو مختلف حملہ آوروں کے سامنے لا سکتا ہے اور اس کے دفاع کو مضبوط بنا سکتا ہے۔

مخالف جانچ

جیل بریک کے خطرات کو کم کرنے کا ایک اور اہم پہلو مخالفانہ جانچ کرنا ہے۔ اس میں ماڈل کو جان بوجھ کر حملوں کا نشانہ بنانا اور اس کی کمزوریوں کی جانچ کرنا شامل ہے۔ ہم ممکنہ کمزوریوں کی نشاندہی کر سکتے ہیں اور حقیقی دنیا کے منظرناموں کی تقلید کرتے ہوئے جوابی اقدامات تیار کر سکتے ہیں جہاں ماڈل کو بدنیتی پر مبنی ان پٹس کا سامنا ہو سکتا ہے۔

مخالفانہ جانچ میں پرامپٹ انجینئرنگ جیسی تکنیکیں شامل ہو سکتی ہیں، جہاں ماڈل میں کمزوریوں کا فائدہ اٹھانے کے لیے احتیاط سے تیار کیے گئے اشارے استعمال کیے جاتے ہیں۔ کمزوریوں کو فعال طور پر تلاش کرکے اور ماڈل کو جیل بریک کرنے کی کوشش کرکے، ہم اس کی حدود اور بہتری کے شعبوں کے بارے میں قیمتی بصیرت حاصل کرسکتے ہیں۔

انسانی ان دی لوپ کی تشخیص

خودکار جانچ کے علاوہ، جیل بریک کم کرنے کے عمل میں انسانی جانچ کرنے والوں کو شامل کرنا بہت ضروری ہے۔ ہیومن-ان-دی-لوپ تشخیص ماڈل کے رویے اور مختلف آدانوں پر اس کے ردعمل کے بارے میں مزید باریک بینی سے سمجھنے کی اجازت دیتا ہے۔ انسانی جائزہ لینے والے ماڈل کی کارکردگی پر قیمتی آراء فراہم کر سکتے ہیں، ممکنہ تعصبات یا اخلاقی خدشات کی نشاندہی کر سکتے ہیں، اور تخفیف کی حکمت عملیوں کو بہتر بنانے میں مدد کر سکتے ہیں۔

خودکار جانچ اور انسانی تشخیص سے حاصل ہونے والی بصیرت کو یکجا کر کے، ڈیولپرز بار بار جیل بریک کم کرنے کی حکمت عملیوں کو بہتر بنا سکتے ہیں۔ یہ باہمی تعاون اس بات کو یقینی بناتا ہے کہ ماڈل کا رویہ انسانی اقدار کے ساتھ مطابقت رکھتا ہے اور جیل بریکنگ سے وابستہ خطرات کو کم کرتا ہے۔

تعیناتی کے بعد جیل بریکنگ رسک کو کم کرنے کی حکمت عملی

ChatGPT جیسے بڑے زبان کے ماڈلز کو جیل بریک کرتے وقت، متعلقہ خطرات کو کم کرنے کے لیے محفوظ تعیناتی کی حکمت عملیوں کو نافذ کرنا بہت ضروری ہے۔ اس سیکشن میں، ہم ان ماڈلز کی حفاظت کو یقینی بنانے کے لیے کچھ موثر حکمت عملیوں کا جائزہ لیں گے۔

ان پٹ کی توثیق اور سینیٹائزیشن

محفوظ تعیناتی کے لیے کلیدی حکمت عملیوں میں سے ایک مضبوط ان پٹ توثیق اور صفائی کے طریقہ کار کو نافذ کرنا ہے۔ صارف کے ان پٹس کی مکمل توثیق اور صفائی کرکے، ہم بدنیتی پر مبنی اداکاروں کو ماڈل میں نقصان دہ کوڈ یا اشارے لگانے سے روک سکتے ہیں۔ اس سے زبان کے ماڈل کی سالمیت اور حفاظت کو برقرار رکھنے میں مدد ملتی ہے۔

رسائی کنٹرول میکانزم

محفوظ تعیناتی کا ایک اور اہم پہلو رسائی کنٹرول کے طریقہ کار کو نافذ کرنا ہے۔ ہم زبان کے ماڈل تک رسائی کو احتیاط سے کنٹرول اور انتظام کرکے غیر مجاز استعمال کو محدود کرسکتے ہیں اور جیل توڑنے کی کوششوں کو روک سکتے ہیں۔ یہ توثیق، اجازت، اور کردار پر مبنی رسائی کنٹرول کے ذریعے حاصل کیا جا سکتا ہے۔

سیکیور ماڈل سرونگ انفراسٹرکچر

زبان کے ماڈل کی حفاظت کو یقینی بنانے کے لیے ایک محفوظ ماڈل پیش کرنے والا بنیادی ڈھانچہ ضروری ہے۔ اس میں محفوظ پروٹوکول، خفیہ کاری کی تکنیک، اور مواصلاتی چینلز کا استعمال شامل ہے۔ ہم ان اقدامات کو نافذ کرکے ماڈل کو غیر مجاز رسائی اور ممکنہ حملوں سے بچا سکتے ہیں۔

مسلسل نگرانی اور آڈیٹنگ

مسلسل نگرانی اور آڈیٹنگ جیل بریک کے خطرات کو کم کرنے میں اہم کردار ادا کرتی ہے۔ ماڈل کے رویے اور کارکردگی کی باقاعدگی سے نگرانی کرکے، ہم کسی بھی مشکوک سرگرمیوں یا بے ضابطگیوں کا پتہ لگا سکتے ہیں۔ مزید برآں، باقاعدہ آڈٹ کرنے سے ممکنہ کمزوریوں کی نشاندہی کرنے اور ضروری حفاظتی پیچ اور اپ ڈیٹس کو نافذ کرنے میں مدد ملتی ہے۔

جیل بریک کے خطرے کو کم کرنے کے لیے باہمی تعاون کی کوششوں کی اہمیت

ChatGPT جیسے بڑے لینگویج ماڈلز کو جیل توڑنے کے خطرات سے نمٹنے کے لیے باہمی تعاون کی کوششیں اور صنعت کے بہترین طریقہ کار اہم ہیں۔ AI کمیونٹی خطرے کی انٹیلی جنس کا اشتراک کرکے اور کمزوریوں کے ذمہ دارانہ انکشاف کو فروغ دے کر ان خطرات کو کم کر سکتی ہے۔

خطرے کی انٹیلی جنس شیئرنگ

ممکنہ جیل بریک کی کوششوں سے پہلے رہنے کے لیے خطرے کی انٹیلی جنس کا اشتراک ایک لازمی عمل ہے۔ محققین اور ڈویلپرز اجتماعی طور پر ابھرتے ہوئے خطرات، حملے کی تکنیکوں اور کمزوریوں کے بارے میں معلومات کا تبادلہ کرکے بڑے زبان کے ماڈلز کی حفاظت کو بڑھا سکتے ہیں۔ یہ باہمی تعاون ممکنہ خطرات کے لیے ایک فعال ردعمل کی اجازت دیتا ہے اور مؤثر انسدادی اقدامات تیار کرنے میں مدد کرتا ہے۔

کمزوریوں کا ذمہ دارانہ انکشاف

کمزوریوں کا ذمہ دارانہ انکشاف جیل بریک کے خطرات کو کم کرنے کا ایک اور اہم پہلو ہے۔ جب بڑے زبان کے ماڈلز میں حفاظتی خامیاں یا کمزوریاں دریافت ہوتی ہیں، تو متعلقہ حکام یا تنظیموں کو ان کی اطلاع دینا بہت ضروری ہے۔ یہ کمزوریوں کو دور کرنے اور ممکنہ غلط استعمال کو روکنے کے لیے فوری کارروائی کے قابل بناتا ہے۔ ذمہ دارانہ انکشاف اس بات کو بھی یقینی بناتا ہے کہ وسیع تر AI کمیونٹی ان کمزوریوں سے سیکھ سکتی ہے اور مستقبل میں اسی طرح کے خطرات سے بچانے کے لیے ضروری حفاظتی اقدامات کو نافذ کر سکتی ہے۔

تعاون اور ذمہ دارانہ انکشاف کے کلچر کو فروغ دے کر، AI کمیونٹی اجتماعی طور پر ChatGPT جیسے بڑے لینگویج ماڈلز کی سیکورٹی کو بڑھانے کے لیے کام کر سکتی ہے۔ انڈسٹری کے یہ بہترین طریقے جیل بریک کے خطرات کو کم کرنے میں مدد کرتے ہیں اور محفوظ اور زیادہ قابل اعتماد AI سسٹمز کی مجموعی ترقی میں اپنا حصہ ڈالتے ہیں۔

نتیجہ

جیل بریکنگ بڑی زبان کے ماڈلز کے لیے اہم خطرات کا باعث بنتی ہے، بشمول غلط معلومات پیدا کرنا، جارحانہ نتائج، اور رازداری کے خدشات۔ ان خطرات کو کم کرنے کے لیے ایک کثیر جہتی نقطہ نظر کی ضرورت ہے، بشمول محفوظ ماڈل ڈیزائن، مضبوط تربیتی تکنیک، محفوظ تعیناتی کی حکمت عملی، اور رازداری کے تحفظ کے اقدامات۔ جیل بریک کم کرنے کی حکمت عملیوں، باہمی تعاون کی کوششوں، اور LLMs کا ذمہ دارانہ استعمال کا جائزہ لینا اور جانچنا زبان کے ان طاقتور ماڈلز کی وشوسنییتا، حفاظت اور اخلاقی استعمال کو یقینی بنانے کے لیے ضروری ہے۔ بہترین طریقوں پر عمل کرکے اور چوکس رہنے سے، ہم جیل بریک کے خطرات کو کم کر سکتے ہیں اور مثبت اور اثر انگیز ایپلی کیشنز کے لیے LLMs کی مکمل صلاحیت کو بروئے کار لا سکتے ہیں۔

ٹائم اسٹیمپ:

سے زیادہ تجزیات ودھیا