AI میں اس ہفتہ، 18 اگست: مالی پریشانی میں OpenAI • Stability AI نے StableCode - KDnuggets کا اعلان کیا

AI میں اس ہفتہ، 18 اگست: مالی پریشانی میں OpenAI • استحکام AI نے StableCode کا اعلان کیا – KDnuggets

ماخذ نوڈ: 2833080

### ALT ###
تصویر مڈجرنی کے ساتھ ایڈیٹر نے بنائی
 

KDnuggets پر "This Week in AI" کے اس ہفتے کے ایڈیشن میں خوش آمدید۔ اس کیوریٹ شدہ ہفتہ وار پوسٹ کا مقصد آپ کو مصنوعی ذہانت کی تیزی سے ترقی کرتی دنیا میں سب سے زیادہ زبردست پیش رفت سے باخبر رکھنا ہے۔ معاشرے میں AI کے کردار کے بارے میں ہماری سمجھ کو تشکیل دینے والی اہم سرخیوں سے لے کر فکر انگیز مضامین، بصیرت انگیز سیکھنے کے وسائل، اور ہمارے علم کی حدود کو آگے بڑھانے والی نمایاں تحقیق تک، یہ پوسٹ AI کے موجودہ منظر نامے کا ایک جامع جائزہ فراہم کرتی ہے۔ یہ ہفتہ وار اپ ڈیٹ آپ کو اس مسلسل ترقی پذیر فیلڈ میں اپ ڈیٹ اور باخبر رکھنے کے لیے ڈیزائن کیا گیا ہے۔ دیکھتے رہیں اور پڑھ کر خوش رہیں!

 
"ہیڈ لائنز" سیکشن مصنوعی ذہانت کے شعبے میں پچھلے ہفتے کی سرفہرست خبروں اور پیشرفت پر تبادلہ خیال کرتا ہے۔ معلومات سرکاری AI پالیسیوں سے لے کر تکنیکی ترقی اور AI میں کارپوریٹ اختراعات تک ہیں۔

 
💡 چیٹ جی پی ٹی مشکل میں: اوپن اے آئی 2024 تک دیوالیہ ہو سکتی ہے، اے آئی بوٹ کمپنی کو ہر روز $700,000 خرچ کرتی ہے۔

اوپن اے آئی کو ChatGPT اور دیگر AI سروسز چلانے کے زیادہ اخراجات کی وجہ سے مالی پریشانی کا سامنا ہے۔ تیز رفتار ترقی کے باوجود، حالیہ مہینوں میں ChatGPT کے صارف کی تعداد میں کمی آئی ہے۔ OpenAI اپنی ٹیکنالوجی کو مؤثر طریقے سے منیٹائز کرنے اور پائیدار آمدنی پیدا کرنے کے لیے جدوجہد کر رہا ہے۔ دریں اثنا، یہ خطرناک شرح سے نقدی کے ذریعے جلتا رہتا ہے۔ مسابقت میں اضافہ اور انٹرپرائز GPU کی کمی ماڈل کی ترقی میں رکاوٹ کے ساتھ، OpenAI کو فوری طور پر منافع کے راستے تلاش کرنے کی ضرورت ہے۔ اگر یہ ایسا کرنے میں ناکام رہتا ہے تو، AI کے ابتدائی آغاز کے لیے دیوالیہ پن ہو سکتا ہے۔

 
💡 Stability AI نے StableCode کا اعلان کیا، جو ڈیولپرز کے لیے ایک AI کوڈنگ اسسٹنٹ ہے۔

Stability AI نے StableCode جاری کیا ہے، اس کا پہلا جنریٹو AI پروڈکٹ سافٹ ویئر ڈویلپمنٹ کے لیے موزوں ہے۔ StableCode 500 بلین سے زیادہ کوڈ کے ٹوکنز پر تربیت یافتہ متعدد ماڈلز کو شامل کرتا ہے تاکہ ذہین خودکار تکمیل فراہم کی جا سکے، قدرتی زبان کی ہدایات کا جواب دیا جا سکے، اور کوڈ کی طویل مدت کا نظم کیا جا سکے۔ اگرچہ بات چیت کا AI پہلے سے ہی کوڈ لکھ سکتا ہے، StableCode کو کوڈ کی ساخت اور انحصار کو سمجھ کر پروگرامر کی پیداواری صلاحیت کو بڑھانے کے لیے مقصد سے بنایا گیا ہے۔ اپنی خصوصی تربیت اور ماڈلز کے ساتھ جو طویل سیاق و سباق کو سنبھال سکتے ہیں، StableCode کا مقصد ڈویلپر کے کام کے بہاؤ کو بڑھانا اور خواہشمند کوڈرز کے داخلے میں رکاوٹ کو کم کرنا ہے۔ لانچ خلا میں بڑھتے ہوئے مسابقت کے درمیان AI کی مدد سے کوڈنگ ٹولز میں استحکام AI کی پیش قدمی کی نمائندگی کرتا ہے۔

 
💡 اوپن اے آئی کی طرف سے سپر الائنمنٹ کا تعارف

OpenAI اپنی نئی Superalignment ٹیم کے ذریعے سپر انٹیلیجنٹ AI سے ممکنہ خطرات سے نمٹنے کے لیے فعال طور پر کام کر رہا ہے، جو AI سسٹمز کو سیدھ میں لانے کے لیے انسانی تاثرات سے کمک سیکھنے جیسی تکنیکوں کا استعمال کر رہی ہے۔ کلیدی اہداف دیگر AI نظاموں سے فائدہ اٹھاتے ہوئے توسیع پذیر تربیتی طریقوں کو تیار کرنا، ماڈل کی مضبوطی کی توثیق کرنا، اور جان بوجھ کر غلط ترتیب والے ماڈلز کے ساتھ بھی مکمل الائنمنٹ پائپ لائن کی جانچ کرنا۔ مجموعی طور پر، OpenAI کا مقصد یہ دکھانا ہے کہ سپر انٹیلی جنس کو ذمہ دارانہ طریقے سے چلانے کے لیے پیش قدمی کے ذریعے مشین لرننگ کو محفوظ طریقے سے انجام دیا جا سکتا ہے۔

 
💡 تخلیقی AI کا استعمال کرتے ہوئے جب آپ تلاش کریں (اور براؤز کریں) سیکھیں۔

گوگل اپنی سرچ انجن جنریشن (SGE) AI صلاحیتوں کے لیے متعدد اپ ڈیٹس کا اعلان کر رہا ہے جس میں سائنس/ہسٹری کے موضوعات کے لیے ہوور ڈیفینیشنز، کوڈ کے جائزہ کے لیے کلر کوڈڈ نحو کو نمایاں کرنا، اور "براؤزنگ کے دوران SGE" نامی ایک ابتدائی تجربہ جو کلیدی نکات کا خلاصہ کرتا ہے اور صارفین کی مدد کرتا ہے۔ ویب پر طویل شکل کا مواد پڑھتے وقت صفحات کو دریافت کریں۔ ان کا مقصد پیچیدہ موضوعات کی سمجھ کو بڑھانا، کوڈنگ کی معلومات کے عمل انہضام کو بہتر بنانا، اور صارفین کو براؤز کرتے وقت نیویگیشن اور سیکھنے میں مدد کرنا ہے۔ اپ ڈیٹس صارف کے تاثرات کی بنیاد پر اپنے AI تلاش کے تجربے کو تیار کرنے کے لیے گوگل کی مسلسل کوششوں کی نمائندگی کرتی ہیں، جس میں فہم اور پیچیدہ ویب مواد سے کلیدی تفصیلات نکالنے پر توجہ دی جاتی ہے۔

 
💡 Together.ai Llama2 کو 32k سیاق و سباق کی ونڈو تک بڑھاتا ہے۔

LLaMA-2-7B-32K ایک اوپن سورس، لمبی سیاق و سباق کی زبان کا ماڈل ہے جسے Together Computer نے تیار کیا ہے جو Meta کے LLaMA-2 کے سیاق و سباق کی لمبائی کو 32K ٹوکن تک بڑھاتا ہے۔ یہ FlashAttention-2 جیسی اصلاح کا فائدہ اٹھاتا ہے تاکہ زیادہ موثر اندازے اور تربیت کو قابل بنایا جاسکے۔ ماڈل کو کتابوں، کاغذات، اور تدریسی ڈیٹا سمیت ڈیٹا کے مرکب کا استعمال کرتے ہوئے پہلے سے تربیت دی گئی تھی۔ لمبی شکل والے QA اور خلاصہ کے کاموں کو ٹھیک کرنے کے لیے مثالیں فراہم کی گئی ہیں۔ صارفین Hugging Face کے ذریعے ماڈل تک رسائی حاصل کر سکتے ہیں یا اپنی مرضی کے مطابق فائن ٹیوننگ کے لیے OpenChatKit استعمال کر سکتے ہیں۔ تمام زبان کے ماڈلز کی طرح، LLaMA-2-7B-32K متعصب یا غلط مواد تیار کر سکتا ہے، استعمال میں احتیاط کی ضرورت ہے۔

 
"مضامین" سیکشن مصنوعی ذہانت پر فکر انگیز ٹکڑوں کی ایک صف پیش کرتا ہے۔ ہر مضمون ایک مخصوص موضوع میں گہرائی میں ڈوبتا ہے، قارئین کو AI کے مختلف پہلوؤں کے بارے میں بصیرت پیش کرتا ہے، بشمول نئی تکنیک، انقلابی نقطہ نظر، اور زمین کو توڑنے والے اوزار۔

 
📰 لینگ چین چیٹ شیٹ

LangChain کے ساتھ، ڈویلپرز پہیے کو دوبارہ ایجاد کیے بغیر قابل AI زبان پر مبنی ایپس بنا سکتے ہیں۔ اس کا کمپوز ایبل ڈھانچہ ایل ایل ایم، پرامپٹ ٹیمپلیٹس، بیرونی ٹولز اور میموری جیسے اجزاء کو ملانا اور ملانا آسان بناتا ہے۔ یہ پروٹو ٹائپنگ کو تیز کرتا ہے اور وقت کے ساتھ نئی صلاحیتوں کے ہموار انضمام کی اجازت دیتا ہے۔ چاہے آپ چیٹ بوٹ، QA بوٹ، یا ملٹی سٹیپ ریجننگ ایجنٹ بنانے کے خواہاں ہوں، LangChain اعلی درجے کی AI کو تیزی سے جمع کرنے کے لیے بلڈنگ بلاکس فراہم کرتا ہے۔

 
📰 ٹیکسٹ کو پاورپوائنٹ پریزنٹیشن میں تبدیل کرنے کے لیے ChatGPT کا استعمال کیسے کریں۔

مضمون میں متن کو پاورپوائنٹ پریزنٹیشن میں تبدیل کرنے کے لیے ChatGPT کے استعمال کے لیے دو قدمی عمل کا خاکہ پیش کیا گیا ہے، پہلے متن کا خلاصہ سلائیڈ کے عنوانات اور مواد میں، پھر Python-pptx لائبریری کا استعمال کرتے ہوئے سمری کو PPTX فارمیٹ میں تبدیل کرنے کے لیے Python کوڈ تیار کرنا۔ یہ لمبے ٹیکسٹ دستاویزات سے پرجوش پیشکشوں کو تیزی سے تخلیق کرنے کی اجازت دیتا ہے، تھکا دینے والی دستی کوششوں پر قابو پا کر۔ پریزنٹیشن کی ضروریات کے لیے ایک موثر خودکار حل پیش کرتے ہوئے ChatGPT پرامپٹس کو تیار کرنے اور کوڈ کو چلانے کے لیے واضح ہدایات فراہم کی گئی ہیں۔

 
📰 ایل ایل ایم ریسرچ میں کھلے چیلنجز

یہ مضمون بڑے زبان کے ماڈلز کو بہتر بنانے کے لیے 10 کلیدی تحقیقی ہدایات کا جائزہ فراہم کرتا ہے: فریب کاری کو کم کرنا، سیاق و سباق کی لمبائی/تعمیر کو بہتر بنانا، ملٹی موڈل ڈیٹا کو شامل کرنا، ماڈلز کو تیز کرنا، نئے فن تعمیرات کو ڈیزائن کرنا، GPU متبادلات تیار کرنا جیسے فوٹوونک چپس، قابل استعمال ایجنٹوں کی تعمیر، سیکھنے کو بہتر بنانا۔ انسانی رائے، چیٹ انٹرفیس کو بڑھانا، اور غیر انگریزی زبانوں تک پھیلانا۔ اس میں ان تمام شعبوں میں متعلقہ کاغذات کا حوالہ دیا گیا ہے، جس میں چیلنجز کو نوٹ کیا گیا ہے جیسے کہ کم وسائل والی زبانوں کے لیے کمک سیکھنے کے لیے انسانی ترجیحات کی نمائندگی کرنا اور ماڈل بنانا۔ مصنف نے یہ نتیجہ اخذ کیا ہے کہ اگرچہ کثیر لسانی جیسے کچھ مسائل زیادہ قابل عمل ہیں، دیگر جیسے فن تعمیر کو مزید پیش رفت کی ضرورت ہوگی۔ مجموعی طور پر، محققین، کمپنیوں اور کمیونٹی میں تکنیکی اور غیر تکنیکی مہارت دونوں LLMs کو مثبت انداز میں چلانے کے لیے اہم ہوں گی۔

 
📰 آپ کو (شاید) ایل ایل ایم کو ٹھیک کرنے کی ضرورت کیوں نہیں ہے۔

یہ مضمون بڑے زبان کے ماڈلز کو بہتر بنانے کے لیے 10 کلیدی تحقیقی ہدایات کا جائزہ فراہم کرتا ہے: فریب کاری کو کم کرنا، سیاق و سباق کی لمبائی/تعمیر کو بہتر بنانا، ملٹی موڈل ڈیٹا کو شامل کرنا، ماڈلز کو تیز کرنا، نئے فن تعمیرات کو ڈیزائن کرنا، GPU متبادلات تیار کرنا جیسے فوٹوونک چپس، قابل استعمال ایجنٹوں کی تعمیر، سیکھنے کو بہتر بنانا۔ انسانی رائے، چیٹ انٹرفیس کو بڑھانا، اور غیر انگریزی زبانوں تک پھیلانا۔ اس میں ان تمام شعبوں میں متعلقہ کاغذات کا حوالہ دیا گیا ہے، جس میں چیلنجز کو نوٹ کیا گیا ہے جیسے کہ کم وسائل والی زبانوں کے لیے کمک سیکھنے کے لیے انسانی ترجیحات کی نمائندگی کرنا اور ماڈل بنانا۔ مصنف نے یہ نتیجہ اخذ کیا ہے کہ اگرچہ کثیر لسانی جیسے کچھ مسائل زیادہ قابل عمل ہیں، دیگر جیسے فن تعمیر کو مزید پیش رفت کی ضرورت ہوگی۔ مجموعی طور پر، محققین، کمپنیوں اور کمیونٹی میں تکنیکی اور غیر تکنیکی مہارت دونوں LLMs کو مثبت انداز میں چلانے کے لیے اہم ہوں گی۔

 
📰 OpenAI GPT ماڈل استعمال کرنے کے بہترین طریقے

یہ مضمون کمیونٹی کے تجربے پر روشنی ڈالتے ہوئے OpenAI کے GPT ماڈلز کا استعمال کرتے ہوئے اعلیٰ معیار کے نتائج حاصل کرنے کے بہترین طریقوں کا خاکہ پیش کرتا ہے۔ یہ لمبائی اور شخصیت جیسی تفصیلات کے ساتھ تفصیلی اشارے فراہم کرنے کی سفارش کرتا ہے۔ کثیر مرحلہ ہدایات؛ نقل کرنے کے لیے مثالیں؛ حوالہ جات اور حوالہ جات؛ تنقیدی سوچ کے لیے وقت؛ اور درستگی کے لیے کوڈ پر عمل درآمد۔ ماڈلز کو ہدایت دینے کے بارے میں ان نکات پر عمل کرنا، جیسے کہ اقدامات اور شخصیات کی وضاحت کرنا، زیادہ درست، متعلقہ اور حسب ضرورت نتائج کا باعث بن سکتا ہے۔ رہنمائی کا مقصد اوپن اے آئی کی طاقتور جنریٹو صلاحیتوں سے زیادہ سے زیادہ فائدہ اٹھانے کے لیے صارفین کو مؤثر طریقے سے اشارے کی ساخت میں مدد کرنا ہے۔

 
📰 ہم سب AI کے بارے میں غلط ہیں۔

مصنف کا استدلال ہے کہ عام غلط فہمیوں کا مقابلہ کرنے کے لیے تخلیقی صلاحیتوں، تلاش اور ذاتی نوعیت کی مثالوں کا استعمال کرتے ہوئے موجودہ AI صلاحیتوں کو کم سمجھا جاتا ہے۔ وہ بتاتا ہے کہ AI تصورات کو دوبارہ ملا کر تخلیقی ہو سکتا ہے، نہ کہ محض بے ترتیب خیالات پیدا کر کے؛ یہ صرف گوگل جیسا سپر چارجڈ سرچ انجن نہیں ہے۔ اور یہ ذاتی نوعیت کے تعلقات کو فروغ دے سکتا ہے، نہ کہ صرف عمومی مہارت۔ اگرچہ اس بات کا یقین نہیں ہے کہ کون سی ایپلی کیشنز سب سے زیادہ کارآمد ثابت ہوں گی، مصنف مسترد کرنے کی بجائے کھلے ذہن پر زور دیتا ہے، اس بات پر زور دیتے ہوئے کہ AI کی صلاحیت کا تعین کرنے کا بہترین طریقہ مسلسل تلاش کرنا ہے۔ وہ یہ نتیجہ اخذ کرتا ہے کہ AI کے ارد گرد ہماری تخیل محدود ہے اور اس کے استعمال کا امکان موجودہ پیشین گوئیوں سے کہیں زیادہ ہے۔

 
"ٹولز" سیکشن ان لوگوں کے لیے مفید ایپس اور اسکرپٹس کی فہرست دیتا ہے جو کمیونٹی کے ذریعے تخلیق کی گئی ہیں جو عملی AI ایپلی کیشنز میں مصروف رہنا چاہتے ہیں۔ یہاں آپ کو ٹول کی قسموں کی ایک رینج ملے گی، بڑے جامع کوڈ بیس سے لے کر چھوٹے طاق اسکرپٹس تک۔ نوٹ کریں کہ ٹولز کا اشتراک بغیر توثیق کے، اور کسی بھی قسم کی ضمانت کے بغیر کیا جاتا ہے۔ انسٹال کرنے اور استعمال کرنے سے پہلے کسی بھی سافٹ ویئر پر اپنا ہوم ورک کریں!

 
۔ میٹا جی پی ٹی: ملٹی ایجنٹ فریم ورک

میٹا جی پی ٹی ان پٹ کے طور پر ایک لائن کی ضرورت لیتا ہے اور صارف کی کہانیوں / مسابقتی تجزیہ / ضروریات / ڈیٹا ڈھانچے / APIs / دستاویزات وغیرہ کو آؤٹ پٹ کرتا ہے۔ یہ ایک سافٹ ویئر کمپنی کا پورا عمل فراہم کرتا ہے اور اس کے ساتھ احتیاط سے ترتیب شدہ ایس او پیز بھی فراہم کرتا ہے۔

 
۔ جی پی ٹی ایل ایل ایم ٹرینر

اس پروجیکٹ کا مقصد ایک اعلی کارکردگی کا مظاہرہ کرنے والے کام کے مخصوص ماڈل کو تربیت دینے کے لیے ایک تجرباتی نئی پائپ لائن کو تلاش کرنا ہے۔ ہم تمام پیچیدگیوں کو دور کرنے کی کوشش کرتے ہیں، لہذا خیال -> پرفارمنس مکمل طور پر تربیت یافتہ ماڈل سے جانا ہر ممکن حد تک آسان ہے۔

بس اپنے کام کی تفصیل درج کریں، اور سسٹم شروع سے ڈیٹا سیٹ تیار کرے گا، اسے صحیح فارمیٹ میں پارس کرے گا، اور آپ کے لیے LLaMA 2 ماڈل کو ٹھیک بنائے گا۔

 
۔ ڈاکٹر جی پی ٹی

ڈاکٹر جی پی ٹی ایک بڑی زبان کا ماڈل ہے جو یو ایس میڈیکل لائسنسنگ کا امتحان پاس کر سکتا ہے۔ یہ ایک اوپن سورس پروجیکٹ ہے جس کا مشن ہر ایک کو اپنا ذاتی ڈاکٹر فراہم کرنا ہے۔ DoctorGPT میٹا کے Llama2 7 بلین پیرامیٹر لارج لینگویج ماڈل کا ایک ورژن ہے جسے میڈیکل ڈائیلاگ ڈیٹاسیٹ پر ٹھیک بنایا گیا تھا، پھر Reinforcement Learning & Constitutional AI کا استعمال کرتے ہوئے مزید بہتر کیا گیا۔ چونکہ ماڈل کا سائز صرف 3 گیگا بائٹس ہے، یہ کسی بھی مقامی ڈیوائس پر فٹ بیٹھتا ہے، اس لیے اسے استعمال کرنے کے لیے کسی API کو ادا کرنے کی ضرورت نہیں ہے۔

 
 

ٹائم اسٹیمپ:

سے زیادہ KDnuggets