TinyLlama 1.1B - سائز سے کوئی فرق نہیں پڑتا ہے۔

TinyLlama 1.1B - سائز سے کوئی فرق نہیں پڑتا ہے۔

ماخذ نوڈ: 3081711

تعارف

مصنوعی ذہانت اور مشین لرننگ کے تیزی سے بڑھتے ہوئے منظرنامے میں، TinyLlama 1.1B ایک قابل ذکر ترقی کے طور پر ابھرتا ہے۔ ایک ایسے دور میں جہاں کمپیوٹیشنل رکاوٹیں زیادہ پیچیدہ ماڈلز کو چلانے کے لیے چیلنجز کا باعث بنتی ہیں، TinyLlama توقعات کے برعکس کھڑا ہے۔ یہ کمپیکٹ ماڈلز کی شاندار کارکردگی کو ظاہر کرتا ہے۔

اس مضمون کا مقصد TinyLlama 1.1B کا تجزیہ فراہم کرنا ہے، جو کہ ایک کمپیکٹ بڑی زبان کا ماڈل ہے۔ ہم اس کے بنیادی پہلوؤں کا جائزہ لیں گے، جیسے کہ اسے کس طرح پرفارمنس بینچ مارکس اور ہیگنگ فیس پلیٹ فارم کا استعمال کرتے ہوئے عملی نفاذ میں تربیت دی گئی۔ ہم اس ماڈل کو مفت Google Colab پر بھی چلائیں گے اور اس کی ریاضی اور استدلال کی صلاحیتوں کی جانچ کریں گے۔

TinyLlama 1.1B

سیکھنے کے مقاصد

  • TinyLlama 1.1B کی جامع تفہیم حاصل کریں۔
  • اس پیچیدہ تربیتی عمل کو دریافت کریں جس سے ماڈل گزرا ہے۔
  • اس کی افادیت کا اندازہ لگانے کے لیے کارکردگی اور بینچ مارک کے نتائج کا تجزیہ کریں۔
  • کوڈنگ کی مثالوں کا استعمال کرتے ہوئے TinyLlama 1.1B کو نافذ کرنے کے عملی اقدامات سیکھیں۔

اس مضمون کے ایک حصے کے طور پر شائع کیا گیا تھا۔ ڈیٹا سائنس بلاگتھون۔

فہرست

TinyLlama 1.1B کیا ہے؟

TinyLlama 1.1B، وسیع تر Llama پروجیکٹ کا ایک حصہ، زبان کی ماڈلنگ کی ترقی کا ثبوت ہے۔ یہ 1.1 بلین پیرامیٹرز کے ساتھ ایک ماڈل ہے، جو 3 ٹریلین ٹوکنز پر تربیت یافتہ ہے، جو اسے AI منظر نامے میں ایک منفرد مقام پر رکھتا ہے۔ اس کے بڑے ہم منصبوں کے برعکس، TinyLlama 1.1B کو زیادہ موثر اور قابل انتظام بنانے کے لیے ڈیزائن کیا گیا ہے، یہ محدود کمپیوٹیشنل وسائل کے ساتھ ایپلی کیشنز کے لیے ایک اچھا انتخاب ہے۔

یہ اوپن سورس ماڈل جدید ترین AI ٹیکنالوجی تک رسائی کو جمہوری بناتا ہے، جس سے بہت سے ڈویلپرز اور محققین قدرتی زبان کی پروسیسنگ کے شعبے میں دریافت اور اختراعات کر سکتے ہیں۔ یہ ایک ایسا ماڈل ہے جو وسائل کی کھپت کے ساتھ کارکردگی کو متوازن کرنے کی صلاحیت کے لیے جانا جاتا ہے، جو آج کے متنوع کمپیوٹیشنل ماحول میں ایک اہم خیال ہے۔

TinyLlama 1.1B کی تربیت کا عمل

TinyLlama 1.1B کی تربیت کا عمل خود ماڈل کی طرح دلکش ہے۔ TinyLlama کی تربیت صرف 90 دنوں کے لیے ہوئی، 16 A100-40G GPUs پر تربیت دی گئی۔ پہلے سے تربیت 3 ٹریلین ٹوکنز پر کی گئی تھی، اور TinyLlama ٹیم نے ہر نصف ٹریلین کے درمیان انٹرمیڈیٹ ماڈل شائع کیا ہے۔ 

جہاں تک ڈیٹا کا تعلق ہے، Slimpajama اور Starcoderdata کو 950 بلین ٹوکنز کے مشترکہ ڈیٹا سیٹ کے ساتھ لیا گیا تھا۔ قدرتی زبان سے کوڈ کا تناسب 7:3 پر رکھا گیا تھا، یعنی 70% ڈیٹا قدرتی زبان تھا، اور 30% کوڈ تھا۔ اس طرح، فائن ٹیوننگ کے لیے 3 ٹریلین ٹوکن کا نشان حاصل کرنے کے لیے، TinyLlama نے اس ڈیٹا سیٹ کے لیے 3 دوروں کی تربیت حاصل کی۔ 

یہاں تک کہ TinyLlama کا ایک چیٹ ورژن بھی ہے جسے TinyLlama-Chat کہا جاتا ہے۔ ابتدائی طور پر، یہ ماڈل الٹرا چیٹ ڈیٹاسیٹ پر فائن ٹیوننگ سے گزرا، جس میں چیٹ جی پی ٹی کی طرف سے تیار کردہ متنوع مصنوعی گفتگو ہوتی ہے۔ یہ قدم مختلف بات چیت کے سیاق و سباق اور انداز کو سنبھالنے کے لیے ماڈل بنانے میں اہم تھا۔

الٹرا فیڈ بیک ڈیٹاسیٹ پر DPOTrainer کا استعمال کرتے ہوئے مزید تطہیر حاصل کی گئی۔ اس تربیتی مرحلے نے ماڈل کے ردعمل کو انسان نما گفتگو کے نمونوں کے ساتھ سیدھ میں لانے پر توجہ مرکوز کی۔ نتیجہ ایک ایسا ماڈل ہے جو نہ صرف مختلف عنوانات پر معلومات کو سمجھتا ہے بلکہ قدرتی اور پرکشش طریقے سے بھی بات چیت کرتا ہے۔

آپ بھی پڑھ سکتے ہیں: LlaMA 2 کے ساتھ شروعات کرنا: ایک ابتدائی رہنما

کارکردگی اور بینچ مارک کے نتائج

TinyLlama 1.1B کی کارکردگی کا جائزہ لینے سے اس کی اعلیٰ معیار کے ردعمل کو تیزی سے فراہم کرنے کی صلاحیت کا پتہ چلتا ہے۔ اس کی تربیت نے اسے کثیر لسانی ایپلی کیشنز کو پورا کرنے کی صلاحیت سے نوازا ہے، جو ہماری عالمگیریت کی دنیا میں ایک اہم خصوصیت ہے۔ اپنے چھوٹے سائز کے باوجود، TinyLlama 1.1B اب بھی ردعمل کے معیار اور رفتار کے حوالے سے اپنے بڑے ہم منصبوں کو پکڑ رہا ہے، جو اسے مختلف AI ایپلی کیشنز میں ایک طاقتور ٹول بنا رہا ہے۔

TinyLlama 1.1B کے بینچ مارکس، جب کہ بڑے ماڈلز کے مقابلے کم وسیع ہیں، پھر بھی پیچیدہ زبان کے کاموں کو سنبھالنے میں اس کی مہارت کو ظاہر کرتے ہیں۔ متعدد زبانوں میں مربوط اور سیاق و سباق سے متعلقہ ردعمل پیدا کرنے کی اس کی صلاحیت خاص طور پر متاثر کن ہے۔ ماڈل کو مختلف بینچ مارکس جیسے HellaSwag، WinoGrande، ARC، MMLU، اور دیگر پر آزمایا گیا۔ مشترکہ اوسط اسکور 52.99 نکلا۔ یہ دوسرے 1 بلین پیرامیٹر ماڈل سے بہتر ہے، یعنی Pythia 1B، جس نے 48.3 کا اوسط سکور حاصل کیا۔ جدول ہر بینچ مارک کے انفرادی اسکور کو ظاہر کرتا ہے۔

معیار TinyLlama 1.1B سکور
HellaSwag 59.2
اوبقا 36.0
WinoGrande 59.12
ARC_c 30.12
ARC_e 55.25
boolq 57.83
piqa 73.29
اوسط 52.9

TinyLlama - شروع کرنا

یہاں، اس سیکشن میں، ہم TinyLlama Chat کا کوانٹائزڈ ورژن ڈاؤن لوڈ کریں گے اور اسے Google Colab میں چلائیں گے۔ ماڈل ڈاؤن لوڈ کرنے سے پہلے، ہمیں مندرجہ ذیل Python پیکجز کو ڈاؤن لوڈ اور انسٹال کرنا ہوگا۔

!CMAKE_ARGS="-DLLAMA_CUBLAS=on" FORCE_CMAKE=1 pip3 install llama-cpp-python 
!pip3 install huggingface-hub 
  • ۔ CMAKE_ARGS=”-DLLAMA_CUBLAS=on” اور FORCE_CMAKE=1, llama_cpp_python کو مفت کولاب ورژن میں دستیاب Nvidia GPU کو استعمال کرنے کی اجازت دے گا۔
  • پھر ہم انسٹال کرتے ہیں۔ llama_cpp_python pip3 کے ذریعے پیکج
  • یہاں تک کہ ہم ڈاؤن لوڈ کریں۔ گلے ملنے کا چہرہ - مرکز، جس کے ساتھ ہم کوانٹائزڈ TinyLlama 1.1B چیٹ ڈاؤن لوڈ کریں گے۔

TinyLlama 1.1B چیٹ ماڈل کو جانچنے کے لیے، ہمیں پہلے اس کا کوانٹائزڈ ورژن ڈاؤن لوڈ کرنا ہوگا۔ اسے ڈاؤن لوڈ کرنے کے لیے، ہم درج ذیل کوڈ کو چلائیں گے۔

from huggingface_hub import hf_hub_download

# specifying the model name
model_name = "TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF"
# specifying the type of quantization of the model
model_file = "tinyllama-1.1b-chat-v1.0.Q8_0.gguf"

# download the model by specifying the model name and quantized model name
model_path = hf_hub_download(model_name, filename=model_file)

یہاں، گلے لگانا_چہرہ_ہب لائبریری کوانٹائزڈ ماڈل کو ڈاؤن لوڈ کرنے کے عمل کا خیال رکھے گی۔ اس کے لیے ہم درآمد کرتے ہیں۔ hf_hub_download جو درج ذیل پیرامیٹرز میں لیتا ہے:

  • ماڈل_نام: اس متغیر میں، ہم اس ماڈل کو پاس کرتے ہیں جسے ہم ڈاؤن لوڈ کرنا چاہتے ہیں۔ یہاں ہم TinyLlama 1.1B Chat GGUF ماڈل ڈاؤن لوڈ کرنا چاہتے ہیں۔
  • ماڈل_فائل: یہاں ہم کوانٹائزڈ ماڈل کی قسم بتاتے ہیں جسے ہم ڈاؤن لوڈ کرنا چاہتے ہیں۔ یہاں ہم TinyLlama 8B چیٹ کا 1.1 بٹ کوانٹائزڈ ورژن ڈاؤن لوڈ کریں گے۔
  • آخر میں، ہم ان پیرامیٹرز کو پاس کرتے ہیں۔ hf_hub_download، جو ان پیرامیٹرز میں لیتا ہے اور مخصوص ماڈل کو ڈاؤن لوڈ کرتا ہے۔ ڈاؤن لوڈ کرنے کے بعد، یہ وہ راستہ لوٹاتا ہے جہاں ماڈل ڈاؤن لوڈ کیا گیا ہے۔
  • واپس آنے والا یہ راستہ میں محفوظ کیا جا رہا ہے۔ ماڈل_پاتھ متغیر.

اب، ہم اس ماڈل کو کے ذریعے لوڈ کر سکتے ہیں۔ llama_cpp_python کتب خانہ. ماڈل کو لوڈ کرنے کا کوڈ نیچے کی طرح ہوگا۔

from llama_cpp import Llama
llm = Llama(
    model_path=model_path,
    n_ctx=512,  # the number of i/p tokens the model can take
    n_threads=8, # the number of threads to use
    n_gpu_layers=40# how many layers of the model to offload to the GPU
)

ہم درآمد کرتے ہیں۔ لاما سے کلاس llama_cpp، جو درج ذیل پیرامیٹرز میں لیتا ہے۔

  • ماڈل_پاتھ: یہ متغیر اس راستے میں لے جاتا ہے جہاں ہمارا ماڈل محفوظ ہوتا ہے۔ ہم نے پچھلے مرحلے سے راستہ حاصل کیا ہے، جسے ہم یہاں فراہم کریں گے۔
  • n_ctx: یہاں، ہم ماڈل کے لیے سیاق و سباق کی لمبائی دیتے ہیں۔ ابھی کے لیے، ہم سیاق و سباق کی لمبائی کے طور پر 512 ٹوکن فراہم کر رہے ہیں۔
  • n_threads: یہاں ہم دھاگوں کی تعداد کا تذکرہ کرتے ہیں جن کے ذریعے استعمال کیا جائے گا۔ لاما طبقے
  • n_gpu_layers: ہم اس کی وضاحت کرتے ہیں اگر ہمارے پاس چل رہا GPU ہے، جو ہم مفت کولاب کی صورت میں کرتے ہیں۔ اس کے لیے، ہم 40 پاس کرتے ہیں، جس کا مطلب ہے کہ ہم پورے ماڈل کو GPU میں آف لوڈ کرنا چاہتے ہیں اور نہیں چاہتے کہ اس کا کوئی حصہ سسٹم RAM میں چلے۔
  • آخر میں، ہم اس سے ایک آبجیکٹ بناتے ہیں۔ لاما کلاس کریں اور اسے متغیر ایل ایل ایم کو دیں۔

اس کوڈ کو چلانے سے TinyLlama 1.1B چیٹ کوانٹائزڈ ماڈل GPU پر لوڈ ہو جائے گا اور مناسب سیاق و سباق کی لمبائی سیٹ ہو جائے گی۔ اب، اس ماڈل پر کچھ قیاس آرائیاں کرنے کا وقت آگیا ہے۔ اس کے لیے، ہم ذیل کے کوڈ کے ساتھ کام کرتے ہیں۔

output = llm(
  "<|im_start|>usernWho are you?<|im_end|>n<|im_start|>assistantn", # User Prompt
  max_tokens=512,  # Number of output tokens generated
  stop=["</s>"],   # Token which tells the LLM to stop
)
print(output['choices'][0]['text']) # Model generated text

ماڈل کا اندازہ لگانے کے لیے، ہم درج ذیل پیرامیٹرز کو LLM میں منتقل کرتے ہیں:

  • پرامپٹ/چیٹ ٹیمپلیٹ: یہ ماڈل کے ساتھ چیٹ کرنے کے لیے درکار پرامپٹ ٹیمپلیٹ ہے۔ مذکورہ بالا سانچہ(یعنی ، ) وہ ہے جو TinyLlama 1.1B چیٹ ماڈل کے لیے کام کرتا ہے۔ ٹیمپلیٹ میں، صارف کے بعد کا جملہ یوزر پرامپٹ ہے، اور اسسٹنٹ کے بعد جنریشن تیار کی جائے گی۔
  • max_tokens: اس متغیر کے لیے، ہم ایک قدر پاس کرتے ہیں جو ٹوکنز کی زیادہ سے زیادہ تعداد کی وضاحت کرتی ہے جب ایک پرامپٹ دیا جاتا ہے تو ایک بڑی زبان کا ماڈل آؤٹ پٹ کر سکتا ہے۔ ابھی کے لیے، ہم اسے 512 ٹوکن تک محدود کر رہے ہیں۔
  • بند کرو اس متغیر کو، ہم سٹاپ ٹوکن پاس کرتے ہیں۔ سٹاپ ٹوکن Large Language Model کو مزید ٹوکن بنانا بند کرنے کے لیے کہتا ہے۔ TinyLlama 1.1B چیٹ کے لیے، سٹاپ ٹوکن ہے۔

جب ہم اسے چلاتے ہیں تو تیار کردہ ٹیکسٹ آؤٹ پٹ ویری ایبل میں محفوظ ہوجاتا ہے۔ نتیجہ OpenAI API کال کی طرح کی شکل میں تیار کیا جاتا ہے۔ لہذا، ہم دیے گئے پرنٹ اسٹیٹمنٹ کے ذریعے جنریشن تک رسائی حاصل کر سکتے ہیں، جیسا کہ ہم OpenAI کے جوابات سے جنریشن تک رسائی حاصل کرتے ہیں۔ تیار کردہ آؤٹ پٹ نیچے دیکھی جا سکتی ہے۔

TinyLlama 1.1B

اس سائز کے ماڈل کے لیے، اس کا پیدا کردہ ردعمل اعلیٰ ترین ہے۔ اس سائز کے ماڈل سے یہ غیر متوقع ہے۔ گرامر اور لہجہ بالکل ٹھیک نظر آتے ہیں، اور جملوں کی تکرار کا کوئی نشان نہیں ہے۔ آئیے ماڈل کی استدلال کی صلاحیتوں کو جانچنے کی کوشش کرتے ہیں۔

output = llm(
  "<|im_start|>usernIf all students who study hard get good grades, 
  and John got good grades, can we conclude that John studied hard?
  <|im_end|>n<|im_start|>assistantn",
  max_tokens=512,
  stop=["</s>"],
)


print(output['choices'][0]['text'])
TinyLlama 1.1B
output = llm(
  "<|im_start|>usernHow fast can a snake fly?n<|im_end|>n<|im_start|>assistantn",
  max_tokens=512,
  stop=["</s>"],
)


print(output['choices'][0]['text'])
"

اب تک، بہت اچھا. ہم نے جو مثالیں دیکھی ہیں ان سے ماڈل اچھے جوابات تیار کرتا ہے۔ لیکن یہ تمام معاملات میں درست نہیں ہو سکتا ہے کیونکہ ہم اسے صرف محدود تعداد میں سوالات پر آزماتے ہیں۔ آئیے ماڈل کو اس کی ریاضی کی استدلال کی صلاحیتوں پر بھی جانچتے ہیں۔

output = llm(
  "<|im_start|>usernJohn is twice as old as Sarah, and Sarah is three years 
  older than Mary. If Mary is 10 years old, how old is John?n<|im_end|>n<|im_start|>assistantn",
  max_tokens=512,
  stop=["</s>"],
)


print(output['choices'][0]['text'])
"
output = llm(
  "<|im_start|>usernWhat is the missing number in this pattern: 
  1, 4, 9, 16, __, 36?n<|im_end|>n<|im_start|>assistantn",
  max_tokens=512,
  stop=["</s>"],
)


print(output['choices'][0]['text'])
"

ہم نے جو مثالیں دیکھی ہیں، ان سے یہ واضح ہوتا ہے کہ TinyLlamaChat ریاضی میں آسان اہلیت کے سوالات کے جوابات دینے میں انتہائی خراب کارکردگی کا مظاہرہ کرتا ہے۔ یہ متوقع ہے کیونکہ ماڈل کو کسی بھی ریاضی کے ڈیٹاسیٹ پر پہلے سے تربیت نہیں دی گئی تھی۔ جنریشن کے معیار کو ریاضی کے ڈیٹاسیٹ پر فائن ٹیوننگ کرکے بہتر بنایا جا سکتا ہے۔

فائن ٹیوننگ کی طرف آتے ہوئے، TinyLlama ان لوگوں کے لیے ایک بہترین انتخاب ہے جو محدود ہارڈ ویئر کے ساتھ محدود ہیں اور اپنے مخصوص ڈیٹا سیٹ پر بڑی زبان کے ماڈلز کو ٹھیک کرنا چاہتے ہیں۔

ممکنہ استعمال کے کیسز اور ایپلی کیشنز

کے کمپیکٹ سائز کو دیکھتے ہوئے ٹنی لاما، جو 1.1 بلین پیرامیٹرز پر فخر کرتا ہے، اس کی ایپلی کیشنز بنیادی طور پر ایسے ماحول کے لیے موزوں ہوتی ہیں جہاں ہارڈ ویئر کی حدود یا زیادہ کارکردگی کی وجہ سے بڑے ماڈلز ممکن نہ ہوں۔ اس کے سائز کو مدنظر رکھتے ہوئے استعمال کے کچھ مخصوص معاملات یہ ہیں:

موبائل ایپلی کیشنز: TinyLlama کا چھوٹا سائز اسے موبائل ایپس میں ضم کرنے کے لیے ایک اچھا انتخاب بناتا ہے جہاں آن ڈیوائس پروسیسنگ ضروری ہے۔ اس میں لینگویج ٹرانسلیشن ایپس، پرسنل اسسٹنٹ فیچرز، اور چیٹ بوٹس شامل ہیں جو اسمارٹ فونز پر موثر طریقے سے کام کر سکتے ہیں۔

آئی او ٹی ڈیوائسز میں ایمبیڈڈ سسٹمز: انٹرنیٹ آف تھنگز (IoT) فیلڈ میں، کمپیوٹنگ کے وسائل اکثر محدود ہوتے ہیں۔ TinyLlama کو مختلف آلات جیسے سمارٹ ہوم اسسٹنٹس، پہننے کے قابل ٹیک، اور اس طرح کے دوسرے منسلک آلات میں ذہین زبان کی پروسیسنگ کی صلاحیتوں کو شامل کرنے کے لیے استعمال کیا جا سکتا ہے۔

ایج کمپیوٹنگ: ایسی ایپلی کیشنز کے لیے جو مرکزی کلاؤڈ ماحول کے بجائے ماخذ کے قریب ڈیٹا پروسیسنگ سے فائدہ اٹھاتے ہیں، TinyLlama کو مؤثر طریقے سے استعمال کیا جا سکتا ہے۔ اس میں آٹوموٹیو سسٹمز، مینوفیکچرنگ آلات، اور دیگر ایج ڈیوائسز میں ریئل ٹائم لینگویج پروسیسنگ شامل ہے۔

کم وسائل کی زبان کی تحقیق: اس کے چھوٹے سائز اور کم کمپیوٹیشنل تقاضوں کی وجہ سے، TinyLlama لسانی تحقیق میں ایک قابل قدر ٹول ہو سکتا ہے، خاص طور پر کم وسائل والی زبانوں کے لیے جہاں بڑے پیمانے پر ماڈل ٹریننگ ممکن نہیں ہے۔

تعلیمی اوزار: تعلیمی ترتیبات میں، خاص طور پر وہ لوگ جو اعلیٰ درجے کے کمپیوٹنگ وسائل تک محدود رسائی رکھتے ہیں، TinyLlama کو زبان سیکھنے کی ایپس، انٹرایکٹو تعلیمی ٹولز، اور دیگر سیکھنے کے آلات تیار کرنے کے لیے استعمال کیا جا سکتا ہے۔

چھوٹے کاروباروں کے لیے مواد کی تخلیق: محدود وسائل کے حامل چھوٹے کاروبار وسیع کمپیوٹنگ طاقت کی ضرورت کے بغیر TinyLlama کو مواد تیار کرنے کے لیے استعمال کر سکتے ہیں، جیسے پروڈکٹ کی تفصیل، مارکیٹنگ کاپی، اور کسٹمر کی خط و کتابت۔

پروٹو ٹائپنگ اور تجربہ: ڈویلپرز اور محققین جو زبان کے ماڈلز کے ساتھ تجربہ کرنا چاہتے ہیں لیکن اعلیٰ طاقت والے کمپیوٹنگ وسائل تک رسائی نہیں رکھتے ہیں، وہ TinyLlama کو پروٹو ٹائپ اور نئی NLP ایپلیکیشنز تیار کرنے کے لیے استعمال کر سکتے ہیں۔

موثر ڈیٹا تجزیہ: TinyLlama کو متن کے تجزیے اور ڈیٹا نکالنے کے لیے ایسے منظرناموں میں استعمال کیا جا سکتا ہے جہاں فوری اور موثر پروسیسنگ کی ضرورت ہوتی ہے، جیسے کسٹمر کے تاثرات، سروے کے جوابات، یا سوشل میڈیا کے تعاملات کا تجزیہ کرنا۔

نتیجہ

TinyLlama 1.1B AI اور نیچرل لینگویج پروسیسنگ کے میدان میں ہونے والی پیشرفت کا ثبوت ہے۔ اس کی نشوونما اور وسیع پیمانے پر دستیابی زیادہ موثر، چھوٹے، اور فوری انفرنس لینگویج ماڈل بنانے کے لیے بہت ضروری ہے۔ مضبوط کارکردگی کے ساتھ چھوٹے پیرامیٹر فٹ پرنٹ کو متوازن کرتے ہوئے، TinyLlama 1.1B ایپلی کیشنز کی ایک وسیع صف کے لیے طاقتور اور عملی ماڈلز کی اہم ضرورت کو پورا کرتا ہے۔ مختلف کمپیوٹنگ ماحول کے لیے کافی ہلکا ہونے کے ساتھ ساتھ انسان کی طرح زبان کو سمجھنے اور تخلیق کرنے کی اس کی صلاحیت ان لوگوں کے لیے انتخاب کا باعث بنتی ہے جو اپنی مشینوں پر بڑی زبان کے ماڈلز چلانے کے لیے جدوجہد کر رہے ہیں۔ ماڈل کو ڈیٹاسیٹ پر آسانی سے ٹھیک بنایا جا سکتا ہے اور اسے کمپیوٹنگ کے محدود وسائل کے ساتھ تربیت دی جا سکتی ہے۔ 

اس آرٹیکل سے اہم نکات شامل ہیں۔

  • کارکردگی کے لیے ڈیزائن کیا گیا، TinyLlama 1.1B وسیع تر سامعین کے لیے دستیاب ہے، بشمول وہ لوگ جو محدود کمپیوٹیشنل وسائل کے حامل ہیں، جو اسے متعدد ایپلی کیشنز کے لیے موزوں بناتے ہیں۔
  • ماڈل نے ایک وسیع تربیتی عمل سے گزرا، جس میں 3 A90-16G GPUs کا استعمال کرتے ہوئے 100 دنوں میں 40 ٹریلین ٹوکنز پر تربیت بھی شامل ہے۔
  • اس کے چھوٹے سائز کے باوجود، TinyLlama 1.1B متعدد زبانوں میں اعلیٰ معیار کے، سیاق و سباق کے لحاظ سے متعلقہ جوابات فراہم کرتا ہے، جو اسے غور کرنے کے لیے ایک ماڈل بناتا ہے۔
  • یہ موبائل ایپلیکیشنز، IoT آلات، تعلیمی ٹولز اور مزید کے لیے ایک اچھا انتخاب ہے، اس کا کمپیکٹ سائز اور کارکردگی وسیع ایپلی کیشنز کی اجازت دیتی ہے۔
  • اس کی کم کمپیوٹیشنل ضروریات اسے لسانی تحقیق میں ایک قابل قدر ٹول بناتی ہیں، خاص طور پر کم وسائل والی زبانوں کے لیے۔
  • یہ ماڈل ان لوگوں کے لیے ایک اچھا انتخاب ہے جو زبان کے ماڈلز کے ساتھ تجربہ کر رہے ہیں یا نئی NLP ایپس تیار کر رہے ہیں، خاص طور پر محدود کمپیوٹیشنل پاور والی سیٹنگز میں۔

اکثر پوچھے گئے سوالات

Q1. TinyLlama 1.1B کیا ہے؟

A. TinyLlama 1.1B 1.1 بلین پیرامیٹرز کے ساتھ ایک کمپیکٹ، موثر بڑی زبان کا ماڈل ہے، جو 3 ٹریلین ٹوکنز پر تربیت یافتہ ہے، جو محدود کمپیوٹیشنل وسائل کے ساتھ ایپلی کیشنز کے لیے موزوں ہے۔

Q2. TinyLlama 1.1B کی تربیت کیسے کی گئی؟

A. اسے 90 A16-100G GPUs کا استعمال کرتے ہوئے 40 دنوں میں تربیت دی گئی تھی جس میں Slimpajama اور Starcoderdata شامل ہیں، جس میں قدرتی زبان سے کوڈ کا تناسب 7:3 ہے۔

Q3. TinyLlama 1.1B کے کارکردگی کے معیارات کیا ہیں؟

A. TinyLlama 1.1B پیچیدہ زبان کے کاموں کو سنبھالنے میں اپنی مہارت دکھاتا ہے، HellaSwag، MMLU، اور WinoGrande جیسے بینچ مارکس میں اوسطاً 52.99 اسکور کرتا ہے۔

Q4. TinyLlama 1.1B کے کچھ ممکنہ استعمال کے معاملات کیا ہیں؟

A. یہ ان ایپلی کیشنز کے لیے موزوں ہے جہاں سائز اور رفتار ایک اہم مسئلہ ہے۔ ان میں موبائل ایپس، IoT آلات جیسے ہوم آٹومیشن ڈیوائسز، چھوٹے کاروباروں کے لیے مواد تیار کرنا، اور ڈیٹا کا موثر تجزیہ شامل ہے۔

Q5. کیا TinyLlama 1.1B محدود وسائل والے ڈویلپرز کے لیے موزوں ہے؟

A. بالکل، یہ ان ڈویلپرز اور محققین کے لیے ایک بہترین انتخاب ہے جن کے پاس پروٹو ٹائپنگ اور نئی NLP ایپلی کیشنز تیار کرنے کے لیے اعلیٰ طاقت والے کمپیوٹنگ وسائل تک رسائی نہیں ہے۔ TinyLlama ماڈل کو Raspberry Pi مشین پر بھی چلایا جا سکتا ہے۔

Q6. TinyLlama 1.1B ریاضیاتی استدلال کے کاموں میں کیسے انجام دیتا ہے؟

A. اگرچہ یہ واقعی مختلف زبان کے کاموں میں سبقت لے جاتا ہے، لیکن یہ ریاضیاتی استدلال میں حدود کو ظاہر کرتا ہے، جنہیں متعلقہ ڈیٹاسیٹس کو ٹھیک کرنے سے بہتر بنایا جا سکتا ہے۔

اس مضمون میں دکھایا گیا میڈیا Analytics ودھیا کی ملکیت نہیں ہے اور مصنف کی صوابدید پر استعمال ہوتا ہے۔

ٹائم اسٹیمپ:

سے زیادہ تجزیات ودھیا