परिचय
कृत्रिम बुद्धिमत्ता और मशीन लर्निंग के तेजी से बढ़ते परिदृश्य में, TinyLlama 1.1B एक उल्लेखनीय विकास के रूप में उभरा है। ऐसे युग में जहां कम्प्यूटेशनल बाधाएं अधिक जटिल मॉडल चलाने के लिए चुनौतियां पैदा करती हैं, टिनीलामा उम्मीदों को धता बताते हुए खड़ा है। यह कॉम्पैक्ट मॉडलों के उल्लेखनीय प्रदर्शन को प्रदर्शित करता है।
इस लेख का उद्देश्य एक कॉम्पैक्ट बड़े भाषा मॉडल, टाइनीलामा 1.1बी का विश्लेषण प्रदान करना है। हम इसके मुख्य पहलुओं पर गौर करेंगे, जैसे कि इसे हगिंग फेस प्लेटफॉर्म का उपयोग करके प्रदर्शन बेंचमार्क और व्यावहारिक कार्यान्वयन में कैसे प्रशिक्षित किया गया था। हम इस मॉडल को निःशुल्क Google Colab पर भी चलाएंगे और इसकी गणित और तर्क क्षमता का परीक्षण करेंगे।
सीखने के मकसद
- TinyLlama 1.1B की व्यापक समझ प्राप्त करें
- उस जटिल प्रशिक्षण प्रक्रिया का अन्वेषण करें जिससे मॉडल गुजरा है
- इसकी प्रभावकारिता का आकलन करने के लिए प्रदर्शन और बेंचमार्क परिणामों का विश्लेषण करें
- कोडिंग उदाहरणों का उपयोग करके TinyLlama 1.1B को लागू करने के व्यावहारिक चरण जानें
इस लेख के एक भाग के रूप में प्रकाशित किया गया था डेटा साइंस ब्लॉगथॉन।
विषय - सूची
टाइनीलामा 1.1बी क्या है?
टाइनीलामा 1.1बी, व्यापक लामा परियोजना का एक हिस्सा, भाषा मॉडलिंग की प्रगति का एक प्रमाण है। यह 1.1 बिलियन मापदंडों वाला एक मॉडल है, जिसे आश्चर्यजनक 3 ट्रिलियन टोकन पर प्रशिक्षित किया गया है, जो इसे एआई परिदृश्य में एक अद्वितीय स्थिति में रखता है। अपने बड़े समकक्षों के विपरीत, TinyLlama 1.1B को अधिक कुशल और प्रबंधनीय बनाया गया है, जो इसे सीमित कम्प्यूटेशनल संसाधनों वाले अनुप्रयोगों के लिए एक अच्छा विकल्प बनाता है।
यह ओपन-सोर्स मॉडल अत्याधुनिक एआई तकनीक तक पहुंच का लोकतंत्रीकरण करता है, जिससे कई डेवलपर्स और शोधकर्ताओं को प्राकृतिक भाषा प्रसंस्करण के क्षेत्र में खोज और नवाचार करने की अनुमति मिलती है। यह एक ऐसा मॉडल है जो संसाधन खपत के साथ प्रदर्शन को संतुलित करने की क्षमता के लिए जाना जाता है, जो आज के विविध कम्प्यूटेशनल वातावरण में एक महत्वपूर्ण विचार है।
टाइनीलामा 1.1बी की प्रशिक्षण प्रक्रिया
TinyLlama 1.1B की प्रशिक्षण प्रक्रिया स्वयं मॉडल की तरह ही आकर्षक है। TinyLlama का प्रशिक्षण केवल 90 दिनों के लिए हुआ, 16 A100-40G GPU पर प्रशिक्षित किया गया। प्रीट्रेनिंग 3 ट्रिलियन टोकन पर की गई थी, और TinyLlama टीम ने प्रत्येक आधे ट्रिलियन के बीच मध्यवर्ती मॉडल प्रकाशित किया है।
जहां तक डेटा का सवाल है, स्लिमपाजामा और स्टारकोडरडेटा को 950 बिलियन टोकन के संयुक्त डेटासेट आकार के साथ लिया गया था। प्राकृतिक भाषा-से-कोड अनुपात 7:3 रखा गया था, यानी 70% डेटा प्राकृतिक भाषा था, और 30% कोड था। इस प्रकार, फाइन-ट्यूनिंग के लिए 3 ट्रिलियन टोकन का आंकड़ा हासिल करने के लिए, टाइनीलामा को इस डेटासेट के लिए 3 युगों के प्रशिक्षण से गुजरना पड़ा।
यहां तक कि TinyLlama का एक चैट संस्करण भी जारी किया गया है जिसे TinyLlama-Chat कहा जाता है। प्रारंभ में, इस मॉडल को अल्ट्राचैट डेटासेट पर ठीक से ट्यून किया गया, जिसमें चैटजीपीटी द्वारा उत्पन्न विविध सिंथेटिक वार्तालाप शामिल हैं। विभिन्न वार्तालाप संदर्भों और शैलियों को संभालने के लिए मॉडल बनाने में यह कदम महत्वपूर्ण था।
अल्ट्राफीडबैक डेटासेट पर डीपीओट्रेनर का उपयोग करके और अधिक परिशोधन हासिल किया गया। यह प्रशिक्षण चरण मॉडल की प्रतिक्रियाओं को मानव-समान वार्तालाप पैटर्न के साथ संरेखित करने पर केंद्रित था। परिणाम एक ऐसा मॉडल है जो न केवल विभिन्न विषयों पर जानकारी प्राप्त करता है बल्कि प्राकृतिक और आकर्षक तरीके से बातचीत भी करता है।
आप यह भी पढ़ सकते हैं: LlaMA 2 के साथ शुरुआत करना: एक शुरुआती मार्गदर्शिका
प्रदर्शन और बेंचमार्क परिणाम
TinyLlama 1.1B के प्रदर्शन का मूल्यांकन करने से तेजी से उच्च गुणवत्ता वाली प्रतिक्रिया देने की इसकी क्षमता का पता चलता है। इसके प्रशिक्षण ने इसे बहुभाषी अनुप्रयोगों को पूरा करने की क्षमता प्रदान की है, जो हमारी वैश्वीकृत दुनिया में एक महत्वपूर्ण विशेषता है। अपने छोटे आकार के बावजूद, TinyLlama 1.1B अभी भी प्रतिक्रिया गुणवत्ता और गति के मामले में अपने बड़े समकक्षों से आगे निकल रहा है, जिससे यह विभिन्न AI अनुप्रयोगों में एक शक्तिशाली उपकरण बन गया है।
टाइनीलामा 1.1बी के लिए बेंचमार्क, हालांकि बड़े मॉडलों की तुलना में कम व्यापक हैं, फिर भी जटिल भाषा कार्यों को संभालने में इसकी दक्षता प्रदर्शित करते हैं। कई भाषाओं में सुसंगत और प्रासंगिक रूप से प्रासंगिक प्रतिक्रियाएं उत्पन्न करने की इसकी क्षमता विशेष रूप से प्रभावशाली है। मॉडल का परीक्षण विभिन्न बेंचमार्क जैसे हेलास्वैग, विनोग्रांडे, एआरसी, एमएमएलयू और अन्य पर किया गया था। संयुक्त औसत स्कोर 52.99 निकला। यह अन्य 1 बिलियन पैरामीटर मॉडल, यानी पाइथिया 1बी से कहीं बेहतर है, जिसने 48.3 का औसत स्कोर हासिल किया। तालिका प्रत्येक बेंचमार्क के व्यक्तिगत स्कोर को दर्शाती है
बेंचमार्क | टाइनीलामा 1.1बी स्कोर |
---|---|
हेलास्वैग | 59.2 |
ओबका | 36.0 |
विनोग्रेन्डे | 59.12 |
एआरसी_सी | 30.12 |
ARC_e | 55.25 |
बूल्क | 57.83 |
पिका | 73.29 |
औसत | 52.9 |
टाइनीलामा - आरंभ करना
यहां, इस अनुभाग में, हम TinyLlama चैट का परिमाणित संस्करण डाउनलोड करेंगे और इसे Google Colab में चलाएंगे। मॉडल डाउनलोड करने से पहले, हमें निम्नलिखित पायथन पैकेज डाउनलोड और इंस्टॉल करना होगा
!CMAKE_ARGS="-DLLAMA_CUBLAS=on" FORCE_CMAKE=1 pip3 install llama-cpp-python
!pip3 install huggingface-hub
- RSI CMAKE_ARGS=''-DLLAMA_CUBLAS=on'' और FORCE_CMAKE=1, llama_cpp_python को निःशुल्क कोलाब संस्करण में उपलब्ध Nvidia GPU का उपयोग करने की अनुमति देगा।
- फिर हम इंस्टॉल करते हैं llama_cpp_python pip3 के माध्यम से पैकेज
- हम डाउनलोड भी करते हैं हगिंगफेस-हब, जिसके साथ हम परिमाणित टिनीलामा 1.1बी चैट डाउनलोड करेंगे
TinyLlama 1.1B चैट मॉडल का परीक्षण करने के लिए, हमें सबसे पहले इसका परिमाणित संस्करण डाउनलोड करना होगा। इसे डाउनलोड करने के लिए हम निम्नलिखित कोड चलाएंगे
from huggingface_hub import hf_hub_download
# specifying the model name
model_name = "TheBloke/TinyLlama-1.1B-Chat-v1.0-GGUF"
# specifying the type of quantization of the model
model_file = "tinyllama-1.1b-chat-v1.0.Q8_0.gguf"
# download the model by specifying the model name and quantized model name
model_path = hf_hub_download(model_name, filename=model_file)
यहां ही हगिंग_फेस_हब लाइब्रेरी परिमाणित मॉडल को डाउनलोड करने की प्रक्रिया का ध्यान रखेगी। इसके लिए हम आयात करते हैं hf_hub_डाउनलोड जो निम्नलिखित पैरामीटर लेता है:
- मॉडल नाम: इस वेरिएबल में, हम उस मॉडल को पास करते हैं जिसे हम डाउनलोड करना चाहते हैं। यहां हम TinyLlama 1.1B Chat GGUF मॉडल डाउनलोड करना चाहते हैं।
- मॉडल_फ़ाइल: यहां हम परिमाणित मॉडल का प्रकार निर्दिष्ट करते हैं जिसे हम डाउनलोड करना चाहते हैं। यहां हम TinyLlama 8B चैट का 1.1-बिट क्वांटाइज़्ड संस्करण डाउनलोड करेंगे।
- अंत में, हम इन मापदंडों को पास करते हैं hf_hub_डाउनलोड, जो इन मापदंडों को लेता है और निर्दिष्ट मॉडल को डाउनलोड करता है। डाउनलोड करने के बाद, यह उस पथ पर लौटता है जहां मॉडल डाउनलोड किया गया है।
- लौटाया गया यह पथ सहेजा जा रहा है मॉडल_पथ चर।
अब, हम इस मॉडल को इसके माध्यम से लोड कर सकते हैं llama_cpp_python पुस्तकालय। मॉडल लोड करने का कोड नीचे जैसा होगा।
from llama_cpp import Llama
llm = Llama(
model_path=model_path,
n_ctx=512, # the number of i/p tokens the model can take
n_threads=8, # the number of threads to use
n_gpu_layers=40# how many layers of the model to offload to the GPU
)
हम आयात करते हैं लामा वर्ग से लामा_सीपीपी, जो निम्नलिखित पैरामीटर लेता है
- मॉडल_पथ: यह वेरिएबल उस पथ पर चलता है जहां हमारा मॉडल संग्रहीत है। हमने पिछले चरण से पथ प्राप्त कर लिया है, जिसे हम यहां प्रदान करेंगे
- n_ctx: यहां, हम मॉडल के लिए संदर्भ लंबाई देते हैं। अभी के लिए, हम संदर्भ लंबाई के रूप में 512 टोकन प्रदान कर रहे हैं
- n_थ्रेड्स: यहां हम उपयोग किए जाने वाले धागों की संख्या का उल्लेख करते हैं लामा कक्षा
- n_gpu_लेयर्स: हम इसे निर्दिष्ट करते हैं यदि हमारे पास एक चालू जीपीयू है, जो हम मुफ्त कोलाब के मामले में करते हैं। इसके लिए, हम 40 पास करते हैं, जिसका अर्थ है कि हम पूरे मॉडल को जीपीयू में लोड करना चाहते हैं और नहीं चाहते कि इसका कोई भी हिस्सा सिस्टम रैम में चले।
- अंत में, हम इससे एक ऑब्जेक्ट बनाते हैं लामा कक्षा और इसे वेरिएबल एलएलएम को दें
इस कोड को चलाने से TinyLlama 1.1B चैट क्वांटाइज़्ड मॉडल GPU पर लोड हो जाएगा और उचित संदर्भ लंबाई निर्धारित हो जाएगी। अब, इस मॉडल पर कुछ निष्कर्ष निकालने का समय आ गया है। इसके लिए हम नीचे दिए गए कोड के साथ काम करते हैं
output = llm(
"<|im_start|>usernWho are you?<|im_end|>n<|im_start|>assistantn", # User Prompt
max_tokens=512, # Number of output tokens generated
stop=["</s>"], # Token which tells the LLM to stop
)
print(output['choices'][0]['text']) # Model generated text
मॉडल का अनुमान लगाने के लिए, हम एलएलएम में निम्नलिखित पैरामीटर पास करते हैं:
- शीघ्र/चैट टेम्पलेट: यह मॉडल के साथ चैट करने के लिए आवश्यक प्रॉम्प्ट टेम्पलेट है। उपर्युक्त टेम्पलेट(अर्थात , ) वह है जो TinyLlama 1.1B चैट मॉडल के लिए काम करता है। टेम्प्लेट में, उपयोगकर्ता के बाद का वाक्य उपयोगकर्ता संकेत है, और सहायक के बाद पीढ़ी उत्पन्न होगी।
- अधिकतम_टोकन: इस वेरिएबल में, हम एक मान पास करते हैं जो प्रॉम्प्ट दिए जाने पर एक बड़े भाषा मॉडल द्वारा आउटपुट किए जा सकने वाले टोकन की अधिकतम संख्या को परिभाषित करता है। अभी के लिए, हम इसे 512 टोकन तक सीमित कर रहे हैं।
- रुकें: इस वेरिएबल के लिए, हम स्टॉप टोकन पास करते हैं। स्टॉप टोकन बड़े भाषा मॉडल को आगे टोकन उत्पन्न करना बंद करने के लिए कहता है। TinyLlama 1.1B चैट के लिए, स्टॉप टोकन है
जब हम इसे चलाते हैं तो उत्पन्न टेक्स्ट आउटपुट वेरिएबल में संग्रहीत होता है। परिणाम OpenAI API कॉल के समान प्रारूप में उत्पन्न होता है। इसलिए, हम दिए गए प्रिंट स्टेटमेंट के माध्यम से पीढ़ी तक पहुंच सकते हैं, ठीक उसी तरह जैसे हम ओपनएआई प्रतिक्रियाओं से पीढ़ी तक पहुंचते हैं। उत्पन्न आउटपुट नीचे देखा जा सकता है
इस आकार के मॉडल के लिए, इसकी उत्पन्न प्रतिक्रिया शीर्ष पायदान पर है। इस आकार के मॉडल से यह अप्रत्याशित है; व्याकरण और स्वर बिल्कुल ठीक दिखते हैं, और वाक्यों की पुनरावृत्ति का कोई संकेत नहीं है। आइए मॉडल की तर्क क्षमताओं का परीक्षण करने का प्रयास करें
output = llm(
"<|im_start|>usernIf all students who study hard get good grades,
and John got good grades, can we conclude that John studied hard?
<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
output = llm(
"<|im_start|>usernHow fast can a snake fly?n<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
अब तक तो सब ठीक है। हमने जो उदाहरण देखे हैं, उनसे मॉडल अच्छे उत्तर उत्पन्न करता है। लेकिन यह सभी मामलों में सच नहीं हो सकता है क्योंकि हम इसका परीक्षण केवल सीमित संख्या में प्रश्नों पर ही करते हैं। आइए मॉडल की गणितीय तर्क क्षमताओं का परीक्षण भी करें
output = llm(
"<|im_start|>usernJohn is twice as old as Sarah, and Sarah is three years
older than Mary. If Mary is 10 years old, how old is John?n<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
output = llm(
"<|im_start|>usernWhat is the missing number in this pattern:
1, 4, 9, 16, __, 36?n<|im_end|>n<|im_start|>assistantn",
max_tokens=512,
stop=["</s>"],
)
print(output['choices'][0]['text'])
हमने जो उदाहरण देखे हैं, उनसे यह स्पष्ट है कि TinyLlamaChat गणित में सरल योग्यता वाले प्रश्नों का उत्तर देने में बेहद खराब प्रदर्शन करता है। यह अपेक्षित है क्योंकि मॉडल को किसी भी गणित डेटासेट पर पहले से प्रशिक्षित नहीं किया गया था। गणित डेटासेट पर इसे ठीक करके पीढ़ी की गुणवत्ता में सुधार किया जा सकता है
फाइन-ट्यूनिंग की बात करें तो, टाइनीलामा उन लोगों के लिए एक पसंदीदा विकल्प है जो सीमित हार्डवेयर तक सीमित हैं और अपने विशिष्ट डेटासेट पर बड़े भाषा मॉडल को फाइन-ट्यून करना चाहते हैं।
संभावित उपयोग के मामले और अनुप्रयोग
के कॉम्पैक्ट आकार को देखते हुए टिनीलामा, जो 1.1 बिलियन मापदंडों का दावा करता है, इसके अनुप्रयोग मुख्य रूप से उन वातावरणों के लिए उपयुक्त हैं जहां हार्डवेयर सीमाओं या अधिक दक्षता के कारण बड़े मॉडल उतने व्यवहार्य नहीं हो सकते हैं। इसके आकार को ध्यान में रखते हुए यहां कुछ विशिष्ट उपयोग के मामले दिए गए हैं:
मोबाइल एप्लीकेशन: TinyLlama का छोटा आकार इसे उन मोबाइल ऐप्स में एकीकृत करने के लिए एक अच्छा विकल्प बनाता है जहां ऑन-डिवाइस प्रोसेसिंग आवश्यक है। इसमें भाषा अनुवाद ऐप्स, व्यक्तिगत सहायक सुविधाएँ और चैटबॉट शामिल हैं जो स्मार्टफ़ोन पर कुशलतापूर्वक काम कर सकते हैं।
IoT उपकरणों में एंबेडेड सिस्टम: इंटरनेट ऑफ थिंग्स (IoT) क्षेत्र में, कंप्यूटिंग संसाधन अक्सर सीमित होते हैं; TinyLlama का उपयोग स्मार्ट होम असिस्टेंट, पहनने योग्य तकनीक और ऐसे अन्य जुड़े उपकरणों जैसे विभिन्न उपकरणों में बुद्धिमान भाषा प्रसंस्करण क्षमताओं को जोड़ने के लिए किया जा सकता है।
एज कंप्यूटिंग: ऐसे अनुप्रयोगों के लिए जो केंद्रीकृत क्लाउड वातावरण के बजाय स्रोत के करीब डेटा संसाधित करने से लाभान्वित होते हैं, टिनीलामा को प्रभावी ढंग से नियोजित किया जा सकता है। इसमें ऑटोमोटिव सिस्टम, विनिर्माण उपकरण और अन्य एज उपकरणों में वास्तविक समय भाषा प्रसंस्करण शामिल है।
कम संसाधन वाली भाषा अनुसंधान: अपने छोटे आकार और कम कम्प्यूटेशनल आवश्यकताओं के कारण, टाइनीलामा भाषाई अनुसंधान में एक मूल्यवान उपकरण हो सकता है, विशेष रूप से अल्प-संसाधन वाली भाषाओं के लिए जहां बड़े पैमाने पर मॉडल प्रशिक्षण संभव नहीं है।
शैक्षिक उपकरण: शैक्षिक सेटिंग्स में, विशेष रूप से उच्च-स्तरीय कंप्यूटिंग संसाधनों तक सीमित पहुंच वाले लोगों में, टिनीलामा का उपयोग भाषा सीखने के ऐप्स, इंटरैक्टिव शैक्षिक उपकरण और अन्य शिक्षण सहायता विकसित करने के लिए किया जा सकता है।
छोटे व्यवसायों के लिए सामग्री निर्माण: सीमित संसाधनों वाले छोटे व्यवसाय व्यापक कंप्यूटिंग शक्ति की आवश्यकता के बिना, उत्पाद विवरण, मार्केटिंग कॉपी और ग्राहक पत्राचार जैसी सामग्री तैयार करने के लिए टिनीलामा का उपयोग कर सकते हैं।
प्रोटोटाइप और प्रयोग: डेवलपर्स और शोधकर्ता जो भाषा मॉडल के साथ प्रयोग करना चाहते हैं लेकिन उच्च-शक्ति वाले कंप्यूटिंग संसाधनों तक पहुंच नहीं रखते हैं, वे नए एनएलपी अनुप्रयोगों को प्रोटोटाइप और विकसित करने के लिए टिनीलामा का उपयोग कर सकते हैं।
कुशल डेटा विश्लेषण: TinyLlama का उपयोग उन परिदृश्यों में पाठ विश्लेषण और डेटा निष्कर्षण के लिए किया जा सकता है जहां त्वरित और कुशल प्रसंस्करण की आवश्यकता होती है, जैसे ग्राहक प्रतिक्रिया, सर्वेक्षण प्रतिक्रियाओं या सोशल मीडिया इंटरैक्शन का विश्लेषण करना।
निष्कर्ष
TinyLlama 1.1B एआई और प्राकृतिक भाषा प्रसंस्करण के क्षेत्र में प्रगति का एक प्रमाण है। इसका विकास और व्यापक उपलब्धता अधिक कुशल, छोटे और त्वरित अनुमान भाषा मॉडल बनाने के लिए महत्वपूर्ण है। मजबूत प्रदर्शन के साथ छोटे पैरामीटर फ़ुटप्रिंट को संतुलित करके, TinyLlama 1.1B अनुप्रयोगों की एक विस्तृत श्रृंखला के लिए शक्तिशाली और व्यावहारिक मॉडल की महत्वपूर्ण आवश्यकता को संबोधित करता है। विभिन्न कंप्यूटिंग वातावरणों के लिए पर्याप्त रूप से हल्का होने के साथ-साथ मानव की तरह भाषा को समझने और उत्पन्न करने की इसकी क्षमता इसे अपनी मशीनों पर बड़े भाषा मॉडल चलाने के लिए संघर्ष कर रहे लोगों के लिए एक पसंदीदा विकल्प बनाती है। मॉडल को डेटासेट पर आसानी से ठीक किया जा सकता है और सीमित कंप्यूटिंग संसाधनों के साथ प्रशिक्षित किया जा सकता है।
इस आलेख से मुख्य बातें शामिल हैं
- दक्षता के लिए डिज़ाइन किया गया, TinyLlama 1.1B सीमित कम्प्यूटेशनल संसाधनों वाले लोगों सहित व्यापक दर्शकों के लिए उपलब्ध है, जो इसे कई अनुप्रयोगों के लिए उपयुक्त बनाता है।
- मॉडल को एक व्यापक प्रशिक्षण प्रक्रिया से गुजरना पड़ा, जिसमें 3 A90-16G GPU का उपयोग करके 100 दिनों में 40 ट्रिलियन टोकन पर प्रशिक्षण शामिल था।
- अपने छोटे आकार के बावजूद, TinyLlama 1.1B कई भाषाओं में उच्च-गुणवत्ता, प्रासंगिक रूप से प्रासंगिक प्रतिक्रियाएँ प्रदान करता है, जिससे यह विचार करने योग्य मॉडल बन जाता है।
- यह मोबाइल एप्लिकेशन, IoT उपकरण, शैक्षिक उपकरण और बहुत कुछ के लिए एक अच्छा विकल्प है, इसका कॉम्पैक्ट आकार और दक्षता व्यापक अनुप्रयोगों के लिए अनुमति देती है।
- इसकी कम कम्प्यूटेशनल आवश्यकताएं इसे भाषाई अनुसंधान में एक मूल्यवान उपकरण बनाती हैं, खासकर अल्प-संसाधन वाली भाषाओं के लिए।
- यह मॉडल उन लोगों के लिए एक अच्छा विकल्प है जो भाषा मॉडल के साथ प्रयोग कर रहे हैं या नए एनएलपी ऐप्स विकसित कर रहे हैं, मुख्य रूप से सीमित कम्प्यूटेशनल शक्ति वाली सेटिंग्स में।
आम सवाल-जवाब
A. TinyLlama 1.1B 1.1 बिलियन मापदंडों वाला एक कॉम्पैक्ट, कुशल बड़ा भाषा मॉडल है, जो 3 ट्रिलियन टोकन पर प्रशिक्षित है, जो सीमित कम्प्यूटेशनल संसाधनों वाले अनुप्रयोगों के लिए उपयुक्त है।
A. इसे स्लिमपाजामा और स्टारकोडरडेटा सहित डेटासेट पर 90 A16-100G GPU का उपयोग करके 40:7 के प्राकृतिक भाषा और कोड अनुपात के साथ 3 दिनों में प्रशिक्षित किया गया था।
A. TinyLlama 1.1B जटिल भाषा कार्यों को संभालने में अपना कौशल दिखाता है, हेलास्वैग, एमएमएलयू और विनोग्रांडे जैसे बेंचमार्क में औसतन 52.99 स्कोर करता है।
A. यह उन अनुप्रयोगों के लिए उपयुक्त है जहां आकार और गति एक महत्वपूर्ण मुद्दा है। इनमें मोबाइल ऐप, होम ऑटोमेशन डिवाइस जैसे IoT उपकरण, छोटे व्यवसायों के लिए सामग्री निर्माण और कुशल डेटा विश्लेषण शामिल हैं।
A. बिल्कुल, यह उन डेवलपर्स और शोधकर्ताओं के लिए एक आदर्श विकल्प है जिनके पास नए एनएलपी अनुप्रयोगों के प्रोटोटाइप और विकास के लिए उच्च-शक्ति वाले कंप्यूटिंग संसाधनों तक पहुंच नहीं है। TinyLlama मॉडल को रास्पबेरी पाई मशीन पर भी चलाया जा सकता है।
A. हालांकि यह वास्तव में विभिन्न भाषा कार्यों में उत्कृष्टता प्राप्त करता है, यह गणितीय तर्क में सीमाएं दिखाता है, जिसे प्रासंगिक डेटासेट को ठीक करके सुधार किया जा सकता है।
इस लेख में दिखाया गया मीडिया एनालिटिक्स विद्या के स्वामित्व में नहीं है और इसका उपयोग लेखक के विवेक पर किया जाता है।
सम्बंधित
- एसईओ संचालित सामग्री और पीआर वितरण। आज ही प्रवर्धित हो जाओ।
- प्लेटोडेटा.नेटवर्क वर्टिकल जेनरेटिव एआई। स्वयं को शक्तिवान बनाएं। यहां पहुंचें।
- प्लेटोआईस्ट्रीम। Web3 इंटेलिजेंस। ज्ञान प्रवर्धित। यहां पहुंचें।
- प्लेटोईएसजी. कार्बन, क्लीनटेक, ऊर्जा, पर्यावरण, सौर, कचरा प्रबंधन। यहां पहुंचें।
- प्लेटोहेल्थ। बायोटेक और क्लिनिकल परीक्षण इंटेलिजेंस। यहां पहुंचें।
- स्रोत: https://www.analyticsvidhya.com/blog/2024/01/tinyllama-1-1b-size-doesnt-matter/
- :हैस
- :है
- :नहीं
- :कहाँ
- $यूपी
- 1
- 10
- 11
- 12
- 16
- 1b
- 36
- 40
- 52
- 7
- 9
- 90
- a
- क्षमताओं
- क्षमता
- बिल्कुल
- पहुँच
- पाना
- हासिल
- के पार
- जोड़ना
- पतों
- प्रगति
- बाद
- AI
- एड्स
- करना
- संरेखित करें
- पंक्ति में करनेवाला
- सब
- अनुमति देना
- की अनुमति दे
- भी
- an
- विश्लेषण
- विश्लेषिकी
- एनालिटिक्स विधा
- का विश्लेषण
- और
- जवाब दे
- जवाब
- कोई
- एपीआई
- अनुप्रयोगों
- उपयुक्त
- क्षुधा
- आर्क
- हैं
- ऐरे
- लेख
- कृत्रिम
- कृत्रिम बुद्धिमत्ता
- आर्टिफिशियल इंटेलिजेंस एंड मशीन लर्निंग
- AS
- पहलुओं
- आकलन
- सहायक
- सहायकों
- At
- दर्शक
- स्वचालन
- मोटर वाहन
- उपलब्धता
- उपलब्ध
- औसत
- शेष
- संतुलन
- BE
- क्योंकि
- से पहले
- जा रहा है
- नीचे
- बेंचमार्क
- मानक
- लाभ
- बेहतर
- के बीच
- बिलियन
- अरब टोकन
- ब्लॉगथॉन
- दावा
- विस्तृत
- व्यापक
- व्यवसायों
- लेकिन
- by
- कॉल
- बुलाया
- आया
- कर सकते हैं
- क्षमताओं
- क्षमता
- कौन
- मामला
- मामलों
- पूरा
- केंद्रीकृत
- चुनौतियों
- बातचीत
- chatbots
- ChatGPT
- चुनाव
- विकल्प
- स्पष्ट
- करीब
- बादल
- कोड
- कोडन
- सुसंगत
- संयुक्त
- सघन
- जटिल
- व्यापक
- कम्प्यूटेशनल
- कम्प्यूटेशनल शक्ति
- कंप्यूटिंग
- संगणन शक्ति
- निष्कर्ष निकाला है
- जुड़ा हुआ
- विचार करना
- विचार
- की कमी
- खपत
- शामिल हैं
- सामग्री
- प्रसंग
- संदर्भों
- संवादी
- बातचीत
- मूल
- समकक्षों
- बनाना
- बनाना
- महत्वपूर्ण
- महत्वपूर्ण
- ग्राहक
- तिथि
- डेटा विश्लेषण
- डेटासेट
- दिन
- परिभाषित करता है
- को ठेंगा
- उद्धार
- बचाता है
- गड्ढा
- लोकतंत्रीकरण करता है
- दिखाना
- बनाया गया
- के बावजूद
- विकसित करना
- डेवलपर्स
- विकासशील
- विकास
- डिवाइस
- विभिन्न
- विवेक
- कई
- do
- कर देता है
- नहीं करता है
- किया
- डाउनलोड
- डाउनलोड
- दो
- e
- से प्रत्येक
- आसानी
- Edge
- शैक्षिक
- प्रभावी रूप से
- दक्षता
- कुशल
- कुशलता
- उभर रहे हैं
- कार्यरत
- मनोहन
- पर्याप्त
- संपूर्ण
- वातावरण
- वातावरण
- अवधियों को
- उपकरण
- युग
- विशेष रूप से
- ईथर (ईटीएच)
- और भी
- उदाहरण
- उम्मीदों
- अपेक्षित
- प्रयोग
- का पता लगाने
- व्यापक
- निष्कर्षण
- अत्यंत
- चेहरा
- दूर
- आकर्षक
- फास्ट
- संभव
- Feature
- विशेषताएं
- प्रतिक्रिया
- खेत
- अंत
- प्रथम
- ध्यान केंद्रित
- निम्नलिखित
- पदचिह्न
- के लिए
- प्रारूप
- मुक्त
- से
- आगे
- उत्पन्न
- उत्पन्न
- उत्पन्न करता है
- सृजन
- पीढ़ी
- मिल
- मिल रहा
- देना
- दी
- भूमंडलीकृत
- चला गया
- अच्छा
- गूगल
- मिला
- GPU
- GPUs
- व्याकरण
- अधिक से अधिक
- बढ़ रहा है
- आधा
- संभालना
- हैंडलिंग
- कठिन
- हार्डवेयर
- है
- इसलिये
- यहाँ उत्पन्न करें
- हाई
- उच्च-स्तरीय
- उच्च गुणवत्ता
- होम
- घर स्वचालन
- कैसे
- HTTPS
- i
- if
- लागू करने के
- कार्यान्वयन
- आयात
- महत्वपूर्ण
- उन्नत
- in
- शामिल
- शामिल
- सहित
- व्यक्ति
- करें-
- शुरू में
- कुछ नया
- स्थापित
- घालमेल
- बुद्धि
- बुद्धिमान
- बातचीत
- इंटरैक्टिव
- सूचना का आदान प्रदान
- मध्यवर्ती
- इंटरनेट
- चीजों की इंटरनेट
- में
- जटिल
- IOT
- iot उपकरण
- मुद्दा
- IT
- आईटी इस
- खुद
- जॉन
- केवल
- रखना
- रखा
- कुंजी
- जानने वाला
- कुमार
- रंग
- परिदृश्य
- भाषा
- भाषाऐं
- बड़ा
- बड़े पैमाने पर
- बड़ा
- परतों
- सीख रहा हूँ
- लंबाई
- कम
- प्रकाश
- पसंद
- सीमाओं
- सीमित
- सीमित पहुँच
- लामा
- भार
- लोड हो रहा है
- देखिए
- कम
- मशीन
- यंत्र अधिगम
- मशीनें
- मुख्यतः
- बनाना
- बनाता है
- निर्माण
- ढंग
- विनिर्माण
- बहुत
- निशान
- विपणन (मार्केटिंग)
- मैरी
- गणित
- गणितीय
- बात
- अधिकतम-चौड़ाई
- अधिकतम
- मई..
- मीडिया
- उल्लेख
- हो सकता है
- लापता
- मोबाइल
- मोबाइल एप्लीकेशन
- मोबाइल क्षुधा
- आदर्श
- मोडलिंग
- मॉडल
- अधिक
- अधिक कुशल
- विभिन्न
- नाम
- प्राकृतिक
- प्राकृतिक भाषा
- प्राकृतिक भाषा संसाधन
- आवश्यक
- आवश्यकता
- जरूरत
- नया
- NLP
- नहीं
- ध्यान देने योग्य
- अभी
- संख्या
- Nvidia
- वस्तु
- प्राप्त
- of
- अक्सर
- पुराना
- बड़े
- on
- ONE
- केवल
- खुला स्रोत
- OpenAI
- संचालित
- or
- अन्य
- अन्य
- हमारी
- आउट
- उत्पादन
- के ऊपर
- स्वामित्व
- प्राचल
- पैरामीटर
- भाग
- विशेष रूप से
- पास
- पथ
- पैटर्न
- पैटर्न उपयोग करें
- स्टाफ़
- उत्तम
- पूरी तरह से
- निष्पादन
- प्रदर्शन
- प्रदर्शन
- स्टाफ़
- चरण
- जगह
- मंच
- प्लेटो
- प्लेटो डेटा इंटेलिजेंस
- प्लेटोडाटा
- स्थिति
- प्रबल
- संभावित
- बिजली
- शक्तिशाली
- व्यावहारिक
- पिछला
- छाप
- प्रक्रिया
- प्रसंस्करण
- एस्ट्रो मॉल
- परियोजना
- प्रोटोटाइप
- प्रोटोटाइप
- प्रदान करना
- प्रदान कर
- प्रकाशित
- डालता है
- अजगर
- गुणवत्ता
- प्रशन
- त्वरित
- जल्दी से
- रास्पबेरी
- रास्पबेरी पाई
- बल्कि
- अनुपात
- पढ़ना
- वास्तविक समय
- वास्तव में
- के बारे में
- रिहा
- प्रासंगिक
- असाधारण
- आवश्यकताएँ
- अनुसंधान
- शोधकर्ताओं
- संसाधन
- उपयुक्त संसाधन चुनें
- प्रतिक्रिया
- प्रतिक्रियाएं
- प्रतिबंधित
- परिणाम
- परिणाम
- रिटर्न
- पता चलता है
- मजबूत
- रन
- दौड़ना
- बचाया
- परिदृश्यों
- विज्ञान
- स्कोर
- स्कोर
- स्कोरिंग
- अनुभाग
- देखा
- वाक्य
- सेट
- सेटिंग्स
- कई
- दिखाया
- दिखाता है
- हस्ताक्षर
- समान
- सरल
- आकार
- कौशल
- छोटा
- छोटे व्यवसायों
- छोटे
- स्मार्ट
- स्मार्ट घर
- smartphones के
- So
- सोशल मीडिया
- सोशल मीडिया
- कुछ
- स्रोत
- विशिष्ट
- विनिर्दिष्ट
- गति
- चक्कर
- खड़ा
- शुरू
- राज्य के-the-कला
- कथन
- कदम
- कदम
- फिर भी
- रुकें
- संग्रहित
- संघर्ष
- छात्र
- अध्ययन
- अध्ययन
- शैलियों
- ऐसा
- उपयुक्त
- सर्वेक्षण
- एसवीजी
- तेजी से
- कृत्रिम
- प्रणाली
- सिस्टम
- तालिका
- लेना
- Takeaways
- लिया
- लेता है
- कार्य
- टीम
- तकनीक
- टेक्नोलॉजी
- बताता है
- टेम्पलेट
- परीक्षण
- वसीयतनामा
- परीक्षण किया
- परीक्षण
- टेक्स्ट
- से
- कि
- RSI
- स्रोत
- लेकिन हाल ही
- वहाँ।
- इन
- चीज़ें
- इसका
- उन
- तीन
- यहाँ
- इस प्रकार
- पहर
- सेवा मेरे
- आज का दि
- टोकन
- टोकन
- स्वर
- ले गया
- साधन
- उपकरण
- विषय
- प्रशिक्षित
- प्रशिक्षण
- अनुवाद करें
- खरब
- <strong>उद्देश्य</strong>
- कोशिश
- दो बार
- टाइप
- समझना
- समझ
- कराना पड़ा
- अप्रत्याशित
- अद्वितीय
- भिन्न
- उपयोग
- प्रयुक्त
- उपयोगकर्ता
- का उपयोग
- उपयोग
- मूल्यवान
- मूल्य
- परिवर्तनशील
- संस्करण
- महत्वपूर्ण
- करना चाहते हैं
- था
- मार्ग..
- we
- पहनने योग्य
- webp
- थे
- क्या
- कब
- कौन कौन से
- जब
- कौन
- चौड़ा
- व्यापक
- बड़े पैमाने पर
- मर्जी
- साथ में
- बिना
- काम
- कार्य
- विश्व
- साल
- इसलिए आप
- जेफिरनेट