এই পোস্টে, আমরা প্যারামিটার-দক্ষ ফাইন-টিউনিং (PEFT) পদ্ধতি ব্যবহার করে একটি Llama 2 মডেলের ফাইন-টিউনিং প্রদর্শন করি এবং সূক্ষ্ম-টিউনড মডেল স্থাপন করি AWS Inferentia2. আমরা ব্যবহার করি AWS নিউরন সফ্টওয়্যার ডেভেলপমেন্ট কিট (SDK) AWS Inferentia2 ডিভাইস অ্যাক্সেস করতে এবং এর উচ্চ কার্যকারিতা থেকে উপকৃত হতে। আমরা তারপর দ্বারা চালিত একটি বড় মডেল অনুমান ধারক ব্যবহার গভীর জাভা লাইব্রেরি (DJLSserving) আমাদের মডেল পরিবেশন সমাধান হিসাবে.
সমাধান ওভারভিউ
QLoRa ব্যবহার করে দক্ষ ফাইন-টিউনিং Llama2
লামা 2 ফ্যামিলি অফ লার্জ ল্যাঙ্গুয়েজ মডেল (LLMs) হল 7 বিলিয়ন থেকে 70 বিলিয়ন প্যারামিটারের স্কেলে প্রাক-প্রশিক্ষিত এবং সূক্ষ্ম-টিউনড জেনারেটিভ টেক্সট মডেলের একটি সংগ্রহ। Llama 2 সর্বজনীনভাবে উপলব্ধ উত্স থেকে 2 ট্রিলিয়ন টোকেন ডেটাতে প্রাক-প্রশিক্ষিত ছিল। AWS গ্রাহকরা কখনও কখনও ডাউনস্ট্রিম কাজের জন্য আরও ভাল পারফরম্যান্স অর্জনের জন্য গ্রাহকদের নিজস্ব ডেটা ব্যবহার করে Llama 2 মডেলগুলিকে ফাইন-টিউন করতে বেছে নেয়। যাইহোক, Llama 2 মডেলের বিপুল সংখ্যক পরামিতির কারণে, সম্পূর্ণ ফাইন-টিউনিং নিষিদ্ধভাবে ব্যয়বহুল এবং সময়সাপেক্ষ হতে পারে। প্যারামিটার-এফিসিয়েন্ট ফাইন-টিউনিং (PEFT) পদ্ধতির মাধ্যমে এই সমস্যার সমাধান করা যেতে পারে শুধুমাত্র অল্প সংখ্যক অতিরিক্ত মডেলের প্যারামিটারগুলিকে সূক্ষ্ম-টিউন করে যখন প্রাক-প্রশিক্ষিত মডেলের বেশিরভাগ প্যারামিটারগুলিকে হিমায়িত করা হয়। PEFT সম্পর্কে আরও তথ্যের জন্য, কেউ এটি পড়তে পারেন পোস্ট. এই পোস্টে, আমরা ব্যবহার QLoRa একটি Llama 2 7B মডেল ফাইন-টিউন করতে।
Amazon SageMaker ব্যবহার করে Inf2 এ একটি সূক্ষ্ম-সুরিত মডেল স্থাপন করুন
AWS Inferentia2 হল উদ্দেশ্য-নির্মিত মেশিন লার্নিং (ML) অ্যাক্সিলারেটর যা অনুমান কাজের চাপের জন্য ডিজাইন করা হয়েছে এবং AWS-এ অন্যান্য অনুমান অপ্টিমাইজ করা দৃষ্টান্তগুলির তুলনায় জেনারেটিভ AI এবং LLM কাজের চাপের জন্য 40% পর্যন্ত কম খরচে উচ্চ-কর্মক্ষমতা প্রদান করে৷ এই পোস্টে, আমরা অ্যামাজন ইলাস্টিক কম্পিউট ক্লাউড ব্যবহার করি (আমাজন EC2) Inf2 উদাহরণ, AWS Inferentia2 বৈশিষ্ট্যযুক্ত, দ্বিতীয় প্রজন্মের Inferentia2 এক্সিলারেটর, প্রতিটিতে দুটি রয়েছে নিউরনকোরস-v2. প্রতিটি NeuronCore-v2 হল একটি স্বাধীন, ভিন্ন ভিন্ন কম্পিউট-ইউনিট, যার চারটি প্রধান ইঞ্জিন রয়েছে: টেনসর, ভেক্টর, স্কেলার এবং জিপিএসআইএমডি ইঞ্জিন। এতে ডেটা স্থানীয়তা সর্বাধিক করার জন্য একটি অন-চিপ সফ্টওয়্যার-পরিচালিত SRAM মেমরি রয়েছে। যেহেতু Inf2-এ বেশ কয়েকটি ব্লগ প্রকাশিত হয়েছে, পাঠক এটি উল্লেখ করতে পারেন পোস্ট এবং আমাদের ডকুমেন্টেশন Inf2 সম্পর্কে আরও তথ্যের জন্য।
Inf2-এ মডেল স্থাপন করতে, Inf2 হার্ডওয়্যারের উপরে চলমান সফ্টওয়্যার স্তর হিসাবে আমাদের AWS নিউরন SDK প্রয়োজন। AWS নিউরন হল SDK যা AWS Inferentia-এ ডিপ লার্নিং ওয়ার্কলোড চালানোর জন্য ব্যবহৃত হয় এবং এডব্লিউএস ট্রেনিয়াম ভিত্তিক উদাহরণ। এটি এন্ড-টু-এন্ড এমএল ডেভেলপমেন্ট লাইফসাইকেলকে নতুন মডেল তৈরি করতে, এই মডেলগুলিকে প্রশিক্ষণ ও অপ্টিমাইজ করতে এবং উৎপাদনের জন্য তাদের স্থাপন করতে সক্ষম করে। AWS নিউরন একটি গভীর শিক্ষা অন্তর্ভুক্ত সংকলনকারী, রানটাইম, এবং সরঞ্জাম যেগুলো স্থানীয়ভাবে TensorFlow এবং PyTorch এর মত জনপ্রিয় ফ্রেমওয়ার্কের সাথে একত্রিত। এই ব্লগে, আমরা ব্যবহার করতে যাচ্ছি transformers-neuronx
, যা ট্রান্সফরমার ডিকোডার ইনফারেন্স ওয়ার্কফ্লোগুলির জন্য AWS নিউরন SDK-এর অংশ। এটা সমর্থন Llama 2 সহ জনপ্রিয় মডেলের একটি পরিসর।
উপর মডেল স্থাপন আমাজন সেজমেকার, আমরা সাধারণত একটি ধারক ব্যবহার করি যাতে প্রয়োজনীয় লাইব্রেরি থাকে, যেমন নিউরন SDK এবং transformers-neuronx
সেইসাথে মডেল পরিবেশন উপাদান. অ্যামাজন সেজমেকার বজায় রাখে গভীর শিক্ষার পাত্রে বড় মডেল হোস্ট করার জন্য জনপ্রিয় ওপেন সোর্স লাইব্রেরি সহ (DLCs)। এই পোস্টে, আমরা ব্যবহার নিউরনের জন্য বড় মডেল ইনফারেন্স কন্টেইনার. এই ধারকটিতে আপনার Llama 2 মডেলটি Inf2-এ স্থাপন করার জন্য প্রয়োজনীয় সমস্ত কিছু রয়েছে৷ অ্যামাজন সেজমেকারে এলএমআই দিয়ে শুরু করার জন্য সংস্থানগুলির জন্য, অনুগ্রহ করে আমাদের বিদ্যমান পোস্টগুলির অনেকগুলি পড়ুন (1 ব্লগ, 2 ব্লগ, 3 ব্লগ) এই বিষয়ে. সংক্ষেপে, আপনি কোন অতিরিক্ত কোড না লিখে কন্টেইনার চালাতে পারেন। আপনি ব্যবহার করতে পারেন ডিফল্ট হ্যান্ডলার একটি নিরবচ্ছিন্ন ব্যবহারকারীর অভিজ্ঞতার জন্য এবং সমর্থিত মডেল নামগুলির একটিতে পাস করুন এবং যেকোনো লোড টাইম কনফিগারযোগ্য পরামিতি। এটি একটি Inf2 উদাহরণে একটি LLM কম্পাইল করে এবং পরিবেশন করে। উদাহরণস্বরূপ, স্থাপন করা OpenAssistant/llama2-13b-orca-8k-3319
, আপনি অনুসরণ কনফিগারেশন প্রদান করতে পারেন (যেমন serving.properties
ফাইল)। ভিতরে serving.properties
, আমরা মডেলের ধরন হিসাবে উল্লেখ করি llama2-13b-orca-8k-3319
, ব্যাচের আকার 4 হিসাবে, টেনসরের সমান্তরাল ডিগ্রি 2 হিসাবে, এবং এটিই। কনফিগারযোগ্য পরামিতিগুলির সম্পূর্ণ তালিকার জন্য, পড়ুন সমস্ত DJL কনফিগারেশন বিকল্প.
বিকল্পভাবে, আপনি এটিতে দেখানো হিসাবে আপনার নিজের মডেল হ্যান্ডলার ফাইল লিখতে পারেন উদাহরণ, কিন্তু DJLSserving API-এর মধ্যে সেতু হিসেবে কাজ করার জন্য মডেল লোডিং এবং অনুমান পদ্ধতি প্রয়োগ করতে হবে।
পূর্বশর্ত
নিম্নলিখিত তালিকাটি এই ব্লগ পোস্টে বর্ণিত মডেল স্থাপনের পূর্বশর্তগুলিকে রূপরেখা দেয়৷ আপনি হয় থেকে বাস্তবায়ন করতে পারেন এডাব্লুএস ম্যানেজমেন্ট কনসোল অথবা এর সর্বশেষ সংস্করণ ব্যবহার করে এডাব্লুএস কমান্ড লাইন ইন্টারফেস (AWS CLI)।
walkthrough
নিম্নলিখিত বিভাগে, আমরা দুটি অংশে কোডটি তুলে ধরব:
- একটি Llama2-7b মডেলকে ফাইন-টিউনিং করুন এবং একটি নির্দিষ্ট Amazon S3 বালতি অবস্থানে মডেলের নিদর্শনগুলি আপলোড করুন৷
- Amazon SageMaker-এ হোস্ট করা DJL পরিবেশনকারী কন্টেইনার ব্যবহার করে একটি Inferentia2-এ মডেলটি স্থাপন করুন।
নির্দেশাবলী সহ সম্পূর্ণ কোড নমুনা এটি পাওয়া যাবে GitHub সংগ্রহস্থল।
পার্ট 1: PEFT ব্যবহার করে একটি Llama2-7b মডেল ফাইন-টিউন করুন
আমরা কাগজে সম্প্রতি চালু করা পদ্ধতি ব্যবহার করতে যাচ্ছি QLoRA: ভাষা তৈরির জন্য কোয়ান্টাইজেশন-সচেতন নিম্ন-র্যাঙ্ক অ্যাডাপ্টার টিউনিং টিম ডেটমারস এট আল দ্বারা। QLoRA হল একটি নতুন কৌশল যা সূক্ষ্ম-টিউনিংয়ের সময় বৃহৎ ভাষার মডেলের মেমরির পদচিহ্ন কমিয়ে দেয়, কর্মক্ষমতাকে ত্যাগ না করে।
বিঃদ্রঃ: নিম্নলিখিত দেখানো llama2-7b মডেলের ফাইন-টিউনিং একটি অ্যামাজনে পরীক্ষা করা হয়েছিল সেজমেকার স্টুডিও নোটবুক পাইথন 2.0 GPU অপ্টিমাইজড কার্নেল ব্যবহার করে a ml.g5.2x বড় উদাহরণ টাইপ। একটি সর্বোত্তম অনুশীলন হিসাবে, আমরা একটি ব্যবহার করার পরামর্শ দিই অ্যামাজন সেজমেকার স্টুডিও ইন্টিগ্রেটেড ডেভেলপমেন্ট এনভায়রনমেন্ট (আইডিই) আপনার নিজের মধ্যে চালু করা হয়েছে আমাজন ভার্চুয়াল প্রাইভেট ক্লাউড (আমাজন ভিপিসি)। এটি আপনাকে স্ট্যান্ডার্ড AWS নেটওয়ার্কিং এবং সুরক্ষা ক্ষমতা ব্যবহার করে আপনার VPC এর মধ্যে এবং বাইরে নেটওয়ার্ক ট্র্যাফিক নিয়ন্ত্রণ, নিরীক্ষণ এবং পরিদর্শন করতে দেয়। আরও তথ্যের জন্য, দেখুন একটি ব্যক্তিগত VPC ব্যবহার করে Amazon SageMaker স্টুডিও সংযোগ সুরক্ষিত করা.
বেস মডেল কোয়ান্টাইজ করুন
আমরা প্রথমে 4-বিট কোয়ান্টাইজেশন ব্যবহার করে একটি কোয়ান্টাইজড মডেল লোড করি আলিঙ্গনমুখী ট্রান্সফরমার লাইব্রেরি নিম্নরূপ:
প্রশিক্ষণ ডেটাসেট লোড করুন
এর পরে, আমরা সূক্ষ্ম-টিউনিং ধাপের জন্য মডেল ফিড করার জন্য ডেটাসেটটি লোড করি:
একটি অ্যাডাপ্টার স্তর সংযুক্ত করুন
এখানে আমরা একটি ছোট, প্রশিক্ষনযোগ্য অ্যাডাপ্টার স্তর সংযুক্ত করি, হিসাবে কনফিগার করা হয়েছে LoraConfig আলিঙ্গন মুখ এর মধ্যে সংজ্ঞায়িত peft গ্রন্থাগার।
একটি মডেল প্রশিক্ষণ
উপরে দেখানো LoRA কনফিগারেশন ব্যবহার করে, আমরা হাইপার-প্যারামিটার সহ Llama2 মডেলটিকে সূক্ষ্ম-টিউন করব। মডেলকে প্রশিক্ষণের জন্য একটি কোড স্নিপেট নিম্নলিখিতটিতে দেখানো হয়েছে:
মডেল ওজন মার্জ
উপরে কার্যকর করা ফাইন-টিউনড মডেলটি প্রশিক্ষিত LoRA অ্যাডাপ্টারের ওজন সমন্বিত একটি নতুন মডেল তৈরি করেছে। নিম্নলিখিত কোড স্নিপেটে, আমরা অ্যাডাপ্টারটিকে বেস মডেলের সাথে একত্রিত করব যাতে আমরা অনুমানের জন্য সূক্ষ্ম-টিউন করা মডেলটি ব্যবহার করতে পারি।
Amazon S3 এ মডেলের ওজন আপলোড করুন
অংশ 1 এর চূড়ান্ত ধাপে, আমরা মার্জ করা মডেলের ওজনগুলিকে একটি নির্দিষ্ট অ্যামাজন S3 অবস্থানে সংরক্ষণ করব। মডেল ওজন একটি Inferentia2 উদাহরণ ব্যবহার করে মডেল হোস্ট করতে Amazon SageMaker-এ একটি মডেল পরিবেশন কন্টেইনার দ্বারা ব্যবহার করা হবে।
পার্ট 2: SageMaker LMI কন্টেইনার ব্যবহার করে AWS Inf2 এর সাথে অনুমানের জন্য QLoRA মডেল হোস্ট করুন
এই বিভাগে, আমরা একটি Amazon SageMaker হোস্টিং পরিবেশে একটি QLoRA সূক্ষ্ম-টিউনড মডেল স্থাপনের ধাপগুলি অতিক্রম করব৷ আমরা একটি ব্যবহার করব ডিজেএল পরিবেশন করছে SageMaker থেকে ধারক DLC, যা এর সাথে একীভূত হয় ট্রান্সফরমার-নিউরনক্স এই মডেল হোস্ট করতে লাইব্রেরি. সেটআপটি AWS Inferentia2 এক্সিলারেটরে মডেল লোড করার সুবিধা দেয়, একাধিক নিউরনকোর জুড়ে মডেলটিকে সমান্তরাল করে এবং HTTP এন্ডপয়েন্টের মাধ্যমে পরিবেশন করতে সক্ষম করে।
মডেল আর্টিফ্যাক্ট প্রস্তুত
DJL অনেক গভীর শিক্ষা অপ্টিমাইজেশান লাইব্রেরি সমর্থন করে, সহ ডিপস্পিড, ফাস্টার ট্রান্সফরমার এবং আরো মডেল নির্দিষ্ট কনফিগারেশনের জন্য, আমরা একটি প্রদান করি serving.properties
কী প্যারামিটার সহ, যেমন tensor_parallel_degree
এবং model_id
মডেল লোডিং বিকল্পগুলি সংজ্ঞায়িত করতে। দ্য model_id
একটি আলিঙ্গন মুখ মডেল আইডি হতে পারে, অথবা একটি Amazon S3 পাথ যেখানে মডেলের ওজন সংরক্ষণ করা হয়। আমাদের উদাহরণে, আমরা আমাদের ফাইন-টিউনড মডেলের Amazon S3 অবস্থান প্রদান করি। নিম্নলিখিত কোড স্নিপেট মডেল পরিবেশনের জন্য ব্যবহৃত বৈশিষ্ট্যগুলি দেখায়:
এই পড়ুন দয়া করে ডকুমেন্টেশন এর মাধ্যমে উপলব্ধ কনফিগারযোগ্য বিকল্পগুলি সম্পর্কে আরও তথ্যের জন্য serving.properties
. দয়া করে মনে রাখবেন যে আমরা ব্যবহার করি option.n_position=512
দ্রুত AWS নিউরন সংকলনের জন্য এই ব্লগে। আপনি যদি বৃহত্তর ইনপুট টোকেন দৈর্ঘ্য চেষ্টা করতে চান, তাহলে আমরা পাঠককে সময়ের আগে মডেলটি প্রাক-কম্পাইল করার পরামর্শ দিই (দেখুন EC2 এ AOT প্রি-কম্পাইল মডেল) অন্যথায়, কম্পাইলেশনের সময় খুব বেশি হলে আপনি টাইমআউট ত্রুটির মধ্যে পড়তে পারেন।
পরে serving.properties
ফাইলটি সংজ্ঞায়িত করা হয়েছে, আমরা ফাইলটিকে একটি এ প্যাকেজ করব tar.gz
বিন্যাস, নিম্নরূপ:
তারপর, আমরা একটি Amazon S3 বাকেট অবস্থানে tar.gz আপলোড করব:
একটি Amazon SageMaker মডেল এন্ডপয়েন্ট তৈরি করুন
পরিবেশনের জন্য একটি Inf2 উদাহরণ ব্যবহার করতে, আমরা একটি Amazon ব্যবহার করি সেজমেকার LMI ধারক ডিজেএল নিউরনএক্স সমর্থন সহ। এই পড়ুন দয়া করে পোস্ট অনুমানের জন্য একটি DJL NeuronX ধারক ব্যবহার সম্পর্কে আরও তথ্যের জন্য। নিম্নলিখিত কোড দেখায় কিভাবে Amazon SageMaker Python SDK ব্যবহার করে একটি মডেল স্থাপন করতে হয়:
পরীক্ষা মডেল শেষ পয়েন্ট
মডেলটি সফলভাবে মোতায়েন হওয়ার পরে, আমরা ভবিষ্যদ্বাণীকারীর কাছে একটি নমুনা অনুরোধ পাঠিয়ে শেষ পয়েন্টটি যাচাই করতে পারি:
নমুনা আউটপুট নিম্নরূপ দেখানো হয়:
ডেটা বিশ্লেষণের পরিপ্রেক্ষিতে, মেশিন লার্নিং (ML) একটি পরিসংখ্যানগত কৌশলকে বোঝায় যা একটি পরিসংখ্যানের সুযোগকে পুনরাবৃত্তিমূলকভাবে সংকুচিত করে একটি ক্রমবর্ধমান জটিলতা এবং নির্ভুলতার সাথে একটি ডেটাসেট থেকে ভবিষ্যদ্বাণীমূলক শক্তি বের করতে সক্ষম।
মেশিন লার্নিং একটি নতুন পরিসংখ্যানগত কৌশল নয়, বরং বিদ্যমান কৌশলগুলির সংমিশ্রণ। উপরন্তু, এটি একটি নির্দিষ্ট ডেটাসেটের সাথে ব্যবহার করার জন্য বা একটি নির্দিষ্ট ফলাফল তৈরি করার জন্য ডিজাইন করা হয়নি। বরং, এটি যেকোন ডেটাসেটের সাথে খাপ খাইয়ে নিতে এবং যেকোন ফলাফল সম্পর্কে ভবিষ্যদ্বাণী করতে যথেষ্ট নমনীয় হওয়ার জন্য ডিজাইন করা হয়েছিল।
পরিষ্কার কর
আপনি যদি সিদ্ধান্ত নেন যে আপনি আর সেজমেকার এন্ডপয়েন্ট চালু রাখতে চান না, আপনি এটি ব্যবহার করে মুছে ফেলতে পারেন Python (boto3), AWS CLI বা Amazon SageMaker কনসোলের জন্য AWS SDK। অতিরিক্তভাবে, আপনি এটিও করতে পারেন অ্যামাজন সেজমেকার স্টুডিও রিসোর্স বন্ধ করুন যেগুলোর আর প্রয়োজন নেই।
উপসংহার
এই পোস্টে, আমরা আপনাকে দেখিয়েছি কিভাবে একটি একক GPU দৃষ্টান্ত ব্যবহার করে 2-বিট কোয়ান্টাইজেশন সহ LoRA অ্যাডাপ্টার ব্যবহার করে একটি Llama7-4b মডেলকে ফাইন-টিউন করা যায়। তারপরে আমরা একটি DJL পরিবেশনকারী কন্টেইনার ব্যবহার করে Amazon SageMaker-এ হোস্ট করা একটি Inf2 উদাহরণে মডেলটি স্থাপন করেছি। অবশেষে, আমরা সেজমেকার পাইথন SDK ব্যবহার করে একটি পাঠ্য প্রজন্মের ভবিষ্যদ্বাণী সহ অ্যামাজন সেজমেকার মডেলের শেষ পয়েন্টটিকে যাচাই করেছি। এগিয়ে যান এবং এটি ব্যবহার করে দেখুন, আমরা আপনার প্রতিক্রিয়া শুনতে ভালোবাসি। AWS Inferentia এর সাথে আরও ক্ষমতা এবং নতুন উদ্ভাবনের আপডেটের জন্য সাথে থাকুন।
AWS নিউরন সম্পর্কে আরও উদাহরণের জন্য, দেখুন aws-নিউরন-নমুনা.
লেখক সম্পর্কে
ওয়েই তেহ AWS-এর একজন সিনিয়র এআই/এমএল স্পেশালিস্ট সলিউশন আর্কিটেক্ট। তিনি আমাজন মেশিন লার্নিং পরিষেবা এবং মেশিন লার্নিং-ভিত্তিক সমাধানগুলিতে ফোকাস করে গ্রাহকদের তাদের AWS যাত্রাকে এগিয়ে নিতে সাহায্য করার জন্য উত্সাহী৷ কাজের বাইরে, তিনি তার পরিবারের সাথে ক্যাম্পিং, ফিশিং এবং হাইকিংয়ের মতো আউটডোর ক্রিয়াকলাপ উপভোগ করেন।
কিংওয়েআমি লি অ্যামাজন ওয়েব সার্ভিসের একজন মেশিন লার্নিং বিশেষজ্ঞ। তিনি তার পিএইচ.ডি. অপারেশনস রিসার্চে যখন তিনি তার উপদেষ্টার গবেষণা অনুদানের হিসাব ভেঙ্গে দেন এবং নোবেল পুরস্কার প্রদানে ব্যর্থ হন তার প্রতিশ্রুতি। বর্তমানে তিনি আর্থিক পরিষেবা এবং বীমা শিল্পের গ্রাহকদের AWS-এ মেশিন লার্নিং সমাধান তৈরি করতে সহায়তা করেন। অবসর সময়ে তিনি পড়া ও পড়াতে পছন্দ করেন।
- এসইও চালিত বিষয়বস্তু এবং পিআর বিতরণ। আজই পরিবর্ধিত পান।
- PlatoData.Network উল্লম্ব জেনারেটিভ Ai. নিজেকে ক্ষমতায়িত করুন। এখানে প্রবেশ করুন.
- প্লেটোএআইস্ট্রিম। Web3 ইন্টেলিজেন্স। জ্ঞান প্রসারিত. এখানে প্রবেশ করুন.
- প্লেটোইএসজি। কার্বন, ক্লিনটেক, শক্তি, পরিবেশ সৌর, বর্জ্য ব্যবস্থাপনা. এখানে প্রবেশ করুন.
- প্লেটো হেলথ। বায়োটেক এবং ক্লিনিক্যাল ট্রায়াল ইন্টেলিজেন্স। এখানে প্রবেশ করুন.
- উত্স: https://aws.amazon.com/blogs/machine-learning/fine-tune-llama-2-using-qlora-and-deploy-it-on-amazon-sagemaker-with-aws-inferentia2/
- : আছে
- : হয়
- :না
- :কোথায়
- $ ইউপি
- 1
- 10
- 100
- 11
- 15%
- 16
- 19
- 24
- 300
- 7
- 70
- 8
- a
- সম্পর্কে
- উপরে
- বেগবর্ধক ব্যক্তি
- ত্বক
- প্রবেশ
- হিসাব
- সঠিকতা
- অর্জন করা
- দিয়ে
- ক্রিয়াকলাপ
- খাপ খাওয়ানো
- অতিরিক্ত
- উপরন্তু
- ঠিকানা
- আগাম
- পর
- এগিয়ে
- AI
- এআই / এমএল
- AL
- অনুমতি
- বরাবর
- আরম্ভ
- এছাড়াও
- মর্দানী স্ত্রীলোক
- অ্যামাজন মেশিন লার্নিং
- আমাজন সেজমেকার
- অ্যামাজন সেজমেকার স্টুডিও
- অ্যামাজন ওয়েব সার্ভিসেস
- an
- বিশ্লেষণ
- এবং
- কোন
- API গুলি
- প্রয়োগ করা
- অভিগমন
- রয়েছি
- AS
- At
- সংযুক্ত
- গাড়ী
- সহজলভ্য
- ডেস্কটপ AWS
- এডাব্লুএস ইনফেরেন্টিয়া
- বল
- ভিত্তি
- ভিত্তি
- Batching
- BE
- হয়েছে
- সুবিধা
- সর্বোত্তম
- উত্তম
- মধ্যে
- বিলিয়ন
- ব্লগ
- ব্লগ
- ব্রিজ
- ভেঙে
- নির্মাণ করা
- কিন্তু
- by
- ক্যাম্পিং
- CAN
- ক্ষমতা
- সক্ষম
- বেছে নিন
- মেঘ
- কোড
- সংগ্রহ
- সমাহার
- সম্পূর্ণ
- জটিলতা
- উপাদান
- গনা
- কনফিগারেশন
- কনফিগার
- কানেক্টিভিটি
- কনসোল
- আধার
- ধারণ
- প্রসঙ্গ
- নিয়ন্ত্রণ
- মূল্য
- পারা
- নির্মিত
- এখন
- গ্রাহকদের
- উপাত্ত
- তথ্য বিশ্লেষণ
- সিদ্ধান্ত নেন
- গভীর
- গভীর জ্ঞানার্জন
- ডিফল্ট
- নির্ধারণ করা
- সংজ্ঞায়িত
- ডিগ্রী
- প্রদান করা
- বিতরণ
- স্থাপন
- মোতায়েন
- মোতায়েন
- বর্ণিত
- পরিকল্পিত
- উন্নয়ন
- যন্ত্র
- ডকশ্রমিক
- নিচে
- কারণে
- সময়
- প্রগতিশীল
- E&T
- প্রতি
- পারেন
- সম্ভব
- সর্বশেষ সীমা
- শেষপ্রান্ত
- এন্ড পয়েন্ট
- ইঞ্জিন
- ইঞ্জিন
- যথেষ্ট
- পরিবেশ
- ভুল
- ইত্যাদি
- থার (eth)
- সব
- উদাহরণ
- উদাহরণ
- নিষ্পন্ন
- বিদ্যমান
- ব্যয়বহুল
- অভিজ্ঞতা
- অতিরিক্ত
- মুখ
- সমাধা
- ব্যর্থ
- মিথ্যা
- পরিবার
- দ্রুত
- সমন্বিত
- প্রতিক্রিয়া
- ফাইল
- চূড়ান্ত
- পরিশেষে
- আর্থিক
- অর্থনৈতিক সেবা
- প্রথম
- মাছ ধরা
- নমনীয়
- মনোযোগ
- অনুসরণ করা
- অনুসৃত
- অনুসরণ
- অনুসরণ
- পদাঙ্ক
- জন্য
- বিন্যাস
- পাওয়া
- চার
- অবকাঠামো
- ঠাণ্ডা
- থেকে
- সম্পূর্ণ
- তদ্ব্যতীত
- প্রজন্ম
- সৃজক
- জেনারেটিভ এআই
- পাওয়া
- দাও
- Go
- চালু
- জিপিইউ
- প্রদান
- হার্ডওয়্যারের
- he
- শোনা
- সাহায্য
- সাহায্য
- এখানে
- উচ্চ
- উচ্চ পারদর্শিতা
- হাইকিং
- তার
- নিমন্ত্রণকর্তা
- হোস্ট
- হোস্টিং
- ঘর
- কিভাবে
- কিভাবে
- যাহোক
- এইচটিএমএল
- HTTP
- HTTPS দ্বারা
- ID
- if
- ভাবমূর্তি
- বাস্তবায়ন
- বাস্তবায়ন
- in
- অন্তর্ভুক্ত করা
- অন্তর্ভুক্ত
- সুদ্ধ
- ক্রমবর্ধমান
- স্বাধীন
- শিল্প
- তথ্য
- প্রবর্তিত
- ইনপুট
- ইনপুট
- উদাহরণ
- দৃষ্টান্ত
- নির্দেশাবলী
- বীমা
- বীমা শিল্প
- সংহত
- সংহত
- মধ্যে
- উপস্থাপিত
- IT
- পুনরাবৃত্তির
- এর
- জাভা
- যাত্রা
- JPG
- JSON
- রাখা
- চাবি
- সজ্জা
- কিট (SDK)
- ভাষা
- বড়
- বৃহত্তর
- সর্বশেষ
- চালু
- স্তর
- স্তর
- শিক্ষা
- লম্বা
- উচ্চতা
- লাইব্রেরি
- লাইব্রেরি
- জীবনচক্র
- মত
- পছন্দ
- লাইন
- তালিকা
- শিখা
- বোঝা
- বোঝাই
- অবস্থান
- আর
- ভালবাসা
- নিম্ন
- মেশিন
- মেশিন লার্নিং
- প্রধান
- রক্ষণাবেক্ষণ
- করা
- ব্যবস্থাপনা
- অনেক
- সর্বাধিক করা হচ্ছে
- স্মৃতি
- মার্জ
- পদ্ধতি
- পদ্ধতি
- হতে পারে
- ML
- মডেল
- মডেল
- মডিউল
- মনিটর
- অধিক
- সেতু
- অনেক
- বহু
- নাম
- Nas
- প্রয়োজন
- নেটওয়ার্ক
- নেটওয়ার্ক ট্রাফিক
- নেটওয়ার্কিং
- নতুন
- না।
- নোবেল পুরস্কার
- না
- বিঃদ্রঃ
- সংখ্যা
- of
- on
- ONE
- কেবল
- খোলা
- ওপেন সোর্স
- অপারেশনস
- অপ্টিমাইজেশান
- অপ্টিমিজ
- অপ্টিমাইজ
- পছন্দ
- অপশন সমূহ
- or
- অন্যান্য
- অন্যভাবে
- আমাদের
- ফলাফল
- বহিরঙ্গন
- প্রান্তরেখা
- আউটপুট
- বাহিরে
- শেষ
- নিজের
- প্যাকেজ
- কাগজ
- সমান্তরাল
- স্থিতিমাপ
- পরামিতি
- অংশ
- যন্ত্রাংশ
- পাস
- কামুক
- পথ
- কর্মক্ষমতা
- সম্পাদিত
- পরিকল্পনা
- Plato
- প্লেটো ডেটা ইন্টেলিজেন্স
- প্লেটোডাটা
- দয়া করে
- জনপ্রিয়
- পোস্ট
- পোস্ট
- ক্ষমতা
- চালিত
- অনুশীলন
- স্পষ্টতা
- ভবিষ্যদ্বাণী
- ভবিষ্যতবাণী
- ভবিষ্যদ্বাণীপূর্ণ
- Predictor
- পূর্বশর্ত
- ব্যক্তিগত
- পুরস্কার
- সম্ভাবনা
- সমস্যা
- প্রক্রিয়া
- উৎপাদন করা
- উত্পাদনের
- প্রতিশ্রুত
- বৈশিষ্ট্য
- প্রদান
- প্রকাশ্যে
- প্রকাশিত
- পাইথন
- পাইটার্চ
- পরিসর
- রেঞ্জিং
- বরং
- পড়া
- পাঠক
- পড়া
- গৃহীত
- সম্প্রতি
- সুপারিশ করা
- হ্রাস করা
- পড়ুন
- বোঝায়
- সংগ্রহস্থলের
- অনুরোধ
- অনুরোধ
- প্রয়োজনীয়
- প্রয়োজন
- গবেষণা
- Resources
- প্রতিক্রিয়া
- প্রতিক্রিয়া
- অধিকার
- চালান
- দৌড়
- বলিদান
- ঋষি নির্মাতা
- সংরক্ষণ করুন
- স্কেল
- আরোহী
- সুযোগ
- SDK
- নির্বিঘ্ন
- দ্বিতীয়
- দ্বিতীয় প্রজন্মের
- অধ্যায়
- নিরাপত্তা
- দেখ
- পাঠানোর
- জ্যেষ্ঠ
- ক্রম
- পরিবেশন করা
- সেবা
- সেবা
- ভজনা
- সেট
- বিন্যাস
- সেটআপ
- বিভিন্ন
- সংক্ষিপ্ত
- গ্লাসকেস
- দেখিয়েছেন
- প্রদর্শিত
- শো
- থেকে
- একক
- আয়তন
- ছোট
- টুকিটাকি
- So
- সফটওয়্যার
- সফটওয়্যার উন্নয়ন
- সফটওয়্যার ডেভেলপমেন্ট কিট
- সমাধান
- সলিউশন
- কখনও কখনও
- উৎস
- সোর্স
- বিশেষজ্ঞ
- নির্দিষ্ট
- নিদিষ্ট
- মান
- শুরু
- পরিসংখ্যানসংক্রান্ত
- থাকা
- ধাপ
- প্রারম্ভিক ব্যবহারের নির্দেশাবলী
- সঞ্চিত
- চিত্রশালা
- সফলভাবে
- এমন
- সমর্থন
- সমর্থিত
- সমর্থন
- কাজ
- শিক্ষাদান
- প্রযুক্তি
- প্রযুক্তি
- tensorflow
- প্রমাণিত
- পাঠ
- পাঠ্য প্রজন্ম
- যে
- সার্জারির
- তাদের
- তাহাদিগকে
- তারপর
- এইগুলো
- এই
- দ্বারা
- টিম
- সময়
- থেকে
- টোকেন
- টোকেন
- অত্যধিক
- শীর্ষ
- বিষয়
- মশাল
- ট্রাফিক
- রেলগাড়ি
- প্রশিক্ষিত
- প্রশিক্ষণ
- ট্রান্সফরমার
- দশ সহস্রের ত্রিঘাত
- সত্য
- চেষ্টা
- দুই
- আদর্শ
- আপডেট
- আপলোড করা
- কোনো URI
- URL টি
- ব্যবহার
- ব্যবহৃত
- ব্যবহারকারী
- ব্যবহারকারীর অভিজ্ঞতা
- ব্যবহার
- সাধারণত
- যাচাই করুন
- যাচাই
- সংস্করণ
- মাধ্যমে
- ভার্চুয়াল
- পদব্রজে ভ্রমণ
- , walkthrough
- প্রয়োজন
- ছিল
- we
- ওয়েব
- ওয়েব সার্ভিস
- ওজন
- আমরা একটি
- কি
- যে
- যখন
- ইচ্ছা
- সঙ্গে
- মধ্যে
- ছাড়া
- হয়া যাই ?
- কর্মী
- কর্মপ্রবাহ
- লেখা
- লেখা
- আপনি
- আপনার
- zephyrnet