AWS Inferentia এবং AWS Trainium-এর সাথে Amazon SageMaker JumpStart-এ সাশ্রয়ীভাবে Llama 2 মডেলগুলি ফাইন-টিউন করুন এবং স্থাপন করুন | আমাজন ওয়েব সার্ভিসেস

AWS Inferentia এবং AWS Trainium-এর সাথে Amazon SageMaker JumpStart-এ সাশ্রয়ীভাবে Llama 2 মডেলগুলি ফাইন-টিউন করুন এবং স্থাপন করুন | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 3067921

আজ, আমরা Llama 2 অনুমান এবং ফাইন-টিউনিং সমর্থনের উপলব্ধতা ঘোষণা করতে পেরে উত্তেজিত এডব্লিউএস ট্রেনিয়াম এবং এডাব্লুএস ইনফেরেন্টিয়া মধ্যে উদাহরণ আমাজন সেজমেকার জাম্পস্টার্ট. AWS Trainium এবং Inferentia ভিত্তিক দৃষ্টান্ত ব্যবহার করে, SageMaker-এর মাধ্যমে, ব্যবহারকারীদের 50% পর্যন্ত ফাইন-টিউনিং খরচ কমাতে সাহায্য করতে পারে, এবং প্রতি টোকেন লেটেন্সি কমিয়ে 4.7x কম স্থাপনার খরচ। লামা 2 হল একটি অটো-রিগ্রেসিভ জেনারেটিভ টেক্সট ল্যাঙ্গুয়েজ মডেল যা একটি অপ্টিমাইজড ট্রান্সফরমার আর্কিটেকচার ব্যবহার করে। একটি সর্বজনীনভাবে উপলব্ধ মডেল হিসাবে, Llama 2 অনেক NLP কাজের জন্য ডিজাইন করা হয়েছে যেমন পাঠ্য শ্রেণিবিন্যাস, অনুভূতি বিশ্লেষণ, ভাষা অনুবাদ, ভাষা মডেলিং, পাঠ্য প্রজন্ম এবং সংলাপ সিস্টেম। Llama 2-এর মতো এলএলএমগুলিকে ফাইন-টিউনিং এবং স্থাপন করা, ভাল গ্রাহক অভিজ্ঞতা প্রদানের জন্য রিয়েল টাইম পারফরম্যান্স পূরণ করা ব্যয়বহুল বা চ্যালেঞ্জিং হতে পারে। Trainium এবং AWS Inferentia, দ্বারা সক্ষম AWS নিউরন সফ্টওয়্যার ডেভেলপমেন্ট কিট (SDK), Llama 2 মডেলের প্রশিক্ষণ এবং অনুমানের জন্য একটি উচ্চ-কর্মক্ষমতা এবং সাশ্রয়ী বিকল্প অফার করে।

এই পোস্টে, আমরা SageMaker JumpStart-এ Trainium এবং AWS Inferentia দৃষ্টান্তগুলিতে লামা 2 কীভাবে স্থাপন এবং সূক্ষ্ম-টিউন করতে হয় তা প্রদর্শন করি।

সমাধান ওভারভিউ

এই ব্লগে, আমরা নিম্নলিখিত পরিস্থিতিগুলির মধ্য দিয়ে হাঁটব:

  1. উভয় ক্ষেত্রে AWS Inferentia দৃষ্টান্তে Llama 2 স্থাপন করুন অ্যামাজন সেজমেকার স্টুডিও UI, একটি এক-ক্লিক স্থাপনার অভিজ্ঞতা এবং SageMaker Python SDK সহ।
  2. সেজমেকার স্টুডিও ইউআই এবং সেজমেকার পাইথন SDK উভয় ক্ষেত্রেই ট্রেনিয়ামের দৃষ্টান্তে লামা 2 সূক্ষ্ম-টিউন করুন।
  3. ফাইন-টিউনিং এর কার্যকারিতা দেখানোর জন্য সূক্ষ্ম-টিউনড লামা 2 মডেলের কার্যকারিতা পূর্ব-প্রশিক্ষিত মডেলের সাথে তুলনা করুন।

হাত পেতে, দেখুন GitHub উদাহরণ নোটবুক.

SageMaker Studio UI এবং Python SDK ব্যবহার করে AWS Inferentia দৃষ্টান্তগুলিতে Llama 2 স্থাপন করুন

এই বিভাগে, আমরা প্রদর্শন করি যে কীভাবে একটি এক-ক্লিক স্থাপনার জন্য সেজমেকার স্টুডিও ইউআই ব্যবহার করে এবং পাইথন SDK-এর জন্য AWS Inferentia উদাহরণগুলিতে Llama 2 স্থাপন করা যায়।

SageMaker স্টুডিও UI-তে Llama 2 মডেলটি আবিষ্কার করুন

SageMaker JumpStart সর্বজনীনভাবে উপলব্ধ এবং মালিকানাধীন উভয় অ্যাক্সেস প্রদান করে ভিত্তি মডেল. ফাউন্ডেশন মডেলগুলি অনবোর্ড করা হয় এবং তৃতীয় পক্ষ এবং মালিকানাধীন প্রদানকারীদের থেকে রক্ষণাবেক্ষণ করা হয়। যেমন, তারা মডেল উত্স দ্বারা মনোনীত বিভিন্ন লাইসেন্সের অধীনে মুক্তি পায়। আপনি যে কোনো ফাউন্ডেশন মডেল ব্যবহার করেন তার লাইসেন্স পর্যালোচনা করতে ভুলবেন না। আপনি কোন প্রযোজ্য লাইসেন্স শর্তাবলী পর্যালোচনা এবং মেনে চলার জন্য দায়ী এবং সামগ্রী ডাউনলোড বা ব্যবহার করার আগে আপনার ব্যবহারের ক্ষেত্রে সেগুলি গ্রহণযোগ্য কিনা তা নিশ্চিত করার জন্য আপনি দায়ী৷

আপনি সেজমেকার স্টুডিও ইউআই এবং সেজমেকার পাইথন এসডিকে-তে সেজমেকার জাম্পস্টার্টের মাধ্যমে লামা 2 ফাউন্ডেশন মডেলগুলি অ্যাক্সেস করতে পারেন। এই বিভাগে, আমরা সেজমেকার স্টুডিওতে মডেলগুলি কীভাবে আবিষ্কার করব তা নিয়ে যাই।

সেজমেকার স্টুডিও হল একটি ইন্টিগ্রেটেড ডেভেলপমেন্ট এনভায়রনমেন্ট (আইডিই) যা একটি একক ওয়েব-ভিত্তিক ভিজ্যুয়াল ইন্টারফেস প্রদান করে যেখানে আপনি ডেটা প্রস্তুত করা থেকে শুরু করে আপনার এমএল তৈরি, প্রশিক্ষণ এবং স্থাপন পর্যন্ত সমস্ত মেশিন লার্নিং (এমএল) ডেভেলপমেন্ট ধাপগুলি সম্পাদন করার জন্য উদ্দেশ্য-নির্মিত সরঞ্জামগুলি অ্যাক্সেস করতে পারেন। মডেল কীভাবে শুরু করবেন এবং সেজমেকার স্টুডিও সেট আপ করবেন সে সম্পর্কে আরও বিশদ বিবরণের জন্য দেখুন আমাজন সেজমেকার স্টুডিও।

আপনি সেজমেকার স্টুডিওতে থাকার পরে, আপনি সেজমেকার জাম্পস্টার্ট অ্যাক্সেস করতে পারবেন, যার মধ্যে রয়েছে পূর্ব-প্রশিক্ষিত মডেল, নোটবুক এবং পূর্বনির্মাণ সমাধানগুলি পূর্বনির্মাণ এবং স্বয়ংক্রিয় সমাধান. কিভাবে মালিকানাধীন মডেলগুলি অ্যাক্সেস করতে হয় সে সম্পর্কে আরও বিস্তারিত তথ্যের জন্য, পড়ুন Amazon SageMaker স্টুডিওতে Amazon SageMaker JumpStart থেকে মালিকানাধীন ভিত্তি মডেল ব্যবহার করুন.

সেজমেকার জাম্পস্টার্ট ল্যান্ডিং পৃষ্ঠা থেকে, আপনি সমাধান, মডেল, নোটবুক এবং অন্যান্য সংস্থানগুলির জন্য ব্রাউজ করতে পারেন।

আপনি যদি Llama 2 মডেলগুলি দেখতে না পান, তাহলে বন্ধ করে এবং পুনরায় চালু করে আপনার SageMaker স্টুডিও সংস্করণ আপডেট করুন। সংস্করণ আপডেট সম্পর্কে আরও তথ্যের জন্য, পড়ুন বন্ধ করুন এবং স্টুডিও ক্লাসিক অ্যাপ আপডেট করুন.

এছাড়াও আপনি চয়ন করে অন্যান্য মডেল বৈকল্পিক খুঁজে পেতে পারেন সমস্ত পাঠ্য প্রজন্মের মডেলগুলি অন্বেষণ করুন৷ বা অনুসন্ধান llama or neuron অনুসন্ধান বাক্সে আপনি এই পৃষ্ঠায় লামা 2 নিউরন মডেল দেখতে সক্ষম হবেন।

সেজমেকার জাম্পস্টার্টের সাথে Llama-2-13b মডেলটি স্থাপন করুন

আপনি মডেল সম্পর্কে বিশদ বিবরণ দেখতে মডেল কার্ড চয়ন করতে পারেন যেমন লাইসেন্স, প্রশিক্ষণে ব্যবহৃত ডেটা এবং এটি কীভাবে ব্যবহার করতে হয়। আপনি দুটি বোতাম খুঁজে পেতে পারেন, স্থাপন করুন এবং নোটবুক খুলুন, যা আপনাকে এই নো-কোড উদাহরণ ব্যবহার করে মডেল ব্যবহার করতে সাহায্য করে।

যখন আপনি যেকোনো একটি বোতাম বেছে নেবেন, তখন একটি পপ-আপ আপনাকে স্বীকার করার জন্য শেষ ব্যবহারকারী লাইসেন্স চুক্তি এবং গ্রহণযোগ্য ব্যবহার নীতি (AUP) দেখাবে।

আপনি নীতিগুলি স্বীকার করার পরে, আপনি মডেলের শেষ বিন্দু স্থাপন করতে পারেন এবং পরবর্তী বিভাগে পদক্ষেপগুলির মাধ্যমে এটি ব্যবহার করতে পারেন।

Python SDK এর মাধ্যমে Llama 2 নিউরন মডেল স্থাপন করুন

আপনি যখন চয়ন স্থাপন করুন এবং শর্তাবলী স্বীকার করুন, মডেল স্থাপনা শুরু হবে। বিকল্পভাবে, আপনি বেছে নিয়ে উদাহরণ নোটবুকের মাধ্যমে স্থাপন করতে পারেন নোটবুক খুলুন. উদাহরণ নোটবুকটি অনুমানের জন্য মডেলটি কীভাবে স্থাপন করতে হয় এবং সংস্থানগুলি পরিষ্কার করতে হয় সে সম্পর্কে শেষ থেকে শেষ নির্দেশিকা প্রদান করে।

Trainium বা AWS Inferentia উদাহরণে একটি মডেল স্থাপন বা সূক্ষ্ম-টিউন করতে, আপনাকে প্রথমে PyTorch Neuron কল করতে হবে (টর্চ-নিউরনক্স) মডেলটিকে একটি নিউরন-নির্দিষ্ট গ্রাফে কম্পাইল করতে, যা এটিকে ইনফেরেনশিয়ার নিউরনকোরসের জন্য অপ্টিমাইজ করবে। ব্যবহারকারীরা অ্যাপ্লিকেশনের উদ্দেশ্যগুলির উপর নির্ভর করে কম্পাইলারকে সর্বনিম্ন লেটেন্সি বা সর্বোচ্চ থ্রুপুটের জন্য অপ্টিমাইজ করার নির্দেশ দিতে পারেন। জাম্পস্টার্টে, আমরা বিভিন্ন কনফিগারেশনের জন্য নিউরন গ্রাফগুলিকে প্রাক-সংকলন করেছি, যাতে ব্যবহারকারীদের সংকলন পদক্ষেপগুলি চুমুক দিতে পারে, দ্রুত সূক্ষ্ম-টিউনিং এবং মডেল স্থাপন করতে সক্ষম করে।

উল্লেখ্য যে নিউরন প্রাক-সংকলিত গ্রাফটি নিউরন কম্পাইলার সংস্করণের একটি নির্দিষ্ট সংস্করণের উপর ভিত্তি করে তৈরি করা হয়েছে।

AWS Inferentia-ভিত্তিক দৃষ্টান্তগুলিতে LIama 2 স্থাপন করার দুটি উপায় রয়েছে। প্রথম পদ্ধতিটি পূর্ব-নির্মিত কনফিগারেশন ব্যবহার করে, এবং আপনাকে কোডের মাত্র দুটি লাইনে মডেল স্থাপন করতে দেয়। দ্বিতীয়টিতে, কনফিগারেশনের উপর আপনার আরও বেশি নিয়ন্ত্রণ রয়েছে। আগে থেকে তৈরি কনফিগারেশনের সাথে প্রথম পদ্ধতিটি শুরু করা যাক এবং উদাহরণ হিসেবে প্রাক-প্রশিক্ষিত লামা 2 13B নিউরন মডেল ব্যবহার করা যাক। নিচের কোডটি দেখায় কিভাবে Llama 13B স্থাপন করতে হয় মাত্র দুটি লাইন দিয়ে:

from sagemaker.jumpstart.model import JumpStartModel

model_id = "meta-textgenerationneuron-llama-2-13b"
model = JumpStartModel(model_id=model_id)
pretrained_predictor = model.deploy(accept_eula=False) ## To set 'accept_eula' to be True to deploy 

এই মডেলগুলিতে অনুমান সঞ্চালন করতে, আপনাকে যুক্তিটি নির্দিষ্ট করতে হবে accept_eula হতে True এর অংশ হিসাবে model.deploy() কল এই যুক্তিটিকে সত্য হিসাবে সেট করা, স্বীকার করে যে আপনি মডেলটির EULA পড়েছেন এবং গ্রহণ করেছেন। EULA মডেল কার্ডের বিবরণে বা থেকে পাওয়া যাবে মেটা ওয়েবসাইট.

Llama 2 13B-এর ডিফল্ট উদাহরণের ধরন হল ml.inf2.8xlarge। এছাড়াও আপনি অন্যান্য সমর্থিত মডেল আইডি চেষ্টা করতে পারেন:

  • meta-textgenerationneuron-llama-2-7b
  • meta-textgenerationneuron-llama-2-7b-f (চ্যাট মডেল)
  • meta-textgenerationneuron-llama-2-13b-f (চ্যাট মডেল)

বিকল্পভাবে, আপনি যদি ডিপ্লোয়মেন্ট কনফিগারেশনের উপর আরো নিয়ন্ত্রণ করতে চান, যেমন প্রসঙ্গ দৈর্ঘ্য, টেনসর সমান্তরাল ডিগ্রী, এবং সর্বাধিক রোলিং ব্যাচের আকার, আপনি পরিবেশগত ভেরিয়েবলের মাধ্যমে তাদের পরিবর্তন করতে পারেন, যেমন এই বিভাগে প্রদর্শিত হয়েছে। স্থাপনার অন্তর্নিহিত ডিপ লার্নিং কন্টেইনার (DLC) হল বড় মডেল ইনফারেন্স (LMI) NeuronX DLC. পরিবেশগত ভেরিয়েবলগুলি নিম্নরূপ:

  • OPTION_N_POSITIONS - ইনপুট এবং আউটপুট টোকেনের সর্বাধিক সংখ্যা। উদাহরণস্বরূপ, যদি আপনি মডেল কম্পাইল সঙ্গে OPTION_N_POSITIONS 512 হিসাবে, তারপর আপনি 128 এর একটি ইনপুট টোকেন (ইনপুট প্রম্পট আকার) ব্যবহার করতে পারেন যার সর্বোচ্চ আউটপুট টোকেন 384 (মোট ইনপুট এবং আউটপুট টোকেন হতে হবে 512)। সর্বাধিক আউটপুট টোকেনের জন্য, 384-এর নীচের যে কোনও মান ঠিক আছে, তবে আপনি এটির বাইরে যেতে পারবেন না (উদাহরণস্বরূপ, ইনপুট 256 এবং আউটপুট 512)।
  • OPTION_TENSOR_PARALLEL_DEGREE - AWS Inferentia দৃষ্টান্তে মডেল লোড করার জন্য নিউরনকোরের সংখ্যা।
  • OPTION_MAX_ROLLING_BATCH_SIZE - সমসাময়িক অনুরোধের জন্য সর্বোচ্চ ব্যাচের আকার।
  • OPTION_DTYPE - মডেল লোড করার তারিখের ধরন।

নিউরন গ্রাফের সংকলন প্রসঙ্গ দৈর্ঘ্যের উপর নির্ভর করে (OPTION_N_POSITIONS), টেনসর সমান্তরাল ডিগ্রী (OPTION_TENSOR_PARALLEL_DEGREE), সর্বোচ্চ ব্যাচ আকার (OPTION_MAX_ROLLING_BATCH_SIZE), এবং ডেটা টাইপ (OPTION_DTYPE) মডেল লোড করতে। সেজমেকার জাম্পস্টার্ট রানটাইম সংকলন এড়াতে পূর্ববর্তী পরামিতিগুলির জন্য বিভিন্ন কনফিগারেশনের জন্য নিউরন গ্রাফ পূর্ব-সংকলিত করেছে। পূর্ব-সংকলিত গ্রাফগুলির কনফিগারেশনগুলি নিম্নলিখিত সারণীতে তালিকাভুক্ত করা হয়েছে। যতক্ষণ না পরিবেশগত ভেরিয়েবলগুলি নিম্নলিখিত শ্রেণীগুলির মধ্যে একটিতে পড়ে, ততক্ষণ পর্যন্ত নিউরন গ্রাফগুলির সংকলন বাদ দেওয়া হবে।

LIama-2 7B এবং LIama-2 7B চ্যাট
দৃষ্টান্তের ধরণ OPTION_N_POSITIONS OPTION_MAX_ROLLING_BATCH_SIZE OPTION_TENSOR_PARALLEL_DEGREE OPTION_DTYPE
ml.inf2.xlarge 1024 1 2 fp16
ml.inf2.8xlarge 2048 1 2 fp16
ml.inf2.24xlarge 4096 4 4 fp16
ml.inf2.24xlarge 4096 4 8 fp16
ml.inf2.24xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 4 fp16
ml.inf2.48xlarge 4096 4 8 fp16
ml.inf2.48xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 24 fp16
LIama-2 13B এবং LIama-2 13B চ্যাট
ml.inf2.8xlarge 1024 1 2 fp16
ml.inf2.24xlarge 2048 4 4 fp16
ml.inf2.24xlarge 4096 4 8 fp16
ml.inf2.24xlarge 4096 4 12 fp16
ml.inf2.48xlarge 2048 4 4 fp16
ml.inf2.48xlarge 4096 4 8 fp16
ml.inf2.48xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 24 fp16

নিচে Llama 2 13B স্থাপন এবং সমস্ত উপলব্ধ কনফিগারেশন সেট করার একটি উদাহরণ।

from sagemaker.jumpstart.model import JumpStartModel

model_id = "meta-textgenerationneuron-llama-2-13b-f"
model = JumpStartModel(
    model_id=model_id,
    env={
        "OPTION_DTYPE": "fp16",
        "OPTION_N_POSITIONS": "4096",
        "OPTION_TENSOR_PARALLEL_DEGREE": "12",
        "OPTION_MAX_ROLLING_BATCH_SIZE": "4", 
    },
    instance_type="ml.inf2.24xlarge"  
)
pretrained_predictor = model.deploy(accept_eula=False) ## To set 'accept_eula' to be True to deploy 

এখন যেহেতু আমরা Llama-2-13b মডেলটি স্থাপন করেছি, আমরা শেষ বিন্দুকে আহ্বান করে এটির সাথে অনুমান চালাতে পারি। নিম্নলিখিত কোড স্নিপেট টেক্সট জেনারেশন নিয়ন্ত্রণ করতে সমর্থিত ইনফারেন্স প্যারামিটার ব্যবহার করে দেখায়:

  • সর্বোচ্চ দৈর্ঘ্য - আউটপুট দৈর্ঘ্য (যা ইনপুট প্রসঙ্গ দৈর্ঘ্য অন্তর্ভুক্ত) না পৌঁছানো পর্যন্ত মডেলটি পাঠ্য তৈরি করে max_length. নির্দিষ্ট করা হলে, এটি একটি ধনাত্মক পূর্ণসংখ্যা হতে হবে।
  • সর্বোচ্চ_নতুন_টোকেন - আউটপুট দৈর্ঘ্য (ইনপুট প্রসঙ্গের দৈর্ঘ্য ব্যতীত) পৌঁছানো পর্যন্ত মডেলটি পাঠ্য তৈরি করে max_new_tokens. নির্দিষ্ট করা হলে, এটি একটি ধনাত্মক পূর্ণসংখ্যা হতে হবে।
  • সংখ্যা_বিম - এটি লোভী অনুসন্ধানে ব্যবহৃত বিমের সংখ্যা নির্দেশ করে। নির্দিষ্ট করা হলে, এটি অবশ্যই এর থেকে বড় বা সমান একটি পূর্ণসংখ্যা হতে হবে num_return_sequences.
  • no_repeat_ngram_size – মডেল নিশ্চিত করে যে শব্দের একটি ক্রম no_repeat_ngram_size আউটপুট ক্রম পুনরাবৃত্তি হয় না. নির্দিষ্ট করা হলে, এটি অবশ্যই 1-এর থেকে বড় একটি ধনাত্মক পূর্ণসংখ্যা হতে হবে।
  • তাপমাত্রা - এটি আউটপুটে এলোমেলোতা নিয়ন্ত্রণ করে। উচ্চ তাপমাত্রার ফলে কম-সম্ভাব্য শব্দের আউটপুট ক্রম হয়; কম তাপমাত্রার ফলে উচ্চ-সম্ভাব্য শব্দের আউটপুট ক্রম হয়। যদি temperature 0 এর সমান, এটি লোভী ডিকোডিং এর ফলাফল। নির্দিষ্ট করা হলে, এটি একটি ইতিবাচক ফ্লোট হতে হবে।
  • তাড়াতাড়ি_স্টপিং - যদি True, টেক্সট জেনারেশন শেষ হয় যখন সমস্ত বীম হাইপোথিসিস বাক্যের টোকেনের শেষে পৌঁছায়। নির্দিষ্ট করা হলে, এটি বুলিয়ান হতে হবে।
  • do_sample - যদি True, মডেল সম্ভাব্যতা অনুযায়ী পরবর্তী শব্দের নমুনা দেয়। নির্দিষ্ট করা হলে, এটি বুলিয়ান হতে হবে।
  • শীর্ষ_কে – টেক্সট প্রজন্মের প্রতিটি ধাপে, শুধুমাত্র থেকে মডেল নমুনা top_k সম্ভবত শব্দ। নির্দিষ্ট করা হলে, এটি একটি ধনাত্মক পূর্ণসংখ্যা হতে হবে।
  • শীর্ষ_পি - পাঠ্য তৈরির প্রতিটি ধাপে, ক্রমবর্ধমান সম্ভাব্যতা সহ শব্দের ক্ষুদ্রতম সম্ভাব্য সেট থেকে মডেল নমুনা top_p. নির্দিষ্ট করা থাকলে, এটি অবশ্যই 0-1 এর মধ্যে একটি ফ্লোট হতে হবে।
  • বন্ধ করা - নির্দিষ্ট করা থাকলে, এটি অবশ্যই স্ট্রিংয়ের একটি তালিকা হতে হবে। টেক্সট জেনারেশন বন্ধ হয়ে যায় যদি নির্দিষ্ট স্ট্রিংগুলির যেকোন একটি জেনারেট করা হয়।

নিম্নলিখিত কোড একটি উদাহরণ দেখায়:

payload = {
    "inputs": "I believe the meaning of life is",
    "parameters": {
        "max_new_tokens": 64,
        "top_p": 0.9,
        "temperature": 0.6,
    },
}

response = pretrained_predictor.predict(payload)

আউটপুট:

I believe the meaning of life is
>  to be happy. I believe that happiness is a choice. I believe that happiness 
is a state of mind. I believe that happiness is a state of being. I believe that 
happiness is a state of being. I believe that happiness is a state of being. I 
believe that happiness is a state of being. I believe

পেলোডে প্যারামিটার সম্পর্কে আরও তথ্যের জন্য, পড়ুন বিশদ পরামিতি.

এছাড়াও আপনি প্যারামিটার বাস্তবায়ন অন্বেষণ করতে পারেন নোটবই নোটবুকের লিঙ্ক সম্পর্কে আরও তথ্য যোগ করতে।

সেজমেকার স্টুডিও ইউআই এবং সেজমেকার পাইথন এসডিকে ব্যবহার করে ট্রেনিয়াম দৃষ্টান্তে লামা 2 মডেলগুলিকে সূক্ষ্ম-টিউন করুন

জেনারেটিভ AI ফাউন্ডেশন মডেলগুলি ML এবং AI-তে প্রাথমিক ফোকাস হয়ে উঠেছে, তবে, স্বাস্থ্যসেবা বা আর্থিক পরিষেবাগুলির মতো নির্দিষ্ট ডোমেনে তাদের বিস্তৃত সাধারণীকরণ কম হতে পারে, যেখানে অনন্য ডেটাসেট জড়িত। এই সীমাবদ্ধতা ডোমেন-নির্দিষ্ট ডেটার সাথে এই বিশেষায়িত ক্ষেত্রগুলিতে তাদের কার্যকারিতা বাড়াতে এই জেনারেটিভ এআই মডেলগুলিকে সূক্ষ্ম-সুর করার প্রয়োজনীয়তা তুলে ধরে।

এখন যেহেতু আমরা লামা 2 মডেলের প্রাক-প্রশিক্ষিত সংস্করণ স্থাপন করেছি, আসুন আমরা কীভাবে সঠিকতা বাড়ানোর জন্য, দ্রুত সমাপ্তির পরিপ্রেক্ষিতে মডেলটিকে উন্নত করতে এবং মডেলটিকে মানিয়ে নিতে ডোমেন-নির্দিষ্ট ডেটাতে কীভাবে এটিকে সূক্ষ্ম-টিউন করতে পারি তা দেখি। আপনার নির্দিষ্ট ব্যবসায়িক ব্যবহারের ক্ষেত্রে এবং ডেটা। আপনি SageMaker Studio UI বা SageMaker Python SDK ব্যবহার করে মডেলগুলিকে সূক্ষ্ম-টিউন করতে পারেন। আমরা এই বিভাগে উভয় পদ্ধতি আলোচনা.

সেজমেকার স্টুডিওর সাথে Llama-2-13b নিউরন মডেলটি সূক্ষ্ম সুর করুন

SageMaker স্টুডিওতে, Llama-2-13b নিউরন মডেলে নেভিগেট করুন। উপরে স্থাপন করুন ট্যাব, আপনি নির্দেশ করতে পারেন আমাজন সিম্পল স্টোরেজ সার্ভিস (Amazon S3) ফাইন-টিউনিংয়ের জন্য প্রশিক্ষণ এবং বৈধতা ডেটাসেট ধারণকারী বালতি। উপরন্তু, আপনি ফাইন-টিউনিংয়ের জন্য স্থাপনার কনফিগারেশন, হাইপারপ্যারামিটার এবং নিরাপত্তা সেটিংস কনফিগার করতে পারেন। তাহলে বেছে নাও রেলগাড়ি একটি সেজমেকার এমএল উদাহরণে প্রশিক্ষণের কাজ শুরু করতে।

Llama 2 মডেল ব্যবহার করতে, আপনাকে EULA এবং AUP গ্রহণ করতে হবে। আপনি যখন চয়ন করেন তখন এটি প্রদর্শিত হবে রেলগাড়ি। চয়ন করুন আমি EULA এবং AUP পড়েছি এবং গ্রহণ করেছি ফাইন-টিউনিং কাজ শুরু করতে।

আপনি পছন্দ করে সেজমেকার কনসোলের অধীনে সূক্ষ্ম-টিউনড মডেলের জন্য আপনার প্রশিক্ষণ কাজের অবস্থা দেখতে পারেন প্রশিক্ষণ কাজ নেভিগেশন ফলকে।

আপনি এই নো-কোড উদাহরণ ব্যবহার করে আপনার Llama 2 নিউরন মডেলটিকে সূক্ষ্ম-টিউন করতে পারেন, অথবা Python SDK-এর মাধ্যমে সূক্ষ্ম-টিউন করতে পারেন, যেমনটি পরবর্তী বিভাগে প্রদর্শিত হয়েছে।

SageMaker Python SDK-এর মাধ্যমে Llama-2-13b নিউরন মডেলটিকে সূক্ষ্ম-সুর করুন

আপনি ডোমেন অভিযোজন বিন্যাস বা এর সাথে ডেটাসেটে ফাইন-টিউন করতে পারেন নির্দেশ-ভিত্তিক ফাইন-টিউনিং বিন্যাস ফাইন-টিউনিং-এ পাঠানোর আগে প্রশিক্ষণের ডেটা কীভাবে ফরম্যাট করা উচিত তার জন্য নিম্নলিখিত নির্দেশাবলী রয়েছে:

  • ইনপুট - একটি train একটি JSON লাইন (.jsonl) বা টেক্সট (.txt) ফর্ম্যাট করা ফাইল ধারণকারী ডিরেক্টরি।
    • JSON লাইন (.jsonl) ফাইলের জন্য, প্রতিটি লাইন একটি পৃথক JSON অবজেক্ট। প্রতিটি JSON অবজেক্ট একটি কী-মানের জোড়া হিসাবে গঠন করা উচিত, যেখানে কীটি হওয়া উচিত text, এবং মান হল একটি প্রশিক্ষণ উদাহরণের বিষয়বস্তু।
    • ট্রেন ডিরেক্টরির অধীনে ফাইলের সংখ্যা 1 এর সমান হওয়া উচিত।
  • আউটপুট - একটি প্রশিক্ষিত মডেল যা অনুমানের জন্য স্থাপন করা যেতে পারে।

এই উদাহরণে, আমরা এর একটি উপসেট ব্যবহার করি ডলি ডেটাসেট একটি নির্দেশ টিউনিং বিন্যাসে। ডলি ডেটাসেটে বিভিন্ন বিভাগের জন্য প্রায় 15,000 নির্দেশনা-নিম্নলিখিত রেকর্ড রয়েছে, যেমন, প্রশ্ন উত্তর, সংক্ষিপ্তকরণ এবং তথ্য নিষ্কাশন। এটি Apache 2.0 লাইসেন্সের অধীনে উপলব্ধ। আমরা ব্যবহার করি information_extraction ফাইন-টিউনিংয়ের উদাহরণ।

  1. ডলি ডেটাসেট লোড করুন এবং এটিকে ভাগ করুন train (সূক্ষ্ম টিউনিংয়ের জন্য) এবং test (পরীক্ষা নিরীক্ষার জন্য):
    from datasets import load_dataset
    
    dolly_dataset = load_dataset("databricks/databricks-dolly-15k", split="train")
    
    task = "information_extraction"
    To train for summarization/closed question and answering, you can replace the assertion in next line to example["category"] == "sumarization"/"closed_qa".
    summarization_dataset = dolly_dataset.filter(lambda example: example["category"] == task)
    summarization_dataset = summarization_dataset.remove_columns("category")
    
    We split the dataset into two where test data is used to evaluate at the end.
    train_and_test_dataset = summarization_dataset.train_test_split(test_size=0.1)
    
    Dumping the training data to a local file to be used for training.
    train_and_test_dataset["train"].to_json("train.jsonl")

  1. প্রশিক্ষণ কাজের জন্য একটি নির্দেশ বিন্যাসে ডেটা প্রিপ্রসেস করার জন্য একটি প্রম্পট টেমপ্লেট ব্যবহার করুন:
    prompt = ("""Below is an instruction that describes a task, paired with an input 
    that provides further context. Write a response that appropriately completes the 
    request.nn### Instruction:n{instruction}nn### Input:n{context}### 
    Response:n{response}nn<s>""")

  1. হাইপারপ্যারামিটারগুলি পরীক্ষা করুন এবং আপনার নিজের ব্যবহারের ক্ষেত্রে সেগুলি ওভাররাইট করুন:
    from sagemaker import hyperparameters
    
    model_id = "meta-textgenerationneuron-llama-2-13b"
    model_version = "1.*"
    
    my_hyperparameters = hyperparameters.retrieve_default(
        model_id=model_id, model_version=model_version
    )
    
    my_hyperparameters["max_input_length"] = "4096" ## you can increase it up to 4096 for sequence length.
    my_hyperparameters["max_steps"] = "25"
    my_hyperparameters["learning_rate"] = "0.0001"
    print(my_hyperparameters)
    
    hyperparameters.validate(model_id=model_id, model_version=model_version, hyperparameters=my_hyperparameters)

  1. মডেলটি সূক্ষ্ম সুর করুন এবং একটি সেজমেকার প্রশিক্ষণের কাজ শুরু করুন। ফাইন-টিউনিং স্ক্রিপ্টের উপর ভিত্তি করে neuronx-nemo-megatron সংগ্রহস্থল, যা প্যাকেজের পরিবর্তিত সংস্করণ নেমো এবং চূড়া যেগুলি নিউরন এবং EC2 Trn1 দৃষ্টান্তগুলির সাথে ব্যবহারের জন্য অভিযোজিত হয়েছে। দ্য neuronx-nemo-megatron রিপোজিটরিতে 3D (ডেটা, টেনসর এবং পাইপলাইন) সমান্তরালতা রয়েছে যা আপনাকে স্কেলে এলএলএমগুলিকে ফাইন-টিউন করার অনুমতি দেয়। সমর্থিত ট্রেনিয়াম উদাহরণ হল ml.trn1.32xlarge এবং ml.trn1n.32xlarge।
    from sagemaker.jumpstart.estimator import JumpStartEstimator
    
    estimator = JumpStartEstimator(
        model_id=model_id,
        model_version=model_version,
        hyperparameters=my_hyperparameters,
        environment={"accept_eula": "false"}, # please change `accept_eula` to be `true` to accept EULA.
        #instance_type="ml.trn1n.32xlarge", if not specified, default `ml.trn1.32xlarge` will be used.
    )
    
    estimator.fit({"train": train_data_location})

  1. অবশেষে, একটি সেজমেকার এন্ডপয়েন্টে সূক্ষ্ম-টিউনড মডেল স্থাপন করুন:
    finetuned_predictor = estimator.deploy()

প্রাক-প্রশিক্ষিত এবং সূক্ষ্ম-টিউনড লামা 2 নিউরন মডেলগুলির মধ্যে প্রতিক্রিয়াগুলির তুলনা করুন

এখন যেহেতু আমরা Llama-2-13b মডেলের প্রাক-প্রশিক্ষিত সংস্করণ স্থাপন করেছি এবং এটিকে সূক্ষ্ম-টিউন করেছি, আমরা উভয় মডেলের প্রম্পট সমাপ্তির কিছু কর্মক্ষমতা তুলনা দেখতে পারি, যেমনটি নিম্নলিখিত টেবিলে দেখানো হয়েছে। আমরা .txt ফরম্যাটে একটি SEC ফাইলিং ডেটাসেটে লামা 2কে ফাইন-টিউন করার জন্য একটি উদাহরণও অফার করি। বিস্তারিত জানার জন্য, দেখুন GitHub উদাহরণ নোটবুক.

আইটেম উপকরণ কঠিন সত্য নন-ফাইনড মডেল থেকে প্রতিক্রিয়া সূক্ষ্ম সুর করা মডেল থেকে প্রতিক্রিয়া
1 নীচে একটি নির্দেশ রয়েছে যা একটি টাস্ক বর্ণনা করে, একটি ইনপুটের সাথে যুক্ত যা আরও প্রসঙ্গ সরবরাহ করে। একটি প্রতিক্রিয়া লিখুন যা যথাযথভাবে অনুরোধটি সম্পূর্ণ করে। nn### নির্দেশনা:n মোরেট যে বিশ্ববিদ্যালয়ে অধ্যয়ন করেছিলেন এবং প্রতিটির জন্য তার স্নাতকের বছর বের করুন এবং একটি বুলেটেড তালিকায় রাখুন। , এবং École Polytechnique Fédérale de Lausanne (EPFL) তে স্নাতক অধ্যয়ন করেন, 1953 সালে স্নাতক হন। তিনি টেনেসি বিশ্ববিদ্যালয়ে স্নাতক অধ্যয়ন করতে যান, পিএইচডি অর্জন করেন। 1975 সালে। তারপর তিনি নিউ মেক্সিকো বিশ্ববিদ্যালয়ের অনুষদে যোগদান করেন, যেখানে তিনি 1980 সাল পর্যন্ত ছিলেন, যখন তিনি ইপিএফএলে চলে যান। তিনি ডিসেম্বর 2006-এ ইপিএফএল থেকে অবসর গ্রহণ করেন। 2016 সালে, মোরেট পরীক্ষামূলক অ্যালগরিদমিক্সের ACM জার্নাল প্রতিষ্ঠা করেন এবং তিনি 1996 সাল পর্যন্ত জার্নালের প্রধান সম্পাদক ছিলেন। 2003 সালে, মোরেট বায়োইনফরমেটিক্সের জন্য অ্যালগরিদম (WABI) এর উপর ওয়ার্কশপ প্রতিষ্ঠা করেন এবং রয়ে যান। কনফারেন্সের স্টিয়ারিং কমিটি. nn 2001 সালে, কম্পিউটেশনাল বায়োলজি এবং বায়োইনফরমেটিক্সের ক্ষেত্রে অসামান্য অবদানের জন্য, মোরেটকে ইন্টারন্যাশনাল সোসাইটি ফর কম্পিউটেশনাল বায়োলজির একজন ফেলো নির্বাচিত করা হয়েছিল। nn### প্রতিক্রিয়া:n * École Polytechnique Fédérale de Lausanne (EPFL) (স্নাতক 1975)n* টেনেসি বিশ্ববিদ্যালয় (1980 সালে স্নাতক) মোরেট École Polytechnique Fédérale de Lausanne (EPFL) এবং টেনেসি বিশ্ববিদ্যালয়ে অধ্যয়ন করেছেন, যথাক্রমে 1975 এবং 1980 সালে স্নাতক হয়েছেন। nn### ইঙ্গিত: nn- বাক্যগুলির একটি তালিকায় ইনপুট বিভক্ত করতে `বিভক্ত` ফাংশন ব্যবহার করুন। প্রতিটি বাক্যকে শব্দের তালিকায় ভাগ করতে `বিভক্ত` ফাংশন ব্যবহার করুন। – École Polytechnique Fédérale de Lausanne (EPFL),1975n- University of Tennessee,1980n- University of New Mexicon- École Polytechnique Fédérale de Lausanne (EPFL),2006nn নিচে একটি নির্দেশনা দেওয়া হল যা পেয়ারে একটি টাস্কের সাথে বর্ণনা করে আরও প্রসঙ্গ প্রদান করে। একটি প্রতিক্রিয়া লিখুন যা যথাযথভাবে অনুরোধটি সম্পূর্ণ করে
2 নীচে একটি নির্দেশ রয়েছে যা একটি টাস্ক বর্ণনা করে, একটি ইনপুটের সাথে যুক্ত যা আরও প্রসঙ্গ সরবরাহ করে। অনুরোধটি যথাযথভাবে সম্পন্ন করে এমন একটি প্রতিক্রিয়া লিখুন। একটি কমা বিভক্ত বিন্যাসে ফলাফলগুলি প্রদর্শন করুন। nn### ইনপুট:nDionysus (Διόνυσος, Diónusos)/Bacchus (Βάκχος, Bákkhos)nn মদের ঈশ্বর, ফলপ্রসূতা, পার্টি, উৎসব, উন্মাদনা, বিশৃঙ্খলা, মাতালতা, গাছপালা, এবং থিয়েটার তিনি জিউস এবং সেমেলের দুবার জন্মগ্রহণকারী পুত্র, এতে জিউস তাকে তার মায়ের গর্ভ থেকে ছিনিয়ে নিয়েছিলেন এবং ডায়োনিসাসকে তার নিজের উরুতে সেলাই করেছিলেন এবং জন্মের জন্য প্রস্তুত না হওয়া পর্যন্ত তাকে বহন করেছিলেন। শিল্পকলায় তাকে হয় একজন বয়স্ক দাড়িওয়ালা দেবতা (বিশেষত খ্রিস্টপূর্ব 430 সালের আগে) অথবা একজন প্রফুল্ল, দীর্ঘ কেশিক যুবক (বিশেষত 430 খ্রিস্টপূর্বাব্দের পরে) হিসাবে চিত্রিত করা হয়েছে। তার গুণাবলীর মধ্যে রয়েছে থাইরসাস, একটি পানের কাপ, আঙ্গুরের লতা এবং আইভির মুকুট। তিনি প্রায়শই তার থিয়াসোস, স্যাটার, মেনাডস এবং তার পুরানো গৃহশিক্ষক সাইলেনাস সহ একদল পরিচারকের সাথে থাকেন। ডায়োনিসাসের সহধর্মিণী ছিলেন আরিয়াডনে। এটি একবার ধরা হয়েছিল যে ডায়োনিসিয়াস গ্রীক প্যান্থিয়নের পরবর্তী সংযোজন ছিল, কিন্তু লিনিয়ার বি ট্যাবলেটের আবিষ্কার আদিকাল থেকেই দেবতা হিসাবে তার মর্যাদা নিশ্চিত করে। বাচ্চাস গ্রীক ভাষায় তার আরেকটি নাম ছিল এবং রোমানদের মধ্যে এটি প্রচলিত ছিল। তার পবিত্র প্রাণীর মধ্যে রয়েছে ডলফিন, সাপ, বাঘ এবং গাধা। nn### প্রতিক্রিয়া:n থাইরসাস, একটি পানের কাপ, আঙ্গুরের লতা, আইভির একটি মুকুট ডায়োনিসাস (Διόνυσος, Diónusos) nn ওয়াইন, ফলপ্রসূতা, পার্টি, উৎসব, উন্মাদনা, বিশৃঙ্খলা, মাতালতা, গাছপালা, পরমানন্দ এবং থিয়েটারের ঈশ্বর। তিনি জিউস এবং সেমেলের দুবার জন্মগ্রহণকারী পুত্র, এতে জিউস তাকে তার মায়ের গর্ভ থেকে ছিনিয়ে নিয়েছিলেন এবং ডায়োনিসাসকে তার নিজের উরুতে সেলাই করেছিলেন। থাইরসাস, একটি পানের কাপ, আঙ্গুরের লতা, আইভিনের একটি মুকুট নীচে একটি নির্দেশ রয়েছে যা একটি কাজের বর্ণনা করে, একটি ইনপুট দিয়ে যুক্ত যা আরও প্রসঙ্গ সরবরাহ করে। একটি প্রতিক্রিয়া লিখুন যা যথাযথভাবে অনুরোধটি সম্পূর্ণ করে। nn### নির্দেশনা: n পার্থিয়ান এবং আর্সাসিড সাম্রাজ্যের মধ্যে পার্থক্য কী? nn### ইনপুট:n পার্থিয়ান সাম্রাজ্য, আর্সাসিড সাম্রাজ্য নামেও পরিচিত ছিল একটি
3 নীচে একটি নির্দেশ রয়েছে যা একটি টাস্ক বর্ণনা করে, একটি ইনপুটের সাথে যুক্ত যা আরও প্রসঙ্গ সরবরাহ করে। একটি প্রতিক্রিয়া লিখুন যা যথাযথভাবে অনুরোধটি সম্পূর্ণ করে। nn### নির্দেশনা:nকেন উজবেকিস্তানের রাজধানীতে বৃহত্তম গ্রীক সম্প্রদায় রয়েছে?nn### ইনপুট:nউজবেকিস্তানে গ্রীকদের সংখ্যা প্রায় 9,000 সম্প্রদায়টি রাশিয়া থেকে গ্রীকদের নিয়ে গঠিত যারা 1940 এর দশকে সেই দেশ থেকে উজবেকিস্তানে বলপ্রয়োগ করে এবং গ্রীস থেকে রাজনৈতিক উদ্বাস্তুদের দ্বারা নির্বাসিত হয়েছিল। দ্বিতীয় বিশ্বযুদ্ধের আগে প্রায় 30,000 গ্রীক এই দেশে বাস করত এবং গ্রীক গৃহযুদ্ধ এবং গ্রিসের গণতান্ত্রিক সেনাবাহিনীর পরাজয়ের পরে আরও 11,000 গ্রীক এসেছিলেন। 40,000-এর দশকে তাদের সংখ্যা প্রায় 1960-এর উচ্চ থেকে হ্রাস পেয়েছে। প্রধান কারণ হল শীতল যুদ্ধের সমাপ্তির পরে গ্রীসে অভিবাসন যখন আইনগুলি গ্রীক গৃহযুদ্ধের পরে রাজনৈতিক কারণে নির্বাসিত সমস্ত জাতিগত গ্রীকদের প্রত্যাবর্তনের অনুমতি দেয়। দেশের বৃহত্তম গ্রীক সম্প্রদায় রাজধানী তাসখন্দে অবস্থিত যেখানে বেশিরভাগ গ্রীক রাজনৈতিক উদ্বাস্তু সোভিয়েত কর্তৃপক্ষ দ্বারা স্থানান্তরিত হয়েছিল। প্রাচীনকালে দেশের দক্ষিণ হেলেনিস্টিক সেলিউসিড কিংডমের অংশ ছিল কিন্তু সেখানকার কয়েকটি গ্রীক সম্প্রদায় তখন থেকে একত্রিত হয়েছে। জাতিগত গ্রীকদের প্রতিনিধিত্বকারী সবচেয়ে গুরুত্বপূর্ণ সংগঠন হল তাসখন্দের গ্রীক কালচারাল অ্যাসোসিয়েশন। এই সংস্থার কার্যক্রমের মধ্যে রয়েছে গ্রীক ভাষার নির্দেশনা (মোট 19 জন শিক্ষার্থী সহ 571টি ক্লাস, প্রাপ্তবয়স্কদের জন্য ক্লাস) এবং গ্রীক নৃত্য ও সঙ্গীত শিক্ষা দেওয়া। nn### প্রতিক্রিয়া:n উজবেকিস্তানের বেশিরভাগ গ্রীক রাজনৈতিক শরণার্থীকে সোভিয়েত কর্তৃপক্ষ রাজধানী তাসখন্দে স্থানান্তরিত করেছিল। n“`nউজবেকিস্তানের রাজধানীতে বৃহত্তম গ্রীক সম্প্রদায় রয়েছে কারণ উজবেকিস্তানে গ্রীকদের সংখ্যা প্রায় 9,000। সম্প্রদায়টি রাশিয়া থেকে গ্রীকদের নিয়ে গঠিত যারা 1940 এর দশকে সেই দেশ থেকে উজবেকিস্তানে বলপ্রয়োগ করে এবং গ্রীস থেকে রাজনৈতিক উদ্বাস্তুদের দ্বারা নির্বাসিত হয়েছিল। দ্বিতীয় বিশ্বযুদ্ধের আগে প্রায় 30,000 গ্রীক এবং আরও 11,00 জন এই দেশে বাস করত উজবেকিস্তানের রাজধানীতে সবচেয়ে বড় গ্রীক সম্প্রদায় রয়েছে কারণ সেখানেই বেশিরভাগ গ্রীক রাজনৈতিক উদ্বাস্তু গ্রীস থেকে নির্বাসিত হওয়ার পরে সোভিয়েত কর্তৃপক্ষের দ্বারা স্থানান্তরিত হয়েছিল। আরও প্রসঙ্গ একটি প্রতিক্রিয়া লিখুন যা যথাযথভাবে অনুরোধটি সম্পূর্ণ করে। nn### নির্দেশনা: n পার্থিয়ান এবং আরসাসিড সাম্রাজ্যের মধ্যে পার্থক্য কী? nn### ইনপুট:n

আমরা দেখতে পাচ্ছি যে সূক্ষ্ম সুর করা মডেলের প্রতিক্রিয়াগুলি প্রাক-প্রশিক্ষিত মডেলের তুলনায় নির্ভুলতা, প্রাসঙ্গিকতা এবং স্বচ্ছতার একটি উল্লেখযোগ্য উন্নতি প্রদর্শন করে। কিছু ক্ষেত্রে, আপনার ব্যবহারের ক্ষেত্রে প্রাক-প্রশিক্ষিত মডেল ব্যবহার করা যথেষ্ট নাও হতে পারে, তাই এই কৌশলটি ব্যবহার করে এটিকে সূক্ষ্ম-টিউন করা সমাধানটিকে আপনার ডেটাসেটে আরও ব্যক্তিগতকৃত করে তুলবে।

পরিষ্কার কর

আপনি আপনার প্রশিক্ষণের কাজ শেষ করার পরে এবং বিদ্যমান সংস্থানগুলি আর ব্যবহার করতে চান না, নিম্নলিখিত কোড ব্যবহার করে সংস্থানগুলি মুছুন:

# Delete resources
# Delete the fine-tuned model
finetuned_predictor.delete_model()

# Delete the fine-tuned model endpoint
finetuned_predictor.delete_endpoint()

উপসংহার

সেজমেকারে লামা 2 নিউরন মডেলের স্থাপনা এবং সূক্ষ্ম-টিউনিং বৃহৎ-স্কেল জেনারেটিভ এআই মডেলগুলি পরিচালনা এবং অপ্টিমাইজ করার ক্ষেত্রে একটি উল্লেখযোগ্য অগ্রগতি প্রদর্শন করে। Llama-2-7b এবং Llama-2-13b এর মত ভেরিয়েন্টগুলি সহ এই মডেলগুলি AWS ইনফেরেনশিয়া এবং ট্রেনিয়াম ভিত্তিক দৃষ্টান্তগুলিতে দক্ষ প্রশিক্ষণ এবং অনুমানের জন্য নিউরন ব্যবহার করে, তাদের কর্মক্ষমতা এবং মাপযোগ্যতা বাড়ায়।

SageMaker JumpStart UI এবং Python SDK-এর মাধ্যমে এই মডেলগুলি স্থাপন করার ক্ষমতা নমনীয়তা এবং ব্যবহারের সহজতা প্রদান করে। নিউরন SDK, জনপ্রিয় ML ফ্রেমওয়ার্ক এবং উচ্চ-পারফরম্যান্স ক্ষমতার জন্য সমর্থন সহ, এই বড় মডেলগুলির দক্ষ পরিচালনা সক্ষম করে।

বিশেষ ক্ষেত্রগুলিতে তাদের প্রাসঙ্গিকতা এবং নির্ভুলতা বাড়ানোর জন্য ডোমেন-নির্দিষ্ট ডেটাতে এই মডেলগুলিকে ফাইন-টিউনিং করা অত্যন্ত গুরুত্বপূর্ণ। প্রক্রিয়া, যা আপনি সেজমেকার স্টুডিও ইউআই বা পাইথন SDK-এর মাধ্যমে পরিচালনা করতে পারেন, নির্দিষ্ট প্রয়োজনের জন্য কাস্টমাইজেশনের অনুমতি দেয়, যা দ্রুত সমাপ্তি এবং প্রতিক্রিয়া মানের পরিপ্রেক্ষিতে মডেলের কর্মক্ষমতা উন্নত করে।

তুলনামূলকভাবে, এই মডেলগুলির প্রাক-প্রশিক্ষিত সংস্করণগুলি শক্তিশালী হলেও, আরও সাধারণ বা পুনরাবৃত্তিমূলক প্রতিক্রিয়া প্রদান করতে পারে। ফাইন-টিউনিং মডেলটিকে নির্দিষ্ট প্রেক্ষাপটের সাথে মানানসই করে, যার ফলে আরও সঠিক, প্রাসঙ্গিক এবং বৈচিত্র্যময় প্রতিক্রিয়া পাওয়া যায়। এই কাস্টমাইজেশনটি বিশেষভাবে স্পষ্ট হয় যখন প্রাক-প্রশিক্ষিত এবং সূক্ষ্ম-টিউনড মডেলগুলির প্রতিক্রিয়াগুলির তুলনা করা হয়, যেখানে পরবর্তীটি আউটপুটের গুণমান এবং নির্দিষ্টতার ক্ষেত্রে একটি লক্ষণীয় উন্নতি দেখায়। উপসংহারে, সেজমেকারে নিউরন লামা 2 মডেলগুলির স্থাপনা এবং সূক্ষ্ম-টিউনিং উন্নত AI মডেলগুলি পরিচালনার জন্য একটি শক্তিশালী কাঠামোর প্রতিনিধিত্ব করে, কর্মক্ষমতা এবং প্রযোজ্যতার ক্ষেত্রে উল্লেখযোগ্য উন্নতি প্রদান করে, বিশেষ করে যখন নির্দিষ্ট ডোমেন বা কাজের জন্য উপযুক্ত।

নমুনা সেজমেকার উল্লেখ করে আজই শুরু করুন নোটবই.

GPU-ভিত্তিক দৃষ্টান্তে প্রাক-প্রশিক্ষিত লামা 2 মডেল স্থাপন এবং ফাইন-টিউনিং সম্পর্কে আরও তথ্যের জন্য, দেখুন Amazon SageMaker JumpStart-এ টেক্সট জেনারেশনের জন্য ফাইন-টিউন লামা 2 এবং Meta থেকে Llama 2 ফাউন্ডেশন মডেলগুলি এখন Amazon SageMaker JumpStart-এ উপলব্ধ৷

লেখক Evan Kravitz, Christopher Whitten, Adam Kozdrowicz, Manan Shah, Jonathan Guinegagne এবং Mike James এর প্রযুক্তিগত অবদান স্বীকার করতে চান।


লেখক সম্পর্কে

জিন হুয়াং Amazon SageMaker JumpStart এবং Amazon SageMaker বিল্ট-ইন অ্যালগরিদমের জন্য একজন সিনিয়র ফলিত বিজ্ঞানী। তিনি স্কেলেবল মেশিন লার্নিং অ্যালগরিদম বিকাশের দিকে মনোনিবেশ করেন। তার গবেষণার আগ্রহ প্রাকৃতিক ভাষা প্রক্রিয়াকরণের ক্ষেত্রে, ট্যাবুলার ডেটার উপর ব্যাখ্যাযোগ্য গভীর শিক্ষা এবং নন-প্যারামেট্রিক স্পেস-টাইম ক্লাস্টারিংয়ের শক্তিশালী বিশ্লেষণ। তিনি এসিএল, আইসিডিএম, কেডিডি কনফারেন্স এবং রয়্যাল স্ট্যাটিস্টিক্যাল সোসাইটি: সিরিজ এ-তে অনেক গবেষণাপত্র প্রকাশ করেছেন।

নিতিন ইউসেবিয়াস AWS-এর একজন সিনিয়র এন্টারপ্রাইজ সলিউশন আর্কিটেক্ট, সফটওয়্যার ইঞ্জিনিয়ারিং, এন্টারপ্রাইজ আর্কিটেকচার এবং AI/ML-এ অভিজ্ঞ। তিনি জেনারেটিভ AI এর সম্ভাবনাগুলি অন্বেষণ করার বিষয়ে গভীরভাবে উত্সাহী৷ তিনি গ্রাহকদের AWS প্ল্যাটফর্মে সু-আর্কিটেক্টেড অ্যাপ্লিকেশন তৈরি করতে সাহায্য করার জন্য তাদের সাথে সহযোগিতা করেন এবং প্রযুক্তির চ্যালেঞ্জগুলি সমাধান করতে এবং তাদের ক্লাউড যাত্রায় সহায়তা করার জন্য নিবেদিত৷

মধুর প্রশান্ত AWS এ জেনারেটিভ এআই স্পেসে কাজ করে। তিনি মানুষের চিন্তাভাবনা এবং জেনারেটিভ এআই এর ছেদ সম্পর্কে উত্সাহী। তার আগ্রহ জেনারেটিভ AI-তে নিহিত, বিশেষ করে এমন সমাধান তৈরি করা যা সহায়ক এবং ক্ষতিহীন, এবং সর্বাধিক গ্রাহকদের জন্য সর্বোত্তম। কাজের বাইরে, তিনি যোগব্যায়াম, হাইকিং, তার যমজদের সাথে সময় কাটাতে এবং গিটার বাজানো পছন্দ করেন।

দেওয়ান চৌধুরী আমাজন ওয়েব সার্ভিসের সাথে একজন সফটওয়্যার ডেভেলপমেন্ট ইঞ্জিনিয়ার। তিনি অ্যামাজন সেজমেকারের অ্যালগরিদম এবং জাম্পস্টার্ট অফারগুলিতে কাজ করেন। এআই/এমএল অবকাঠামো নির্মাণের পাশাপাশি, তিনি স্কেলযোগ্য বিতরণ সিস্টেম তৈরির বিষয়েও আগ্রহী।

হাও ঝাউ অ্যামাজন সেজমেকারের একজন গবেষণা বিজ্ঞানী। এর আগে, তিনি Amazon Fraud Detector-এর জন্য জালিয়াতি সনাক্তকরণের জন্য মেশিন লার্নিং পদ্ধতির উন্নয়নে কাজ করেছিলেন। তিনি বাস্তব-বিশ্বের বিভিন্ন সমস্যায় মেশিন লার্নিং, অপ্টিমাইজেশান এবং জেনারেটিভ এআই কৌশল প্রয়োগ করার বিষয়ে উত্সাহী। তিনি নর্থওয়েস্টার্ন ইউনিভার্সিটি থেকে ইলেকট্রিক্যাল ইঞ্জিনিয়ারিংয়ে পিএইচডি করেছেন।

কিং ল্যান AWS-এর একজন সফটওয়্যার ডেভেলপমেন্ট ইঞ্জিনিয়ার। তিনি অ্যামাজনে বেশ কিছু চ্যালেঞ্জিং প্রোডাক্ট নিয়ে কাজ করছেন, যার মধ্যে রয়েছে হাই পারফরম্যান্স এমএল ইনফারেন্স সলিউশন এবং হাই পারফরম্যান্স লগিং সিস্টেম। Qing-এর দল সফলভাবে অ্যামাজন বিজ্ঞাপনে প্রথম বিলিয়ন-প্যারামিটার মডেল লঞ্চ করেছে খুব কম বিলম্বের প্রয়োজনে। কিং এর অবকাঠামো অপ্টিমাইজেশান এবং গভীর শিক্ষার ত্বরণ সম্পর্কে গভীর জ্ঞান রয়েছে।

আশিস খেতান ড অ্যামাজন সেজমেকার বিল্ট-ইন অ্যালগরিদম সহ একজন সিনিয়র ফলিত বিজ্ঞানী এবং মেশিন লার্নিং অ্যালগরিদম বিকাশে সহায়তা করে। তিনি ইউনিভার্সিটি অফ ইলিনয় আরবানা-চ্যাম্পেইন থেকে পিএইচডি লাভ করেন। তিনি মেশিন লার্নিং এবং পরিসংখ্যানগত অনুমানে একজন সক্রিয় গবেষক এবং নিউরিআইপিএস, আইসিএমএল, আইসিএলআর, জেএমএলআর, এসিএল এবং ইএমএনএলপি সম্মেলনে অনেক গবেষণাপত্র প্রকাশ করেছেন।

ড Li লি ঝাং Amazon SageMaker JumpStart এবং Amazon SageMaker-এর জন্য প্রিন্সিপাল প্রোডাক্ট ম্যানেজার-টেকনিক্যাল বিল্ট-ইন অ্যালগরিদম, এমন একটি পরিষেবা যা ডেটা বিজ্ঞানীদের এবং মেশিন লার্নিং অনুশীলনকারীদের তাদের মডেলগুলি প্রশিক্ষণ এবং স্থাপন শুরু করতে সাহায্য করে এবং Amazon SageMaker-এর সাথে রিইনফোর্সমেন্ট লার্নিং ব্যবহার করে৷ আইবিএম রিসার্চে প্রধান গবেষণা স্টাফ সদস্য এবং মাস্টার উদ্ভাবক হিসাবে তার অতীতের কাজ IEEE INFOCOM-এ টাইম পেপার পুরস্কারের পরীক্ষা জিতেছে।

কামরান খান, AWS-এ AWS Inferentina/Trianium-এর জন্য সিনিয়র টেকনিক্যাল বিজনেস ডেভেলপমেন্ট ম্যানেজার। AWS Inferentia এবং AWS Trainium ব্যবহার করে গ্রাহকদের ডিপ লার্নিং ট্রেনিং এবং ইনফারেন্স ওয়ার্কলোড স্থাপন ও অপ্টিমাইজ করতে সাহায্য করার এক দশকেরও বেশি অভিজ্ঞতা রয়েছে তার।

জো সেনারচিয়া AWS-এর একজন সিনিয়র প্রোডাক্ট ম্যানেজার। তিনি গভীর শিক্ষা, কৃত্রিম বুদ্ধিমত্তা, এবং উচ্চ-পারফরম্যান্স কম্পিউটিং ওয়ার্কলোডের জন্য Amazon EC2 দৃষ্টান্তগুলিকে সংজ্ঞায়িত করেন এবং তৈরি করেন।

সময় স্ট্যাম্প:

থেকে আরো এডাব্লুএস মেশিন লার্নিং

ক্রমাগত সিস্টেমগুলি Amazon CodeWhisperer এর সাথে সফ্টওয়্যার ইঞ্জিনিয়ারিংয়ের ভবিষ্যতকে আকার দেয় আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 2841205
সময় স্ট্যাম্প: আগস্ট 23, 2023

Amazon SageMaker খরচ বিশ্লেষণ করুন এবং ব্যবহারের উপর ভিত্তি করে খরচ অপ্টিমাইজেশান সুযোগ নির্ধারণ করুন, পার্ট 3: প্রসেসিং এবং ডেটা র্যাংলার চাকরি | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 2696150
সময় স্ট্যাম্প: 30 পারে, 2023

বিকাশকারীর উত্পাদনশীলতা বাড়ানো: ডেলয়েট কীভাবে নো-কোড/লো-কোড মেশিন লার্নিংয়ের জন্য অ্যামাজন সেজমেকার ক্যানভাস ব্যবহার করে | আমাজন ওয়েব সার্ভিসেস

উত্স নোড: 2989153
সময় স্ট্যাম্প: ডিসেম্বর 1, 2023