ปรับแต่งและปรับใช้โมเดล Llama 2 อย่างคุ้มค่าใน Amazon SageMaker JumpStart ด้วย AWS Inferentia และ AWS Trainium | อเมซอนเว็บเซอร์วิส

ปรับแต่งและปรับใช้โมเดล Llama 2 อย่างคุ้มค่าใน Amazon SageMaker JumpStart ด้วย AWS Inferentia และ AWS Trainium | อเมซอนเว็บเซอร์วิส

โหนดต้นทาง: 3067921

วันนี้ เรารู้สึกตื่นเต้นที่จะประกาศความพร้อมของการอนุมาน Llama 2 และการสนับสนุนการปรับแต่งอย่างละเอียด การฝึกอบรม AWS และ การอนุมาน AWS อินสแตนซ์ใน Amazon SageMaker JumpStart. การใช้อินสแตนซ์ที่ใช้ AWS Trainium และ Inferentia ผ่าน SageMaker สามารถช่วยให้ผู้ใช้ลดต้นทุนการปรับแต่งได้สูงสุดถึง 50% และลดต้นทุนการปรับใช้ลง 4.7 เท่า ในขณะที่ลดเวลาแฝงต่อโทเค็นลงด้วย Llama 2 คือโมเดลภาษาข้อความที่สร้างแบบถดถอยอัตโนมัติซึ่งใช้สถาปัตยกรรมหม้อแปลงที่ได้รับการปรับปรุงให้เหมาะสม เนื่องจากเป็นโมเดลที่เปิดเผยต่อสาธารณะ Llama 2 ได้รับการออกแบบสำหรับงาน NLP มากมาย เช่น การจำแนกข้อความ การวิเคราะห์ความรู้สึก การแปลภาษา การสร้างแบบจำลองภาษา การสร้างข้อความ และระบบการสนทนา การปรับแต่งและการปรับใช้ LLM อย่างละเอียด เช่น Llama 2 อาจมีค่าใช้จ่ายสูงหรือท้าทายในการตอบสนองประสิทธิภาพแบบเรียลไทม์เพื่อมอบประสบการณ์ที่ดีให้กับลูกค้า Trainium และ AWS Inferentia เปิดใช้งานโดย AWS เซลล์ประสาท ชุดพัฒนาซอฟต์แวร์ (SDK) นำเสนอตัวเลือกประสิทธิภาพสูงและคุ้มค่าสำหรับการฝึกอบรมและการอนุมานโมเดล Llama 2

ในโพสต์นี้ เราจะสาธิตวิธีการปรับใช้และปรับแต่ง Llama 2 บนอินสแตนซ์ Trainium และ AWS Inferentia ใน SageMaker JumpStart

ภาพรวมโซลูชัน

ในบล็อกนี้ เราจะอธิบายสถานการณ์ต่อไปนี้:

  1. ปรับใช้ Llama 2 บนอินสแตนซ์ AWS Inferentia ทั้งใน สตูดิโอ Amazon SageMaker UI พร้อมประสบการณ์การปรับใช้เพียงคลิกเดียวและ SageMaker Python SDK
  2. ปรับแต่ง Llama 2 บนอินสแตนซ์ Trainium ทั้งใน SageMaker Studio UI และ SageMaker Python SDK
  3. เปรียบเทียบประสิทธิภาพของรุ่น Llama 2 ที่ได้รับการปรับแต่งอย่างละเอียดกับรุ่นที่ผ่านการฝึกอบรมมาแล้ว เพื่อแสดงประสิทธิภาพของการปรับแต่งอย่างละเอียด

หากต้องการลงมือปฏิบัติ โปรดดูที่ ตัวอย่างสมุดบันทึก GitHub.

ปรับใช้ Llama 2 บนอินสแตนซ์ AWS Inferentia โดยใช้ SageMaker Studio UI และ Python SDK

ในส่วนนี้ เราจะสาธิตวิธีการปรับใช้ Llama 2 บนอินสแตนซ์ AWS Inferentia โดยใช้ SageMaker Studio UI สำหรับการปรับใช้ในคลิกเดียวและ Python SDK

ค้นพบโมเดล Llama 2 บน SageMaker Studio UI

SageMaker JumpStart ให้การเข้าถึงทั้งที่เปิดเผยต่อสาธารณะและเป็นกรรมสิทธิ์ โมเดลรองพื้น. โมเดลพื้นฐานได้รับการออนบอร์ดและบำรุงรักษาจากผู้ให้บริการบุคคลที่สามและที่เป็นกรรมสิทธิ์ ด้วยเหตุนี้จึงเผยแพร่ภายใต้ใบอนุญาตที่แตกต่างกันตามที่กำหนดโดยแหล่งที่มาของโมเดล อย่าลืมตรวจสอบใบอนุญาตสำหรับรุ่นรองพื้นที่คุณใช้ คุณมีหน้าที่รับผิดชอบในการตรวจสอบและปฏิบัติตามข้อกำหนดสิทธิ์การใช้งานที่เกี่ยวข้อง และตรวจสอบให้แน่ใจว่าข้อกำหนดดังกล่าวเป็นที่ยอมรับสำหรับกรณีการใช้งานของคุณก่อนที่จะดาวน์โหลดหรือใช้เนื้อหา

คุณสามารถเข้าถึงโมเดลพื้นฐาน Llama 2 ได้ผ่าน SageMaker JumpStart ใน SageMaker Studio UI และ SageMaker Python SDK ในส่วนนี้ เราจะอธิบายวิธีค้นหาโมเดลใน SageMaker Studio

SageMaker Studio เป็นสภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE) ที่ให้อินเทอร์เฟซแบบภาพบนเว็บเดียวที่คุณสามารถเข้าถึงเครื่องมือที่สร้างขึ้นตามวัตถุประสงค์เพื่อดำเนินการขั้นตอนการพัฒนาการเรียนรู้ของเครื่อง (ML) ทั้งหมด ตั้งแต่การเตรียมข้อมูลไปจนถึงการสร้าง การฝึกอบรม และการปรับใช้ ML ของคุณ โมเดล สำหรับรายละเอียดเพิ่มเติมเกี่ยวกับวิธีเริ่มต้นและตั้งค่า SageMaker Studio โปรดดูที่ Amazon SageMaker สตูดิโอ

หลังจากที่คุณอยู่ใน SageMaker Studio คุณจะสามารถเข้าถึง SageMaker JumpStart ซึ่งประกอบด้วยโมเดล โน้ตบุ๊ก และโซลูชันที่สร้างไว้ล่วงหน้าที่ผ่านการฝึกอบรมแล้ว ภายใต้ โซลูชันที่สร้างไว้ล่วงหน้าและอัตโนมัติ. สำหรับข้อมูลโดยละเอียดเพิ่มเติมเกี่ยวกับวิธีการเข้าถึงโมเดลที่เป็นกรรมสิทธิ์ โปรดดูที่ ใช้โมเดลพื้นฐานที่เป็นกรรมสิทธิ์จาก Amazon SageMaker JumpStart ใน Amazon SageMaker Studio.

จากหน้าเริ่มต้นของ SageMaker JumpStart คุณสามารถเรียกดูโซลูชัน รุ่น สมุดบันทึก และทรัพยากรอื่นๆ ได้

หากคุณไม่เห็นรุ่น Llama 2 ให้อัปเดตเวอร์ชัน SageMaker Studio ของคุณโดยปิดเครื่องแล้วรีสตาร์ท สำหรับข้อมูลเพิ่มเติมเกี่ยวกับการอัพเดตเวอร์ชัน โปรดดูที่ ปิดและอัปเดตแอป Studio Classic.

คุณยังสามารถค้นหารุ่นย่อยอื่นๆ ได้โดยเลือก สำรวจโมเดลการสร้างข้อความทั้งหมด หรือค้นหา llama or neuron ในช่องค้นหา คุณจะสามารถดูแบบจำลอง Llama 2 Neuron ได้ในหน้านี้

ปรับใช้โมเดล Llama-2-13b ด้วย SageMaker Jumpstart

คุณสามารถเลือกการ์ดโมเดลเพื่อดูรายละเอียดเกี่ยวกับโมเดล เช่น ใบอนุญาต ข้อมูลที่ใช้ในการฝึก และวิธีการใช้งาน คุณยังสามารถพบปุ่มสองปุ่ม ปรับใช้ และ เปิดสมุดบันทึกซึ่งช่วยให้คุณใช้โมเดลโดยใช้ตัวอย่างที่ไม่มีโค้ดนี้

เมื่อคุณเลือกปุ่มใดปุ่มหนึ่ง ป๊อปอัปจะแสดงข้อตกลงสิทธิ์การใช้งานสำหรับผู้ใช้ปลายทางและนโยบายการใช้งานที่ยอมรับได้ (AUP) เพื่อให้คุณรับทราบ

หลังจากที่คุณรับทราบนโยบายแล้ว คุณสามารถปรับใช้ตำแหน่งข้อมูลของโมเดลและใช้งานได้ตามขั้นตอนในส่วนถัดไป

ปรับใช้โมเดล Llama 2 Neuron ผ่าน Python SDK

เมื่อคุณเลือก ปรับใช้ และรับทราบเงื่อนไข การปรับใช้โมเดลจะเริ่มต้นขึ้น หรือคุณสามารถปรับใช้ผ่านสมุดบันทึกตัวอย่างโดยเลือก เปิดสมุดบันทึก. สมุดบันทึกตัวอย่างให้คำแนะนำแบบ end-to-end เกี่ยวกับวิธีปรับใช้แบบจำลองสำหรับการอนุมานและล้างข้อมูลทรัพยากร

หากต้องการปรับใช้หรือปรับแต่งโมเดลบนอินสแตนซ์ Trainium หรือ AWS Inferentia คุณต้องเรียก PyTorch Neuron ก่อน (ไฟฉาย-neuronx) เพื่อรวบรวมโมเดลเป็นกราฟเฉพาะของ Neuron ซึ่งจะปรับให้เหมาะสมสำหรับ NeuronCores ของ Inferentia ผู้ใช้สามารถสั่งให้คอมไพเลอร์ปรับให้เหมาะสมสำหรับเวลาแฝงที่ต่ำที่สุดหรือปริมาณงานสูงสุด ขึ้นอยู่กับวัตถุประสงค์ของแอปพลิเคชัน ใน JumpStart เราได้รวบรวมกราฟ Neuron ไว้ล่วงหน้าสำหรับการกำหนดค่าที่หลากหลาย เพื่อให้ผู้ใช้สามารถดูขั้นตอนการคอมไพล์ ทำให้ปรับแต่งและปรับใช้โมเดลได้ละเอียดยิ่งขึ้น

โปรดทราบว่ากราฟที่รวบรวมไว้ล่วงหน้าของ Neuron ถูกสร้างขึ้นตามเวอร์ชันเฉพาะของเวอร์ชัน Neuron Compiler

มีสองวิธีในการปรับใช้ LIama 2 บนอินสแตนซ์ที่ใช้ AWS Inferentia วิธีแรกใช้การกำหนดค่าที่สร้างไว้ล่วงหน้า และช่วยให้คุณสามารถปรับใช้โมเดลด้วยโค้ดเพียงสองบรรทัด ประการที่สอง คุณจะสามารถควบคุมการกำหนดค่าได้มากขึ้น มาเริ่มกันที่วิธีแรกด้วยการกำหนดค่าที่สร้างไว้ล่วงหน้า และใช้โมเดล Neuron Llama 2 13B ที่ได้รับการฝึกไว้ล่วงหน้าเป็นตัวอย่าง รหัสต่อไปนี้แสดงวิธีการปรับใช้ Llama 13B โดยมีเพียงสองบรรทัด:

from sagemaker.jumpstart.model import JumpStartModel

model_id = "meta-textgenerationneuron-llama-2-13b"
model = JumpStartModel(model_id=model_id)
pretrained_predictor = model.deploy(accept_eula=False) ## To set 'accept_eula' to be True to deploy 

หากต้องการอนุมานโมเดลเหล่านี้ คุณต้องระบุอาร์กิวเมนต์ accept_eula ที่จะ True เป็นส่วนหนึ่งของ model.deploy() เรียก. การตั้งค่าอาร์กิวเมนต์นี้ให้เป็นจริง ยอมรับว่าคุณได้อ่านและยอมรับ EULA ของโมเดลแล้ว EULA สามารถพบได้ในคำอธิบายการ์ดโมเดลหรือจาก เว็บไซต์เมตา.

ประเภทอินสแตนซ์เริ่มต้นสำหรับ Llama 2 13B คือ ml.inf2.8xlarge คุณยังสามารถลองใช้ ID รุ่นอื่น ๆ ที่รองรับได้:

  • meta-textgenerationneuron-llama-2-7b
  • meta-textgenerationneuron-llama-2-7b-f (รุ่นแชท)
  • meta-textgenerationneuron-llama-2-13b-f (รุ่นแชท)

หรืออีกทางหนึ่ง หากคุณต้องการควบคุมการกำหนดค่าการใช้งานได้มากขึ้น เช่น ความยาวบริบท ระดับขนานของเทนเซอร์ และขนาดแบตช์สูงสุด คุณสามารถแก้ไขได้ผ่านตัวแปรสภาพแวดล้อม ดังที่แสดงไว้ในส่วนนี้ Deep Learning Container (DLC) พื้นฐานของการปรับใช้คือ การอนุมานแบบจำลองขนาดใหญ่ (LMI) NeuronX DLC. ตัวแปรด้านสิ่งแวดล้อมมีดังนี้:

  • OPTION_N_POSITIONS – จำนวนโทเค็นอินพุตและเอาต์พุตสูงสุด เช่น หากคุณคอมไพล์โมเดลด้วย OPTION_N_POSITIONS เป็น 512 คุณสามารถใช้โทเค็นอินพุต 128 (ขนาดพร้อมท์อินพุต) โดยมีโทเค็นเอาต์พุตสูงสุด 384 (รวมโทเค็นอินพุตและเอาต์พุตต้องเป็น 512) สำหรับโทเค็นเอาต์พุตสูงสุด ค่าใดๆ ที่ต่ำกว่า 384 ก็ใช้ได้ แต่คุณไม่สามารถเกินกว่านั้นได้ (เช่น อินพุต 256 และเอาต์พุต 512)
  • OPTION_TENSOR_PARALLEL_DEGREE – จำนวน NeuronCore ที่จะโหลดโมเดลในอินสแตนซ์ AWS Inferentia
  • OPTION_MAX_ROLLING_BATCH_SIZE – ขนาดแบตช์สูงสุดสำหรับคำขอพร้อมกัน
  • OPTION_DTYPE – ประเภทวันที่ที่จะโหลดโมเดล

การรวบรวมกราฟ Neuron ขึ้นอยู่กับความยาวของบริบท (OPTION_N_POSITIONS) องศาขนานเทนเซอร์ (OPTION_TENSOR_PARALLEL_DEGREE) ขนาดแบทช์สูงสุด (OPTION_MAX_ROLLING_BATCH_SIZE) และประเภทข้อมูล (OPTION_DTYPE) เพื่อโหลดโมเดล SageMaker JumpStart มีกราฟ Neuron ที่คอมไพล์ไว้ล่วงหน้าสำหรับการกำหนดค่าต่างๆ สำหรับพารามิเตอร์ก่อนหน้าเพื่อหลีกเลี่ยงการคอมไพล์รันไทม์ การกำหนดค่าของกราฟที่คอมไพล์ไว้ล่วงหน้าแสดงอยู่ในตารางต่อไปนี้ ตราบใดที่ตัวแปรสภาพแวดล้อมจัดอยู่ในประเภทใดประเภทหนึ่งต่อไปนี้ การรวบรวมกราฟ Neuron จะถูกข้ามไป

LIama-2 7B และ LIama-2 7B แชท
ประเภทอินสแตนซ์ OPTION_N_POSITIONS OPTION_MAX_ROLLING_BATCH_SIZE OPTION_TENSOR_PARALLEL_DEGREE OPTION_DTYPE
ml.inf2.xlarge 1024 1 2 fp16
ml.inf2.8xlarge 2048 1 2 fp16
ml.inf2.24xlarge 4096 4 4 fp16
ml.inf2.24xlarge 4096 4 8 fp16
ml.inf2.24xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 4 fp16
ml.inf2.48xlarge 4096 4 8 fp16
ml.inf2.48xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 24 fp16
LIama-2 13B และ LIama-2 13B แชท
ml.inf2.8xlarge 1024 1 2 fp16
ml.inf2.24xlarge 2048 4 4 fp16
ml.inf2.24xlarge 4096 4 8 fp16
ml.inf2.24xlarge 4096 4 12 fp16
ml.inf2.48xlarge 2048 4 4 fp16
ml.inf2.48xlarge 4096 4 8 fp16
ml.inf2.48xlarge 4096 4 12 fp16
ml.inf2.48xlarge 4096 4 24 fp16

ต่อไปนี้เป็นตัวอย่างของการปรับใช้ Llama 2 13B และการตั้งค่าการกำหนดค่าที่มีอยู่ทั้งหมด

from sagemaker.jumpstart.model import JumpStartModel

model_id = "meta-textgenerationneuron-llama-2-13b-f"
model = JumpStartModel(
    model_id=model_id,
    env={
        "OPTION_DTYPE": "fp16",
        "OPTION_N_POSITIONS": "4096",
        "OPTION_TENSOR_PARALLEL_DEGREE": "12",
        "OPTION_MAX_ROLLING_BATCH_SIZE": "4", 
    },
    instance_type="ml.inf2.24xlarge"  
)
pretrained_predictor = model.deploy(accept_eula=False) ## To set 'accept_eula' to be True to deploy 

ตอนนี้เราได้ปรับใช้โมเดล Llama-2-13b แล้ว เราก็สามารถเรียกใช้การอนุมานได้โดยการเรียกใช้ตำแหน่งข้อมูล ข้อมูลโค้ดต่อไปนี้สาธิตการใช้พารามิเตอร์อนุมานที่รองรับเพื่อควบคุมการสร้างข้อความ:

  • สูงสุด_ความยาว – โมเดลสร้างข้อความจนกระทั่งถึงความยาวของเอาต์พุต (ซึ่งรวมถึงความยาวบริบทอินพุต) max_length. หากระบุ จะต้องเป็นจำนวนเต็มบวก
  • max_new_tokens – โมเดลจะสร้างข้อความจนกระทั่งถึงความยาวเอาต์พุต (ไม่รวมความยาวบริบทอินพุต) max_new_tokens. หากระบุ จะต้องเป็นจำนวนเต็มบวก
  • num_beams – ระบุจำนวนคานที่ใช้ในการค้นหาโลภ หากระบุไว้ จะต้องเป็นจำนวนเต็มที่มากกว่าหรือเท่ากับ num_return_sequences.
  • no_repeat_ngram_size – ตัวแบบช่วยให้แน่ใจว่าลำดับของคำของ no_repeat_ngram_size ไม่ซ้ำในลำดับเอาต์พุต หากระบุ จะต้องเป็นจำนวนเต็มบวกที่มากกว่า 1
  • อุณหภูมิ – สิ่งนี้จะควบคุมการสุ่มในเอาต์พุต อุณหภูมิที่สูงขึ้นส่งผลให้ลำดับเอาต์พุตมีคำที่น่าจะเป็นไปได้ต่ำ อุณหภูมิที่ต่ำลงส่งผลให้ลำดับเอาต์พุตมีคำที่น่าจะเป็นไปได้สูง ถ้า temperature เท่ากับ 0 ส่งผลให้เกิดการถอดรหัสแบบละโมบ หากระบุ จะต้องเป็นทศนิยมที่เป็นบวก
  • ต้น_หยุด - ถ้า Trueการสร้างข้อความจะเสร็จสิ้นเมื่อสมมติฐานบีมทั้งหมดถึงจุดสิ้นสุดของโทเค็นประโยค หากระบุไว้ จะต้องเป็นบูลีน
  • ทำ_ตัวอย่าง - ถ้า Trueโมเดลจะสุ่มตัวอย่างคำถัดไปตามความน่าจะเป็น หากระบุไว้ จะต้องเป็นบูลีน
  • ท็อป_เค – ในแต่ละขั้นตอนของการสร้างข้อความ โมเดลจะสุ่มตัวอย่างจากเฉพาะ top_k คำที่เป็นไปได้มากที่สุด หากระบุ จะต้องเป็นจำนวนเต็มบวก
  • ท็อป_พี – ในแต่ละขั้นตอนของการสร้างข้อความ โมเดลจะสุ่มตัวอย่างจากชุดคำที่เล็กที่สุดที่เป็นไปได้ด้วยความน่าจะเป็นสะสม top_p. หากระบุไว้ จะต้องเป็นทศนิยมระหว่าง 0–1
  • หยุด – หากระบุจะต้องเป็นรายการสตริง การสร้างข้อความจะหยุดลงหากมีการสร้างสตริงที่ระบุอย่างใดอย่างหนึ่ง

รหัสต่อไปนี้แสดงตัวอย่าง:

payload = {
    "inputs": "I believe the meaning of life is",
    "parameters": {
        "max_new_tokens": 64,
        "top_p": 0.9,
        "temperature": 0.6,
    },
}

response = pretrained_predictor.predict(payload)

เอาท์พุต:

I believe the meaning of life is
>  to be happy. I believe that happiness is a choice. I believe that happiness 
is a state of mind. I believe that happiness is a state of being. I believe that 
happiness is a state of being. I believe that happiness is a state of being. I 
believe that happiness is a state of being. I believe

สำหรับข้อมูลเพิ่มเติมเกี่ยวกับพารามิเตอร์ในเพย์โหลด โปรดดูที่ พารามิเตอร์ละเอียด.

คุณยังสามารถสำรวจการใช้งานพารามิเตอร์ได้ใน สมุดบันทึก เพื่อเพิ่มข้อมูลเพิ่มเติมเกี่ยวกับลิงค์ของสมุดบันทึก

ปรับแต่งโมเดล Llama 2 บนอินสแตนซ์ Trainium โดยใช้ SageMaker Studio UI และ SageMaker Python SDK

โมเดลพื้นฐาน Generative AI ได้กลายเป็นจุดสนใจหลักใน ML และ AI อย่างไรก็ตาม การสรุปอย่างกว้างๆ อาจไม่เพียงพอในโดเมนเฉพาะ เช่น บริการด้านการดูแลสุขภาพหรือทางการเงิน ซึ่งเกี่ยวข้องกับชุดข้อมูลที่ไม่ซ้ำกัน ข้อจำกัดนี้เน้นย้ำถึงความจำเป็นในการปรับแต่งโมเดล AI ที่สร้างเหล่านี้ด้วยข้อมูลเฉพาะโดเมน เพื่อปรับปรุงประสิทธิภาพในพื้นที่เฉพาะเหล่านี้

ตอนนี้เราได้ปรับใช้โมเดล Llama 2 เวอร์ชันก่อนการฝึกแล้ว มาดูกันว่าเราจะปรับแต่งสิ่งนี้กับข้อมูลเฉพาะโดเมนเพื่อเพิ่มความแม่นยำ ปรับปรุงโมเดลในแง่ของการดำเนินการให้เสร็จสิ้นทันที และปรับโมเดลให้เข้ากับ กรณีการใช้งานและข้อมูลทางธุรกิจเฉพาะของคุณ คุณสามารถปรับแต่งโมเดลได้โดยใช้ SageMaker Studio UI หรือ SageMaker Python SDK เราจะหารือทั้งสองวิธีในส่วนนี้

ปรับแต่งโมเดล Neuron Llama-2-13b ด้วย SageMaker Studio

ใน SageMaker Studio ให้ไปที่โมเดล Llama-2-13b Neuron บน ปรับใช้ แท็บ คุณสามารถชี้ไปที่ บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon บัคเก็ต (Amazon S3) ที่ประกอบด้วยชุดข้อมูลการฝึกอบรมและการตรวจสอบเพื่อการปรับแต่งอย่างละเอียด นอกจากนี้ คุณยังสามารถกำหนดค่าการกำหนดค่าการปรับใช้ ไฮเปอร์พารามิเตอร์ และการตั้งค่าความปลอดภัยสำหรับการปรับแต่งอย่างละเอียดได้ จากนั้นเลือก รถไฟ เพื่อเริ่มงานฝึกอบรมบนอินสแตนซ์ SageMaker ML

หากต้องการใช้รุ่น Llama 2 คุณต้องยอมรับ EULA และ AUP มันจะปรากฏขึ้นเมื่อคุณเมื่อคุณเลือก รถไฟ. เลือก ฉันได้อ่านและยอมรับ EULA และ AUP แล้ว เพื่อเริ่มงานปรับแต่ง

คุณสามารถดูสถานะของงานการฝึกของคุณสำหรับโมเดลที่ได้รับการปรับแต่งภายใต้คอนโซล SageMaker โดยเลือก งานฝึกอบรม ในบานหน้าต่างนำทาง

คุณสามารถปรับแต่งโมเดล Llama 2 Neuron ของคุณได้โดยใช้ตัวอย่างที่ไม่มีโค้ดนี้ หรือปรับแต่งอย่างละเอียดผ่าน Python SDK ดังที่แสดงไว้ในส่วนถัดไป

ปรับแต่งโมเดล Llama-2-13b Neuron อย่างละเอียดผ่าน SageMaker Python SDK

คุณสามารถปรับแต่งชุดข้อมูลอย่างละเอียดด้วยรูปแบบการปรับโดเมนหรือ การปรับแต่งแบบละเอียดตามคำสั่ง รูปแบบ. ต่อไปนี้เป็นคำแนะนำสำหรับวิธีจัดรูปแบบข้อมูลการฝึกก่อนที่จะถูกส่งไปยังการปรับแต่งแบบละเอียด:

  • อินพุต - train ไดเร็กทอรีที่มีไฟล์ที่จัดรูปแบบบรรทัด JSON (.jsonl) หรือข้อความ (.txt)
    • สำหรับไฟล์บรรทัด JSON (.jsonl) แต่ละบรรทัดจะเป็นออบเจ็กต์ JSON แยกกัน ออบเจ็กต์ JSON แต่ละรายการควรมีโครงสร้างเป็นคู่คีย์-ค่า โดยที่คีย์ควรอยู่ textและค่าคือเนื้อหาของตัวอย่างการฝึกอบรมหนึ่งตัวอย่าง
    • จำนวนไฟล์ภายใต้ไดเร็กทอรี train ควรเท่ากับ 1
  • เอาท์พุต – โมเดลที่ผ่านการฝึกอบรมซึ่งสามารถนำไปใช้เพื่อการอนุมานได้

ในตัวอย่างนี้ เราใช้ชุดย่อยของ ชุดข้อมูลดอลลี่ ในรูปแบบการปรับแต่งคำสั่ง ชุดข้อมูล Dolly มีบันทึกการปฏิบัติตามคำสั่งประมาณ 15,000 รายการสำหรับหมวดหมู่ต่างๆ เช่น การตอบคำถาม การสรุป และการดึงข้อมูล มีให้บริการภายใต้ลิขสิทธิ์ Apache 2.0 เราใช้ information_extraction ตัวอย่างสำหรับการปรับแต่งอย่างละเอียด

  1. โหลดชุดข้อมูล Dolly แล้วแยกออกเป็น train (สำหรับการปรับแต่งอย่างละเอียด) และ test (สำหรับการประเมินผล):
    from datasets import load_dataset
    
    dolly_dataset = load_dataset("databricks/databricks-dolly-15k", split="train")
    
    task = "information_extraction"
    To train for summarization/closed question and answering, you can replace the assertion in next line to example["category"] == "sumarization"/"closed_qa".
    summarization_dataset = dolly_dataset.filter(lambda example: example["category"] == task)
    summarization_dataset = summarization_dataset.remove_columns("category")
    
    We split the dataset into two where test data is used to evaluate at the end.
    train_and_test_dataset = summarization_dataset.train_test_split(test_size=0.1)
    
    Dumping the training data to a local file to be used for training.
    train_and_test_dataset["train"].to_json("train.jsonl")

  1. ใช้เทมเพลตพร้อมท์สำหรับการประมวลผลข้อมูลล่วงหน้าในรูปแบบคำสั่งสำหรับงานการฝึกอบรม:
    prompt = ("""Below is an instruction that describes a task, paired with an input 
    that provides further context. Write a response that appropriately completes the 
    request.nn### Instruction:n{instruction}nn### Input:n{context}### 
    Response:n{response}nn<s>""")

  1. ตรวจสอบไฮเปอร์พารามิเตอร์และเขียนทับสำหรับกรณีการใช้งานของคุณเอง:
    from sagemaker import hyperparameters
    
    model_id = "meta-textgenerationneuron-llama-2-13b"
    model_version = "1.*"
    
    my_hyperparameters = hyperparameters.retrieve_default(
        model_id=model_id, model_version=model_version
    )
    
    my_hyperparameters["max_input_length"] = "4096" ## you can increase it up to 4096 for sequence length.
    my_hyperparameters["max_steps"] = "25"
    my_hyperparameters["learning_rate"] = "0.0001"
    print(my_hyperparameters)
    
    hyperparameters.validate(model_id=model_id, model_version=model_version, hyperparameters=my_hyperparameters)

  1. ปรับแต่งโมเดลและเริ่มงานฝึกอบรม SageMaker สคริปต์การปรับแต่งแบบละเอียดจะขึ้นอยู่กับ neuronx-nemo-เมกะตรอน repository ซึ่งเป็นเวอร์ชันที่แก้ไขของแพ็คเกจ เนโม และ ปลาย ที่ได้รับการปรับให้ใช้กับอินสแตนซ์ Neuron และ EC2 Trn1 ที่ neuronx-nemo-เมกะตรอน พื้นที่เก็บข้อมูลมีความคล้ายคลึงกันแบบ 3 มิติ (ข้อมูล เทนเซอร์ และไปป์ไลน์) เพื่อให้คุณปรับแต่ง LLM ในขนาดได้ อินสแตนซ์ Trainium ที่รองรับคือ ml.trn1.32xlarge และ ml.trn1n.32xlarge
    from sagemaker.jumpstart.estimator import JumpStartEstimator
    
    estimator = JumpStartEstimator(
        model_id=model_id,
        model_version=model_version,
        hyperparameters=my_hyperparameters,
        environment={"accept_eula": "false"}, # please change `accept_eula` to be `true` to accept EULA.
        #instance_type="ml.trn1n.32xlarge", if not specified, default `ml.trn1.32xlarge` will be used.
    )
    
    estimator.fit({"train": train_data_location})

  1. สุดท้าย ปรับใช้โมเดลที่ได้รับการปรับแต่งอย่างละเอียดในจุดสิ้นสุด SageMaker:
    finetuned_predictor = estimator.deploy()

เปรียบเทียบการตอบสนองระหว่างรุ่น Llama 2 Neuron ที่ได้รับการฝึกล่วงหน้าและที่ได้รับการปรับแต่งอย่างละเอียด

ตอนนี้เราได้ปรับใช้เวอร์ชันก่อนการฝึกอบรมของโมเดล Llama-2-13b และปรับแต่งแล้ว เราจะสามารถดูการเปรียบเทียบประสิทธิภาพบางส่วนของการแจ้งให้เสร็จสิ้นจากทั้งสองรุ่นได้ ดังที่แสดงในตารางต่อไปนี้ นอกจากนี้เรายังเสนอตัวอย่างในการปรับแต่ง Llama 2 ในชุดข้อมูลการยื่น SEC ในรูปแบบ .txt สำหรับรายละเอียด โปรดดูที่ ตัวอย่างสมุดบันทึก GitHub.

ชิ้น ปัจจัยการผลิต ความจริงพื้นๆ การตอบสนองจากโมเดลที่ไม่ได้ปรับแต่ง การตอบสนองจากรุ่นที่ปรับแต่งมาอย่างดี
1 ด้านล่างนี้คือคำสั่งที่อธิบายงาน ควบคู่ไปกับอินพุตที่ให้บริบทเพิ่มเติม เขียนคำตอบที่เติมเต็มคำขออย่างเหมาะสมnn### Instruction:nแยกมหาวิทยาลัยที่ Moret เรียนอยู่และปีที่สำเร็จการศึกษาสำหรับแต่ละคน และใส่ไว้ในรายการหัวข้อย่อยnn### ข้อมูล:nMoret เกิดในปี 1953 ในเมือง Vevey ประเทศสวิตเซอร์แลนด์ และศึกษาระดับปริญญาตรีที่ École Polytechnique Fédérale de Lausanne (EPFL) ซึ่งสำเร็จการศึกษาในปี 1975 เขาไปศึกษาต่อในระดับบัณฑิตศึกษาที่มหาวิทยาลัยเทนเนสซี โดยได้รับปริญญาเอก ในปี 1980 จากนั้นเขาได้เข้าร่วมคณะของมหาวิทยาลัยนิวเม็กซิโก ซึ่งเขาอยู่จนถึงปี 2006 เมื่อเขาย้ายไป EPFL เขาเกษียณจาก EPFL ในเดือนธันวาคม 2016 ในปี 1996 Moret ได้ก่อตั้ง ACM Journal of Experimental Algorithmics และยังคงเป็นบรรณาธิการบริหารของวารสารจนถึงปี 2003 ในปี 2001 Moret ได้ก่อตั้ง Workshop in Algorithms for Bioinformatics (WABI) และยังคงอยู่ที่ คณะกรรมการกำกับดูแลการประชุม ในปี 2018 Moret ได้รับเลือกให้เป็น Fellow ของ International Society for Computational Biology สำหรับผลงานที่โดดเด่นของเขาในสาขาชีววิทยาคอมพิวเตอร์และชีวสารสนเทศศาสตร์nn### Response:n * École Polytechnique Fédérale de Lausanne (EPFL) (สำเร็จการศึกษา พ.ศ. 1975) n* University of Tennessee (สำเร็จการศึกษา พ.ศ. 1980) Moret ศึกษาที่ École Polytechnique Fédérale de Lausanne (EPFL) และ University of Tennessee สำเร็จการศึกษาในปี 1975 และ 1980 ตามลำดับnn### คำแนะนำ:nn- ใช้ฟังก์ชัน `split` เพื่อแยกอินพุตออกเป็นรายการประโยคn- ใช้ฟังก์ชัน `split` เพื่อแยกแต่ละประโยคออกเป็นรายการคำn- ใช้ฟังก์ชัน 'split` เพื่อแยก – École Polytechnique Fédérale de Lausanne (EPFL),1975n- University of Tennessee,1980n- University of New Mexicon- École Polytechnique Fédérale de Lausanne (EPFL),2006nn ด้านล่างนี้คือคำแนะนำที่อธิบายงาน จับคู่กับอินพุตที่ ให้บริบทเพิ่มเติม เขียนคำตอบที่ตอบสนองคำขอได้อย่างเหมาะสมn
2 ด้านล่างนี้คือคำสั่งที่อธิบายงาน ควบคู่ไปกับอินพุตที่ให้บริบทเพิ่มเติม เขียนคำตอบที่เติมเต็มคำขออย่างเหมาะสมnn### Instruction:nจากข้อความนี้ ให้ระบุคุณลักษณะของ Dionysus แสดงผลลัพธ์ในรูปแบบที่คั่นด้วยเครื่องหมายจุลภาคnn### Input:nDionysus (Διόνυσος, Diónusos)/Bacchus (Βάκχος, Bákkhos)nnเทพเจ้าแห่งไวน์ ความอุดมสมบูรณ์ งานเลี้ยง เทศกาล ความบ้าคลั่ง ความวุ่นวาย ความเมามาย พืชพรรณ ความปีติยินดี และ โรงภาพยนตร์. เขาเป็นบุตรชายที่เกิดสองครั้งของ Zeus และ Semele โดยที่ Zeus คว้าเขามาจากครรภ์มารดาและเย็บ Dionysus ไว้ที่ต้นขาของเขาเองแล้วอุ้มเขาจนกว่าเขาจะพร้อมที่จะเกิด ในงานศิลปะ พระองค์ทรงพรรณนาว่าเป็นเทพเจ้าที่มีหนวดมีเคราที่มีอายุมากกว่า (โดยเฉพาะก่อนคริสตศักราช 430) หรือชายหนุ่มผมยาวที่อ่อนแอ (โดยเฉพาะหลัง 430 ปีก่อนคริสตกาล) คุณลักษณะของเขา ได้แก่ ไทร์ซัส แก้วน้ำ เถาองุ่น และมงกุฎไม้เลื้อย เขามักจะอยู่ร่วมกับ thiasos ซึ่งเป็นกลุ่มคนรับใช้รวมทั้ง satyrs, meenads และ Silenus ครูสอนพิเศษคนเก่าของเขา มเหสีของไดโอนีซัสคือเอเรียดเน ครั้งหนึ่งเคยเชื่อกันว่าไดโอนิซิอัสเป็นส่วนเสริมของวิหารแพนธีออนของกรีกในเวลาต่อมา แต่การค้นพบแท็บเล็ต Linear B ยืนยันสถานะของเขาในฐานะเทพตั้งแต่สมัยแรกๆ แบคคัสเป็นอีกชื่อหนึ่งสำหรับเขาในภาษากรีก และมีการใช้กันทั่วไปในหมู่ชาวโรมัน สัตว์ศักดิ์สิทธิ์ของพระองค์ได้แก่ โลมา งู เสือ และลา.nn### Response:n ไธร์ซัส ถ้วยดื่ม เถาองุ่น มงกุฎไม้เลื้อย ไดโอนีซัส (Διόνυσος, Diónusos)nnเทพเจ้าแห่งเหล้าองุ่น ความอุดมสมบูรณ์ งานเลี้ยง งานเทศกาล ความบ้าคลั่ง ความโกลาหล ความมึนเมา พืชพรรณ ความปีติยินดี และการแสดงละคร เขาเป็นบุตรชายที่เกิดสองครั้งของ Zeus และ Semele โดยที่ Zeus คว้าเขามาจากครรภ์มารดาและเย็บ Dionysus ไว้ที่ต้นขาของเขาเอง thyrsus, ถ้วยดื่ม, เถาองุ่น, มงกุฏของไม้เลื้อย ด้านล่างนี้คือคำสั่งที่อธิบายงาน คู่กับข้อมูลที่ให้บริบทเพิ่มเติม เขียนคำตอบที่ทำให้คำขอเสร็จสมบูรณ์อย่างเหมาะสมnn### Instruction:nอะไรคือความแตกต่างระหว่าง Parthian และ Arsacid Empire?nn### ข้อมูล:nThe Parthian Empire หรือที่รู้จักในชื่อ Arsacid Empire เคยเป็น
3 ด้านล่างนี้คือคำสั่งที่อธิบายงาน ควบคู่ไปกับอินพุตที่ให้บริบทเพิ่มเติม เขียนคำตอบที่ตรงกับคำขออย่างเหมาะสมnn### Instruction:nเหตุใดเมืองหลวงของอุซเบกิสถานจึงมีชุมชนชาวกรีกที่ใหญ่ที่สุด?nn### ข้อมูล:nชาวกรีกในอุซเบกิสถานมีจำนวนประมาณ 9,000 คน ชุมชนนี้ประกอบด้วยชาวกรีกจากรัสเซียที่ถูกเนรเทศโดยใช้กำลังจากประเทศนั้นไปยังอุซเบกิสถานในช่วงทศวรรษที่ 1940 และผู้ลี้ภัยทางการเมืองจากกรีซ ชาวกรีกประมาณ 30,000 คนอาศัยอยู่ในประเทศนี้ก่อนสงครามโลกครั้งที่สอง และอีก 11,000 คนมาถึงหลังสงครามกลางเมืองกรีกและความพ่ายแพ้ของกองทัพประชาธิปไตยแห่งกรีซ จำนวนของพวกเขาลดน้อยลงจากระดับสูงสุดที่ประมาณ 40,000 คนในทศวรรษ 1960 สาเหตุหลักคือการอพยพไปยังกรีซหลังสิ้นสุดสงครามเย็น เมื่อกฎหมายอนุญาตให้ส่งชาวกรีกชาติพันธุ์ทั้งหมดที่ถูกเนรเทศด้วยเหตุผลทางการเมืองหลังสงครามกลางเมืองกรีก ชุมชนชาวกรีกที่ใหญ่ที่สุดในประเทศอยู่ในเมืองหลวงทาชเคนต์ ซึ่งผู้ลี้ภัยทางการเมืองชาวกรีกส่วนใหญ่ถูกทางการโซเวียตย้ายถิ่นฐาน ในสมัยโบราณทางตอนใต้ของประเทศเป็นส่วนหนึ่งของอาณาจักรเฮลเลนิสติกเซลูซิด แต่ชุมชนชาวกรีกไม่กี่แห่งที่นั่นได้หลอมรวมเข้าด้วยกันตั้งแต่นั้นมา องค์กรที่สำคัญที่สุดที่เป็นตัวแทนของกลุ่มชาติพันธุ์กรีกคือสมาคมวัฒนธรรมกรีกแห่งทาชเคนต์ กิจกรรมขององค์กรนี้ได้แก่ การสอนภาษากรีก (19 ชั้นเรียน รวมนักเรียน 571 คน ชั้นเรียนสำหรับผู้ใหญ่) และการสอนการเต้นรำและดนตรีกรีกnn### Response:n ผู้ลี้ภัยทางการเมืองชาวกรีกส่วนใหญ่ในอุซเบกิสถานถูกทางการโซเวียตย้ายไปยังเมืองหลวงทาชเคนต์ n“`nเมืองหลวงของอุซเบกิสถานมีชุมชนชาวกรีกที่ใหญ่ที่สุด เนื่องจากชาวกรีกในอุซเบกิสถานมีจำนวนประมาณ 9,000 คน ชุมชนนี้ประกอบด้วยชาวกรีกจากรัสเซียที่ถูกเนรเทศโดยใช้กำลังจากประเทศนั้นไปยังอุซเบกิสถานในช่วงทศวรรษที่ 1940 และผู้ลี้ภัยทางการเมืองจากกรีซ ชาวกรีกประมาณ 30,000 คนอาศัยอยู่ในประเทศนี้ก่อนสงครามโลกครั้งที่สอง และอีก 11,00 คน เมืองหลวงของอุซเบกิสถานมีชุมชนชาวกรีกที่ใหญ่ที่สุด เนื่องจากเป็นที่ซึ่งผู้ลี้ภัยทางการเมืองชาวกรีกส่วนใหญ่ถูกย้ายโดยทางการโซเวียตหลังจากถูกเนรเทศออกจากกรีซnn ด้านล่างนี้คือคำแนะนำที่อธิบายงาน ควบคู่ไปกับข้อมูลที่ให้ไว้ บริบทเพิ่มเติม เขียนคำตอบที่ดำเนินการตามคำขออย่างเหมาะสมnn### Instruction:nอะไรคือความแตกต่างระหว่าง Parthian และ Arsacid Empire?nn### Input:n

เราจะเห็นว่าการตอบสนองจากแบบจำลองที่ได้รับการปรับแต่งอย่างละเอียดแสดงให้เห็นถึงการปรับปรุงที่แม่นยำ ความเกี่ยวข้อง และความชัดเจน เมื่อเทียบกับการตอบสนองจากแบบจำลองที่ได้รับการฝึกล่วงหน้า ในบางกรณี การใช้โมเดลที่ได้รับการฝึกอบรมล่วงหน้าสำหรับกรณีการใช้งานของคุณอาจไม่เพียงพอ ดังนั้นการปรับแต่งอย่างละเอียดโดยใช้เทคนิคนี้จะทำให้โซลูชันมีความเฉพาะตัวสำหรับชุดข้อมูลของคุณมากขึ้น

ทำความสะอาด

หลังจากที่คุณเสร็จสิ้นงานการฝึกอบรมและไม่ต้องการใช้ทรัพยากรที่มีอยู่อีกต่อไป ให้ลบทรัพยากรโดยใช้โค้ดต่อไปนี้:

# Delete resources
# Delete the fine-tuned model
finetuned_predictor.delete_model()

# Delete the fine-tuned model endpoint
finetuned_predictor.delete_endpoint()

สรุป

การปรับใช้และการปรับแต่งโมเดล Llama 2 Neuron บน SageMaker แสดงให้เห็นถึงความก้าวหน้าที่สำคัญในการจัดการและเพิ่มประสิทธิภาพโมเดล AI ที่สร้างขนาดใหญ่ โมเดลเหล่านี้ รวมถึงรุ่นต่างๆ เช่น Llama-2-7b และ Llama-2-13b ใช้ Neuron เพื่อการฝึกอบรมและการอนุมานที่มีประสิทธิภาพบนอินสแตนซ์ที่ใช้ AWS Inferentia และ Trainium ซึ่งช่วยเพิ่มประสิทธิภาพและความสามารถในการปรับขนาด

ความสามารถในการปรับใช้โมเดลเหล่านี้ผ่าน SageMaker JumpStart UI และ Python SDK มอบความยืดหยุ่นและความสะดวกในการใช้งาน Neuron SDK ซึ่งรองรับเฟรมเวิร์ก ML ยอดนิยมและความสามารถด้านประสิทธิภาพสูง ช่วยให้สามารถจัดการโมเดลขนาดใหญ่เหล่านี้ได้อย่างมีประสิทธิภาพ

การปรับแต่งโมเดลเหล่านี้กับข้อมูลเฉพาะโดเมนเป็นสิ่งสำคัญสำหรับการเพิ่มความเกี่ยวข้องและความแม่นยำในสาขาเฉพาะทาง กระบวนการซึ่งคุณสามารถดำเนินการผ่าน SageMaker Studio UI หรือ Python SDK ช่วยให้สามารถปรับแต่งตามความต้องการเฉพาะได้ ซึ่งนำไปสู่ประสิทธิภาพของโมเดลที่ได้รับการปรับปรุงในแง่ของความสมบูรณ์ในทันทีและคุณภาพการตอบสนอง

เมื่อเปรียบเทียบกันแล้ว เวอร์ชันที่ได้รับการฝึกล่วงหน้าของโมเดลเหล่านี้ แม้จะทรงพลัง แต่ก็อาจให้การตอบสนองแบบทั่วไปหรือแบบซ้ำๆ มากกว่า การปรับแต่งอย่างละเอียดจะปรับแต่งโมเดลให้เข้ากับบริบทเฉพาะ ส่งผลให้ได้คำตอบที่แม่นยำ เกี่ยวข้อง และหลากหลายมากขึ้น การปรับแต่งนี้เห็นได้ชัดเจนโดยเฉพาะอย่างยิ่งเมื่อเปรียบเทียบการตอบสนองจากโมเดลที่ได้รับการฝึกอบรมล่วงหน้าและโมเดลที่ได้รับการปรับแต่ง โดยที่รุ่นหลังแสดงให้เห็นถึงการปรับปรุงคุณภาพและความเฉพาะเจาะจงของเอาต์พุตอย่างเห็นได้ชัด โดยสรุป การปรับใช้และการปรับแต่งโมเดล Neuron Llama 2 บน SageMaker ถือเป็นเฟรมเวิร์กที่แข็งแกร่งสำหรับการจัดการโมเดล AI ขั้นสูง โดยนำเสนอการปรับปรุงประสิทธิภาพและการบังคับใช้อย่างมีนัยสำคัญ โดยเฉพาะอย่างยิ่งเมื่อปรับแต่งให้เหมาะกับโดเมนหรืองานเฉพาะ

เริ่มต้นวันนี้โดยอ้างอิงตัวอย่าง SageMaker สมุดบันทึก.

สำหรับข้อมูลเพิ่มเติมเกี่ยวกับการปรับใช้และการปรับแต่งโมเดล Llama 2 ที่ได้รับการฝึกอบรมล่วงหน้าบนอินสแตนซ์ที่ใช้ GPU โปรดดูที่ ปรับแต่ง Llama 2 อย่างละเอียดสำหรับการสร้างข้อความบน Amazon SageMaker JumpStart และ โมเดลรองพื้น Llama 2 จาก Meta พร้อมใช้งานแล้วใน Amazon SageMaker JumpStart

ผู้เขียนขอขอบคุณการสนับสนุนด้านเทคนิคของ Evan Kravitz, Christopher Whitten, Adam Kozdrowicz, Manan Shah, Jonathan Guinegagne และ Mike James


เกี่ยวกับผู้เขียน

ซินหวาง เป็นนักวิทยาศาสตร์ประยุกต์อาวุโสสำหรับอัลกอริทึมในตัวของ Amazon SageMaker JumpStart และ Amazon SageMaker เขามุ่งเน้นไปที่การพัฒนาอัลกอริธึมการเรียนรู้ของเครื่องที่ปรับขนาดได้ ความสนใจในงานวิจัยของเขาอยู่ในขอบเขตของการประมวลผลภาษาธรรมชาติ การเรียนรู้เชิงลึกที่อธิบายได้เกี่ยวกับข้อมูลแบบตาราง และการวิเคราะห์ที่มีประสิทธิภาพของการจัดกลุ่มพื้นที่เวลา-อวกาศแบบไม่มีพารามิเตอร์ เขาได้เผยแพร่เอกสารมากมายในการประชุม ACL, ICDM, KDD และ Royal Statistical Society: Series A

นิติน ยูเซบิอุส เป็นสถาปนิกโซลูชันระดับองค์กรอาวุโสที่ AWS ซึ่งมีประสบการณ์ในด้านวิศวกรรมซอฟต์แวร์ สถาปัตยกรรมองค์กร และ AI/ML เขามีความหลงใหลอย่างลึกซึ้งในการสำรวจความเป็นไปได้ของ AI เชิงสร้างสรรค์ เขาทำงานร่วมกับลูกค้าเพื่อช่วยพวกเขาสร้างแอปพลิเคชันที่มีสถาปัตยกรรมอย่างดีบนแพลตฟอร์ม AWS และทุ่มเทให้กับการแก้ปัญหาความท้าทายด้านเทคโนโลยีและช่วยเหลือในการเดินทางบนระบบคลาวด์

มาธุร์ ปราชานต์ ทำงานในพื้นที่ generative AI ที่ AWS เขาหลงใหลในการผสมผสานระหว่างความคิดของมนุษย์และ AI เชิงสร้างสรรค์ ความสนใจของเขาอยู่ที่ AI เชิงสร้างสรรค์ โดยเฉพาะการสร้างโซลูชันที่เป็นประโยชน์และไม่เป็นอันตราย และที่สำคัญที่สุดคือเหมาะสมที่สุดสำหรับลูกค้า นอกเหนือจากงาน เขาชอบเล่นโยคะ เดินป่า ใช้เวลาอยู่กับแฝด และเล่นกีตาร์

เดวัน ชูดูรี เป็นวิศวกรพัฒนาซอฟต์แวร์กับ Amazon Web Services เขาทำงานกับอัลกอริทึมของ Amazon SageMaker และข้อเสนอ JumpStart นอกเหนือจากการสร้างโครงสร้างพื้นฐาน AI/ML แล้ว เขายังหลงใหลเกี่ยวกับการสร้างระบบกระจายที่ปรับขนาดได้

ห่าวโจว เป็นนักวิทยาศาสตร์การวิจัยของ Amazon SageMaker ก่อนหน้านั้น เขาพัฒนาวิธีการเรียนรู้ของเครื่องสำหรับการตรวจจับการฉ้อโกงสำหรับ Amazon Fraud Detector เขาหลงใหลในการประยุกต์การเรียนรู้ของเครื่อง การเพิ่มประสิทธิภาพ และเทคนิค AI เชิงสร้างสรรค์กับปัญหาต่างๆ ในโลกแห่งความเป็นจริง เขาสำเร็จการศึกษาระดับปริญญาเอกสาขาวิศวกรรมไฟฟ้าจากมหาวิทยาลัยนอร์ธเวสเทิร์น

ชิงหลาน เป็นวิศวกรพัฒนาซอฟต์แวร์ใน AWS เขาทำงานเกี่ยวกับผลิตภัณฑ์ที่ท้าทายหลายอย่างใน Amazon รวมถึงโซลูชันการอนุมาน ML ประสิทธิภาพสูงและระบบการบันทึกที่มีประสิทธิภาพสูง ทีมของ Qing ประสบความสำเร็จในการเปิดตัวโมเดลพารามิเตอร์พันล้านรายการแรกใน Amazon Advertising โดยต้องมีเวลาแฝงที่ต่ำมาก Qing มีความรู้เชิงลึกเกี่ยวกับการเพิ่มประสิทธิภาพโครงสร้างพื้นฐานและการเร่งการเรียนรู้เชิงลึก

ดร. Ashish Khetan เป็นนักวิทยาศาสตร์ประยุกต์อาวุโสที่มีอัลกอริทึมในตัวของ Amazon SageMaker และช่วยพัฒนาอัลกอริทึมการเรียนรู้ของเครื่อง เขาได้รับปริญญาเอกจาก University of Illinois Urbana-Champaign เขาเป็นนักวิจัยที่กระตือรือร้นในด้านแมชชีนเลิร์นนิงและการอนุมานทางสถิติ และได้ตีพิมพ์บทความจำนวนมากในการประชุม NeurIPS, ICML, ICLR, JMLR, ACL และ EMNLP

ดร.หลี่ จาง เป็นผู้จัดการผลิตภัณฑ์หลักด้านเทคนิคสำหรับอัลกอริทึมในตัวของ Amazon SageMaker JumpStart และ Amazon SageMaker ซึ่งเป็นบริการที่ช่วยให้นักวิทยาศาสตร์ข้อมูลและผู้ปฏิบัติงานด้านแมชชีนเลิร์นนิ่งเริ่มต้นการฝึกอบรมและปรับใช้โมเดล และใช้การเรียนรู้แบบเสริมกำลังกับ Amazon SageMaker ผลงานที่ผ่านมาของเขาในฐานะสมาชิกทีมวิจัยหลักและนักประดิษฐ์ระดับปรมาจารย์ที่ IBM Research ได้รับรางวัล Test of Time Paper Award ที่ IEEE INFOCOM

กำนันขันผู้จัดการฝ่ายพัฒนาธุรกิจด้านเทคนิคอาวุโสของ AWS Inferentina/Trianium ที่ AWS เขามีประสบการณ์มากกว่าทศวรรษในการช่วยลูกค้าปรับใช้และเพิ่มประสิทธิภาพการฝึกอบรมการเรียนรู้เชิงลึกและปริมาณงานการอนุมานโดยใช้ AWS Inferentia และ AWS Trainium

โจ เซเนอร์เชีย เป็นผู้จัดการผลิตภัณฑ์อาวุโสของ AWS เขากำหนดและสร้างอินสแตนซ์ Amazon EC2 สำหรับการเรียนรู้เชิงลึก ปัญญาประดิษฐ์ และปริมาณงานการประมวลผลประสิทธิภาพสูง

ประทับเวลา:

เพิ่มเติมจาก AWS Machine Learning AWS