ขอแนะนำแมชชีนเลิร์นนิงแบบไฮบริด

โหนดต้นทาง: 1575227

Gartner คาดการณ์ว่าภายในสิ้นปี 2024 75% ขององค์กรจะเปลี่ยนจากการนำร่องไปใช้ปัญญาประดิษฐ์ (AI) และปริมาณงานส่วนใหญ่จะสิ้นสุดในระบบคลาวด์ในระยะยาว สำหรับบางองค์กรที่วางแผนจะโยกย้ายไปยังระบบคลาวด์ ความซับซ้อน ขนาด และระยะเวลาของการย้ายข้อมูลอาจเป็นเรื่องที่น่ากลัว ความเร็วของทีมต่างๆ และความกระหายในเครื่องมือใหม่ๆ อาจแตกต่างกันอย่างมาก ทีมวิทยาศาสตร์ข้อมูลขององค์กรอาจต้องการนำเทคโนโลยีคลาวด์ล่าสุดมาใช้ ในขณะที่ทีมพัฒนาแอปพลิเคชันมุ่งเน้นที่การใช้งานเว็บแอปพลิเคชันภายในองค์กร แม้จะมีแผนการโยกย้ายระบบคลาวด์หลายปี แต่ผลิตภัณฑ์บางรุ่นต้องสร้างขึ้นบนคลาวด์เพื่อให้สอดคล้องกับผลลัพธ์ทางธุรกิจขององค์กร

สำหรับลูกค้าเหล่านี้ เราขอเสนอรูปแบบไฮบริดแมชชีนเลิร์นนิง (ML) เป็นขั้นตอนกลางในการเดินทางไปยังคลาวด์ รูปแบบ ML แบบไฮบริดคือรูปแบบที่เกี่ยวข้องกับสภาพแวดล้อมการประมวลผลขั้นต่ำสองแห่ง โดยทั่วไปแล้วจะเป็นทรัพยากรการประมวลผลในเครื่อง เช่น แล็ปท็อปส่วนบุคคลหรือศูนย์ข้อมูลขององค์กร และระบบคลาวด์ ด้วยรูปแบบสถาปัตยกรรม ML แบบไฮบริดที่อธิบายไว้ในโพสต์นี้ องค์กรต่างๆ สามารถบรรลุเป้าหมายทางธุรกิจที่ต้องการโดยไม่ต้องรอให้การโยกย้ายระบบคลาวด์เสร็จสิ้น สุดท้ายนี้ เราต้องการสนับสนุนความสำเร็จของลูกค้าในทุกรูปแบบและทุกรูปแบบ

เราได้เผยแพร่เอกสารปกขาวฉบับใหม่ การเรียนรู้ของเครื่องไฮบริดเพื่อช่วยให้คุณรวมระบบคลาวด์เข้ากับโครงสร้างพื้นฐาน ML ภายในองค์กรที่มีอยู่ ดูเอกสารรายงานเพิ่มเติมจาก AWS ได้ที่ เอกสารรายงานและแนวทางของ AWS.

รูปแบบสถาปัตยกรรม ML ไฮบริด

เอกสารไวท์เปเปอร์ให้ภาพรวมของรูปแบบ ML แบบไฮบริดที่หลากหลายตลอดวงจรชีวิต ML ทั้งหมด รวมถึงการพัฒนาแบบจำลอง ML การเตรียมข้อมูล การฝึกอบรม การปรับใช้ และการจัดการอย่างต่อเนื่อง ตารางต่อไปนี้สรุปรูปแบบสถาปัตยกรรม ML ไฮบริดที่แตกต่างกันแปดรูปแบบที่เราพูดถึงในเอกสารทางเทคนิค สำหรับแต่ละรูปแบบ เรามีสถาปัตยกรรมอ้างอิงเบื้องต้นเพิ่มเติมจากข้อดีและข้อเสีย เรายังระบุเกณฑ์ "เมื่อใดควรย้าย" เพื่อช่วยคุณในการตัดสินใจ—ตัวอย่างเช่น เมื่อระดับของความพยายามในการรักษาและปรับขนาดรูปแบบที่กำหนดนั้นเกินค่าที่ให้ไว้

พัฒนาการ การฝึกอบรม การใช้งาน
พัฒนาบนคอมพิวเตอร์ส่วนบุคคล ฝึกอบรมและโฮสต์ในคลาวด์ ฝึกอบรมในพื้นที่ ปรับใช้ในระบบคลาวด์ ให้บริการโมเดล ML ในระบบคลาวด์กับแอปพลิเคชันที่โฮสต์ในองค์กร
พัฒนาบนเซิร์ฟเวอร์ท้องถิ่น ฝึกอบรมและโฮสต์ในคลาวด์ จัดเก็บข้อมูลในเครื่อง ฝึกและปรับใช้ในระบบคลาวด์ โฮสต์โมเดล ML ด้วย Lambda@Edge ไปยังแอปพลิเคชันในองค์กร
พัฒนาในระบบคลาวด์ขณะเชื่อมต่อกับข้อมูลที่โฮสต์ในองค์กร ฝึกอบรมกับผู้ให้บริการ SaaS บุคคลที่สามเพื่อโฮสต์ในคลาวด์
ฝึกอบรมในระบบคลาวด์ ปรับใช้โมเดล ML ในองค์กร จัดการปริมาณงาน ML แบบไฮบริดด้วย Kubeflow และ Amazon EKS Anywhere

ในโพสต์นี้ เราเจาะลึกถึงรูปแบบสถาปัตยกรรมไฮบริดสำหรับการปรับใช้โดยเน้นที่รูปแบบการให้บริการที่โฮสต์ในคลาวด์ไปยังแอปพลิเคชันที่โฮสต์ในองค์กร

ภาพรวมสถาปัตยกรรม

กรณีใช้งานทั่วไปสำหรับรูปแบบไฮบริดนี้คือการย้ายข้อมูลองค์กร ทีมวิทยาศาสตร์ข้อมูลของคุณอาจพร้อมที่จะปรับใช้กับระบบคลาวด์ แต่ทีมแอปพลิเคชันของคุณยังคงจัดโครงสร้างโค้ดใหม่เพื่อโฮสต์บนบริการ Cloud-native แนวทางนี้ช่วยให้นักวิทยาศาสตร์ข้อมูลนำโมเดลใหม่ล่าสุดออกสู่ตลาดได้ ในขณะที่ทีมแอปพลิเคชันจะพิจารณาแยกกันว่าจะย้ายแอปพลิเคชันที่เหลือไปยังระบบคลาวด์เมื่อใด ที่ไหน และอย่างไร

ไดอะแกรมต่อไปนี้แสดงสถาปัตยกรรมสำหรับการโฮสต์โมเดล ML ผ่าน อเมซอน SageMaker ในภูมิภาค AWS ให้บริการตอบสนองต่อคำขอจากแอปพลิเคชันที่โฮสต์ในองค์กร

ML . ไฮบริด

เจาะลึกเทคนิค

ในส่วนนี้ เราจะเจาะลึกถึงสถาปัตยกรรมทางเทคนิคและมุ่งเน้นไปที่องค์ประกอบต่างๆ ที่ประกอบด้วยปริมาณงานแบบไฮบริดอย่างชัดเจนและอ้างอิงถึงทรัพยากรอื่นๆ ตามความจำเป็น

ลองใช้กรณีการใช้งานจริงของบริษัทค้าปลีกซึ่งทีมพัฒนาแอปพลิเคชันได้โฮสต์เว็บแอปพลิเคชันอีคอมเมิร์ซไว้ในสถานที่ บริษัทต้องการปรับปรุงความภักดีต่อแบรนด์ เพิ่มยอดขายและรายได้ และเพิ่มประสิทธิภาพโดยใช้ข้อมูลเพื่อสร้างประสบการณ์ลูกค้าที่ซับซ้อนและไม่เหมือนใคร พวกเขาตั้งใจที่จะเพิ่มการมีส่วนร่วมของลูกค้า 50% โดยการเพิ่มวิดเจ็ต "แนะนำสำหรับคุณ" บนหน้าจอหลัก อย่างไรก็ตาม พวกเขากำลังดิ้นรนเพื่อมอบประสบการณ์ที่เป็นส่วนตัวเนื่องจากข้อจำกัดของระบบสแตติก ระบบที่อิงตามกฎ ความซับซ้อนและต้นทุน และความขัดแย้งกับการผสานแพลตฟอร์มเนื่องจากสถาปัตยกรรมภายในองค์กรที่มีอยู่เดิมในปัจจุบัน

ทีมแอปพลิเคชันมีกลยุทธ์การย้ายองค์กรในระยะเวลา 5 ปีเพื่อปรับโครงสร้างเว็บแอปพลิเคชันของตนใหม่โดยใช้สถาปัตยกรรมแบบคลาวด์เนทีฟเพื่อย้ายไปยังคลาวด์ ในขณะที่ทีมวิทยาศาสตร์ข้อมูลพร้อมที่จะเริ่มใช้งานในระบบคลาวด์ ด้วยรูปแบบสถาปัตยกรรมไฮบริดที่อธิบายไว้ในโพสต์นี้ บริษัทสามารถบรรลุผลลัพธ์ทางธุรกิจที่ต้องการได้อย่างรวดเร็วโดยไม่ต้องรอให้การโยกย้ายองค์กร 5 ปีเสร็จสมบูรณ์

นักวิทยาศาสตร์ข้อมูลพัฒนาโมเดล ML ดำเนินการฝึกอบรม และปรับใช้โมเดลที่ได้รับการฝึกอบรมในคลาวด์ เว็บแอปพลิเคชันอีคอมเมิร์ซที่โฮสต์ในองค์กรใช้โมเดล ML ผ่านจุดปลายที่เปิดเผย มาดูรายละเอียดในนี้กัน

ในขั้นตอนการพัฒนาแบบจำลอง นักวิทยาศาสตร์ด้านข้อมูลสามารถใช้สภาพแวดล้อมการพัฒนาในพื้นที่ เช่น การติดตั้ง PyCharm หรือ Jupyter บนคอมพิวเตอร์ส่วนบุคคล จากนั้นเชื่อมต่อกับระบบคลาวด์ผ่าน AWS Identity และการจัดการการเข้าถึง (IAM) สิทธิ์และส่วนต่อประสานกับ API บริการของ AWS ผ่าน อินเทอร์เฟซบรรทัดคำสั่ง AWS AWS (AWS CLI) หรือ AWS SDK (เช่น Boto3) พวกเขายังมีความยืดหยุ่นในการใช้งาน สตูดิโอ Amazon SageMakerซึ่งเป็นอินเทอร์เฟซแบบภาพบนเว็บเดียวที่มาพร้อมกับแพ็คเกจวิทยาศาสตร์ข้อมูลทั่วไปและเคอร์เนลที่ติดตั้งไว้ล่วงหน้าสำหรับการพัฒนาโมเดล

นักวิทยาศาสตร์ข้อมูลสามารถใช้ประโยชน์จากความสามารถในการฝึกอบรมของ SageMaker รวมถึงการเข้าถึงอินสแตนซ์ CPU และ GPU ตามความต้องการ การปรับแต่งโมเดลอัตโนมัติ อินสแตนซ์ Spot ที่มีการจัดการ จุดตรวจสอบสำหรับการบันทึกสถานะของโมเดล การฝึกอบรมแบบกระจายที่มีการจัดการ และอื่นๆ อีกมากมายโดยใช้ SDK การฝึกอบรม SageMaker และ API สำหรับภาพรวมเกี่ยวกับโมเดลการฝึกด้วย SageMaker โปรดดูที่ ฝึกโมเดลด้วย Amazon SageMaker.

หลังจากที่โมเดลได้รับการฝึกอบรมแล้ว นักวิทยาศาสตร์ด้านข้อมูลสามารถปรับใช้โมเดลได้โดยใช้ความสามารถในการโฮสต์ของ SageMaker และเปิดเผย REST HTTP(s) endpoint ที่ให้บริการการคาดคะเนเพื่อสิ้นสุดแอปพลิเคชันที่โฮสต์ในองค์กร ทีมพัฒนาแอปพลิเคชันสามารถผสานรวมแอปพลิเคชันภายในองค์กรเพื่อโต้ตอบกับโมเดล ML ผ่านจุดปลายที่โฮสต์โดย SageMaker เพื่อรับผลการอนุมาน นักพัฒนาแอปพลิเคชันสามารถเข้าถึงโมเดลที่ปรับใช้ผ่านคำขอ Application Programming Interface (API) ด้วยเวลาตอบสนองที่ต่ำเพียงไม่กี่มิลลิวินาที ซึ่งรองรับกรณีการใช้งานที่ต้องการการตอบสนองแบบเรียลไทม์ เช่น คำแนะนำผลิตภัณฑ์เฉพาะบุคคล

แอปพลิเคชันไคลเอนต์ในองค์กรเชื่อมต่อกับโมเดล ML ที่โฮสต์บน SageMaker ที่โฮสต์ปลายทางบน AWS ผ่านเครือข่ายส่วนตัวโดยใช้ VPN หรือการเชื่อมต่อ Direct Connect เพื่อให้ผลลัพธ์การอนุมานแก่ผู้ใช้ปลายทาง แอปพลิเคชันไคลเอ็นต์สามารถใช้ไลบรารีไคลเอ็นต์ใดๆ เพื่อเรียกใช้ปลายทางโดยใช้คำขอ HTTP Post พร้อมกับข้อมูลรับรองการตรวจสอบสิทธิ์ที่จำเป็นซึ่งกำหนดค่าโดยทางโปรแกรมและส่วนของข้อมูลที่คาดไว้ SageMaker ยังมีคำสั่งและไลบรารีที่สรุปรายละเอียดระดับต่ำบางอย่าง เช่น การรับรองความถูกต้องโดยใช้ข้อมูลประจำตัว AWS ที่บันทึกไว้ในสภาพแวดล้อมแอปพลิเคชันไคลเอ็นต์ของเรา เช่น SageMaker เรียกใช้ปลายทาง คำสั่งรันไทม์จาก AWS CLI, ไคลเอ็นต์รันไทม์ SageMaker จาก โบโต3 (AWS SDK สำหรับ Python) และคลาส Predictor จาก SageMaker ไพธอน SDK

เพื่อให้ปลายทางสามารถเข้าถึงได้ผ่านทางอินเทอร์เน็ต เราสามารถใช้ Amazon API Gateway Amazon. แม้ว่าคุณจะสามารถเข้าถึงปลายทางที่โฮสต์ SageMaker ได้โดยตรงจาก API Gateway แต่รูปแบบทั่วไปที่คุณสามารถใช้ได้คือการเพิ่มan AWS แลมบ์ดา ทำหน้าที่ในระหว่าง คุณสามารถใช้ฟังก์ชัน Lambda สำหรับการประมวลผลล่วงหน้าใดๆ ก็ได้ ซึ่งอาจจำเป็นเพื่อส่งคำขอในรูปแบบที่ปลายทางคาดหวัง หรือการประมวลผลภายหลังเพื่อแปลงการตอบสนองเป็นรูปแบบที่แอปพลิเคชันไคลเอ็นต์ต้องการ ดูข้อมูลเพิ่มเติมได้ที่ เรียกใช้ตำแหน่งข้อมูลรุ่น Amazon SageMaker โดยใช้ Amazon API Gateway และ AWS Lambda.

แอปพลิเคชันไคลเอนต์ในองค์กรเชื่อมต่อกับโมเดล ML ที่โฮสต์บน SageMaker บน AWS ผ่านเครือข่ายส่วนตัวโดยใช้ VPN หรือการเชื่อมต่อ Direct Connect เพื่อให้ผลลัพธ์การอนุมานแก่ผู้ใช้ปลายทาง

ไดอะแกรมต่อไปนี้แสดงให้เห็นว่าทีมวิทยาศาสตร์ข้อมูลพัฒนาโมเดล ML ดำเนินการฝึกอบรม และปรับใช้โมเดลที่ได้รับการฝึกอบรมในระบบคลาวด์อย่างไร ในขณะที่ทีมพัฒนาแอปพลิเคชันจะพัฒนาและปรับใช้เว็บแอปพลิเคชันอีคอมเมิร์ซภายในองค์กร

เจาะลึกสถาปัตยกรรม

หลังจากปรับใช้โมเดลในสภาพแวดล้อมการผลิตแล้ว นักวิทยาศาสตร์ด้านข้อมูลของคุณสามารถใช้ การตรวจสอบโมเดล Amazon SageMaker เพื่อตรวจสอบคุณภาพของโมเดล ML แบบเรียลไทม์อย่างต่อเนื่อง นอกจากนี้ยังสามารถตั้งค่าระบบทริกเกอร์การแจ้งเตือนอัตโนมัติเมื่อเกิดการเบี่ยงเบนในคุณภาพของแบบจำลอง เช่น การเบี่ยงเบนของข้อมูลและความผิดปกติ บันทึก Amazon CloudWatch รวบรวมล็อกไฟล์ที่ตรวจสอบสถานะของโมเดลและแจ้งให้คุณทราบเมื่อคุณภาพของโมเดลถึงเกณฑ์ที่กำหนด ซึ่งจะช่วยให้นักวิทยาศาสตร์ข้อมูลของคุณสามารถดำเนินการแก้ไขได้ เช่น การฝึกอบรมแบบจำลอง การตรวจสอบระบบต้นน้ำ หรือการแก้ไขปัญหาด้านคุณภาพโดยไม่ต้องตรวจสอบแบบจำลองด้วยตนเอง ด้วย AWS Managed Services ทีมวิทยาศาสตร์ข้อมูลของคุณสามารถหลีกเลี่ยงข้อเสียของการใช้โซลูชันการตรวจสอบตั้งแต่เริ่มต้น

นักวิทยาศาสตร์ด้านข้อมูลของคุณสามารถลดเวลาโดยรวมที่ต้องใช้ในการปรับใช้โมเดล ML ของตนในการผลิตโดยการทดสอบโหลดอัตโนมัติและการปรับแต่งโมเดลในอินสแตนซ์ SageMaker ML โดยใช้ ผู้แนะนำการอนุมานของ Amazon SageMaker. ช่วยให้นักวิทยาศาสตร์ข้อมูลของคุณเลือกประเภทและการกำหนดค่าอินสแตนซ์ที่ดีที่สุด (เช่น จำนวนอินสแตนซ์ พารามิเตอร์คอนเทนเนอร์ และการปรับโมเดลให้เหมาะสม) สำหรับโมเดล ML ของตน

สุดท้ายนี้ แนวทางปฏิบัติที่ดีที่สุดเสมอที่จะแยกการโฮสต์โมเดล ML ของคุณออกจากการโฮสต์แอปพลิเคชันของคุณ ในแนวทางนี้ นักวิทยาศาสตร์ด้านข้อมูลใช้ทรัพยากรเฉพาะเพื่อโฮสต์โมเดล ML ของตน โดยเฉพาะที่แยกออกจากแอปพลิเคชัน ซึ่งช่วยลดความยุ่งยากในกระบวนการอย่างมากในการผลักดันโมเดลที่ดีขึ้น นี่คือก้าวสำคัญของนวัตกรรมมู่เล่ นอกจากนี้ยังป้องกันรูปแบบการมีเพศสัมพันธ์ที่แน่นหนาระหว่างโมเดล ML ที่โฮสต์และแอปพลิเคชัน ซึ่งจะทำให้โมเดลมีประสิทธิภาพสูง

นอกเหนือจากการปรับปรุงประสิทธิภาพของแบบจำลองด้วยแนวโน้มการวิจัยที่อัปเดตแล้ว แนวทางนี้ยังให้ความสามารถในการปรับใช้แบบจำลองใหม่ด้วยข้อมูลที่อัปเดต การระบาดใหญ่ของ COVID-19 ทั่วโลกได้แสดงให้เห็นความจริงที่ว่าตลาดมีการเปลี่ยนแปลงตลอดเวลา และโมเดล ML จำเป็นต้องติดตามเทรนด์ล่าสุดอยู่เสมอ วิธีเดียวที่คุณสามารถดำเนินการตามข้อกำหนดดังกล่าวได้คือการฝึกฝนใหม่และทำให้โมเดลของคุณใช้งานได้อีกครั้งด้วยข้อมูลที่อัปเดต

สรุป

ตรวจสอบเอกสารไวท์เปเปอร์ การเรียนรู้ของเครื่องไฮบริดโดยเราจะดูรูปแบบเพิ่มเติมสำหรับการโฮสต์โมเดล ML ผ่าน แลมบ์ดาแอทเอดจ์, AWS ด่านหน้า, โซน AWS ในพื้นที่และ ความยาวคลื่น AWS. เราสำรวจรูปแบบ ML แบบไฮบริดตลอดวงจรชีวิต ML ทั้งหมด เราพิจารณาการพัฒนาในพื้นที่ ขณะฝึกอบรมและปรับใช้ในระบบคลาวด์ เราหารือเกี่ยวกับรูปแบบการฝึกอบรมในพื้นที่เพื่อปรับใช้บนคลาวด์ และแม้กระทั่งการโฮสต์โมเดล ML ในระบบคลาวด์เพื่อให้บริการแอปพลิเคชันในองค์กร

คุณผสานระบบคลาวด์เข้ากับโครงสร้างพื้นฐาน ML ภายในองค์กรที่มีอยู่ได้อย่างไร โปรดแบ่งปันความคิดเห็นของคุณเกี่ยวกับ ML แบบไฮบริดในความคิดเห็น เพื่อให้เราสามารถปรับปรุงผลิตภัณฑ์ คุณลักษณะ และเอกสารประกอบต่อไปได้ หากคุณต้องการให้ผู้เขียนเอกสารนี้มีส่วนร่วมเพื่อขอคำแนะนำในการย้ายระบบคลาวด์ของคุณ ติดต่อเราได้ที่ ไฮบริด-ml-support@amazon.com.


เกี่ยวกับผู้เขียน

อาลัก เอสวาร์ดาส เป็นสถาปนิกโซลูชันที่ AWS ซึ่งตั้งอยู่ในเมืองชิคาโก รัฐอิลลินอยส์ เธอหลงใหลในการช่วยลูกค้าออกแบบสถาปัตยกรรมระบบคลาวด์ที่ใช้บริการของ AWS เพื่อแก้ปัญหาทางธุรกิจ เธอออกไปเที่ยวกับลูกสาวและออกสำรวจกลางแจ้งในเวลาว่าง

เอมิลี่ เว็บเบอร์ เข้าร่วม AWS หลังจากเปิดตัว SageMaker และพยายามบอกให้โลกรู้ตั้งแต่นั้นมา! นอกเหนือจากการสร้างประสบการณ์ ML ใหม่ให้กับลูกค้าแล้ว เอมิลี่ชอบนั่งสมาธิและศึกษาพุทธศาสนาในทิเบต

รูป เบนส์ เป็นสถาปนิกโซลูชันที่ AWS โดยมุ่งเน้นที่ AI/ML เขาหลงใหลเกี่ยวกับแมชชีนเลิร์นนิงและช่วยให้ลูกค้าบรรลุวัตถุประสงค์ทางธุรกิจ ในเวลาว่าง เขาชอบอ่านหนังสือและเดินป่า

ที่มา: https://aws.amazon.com/blogs/machine-learning/introducing-hybrid-machine-learning/

ประทับเวลา:

เพิ่มเติมจาก บล็อก AWS Machine Learning