ความเข้าใจภาษาธรรมชาติถูกนำไปใช้ในกรณีการใช้งานที่หลากหลาย ตั้งแต่แชทบอทและผู้ช่วยเสมือน ไปจนถึงการแปลด้วยเครื่องและการสรุปข้อความ เพื่อให้แน่ใจว่าแอปพลิเคชันเหล่านี้กำลังทำงานในระดับประสิทธิภาพที่คาดไว้ ข้อมูลในสภาพแวดล้อมการฝึกอบรมและการผลิตจะต้องมาจากการแจกจ่ายเดียวกัน เมื่อข้อมูลที่ใช้สำหรับการอนุมาน (ข้อมูลการผลิต) แตกต่างจากข้อมูลที่ใช้ระหว่างการฝึกโมเดล เราพบปรากฏการณ์ที่เรียกว่า data drift เมื่อเกิดการเคลื่อนตัวของข้อมูล โมเดลจะไม่เกี่ยวข้องกับข้อมูลในการผลิตอีกต่อไป และมีแนวโน้มว่าจะทำงานได้แย่กว่าที่คาดไว้ สิ่งสำคัญคือต้องตรวจสอบข้อมูลการอนุมานอย่างต่อเนื่องและเปรียบเทียบกับข้อมูลที่ใช้ในการฝึกอบรม
คุณสามารถใช้ได้ อเมซอน SageMaker เพื่อสร้าง ฝึกฝน และปรับใช้โมเดลแมชชีนเลิร์นนิง (ML) ในทุกขนาดอย่างรวดเร็ว คุณสามารถใช้ .เป็นมาตรการเชิงรุกในการต่อต้านการเสื่อมของแบบจำลองได้ การตรวจสอบโมเดล Amazon SageMaker เพื่อตรวจสอบคุณภาพของโมเดล ML ของคุณอย่างต่อเนื่องแบบเรียลไทม์ ด้วย Model Monitor คุณยังสามารถกำหนดค่าการแจ้งเตือนเพื่อแจ้งและทริกเกอร์การดำเนินการ หากสังเกตพบการเบี่ยงเบนในประสิทธิภาพของแบบจำลอง การตรวจจับความเบี่ยงเบนเหล่านี้ตั้งแต่เนิ่นๆและเชิงรุกช่วยให้คุณดำเนินการแก้ไขได้ เช่น การรวบรวมข้อมูลการฝึกความจริงภาคพื้นดิน แบบจำลองการฝึกซ้ำ และการตรวจสอบระบบต้นน้ำ โดยไม่ต้องตรวจสอบแบบจำลองด้วยตนเองหรือสร้างเครื่องมือเพิ่มเติม
Model Monitor นำเสนอความสามารถในการตรวจสอบสี่ประเภทที่แตกต่างกันเพื่อตรวจจับและบรรเทาการเบี่ยงเบนของแบบจำลองในแบบเรียลไทม์:
- ข้อมูลที่มีคุณภาพ – ช่วยตรวจจับการเปลี่ยนแปลงในสคีมาข้อมูลและคุณสมบัติทางสถิติของตัวแปรอิสระและการแจ้งเตือนเมื่อตรวจพบการเลื่อนลอย
- คุณภาพของรุ่น – สำหรับการตรวจสอบคุณลักษณะประสิทธิภาพของแบบจำลอง เช่น ความแม่นยำหรือความแม่นยำแบบเรียลไทม์ Model Monitor ช่วยให้คุณสามารถนำเข้าป้ายกำกับความจริงภาคพื้นดินที่รวบรวมจากแอปพลิเคชันของคุณ Model Monitor จะผสานข้อมูลความจริงพื้นฐานกับข้อมูลการทำนายโดยอัตโนมัติเพื่อคำนวณเมตริกประสิทธิภาพของแบบจำลอง
- ความลำเอียงของโมเดล –Model Monitor ถูกรวมเข้ากับ Amazon SageMaker ชี้แจง เพื่อปรับปรุงการมองเห็นอคติที่อาจเกิดขึ้น แม้ว่าข้อมูลหรือแบบจำลองเริ่มต้นของคุณอาจไม่มีความเอนเอียง แต่การเปลี่ยนแปลงในโลกอาจทำให้อคติพัฒนาเมื่อเวลาผ่านไปในแบบจำลองที่ได้รับการฝึกอบรมแล้ว
- แบบจำลองอธิบายได้ – การตรวจจับการดริฟท์จะแจ้งเตือนคุณเมื่อมีการเปลี่ยนแปลงในความสำคัญเชิงสัมพันธ์ของการระบุแหล่งที่มาของคุณลักษณะ
ในโพสต์นี้ เราจะพูดถึงประเภทของการเลื่อนคุณภาพข้อมูลที่ใช้กับข้อมูลข้อความ นอกจากนี้เรายังนำเสนอวิธีการตรวจจับการเคลื่อนตัวของข้อมูลในข้อมูลข้อความโดยใช้ Model Monitor
การเลื่อนข้อมูลใน NLP
การเลื่อนข้อมูลสามารถจำแนกได้เป็นสามประเภทขึ้นอยู่กับว่ากะการกระจายเกิดขึ้นที่อินพุตหรือด้านเอาต์พุต หรือความสัมพันธ์ระหว่างอินพุตและเอาต์พุตมีการเปลี่ยนแปลงหรือไม่
โควาเรียตกะ
ใน ความแปรปรวนร่วมกะการกระจายของอินพุตเปลี่ยนแปลงตลอดเวลา แต่การกระจายแบบมีเงื่อนไข พี(ย|x) ไม่เปลี่ยนแปลง การเลื่อนประเภทนี้เรียกว่าการเปลี่ยนแปลงร่วมกันเนื่องจากปัญหาเกิดขึ้นเนื่องจากการเปลี่ยนแปลงในการกระจายของตัวแปรร่วม (คุณลักษณะ) ตัวอย่างเช่น ในรูปแบบการจำแนกประเภทสแปมอีเมล การกระจายข้อมูลการฝึกอบรม (องค์กรอีเมล) อาจแตกต่างไปจากการกระจายข้อมูลระหว่างการให้คะแนน
ป้ายกะ
ในขณะที่การเปลี่ยนแปลงร่วมกันมุ่งเน้นไปที่การเปลี่ยนแปลงในการกระจายคุณลักษณะ ป้ายกะ มุ่งเน้นไปที่การเปลี่ยนแปลงในการกระจายของตัวแปรคลาส การขยับประเภทนี้โดยพื้นฐานแล้วเป็นการย้อนกลับของการเปลี่ยนตัวแปรร่วม วิธีคิดแบบสัญชาตญาณอาจเป็นการพิจารณาชุดข้อมูลที่ไม่สมดุล หากอัตราส่วนสแปมต่อไม่ใช่สแปมของอีเมลในชุดการฝึกอบรมของเราคือ 50% แต่ในความเป็นจริง 10% ของอีเมลไม่ใช่สแปม การกระจายป้ายกำกับเป้าหมายก็เปลี่ยนไป
การเปลี่ยนแนวคิด
การเปลี่ยนแนวคิด แตกต่างจาก covariate และ label shift โดยที่ไม่เกี่ยวข้องกับการกระจายข้อมูลหรือการกระจายคลาส แต่สัมพันธ์กับความสัมพันธ์ระหว่างตัวแปรทั้งสองแทน ตัวอย่างเช่น ผู้ส่งอีเมลขยะมักใช้แนวคิดที่หลากหลายเพื่อส่งต่อแบบจำลองตัวกรองจดหมายขยะ และแนวคิดของอีเมลที่ใช้ระหว่างการฝึกอบรมอาจเปลี่ยนแปลงเมื่อเวลาผ่านไป
ตอนนี้เราเข้าใจประเภทต่าง ๆ ของการเคลื่อนตัวของข้อมูลแล้ว มาดูกันว่าเราจะใช้ Model Monitor เพื่อตรวจจับการเปลี่ยนแปลงร่วมในข้อมูลข้อความได้อย่างไร
ภาพรวมโซลูชัน
ข้อมูลแบบข้อความนั้นซับซ้อน มีมิติสูง และรูปแบบอิสระไม่เหมือนกับข้อมูลแบบตารางซึ่งมีโครงสร้างและมีขอบเขต เพื่อตรวจจับการเคลื่อนตัวใน NLP อย่างมีประสิทธิภาพ เราทำงานร่วมกับ ฝัง, ซึ่งเป็นการแสดงข้อความที่มีมิติต่ำ คุณสามารถรับการฝังโดยใช้โมเดลภาษาต่างๆ เช่น Word2Vec และโมเดลที่ใช้หม้อแปลงไฟฟ้า เช่น BERT. โมเดลเหล่านี้ฉายข้อมูลมิติสูงลงในช่องว่างมิติต่ำในขณะที่รักษาข้อมูลความหมายของข้อความ ผลลัพธ์ที่ได้คือเวกเตอร์ที่มีความหนาแน่นและมีความหมายตามบริบท ซึ่งสามารถใช้กับงานดาวน์สตรีมต่างๆ ได้ รวมถึงการเฝ้าติดตามการเลื่อนข้อมูล
ในโซลูชันของเรา เราใช้การฝังเพื่อตรวจหาการเปลี่ยนแปลงของประโยคภาษาอังกฤษที่ต่างกัน เราใช้ Model Monitor เพื่ออำนวยความสะดวกในการตรวจสอบอย่างต่อเนื่องสำหรับตัวแยกประเภทข้อความที่ปรับใช้กับสภาพแวดล้อมการผลิต แนวทางของเราประกอบด้วยขั้นตอนต่อไปนี้:
- ปรับแต่งโมเดล BERT โดยใช้ SageMaker
- ปรับใช้ตัวแยกประเภท BERT ที่ปรับแต่งแล้วเป็นจุดปลายทางแบบเรียลไทม์ด้วย การจับข้อมูล เปิดการใช้งาน
- สร้างชุดข้อมูลพื้นฐานที่ประกอบด้วยตัวอย่างของประโยคที่ใช้ฝึกตัวแยกประเภท BERT
- สร้าง งานตรวจสอบ SageMaker แบบกำหนดเอง เพื่อคำนวณความคล้ายคลึงของโคไซน์ระหว่างข้อมูลที่บันทึกในการผลิตและชุดข้อมูลพื้นฐาน
ไดอะแกรมต่อไปนี้แสดงเวิร์กโฟลว์โซลูชัน:
ปรับแต่งโมเดล BERT
ในโพสต์นี้เราใช้ คลังข้อมูลการยอมรับทางภาษาศาสตร์ (CoLA)ชุดข้อมูลประโยคภาษาอังกฤษ 10,657 ประโยคที่มีป้ายกำกับว่าถูกไวยากรณ์หรือผิดไวยากรณ์จากวรรณคดีภาษาศาสตร์ที่ตีพิมพ์ เราใช้การฝึกอบรม SageMaker เพื่อปรับแต่งโมเดล BERT โดยใช้ชุดข้อมูล CoLa โดยกำหนดคลาสตัวประมาณ PyTorch สำหรับข้อมูลเพิ่มเติมเกี่ยวกับวิธีใช้ SDK นี้กับ PyTorch โปรดดูที่ ใช้ PyTorch กับ SageMaker Python SDK. โทรหา fit()
วิธีการประมาณการเริ่มงานฝึกอบรม:
ปรับใช้โมเดล
หลังจากฝึกโมเดลของเราแล้ว เราก็โฮสต์ไว้บนจุดปลาย SageMaker เพื่อให้ปลายทางโหลดโมเดลและให้บริการการคาดคะเน เราใช้วิธีการสองสามวิธีใน train_deploy.py:
- model_fn() – โหลดโมเดลที่บันทึกไว้และส่งคืนอ็อบเจ็กต์โมเดลที่สามารถใช้สำหรับการให้บริการโมเดล เซิร์ฟเวอร์รุ่น SageMaker PyTorch โหลดโมเดลของเราโดยเรียกใช้
model_fn
. - input_fn() – ยกเลิกการซีเรียลไลซ์และเตรียมอินพุตการทำนาย ในตัวอย่างนี้ เนื้อหาคำขอของเราจะถูกจัดลำดับเป็น JSON ก่อน จากนั้นจึงส่งไปยังจุดสิ้นสุดการให้บริการโมเดล ดังนั้นใน
input_fn()
ก่อนอื่นเราทำการดีซีเรียลไลซ์เนื้อหาคำขอที่จัดรูปแบบ JSON และคืนค่าอินพุตเป็นatorch.tensor
ตามข้อกำหนดของ BERT - ทำนาย_fn() – ดำเนินการทำนายและส่งคืนผลลัพธ์
เปิดใช้งานการเก็บข้อมูล Model Monitor
เราเปิดใช้งาน การเก็บข้อมูลการตรวจสอบโมเดล เพื่อบันทึกข้อมูลอินพุตลงใน บริการจัดเก็บข้อมูลอย่างง่ายของ Amazon (Amazon S3) ที่ฝากข้อมูลเพื่ออ้างอิงในภายหลัง:
จากนั้นเราจะสร้างจุดสิ้นสุด SageMaker แบบเรียลไทม์ด้วยโมเดลที่สร้างขึ้นในขั้นตอนก่อนหน้า:
การอนุมาน
เราเรียกใช้การทำนายโดยใช้วัตถุตัวทำนายที่เราสร้างในขั้นตอนก่อนหน้า เราตั้งค่า JSON serializer และ deserializer ซึ่งใช้โดยจุดสิ้นสุดการอนุมาน:
ปลายทางแบบเรียลไทม์ได้รับการกำหนดค่าให้บันทึกข้อมูลจากคำขอ และการตอบสนองและข้อมูลจะถูกจัดเก็บไว้ใน Amazon S3 คุณสามารถดูข้อมูลที่บันทึกไว้ในกำหนดการตรวจสอบก่อนหน้าได้
สร้างเส้นฐาน
เราใช้โมเดล BERT ที่ปรับแต่งมาอย่างดีเพื่อดึงคุณสมบัติการฝังประโยคจากข้อมูลการฝึก เราใช้เวกเตอร์เหล่านี้เป็นอินพุตคุณสมบัติคุณภาพสูงสำหรับการเปรียบเทียบระยะทางโคไซน์ เนื่องจาก BERT สร้างการแสดงคำแบบไดนามิกพร้อมบริบทเชิงความหมาย ทำตามขั้นตอนต่อไปนี้เพื่อรับการฝังประโยค:
- ใช้ BERT tokenizer เพื่อรับรหัสโทเค็นสำหรับแต่ละโทเค็น (
input_id
) ในประโยคอินพุตและมาสก์เพื่อระบุว่าองค์ประกอบใดในลำดับอินพุตเป็นโทเค็นเทียบกับองค์ประกอบการเติม (attention_mask_id
). เราใช้ BERTtokenizer.encode_plus
ฟังก์ชั่นเพื่อรับค่าเหล่านี้สำหรับแต่ละประโยคอินพุต:
input_ids
และ attention_mask_ids
ถูกส่งไปยังโมเดลและดึงสถานะที่ซ่อนอยู่ของเครือข่าย ดิ hidden_states
มีสี่มิติตามลำดับต่อไปนี้:
- หมายเลขเลเยอร์ (BERT มี 12 ชั้น)
- หมายเลขชุด (1 ประโยค)
- ดัชนีโทเค็นของ Word
- หน่วยที่ซ่อนอยู่ (768 คุณสมบัติ)
- ใช้เลเยอร์ที่ซ่อนอยู่สองเลเยอร์สุดท้ายเพื่อรับเวกเตอร์เดียว (การฝังประโยค) โดยการคำนวณค่าเฉลี่ยของโทเค็นอินพุตทั้งหมดในประโยค:
- แปลงการฝังประโยคเป็นอาร์เรย์ NumPy และจัดเก็บไว้ในตำแหน่ง Amazon S3 เป็นข้อมูลพื้นฐานที่ใช้โดย Model Monitor:
สคริปต์การประเมินผล
Model Monitor จัดเตรียมคอนเทนเนอร์ที่สร้างไว้ล่วงหน้าพร้อมความสามารถในการวิเคราะห์ข้อมูลที่บันทึกจากปลายทางสำหรับชุดข้อมูลแบบตาราง หากคุณต้องการนำคอนเทนเนอร์มาเอง Model Monitor มีจุดต่อขยายที่คุณสามารถใช้ได้ เมื่อคุณสร้าง MonitoringSchedule
, Model Monitor ได้เริ่มดำเนินการประมวลผลในที่สุด ดังนั้นตู้คอนเทนเนอร์จึงจำเป็นต้องทราบสัญญาจ้างงานแปรรูป เราจำเป็นต้องสร้างสคริปต์การประเมินที่เข้ากันได้กับคอนเทนเนอร์ ปัจจัยการผลิตสัญญา และ เอาท์พุท.
Model Monitor ใช้รหัสการประเมินกับตัวอย่างทั้งหมดที่จับได้ระหว่างกำหนดการตรวจสอบ สำหรับแต่ละจุดข้อมูลการอนุมาน เราจะคำนวณการฝังประโยคโดยใช้ตรรกะเดียวกันกับที่อธิบายไว้ก่อนหน้านี้ ความคล้ายคลึงของโคไซน์ถูกใช้เป็นตัววัดระยะทางเพื่อวัดความคล้ายคลึงกันของจุดข้อมูลการอนุมานและการฝังประโยคในเส้นฐาน ในทางคณิตศาสตร์ มันวัดมุมโคไซน์ระหว่างเวกเตอร์ที่ฝังสองประโยค คะแนนความคล้ายคลึงกันของโคไซน์สูงบ่งบอกถึงการฝังประโยคที่คล้ายคลึงกัน คะแนนความคล้ายคลึงกันของโคไซน์ที่ต่ำกว่าบ่งชี้ถึงความเบี่ยงเบนของข้อมูล เราคำนวณค่าเฉลี่ยของคะแนนความคล้ายคลึงกันโคไซน์ทั้งหมด และหากน้อยกว่าเกณฑ์ ก็จะบันทึกในรายงานการละเมิด ตามกรณีการใช้งาน คุณสามารถใช้ตัววัดระยะทางอื่นๆ เช่น manhattan
or euclidean
เพื่อวัดความคล้ายคลึงของการฝังประโยค
ไดอะแกรมต่อไปนี้แสดงวิธีที่เราใช้ SageMaker Model Monitoring เพื่อสร้างเส้นฐานและตรวจจับการเบี่ยงเบนของข้อมูลโดยใช้ความคล้ายคลึงกันของระยะทางโคไซน์
ต่อไปนี้เป็นรหัสสำหรับคำนวณการละเมิด สคริปต์ประเมินผลฉบับสมบูรณ์มีอยู่ใน GitHub:
วัดความเบี่ยงเบนของข้อมูลโดยใช้ Model Monitor
ในส่วนนี้ เราเน้นการวัดความเบี่ยงเบนของข้อมูลโดยใช้ Model Monitor จอภาพที่สร้างไว้ล่วงหน้าของ Model Monitor ใช้พลังงานจาก ดีคิวซึ่งเป็นไลบรารีที่สร้างขึ้นบน Apache Spark สำหรับกำหนดการทดสอบหน่วยข้อมูล ซึ่งวัดคุณภาพข้อมูลในชุดข้อมูลขนาดใหญ่ คุณไม่จำเป็นต้องเขียนโค้ดเพื่อใช้ความสามารถในการตรวจสอบที่สร้างไว้ล่วงหน้าเหล่านี้ คุณยังมีความยืดหยุ่นในการตรวจสอบโมเดลด้วยการเข้ารหัสเพื่อให้การวิเคราะห์แบบกำหนดเอง คุณสามารถรวบรวมและตรวจสอบตัวชี้วัดทั้งหมดที่ปล่อยออกมาโดย Model Monitor ใน สตูดิโอ Amazon SageMakerดังนั้น คุณจึงสามารถวิเคราะห์ประสิทธิภาพของโมเดลได้อย่างชัดเจนโดยไม่ต้องเขียนโค้ดเพิ่มเติม
ในบางสถานการณ์ เช่น เมื่อข้อมูลไม่เป็นตาราง งานการประมวลผลเริ่มต้น (สนับสนุนโดย ดีคิว) ไม่เพียงพอเพราะรองรับเฉพาะชุดข้อมูลแบบตารางเท่านั้น จอภาพที่สร้างไว้ล่วงหน้าอาจไม่เพียงพอที่จะสร้างตัววัดที่ซับซ้อนเพื่อตรวจจับการเคลื่อนตัว และอาจจำเป็นต้องนำตัววัดของคุณเองมาใช้ ในส่วนถัดไป เราจะอธิบายการตั้งค่าเพื่อนำตัวชี้วัดของคุณเข้ามาโดยการสร้างคอนเทนเนอร์ที่กำหนดเอง
สร้างคอนเทนเนอร์ Model Monitor แบบกำหนดเอง
เราใช้ สคริปต์การประเมิน จากส่วนก่อนหน้าเพื่อสร้างคอนเทนเนอร์ Docker แล้วดันไปที่ การลงทะเบียน Amazon Elastic Container (อเมซอน ECR):
เมื่อคอนเทนเนอร์ Docker ของลูกค้าอยู่ใน Amazon ECR เราสามารถกำหนดเวลางาน Model Monitoring และสร้างรายงานการละเมิดตามที่แสดงในหัวข้อถัดไป
จัดกำหนดการงานการตรวจสอบแบบจำลอง
ในการจัดกำหนดการงานการตรวจสอบแบบจำลอง เราสร้างอินสแตนซ์ของ Model Monitor และใน image_uri
เราอ้างถึงคอนเทนเนอร์ Docker ที่เราสร้างขึ้นในส่วนก่อนหน้า:
เรากำหนดเวลางานการตรวจสอบโดยใช้ create_monitoring_schedule
API. คุณสามารถกำหนดเวลางานตรวจสอบเป็นรายชั่วโมงหรือรายวันได้ คุณกำหนดค่างานโดยใช้ destination
พารามิเตอร์ดังแสดงในรหัสต่อไปนี้:
เพื่ออธิบายและแสดงรายการกำหนดการตรวจสอบและการรัน คุณสามารถใช้คำสั่งต่อไปนี้:
รายงานการละเมิดดริฟท์ข้อมูล
เมื่องานการตรวจสอบแบบจำลองเสร็จสมบูรณ์ คุณสามารถนำทางไปยังเส้นทาง S3 ปลายทางเพื่อเข้าถึงรายงานการละเมิด รายงานนี้มีข้อมูลป้อนเข้าทั้งหมดที่มีคะแนนโคไซน์เฉลี่ย (avg_cosine_score
) ต่ำกว่าเกณฑ์ที่กำหนดเป็นตัวแปรสภาพแวดล้อม THRESHOLD:0.5
ใน รุ่นจอภาพ ตัวอย่าง. นี่เป็นข้อบ่งชี้ว่าข้อมูลที่สังเกตได้ระหว่างการอนุมานนั้นลอยเกินพื้นฐานที่กำหนดไว้
รหัสต่อไปนี้แสดงรายงานการละเมิดที่สร้างขึ้น:
สุดท้าย จากการสังเกตนี้ คุณสามารถกำหนดค่าโมเดลของคุณสำหรับการฝึกใหม่ได้ คุณยังสามารถเปิดใช้งาน บริการแจ้งเตือนแบบง่ายของ Amazon (Amazon SNS) การแจ้งเตือนเพื่อส่งการแจ้งเตือนเมื่อมีการละเมิดเกิดขึ้น
สรุป
Model Monitor ช่วยให้คุณสามารถรักษาคุณภาพสูงของแบบจำลองของคุณในการผลิต ในโพสต์นี้ เราเน้นย้ำถึงความท้าทายด้วยการตรวจสอบการเคลื่อนตัวของข้อมูลบนข้อมูลที่ไม่มีโครงสร้าง เช่น ข้อความ และให้วิธีการที่ใช้งานง่ายในการตรวจหาการเคลื่อนตัวของข้อมูลโดยใช้สคริปต์การตรวจสอบแบบกำหนดเอง คุณสามารถค้นหารหัสที่เกี่ยวข้องกับโพสต์ต่อไปนี้ พื้นที่เก็บข้อมูล GitHub. นอกจากนี้ คุณสามารถปรับแต่งโซลูชันเพื่อใช้ตัววัดระยะทางอื่นๆ เช่น ความคลาดเคลื่อนเฉลี่ยสูงสุด (MMD) เมตริกระยะทางที่ไม่ใช่พารามิเตอร์เพื่อคำนวณการกระจายส่วนเพิ่มระหว่างการกระจายต้นทางและเป้าหมายบนพื้นที่ฝังตัว
เกี่ยวกับผู้เขียน
วิกรม เอลังโก เป็นสถาปนิก AI/ML Specialist Solutions Architect ที่ Amazon Web Services ซึ่งตั้งอยู่ในเมืองเวอร์จิเนีย ประเทศสหรัฐอเมริกา Vikram ช่วยเหลือลูกค้าในอุตสาหกรรมการเงินและประกันภัยด้วยการออกแบบ ความเป็นผู้นำทางความคิด เพื่อสร้างและปรับใช้แอปพลิเคชันการเรียนรู้ของเครื่องในวงกว้าง ปัจจุบันเขามุ่งเน้นไปที่การประมวลผลภาษาธรรมชาติ AI ที่รับผิดชอบ การเพิ่มประสิทธิภาพการอนุมาน และการปรับสเกล ML ทั่วทั้งองค์กร ในเวลาว่าง เขาสนุกกับการเดินทาง เดินป่า ทำอาหาร และตั้งแคมป์กับครอบครัว
ราหู ราเมชา เป็นสถาปนิกโซลูชัน ML กับทีมบริการ Amazon SageMaker เขามุ่งเน้นที่การช่วยเหลือลูกค้าในการย้ายปริมาณงานการผลิต ML ไปยัง SageMaker ในปริมาณมาก เขาเชี่ยวชาญด้านแมชชีนเลิร์นนิง, AI และโดเมนวิชันซิสเต็ม และสำเร็จการศึกษาระดับปริญญาโทด้านวิทยาการคอมพิวเตอร์จาก UT Dallas ในเวลาว่าง เขาชอบการเดินทางและการถ่ายภาพ
โทนี่เฉิน เป็นสถาปนิกโซลูชัน Machine Learning Solutions ที่ Amazon Web Services ซึ่งช่วยให้ลูกค้าออกแบบความสามารถในการเรียนรู้ของเครื่องที่ปรับขนาดได้และมีประสิทธิภาพในระบบคลาวด์ ในฐานะอดีตนักวิทยาศาสตร์ข้อมูลและวิศวกรข้อมูล เขาใช้ประสบการณ์เพื่อช่วยจัดการกับปัญหาที่ท้าทายที่สุดที่องค์กรต้องเผชิญในการดำเนินการแมชชีนเลิร์นนิง
- '
- "
- 100
- 11
- 7
- เกี่ยวกับเรา
- เข้า
- ลงชื่อเข้าใช้
- ข้าม
- การปฏิบัติ
- เพิ่มเติม
- AI
- ทั้งหมด
- แล้ว
- แม้ว่า
- อเมซอน
- อเมซอน SageMaker
- Amazon Web Services
- การวิเคราะห์
- อาปาเช่
- Apache Spark
- เหมาะสม
- การใช้งาน
- ใช้ได้
- เฉลี่ย
- AWS
- baseline
- ร่างกาย
- สร้าง
- การก่อสร้าง
- แคมป์ปิ้ง
- กรณี
- ก่อให้เกิด
- ความท้าทาย
- เปลี่ยนแปลง
- chatbots
- การจัดหมวดหมู่
- เมฆ
- รหัส
- การเข้ารหัส
- การเก็บรวบรวม
- ซับซ้อน
- คำนวณ
- วิทยาการคอมพิวเตอร์
- วิสัยทัศน์คอมพิวเตอร์
- ภาชนะ
- มี
- ต่อเนื่องกัน
- สัญญา
- การปรุงอาหาร
- การสร้าง
- ลูกค้า
- ดัลลัส
- ข้อมูล
- คุณภาพของข้อมูล
- นักวิทยาศาสตร์ข้อมูล
- ออกแบบ
- การตรวจพบ
- พัฒนา
- ต่าง
- สนทนา
- ระยะทาง
- นักเทียบท่า
- ตู้คอนเทนเนอร์ Dock
- ไม่
- โดเมน
- การขับขี่
- ในระหว่าง
- พลวัต
- ก่อน
- อีเมล
- พบ
- ปลายทาง
- วิศวกร
- ภาษาอังกฤษ
- Enterprise
- สิ่งแวดล้อม
- ที่จัดตั้งขึ้น
- ตัวอย่าง
- ประสบการณ์
- ใบหน้า
- ครอบครัว
- ลักษณะ
- คุณสมบัติ
- ทางการเงิน
- ชื่อจริง
- ความยืดหยุ่น
- โฟกัส
- มุ่งเน้น
- ฟอร์ม
- ข้างหน้า
- ฟรี
- ฟังก์ชัน
- สร้าง
- GitHub
- มี
- ช่วย
- จะช่วยให้
- จุดสูง
- ไฮไลต์
- การธุดงค์
- หน้าแรก
- สรุป ความน่าเชื่อถือของ Olymp Trade?
- ทำอย่างไร
- HTTPS
- ภาพ
- การดำเนินการ
- สำคัญ
- รวมทั้ง
- อุตสาหกรรม
- ข้อมูล
- ประกัน
- อุตสาหกรรมประกันภัย
- IT
- การสัมภาษณ์
- งาน
- ป้ายกำกับ
- ภาษา
- ใหญ่
- ล่าสุด
- การเปิดตัว
- ความเป็นผู้นำ
- การเรียนรู้
- ชั้น
- ยกระดับ
- ห้องสมุด
- ภาษาศาสตร์
- รายการ
- วรรณคดี
- โหลด
- ที่ตั้ง
- เรียนรู้เครื่อง
- การแปลด้วยเครื่อง
- หน้ากาก
- วัด
- ตัวชี้วัด
- ML
- แบบ
- โมเดล
- การตรวจสอบ
- ข้อมูลเพิ่มเติม
- ภาษาธรรมชาติ
- ประมวลผลภาษาธรรมชาติ
- เครือข่าย
- NLP
- การประกาศ
- เสนอ
- ใบสั่ง
- องค์กร
- อื่นๆ
- การปฏิบัติ
- การถ่ายภาพ
- ความแม่นยำ
- คำทำนาย
- การคาดการณ์
- นำเสนอ
- ปัญหา
- การผลิต
- โครงการ
- ให้
- ให้
- หลาม
- ไฟฉาย
- คุณภาพ
- พิสัย
- เรียลไทม์
- ความจริง
- ระเบียน
- รายงาน
- รายงาน
- คำตอบ
- ผลสอบ
- การอบรมขึ้นใหม่
- รับคืน
- ย้อนกลับ
- ทบทวน
- วิ่ง
- วิ่ง
- sagemaker
- ขนาด
- ปรับ
- วิทยาศาสตร์
- SDK
- บริการ
- การให้บริการ
- ชุด
- เปลี่ยน
- คล้ายคลึงกัน
- ง่าย
- So
- โซลูชัน
- ช่องว่าง
- ช่องว่าง
- สแปม
- ความเชี่ยวชาญ
- สหรัฐอเมริกา
- การเก็บรักษา
- จัดเก็บ
- รองรับ
- ระบบ
- เป้า
- ทดสอบ
- การทดสอบ
- การทดสอบ
- โลก
- คิดว่า
- ความเป็นผู้นำทางความคิด
- เวลา
- โทเค็น
- ราชสกุล
- ด้านบน
- ไฟฉาย
- การจราจร
- การฝึกอบรม
- การแปลภาษา
- สหรัฐอเมริกา
- รายละเอียด
- virginia
- เสมือน
- ความชัดเจน
- วิสัยทัศน์
- รอ
- เว็บ
- บริการเว็บ
- วิกิพีเดีย
- ไม่มี
- งาน
- เวิร์กโฟลว์
- โลก
- การเขียน