Microsoft บรรจุ Azure cloud ด้วยการเรียนรู้ของเครื่องเพิ่มเติม

Microsoft บรรจุ Azure cloud ด้วยการเรียนรู้ของเครื่องเพิ่มเติม

โหนดต้นทาง: 2677257

Microsoft แน่ใจว่าได้รวม Azure ไว้ในงาน AI-fest ซึ่งเป็นงานประชุมนักพัฒนา Build 2023 ในสัปดาห์นี้

ในขณะที่องค์กรต่าง ๆ พิจารณาที่จะทดลองหรือปรับใช้ generative AI พวกเขาอาจมองหาระบบคลาวด์สาธารณะและโครงสร้างพื้นฐานด้านการประมวลผลและการจัดเก็บข้อมูลที่ปรับขนาดได้ที่คล้ายกันเพื่อเรียกใช้สิ่งต่าง ๆ เช่น โมเดลภาษาขนาดใหญ่ (LLM)

ไมโครซอฟท์ ติดอาวุธด้วย ChatGPT, GPT-4 และระบบ OpenAI อื่นๆ ได้ผลักดันความสามารถด้าน AI เข้าไปในทุกซอกทุกมุมของอาณาจักรเป็นเวลาหลายเดือน Azure ก็ไม่ต่างกัน – บริการ OpenAI เป็นตัวอย่าง – และหลังจากนั้น สร้างการประชุมขณะนี้ระบบคลาวด์สาธารณะของ Redmond มีข้อเสนอที่อ้างสิทธิ์มากยิ่งขึ้น

สูงในรายการคือการขยาย ความร่วมมือกับ Nvidiaซึ่งกำลังเร่งสร้างตัวเองให้เป็นผู้ให้บริการเทคโนโลยี AI ที่ขาดไม่ได้ ตั้งแต่ตัวเร่งความเร็ว GPU ไปจนถึงซอฟต์แวร์ ในสัปดาห์นี้เพียงสัปดาห์เดียว ผู้ผลิตชิปได้เปิดตัวความร่วมมือมากมาย เช่น กับ Dell ที่ Dell Technologies World และผู้ผลิตซูเปอร์คอมพิวเตอร์ที่ ISC23

นำทรัพยากร Nvidia มาสู่ Azure

โดยเฉพาะอย่างยิ่ง Microsoft กำลังรวมชุดซอฟต์แวร์ AI Enterprise ของ Nvidia เครื่องมือการพัฒนา เฟรมเวิร์ก และโมเดลที่ได้รับการฝึกล่วงหน้าเข้ากับ Azure Machine Learning เพื่อสร้างสิ่งที่ Tina Manghnani ผู้จัดการผลิตภัณฑ์สำหรับแพลตฟอร์มคลาวด์การเรียนรู้ของเครื่องจักร เรียกว่า "องค์กรแรกที่พร้อมสำหรับองค์กร ปลอดภัย สิ้นสุด - แพลตฟอร์มคลาวด์แบบครบวงจรสำหรับนักพัฒนาในการสร้าง ปรับใช้ และจัดการแอปพลิเคชัน AI รวมถึงโมเดลภาษาขนาดใหญ่ที่กำหนดเอง”

ในวันเดียวกัน Microsoft ได้สร้าง Azure Machine Learning การลงทะเบียน – แพลตฟอร์มสำหรับการโฮสต์และการแชร์บล็อกการสร้างการเรียนรู้ของเครื่องในรูปแบบคอนเทนเนอร์ แบบจำลองและข้อมูล และเครื่องมือสำหรับการผสานรวม AI Enterprise เข้ากับ Azure – พร้อมใช้งานโดยทั่วไป AI Enterprise ใน Azure Machine Learning ยังพร้อมใช้งานในการแสดงตัวอย่างทางเทคนิคแบบจำกัด

“สิ่งนี้หมายความว่าสำหรับลูกค้าที่มีการมีส่วนร่วมและความสัมพันธ์กับ Azure อยู่แล้ว พวกเขาสามารถใช้ความสัมพันธ์เหล่านั้น – พวกเขาสามารถใช้จากสัญญาคลาวด์ที่พวกเขามีอยู่แล้ว – เพื่อรับ Nvidia AI Enterprise และใช้ภายใน Azure ML เพื่อรับสิ่งนี้ ประสบการณ์ระดับองค์กรที่ราบรื่นหรือแยกจากอินสแตนซ์ที่พวกเขาเลือก” Manuvir Das รองประธานฝ่ายการประมวลผลระดับองค์กรของ Nvidia กล่าวกับนักข่าวสองสามวันก่อนที่ Build จะเปิด

การแยกเครือข่ายเพื่อปกป้องข้อมูล AI

องค์กรที่ดำเนินการ AI ในระบบคลาวด์ต้องการให้แน่ใจว่าข้อมูลของตนจะไม่ถูกเปิดเผยต่อบริษัทอื่น โดยมีการแยกเครือข่ายเป็นเครื่องมือสำคัญ Microsoft มีคุณสมบัติเช่นพื้นที่ทำงานลิงก์ส่วนตัวและการป้องกันการขโมยข้อมูล แต่ไม่มีตัวเลือก IP สาธารณะสำหรับทรัพยากรการประมวลผลของบริษัทที่ฝึกอบรมโมเดล AI ที่ Build ผู้ขายได้ประกาศ การแยกเครือข่ายที่มีการจัดการ ใน Azure Machine Learning สำหรับการเลือกโหมดการแยกที่เหมาะสมกับนโยบายความปลอดภัยขององค์กรมากที่สุด

อย่าพลาดความคุ้มครอง Build 2023 ของเรา

ไม่น่าแปลกใจเลยที่เครื่องมือโอเพ่นซอร์สเข้ามาในพื้นที่ AI มากขึ้น เมื่อปีที่แล้ว Microsoft ร่วมมือกับ Hugging Face เพื่อนำเสนออุปกรณ์ปลายทาง Azure Machine Learning ที่ขับเคลื่อนโดยเทคโนโลยีโอเพ่นซอร์สของบริษัท ที่บิวด์คู่องค์กร ขยาย ความสัมพันธ์ของพวกเขา

Hugging Face มีอยู่แล้ว ชุดที่ดูแลจัดการ ของเครื่องมือและ API เช่นเดียวกับก ฮับขนาดใหญ่ ของโมเดล ML เพื่อดาวน์โหลดและใช้งาน ขณะนี้โมเดลเหล่านี้หลายพันโมเดลจะปรากฏในแค็ตตาล็อก Azure Machine Learning ของ Redmond เพื่อให้ลูกค้าสามารถเข้าถึงและปรับใช้บนปลายทางที่ได้รับการจัดการในระบบคลาวด์ของ Microsoft

ตัวเลือกรูปแบบรองพื้นเพิ่มเติม

เรดมันด์กำลังทำเช่นกัน โมเดลรองพื้น ใน Azure Machine Learning พร้อมใช้งานในตัวอย่างสาธารณะ โมเดลพื้นฐานเป็นโมเดลสำเร็จรูปที่ทรงพลังและมีความสามารถสูง ซึ่งองค์กรต่างๆ สามารถปรับแต่งด้วยข้อมูลของตนเองเพื่อวัตถุประสงค์ของตนเอง และเผยแพร่ได้ตามต้องการ

โมเดลรองพื้น กำลังกลายเป็นสิ่งสำคัญ เนื่องจากสามารถช่วยองค์กรสร้างแอปพลิเคชันที่ขับเคลื่อนด้วย ML ที่ไม่ซับซ้อน ปรับแต่งตามความต้องการเฉพาะของตน โดยไม่ต้องเสียเงินหลายร้อยล้านดอลลาร์ในการฝึกอบรมโมเดลตั้งแต่เริ่มต้น หรือลดการประมวลผลและข้อมูลลูกค้าที่ละเอียดอ่อนไปยังระบบคลาวด์

Nvidia เปิดตัว เนโม framework ที่อาจเป็นประโยชน์ในด้านนี้และในเดือนนี้ก็มี ร่วมมือ ด้วย ServiceNow และ – สัปดาห์นี้ – Dell เข้า โครงการเฮลิกซ์ ตามบรรทัดเหล่านั้น

“ในขณะที่เราทำงานร่วมกับบริษัทองค์กรต่างๆ เกี่ยวกับ generative AI ในช่วงไม่กี่เดือนที่ผ่านมา สิ่งที่เราได้เรียนรู้ก็คือ มีบริษัทองค์กรจำนวนมากที่ต้องการใช้ประโยชน์จากพลังของ generative AI แต่ทำในศูนย์ข้อมูลของตนเอง หรือทำนอกระบบคลาวด์สาธารณะ” Das ของ Nvidia กล่าว

ทรัพยากรต่างๆ เช่น โมเดลโอเพ่นซอร์สและพื้นฐานสัญญาว่าจะลดความซับซ้อนและค่าใช้จ่ายเพื่อให้องค์กรต่างๆ เข้าถึง AI กำเนิดได้มากขึ้น ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน