IBM กล่าวว่าได้ใช้งาน 'AI supercomputer' ตั้งแต่เดือนพฤษภาคม แต่เลือกที่จะบอกให้โลกรู้ในตอนนี้

IBM กล่าวว่าเริ่มใช้งาน 'AI supercomputer' ตั้งแต่เดือนพฤษภาคม แต่เลือกที่จะบอกให้โลกรู้ในตอนนี้

โหนดต้นทาง: 1950471

IBM เป็นยักษ์ใหญ่ด้านเทคโนโลยีรายล่าสุดที่เปิดตัว "ซูเปอร์คอมพิวเตอร์ AI" ของตนเอง ซึ่งประกอบไปด้วยเครื่องเสมือนจำนวนมากที่ทำงานภายใน IBM Cloud

ระบบที่เรียกว่า Vela ซึ่งบริษัทอ้างว่าออนไลน์ตั้งแต่เดือนพฤษภาคมปีที่แล้ว ได้รับการขนานนามว่าเป็นซูเปอร์คอมพิวเตอร์แบบเนทีฟบนคลาวด์ตัวแรกของไอบีเอ็ม สร้างขึ้นโดยมีจุดประสงค์เพื่อพัฒนาและฝึกอบรมโมเดล AI ขนาดใหญ่

ก่อนที่ใครก็ตามจะรีบลงทะเบียนเพื่อเข้าใช้ IBM ระบุว่าแพลตฟอร์มนี้สงวนไว้สำหรับใช้งานโดยชุมชน IBM Research ในความเป็นจริง Vela ได้กลายเป็น “สภาพแวดล้อมที่ไปสู่เป้าหมาย” ของบริษัทสำหรับนักวิจัยที่สร้างความสามารถ AI ขั้นสูงตั้งแต่เดือนพฤษภาคม 2022 รวมถึงงานเกี่ยวกับแบบจำลองพื้นฐาน

IBM ระบุว่าเลือกสถาปัตยกรรมนี้เนื่องจากทำให้บริษัทมีความยืดหยุ่นมากขึ้นในการปรับขนาดตามความต้องการ และยังสามารถปรับใช้โครงสร้างพื้นฐานที่คล้ายกันในศูนย์ข้อมูล IBM Cloud ทั่วโลก

แต่ Vela ไม่ได้ทำงานบนฮาร์ดแวร์โหนด IBM Cloud มาตรฐานเก่าใดๆ แต่ละอันเป็นระบบซ็อกเก็ตคู่ที่มีโปรเซสเซอร์ Xeon Scalable เจนเนอเรชั่น 2 ที่กำหนดค่าด้วย DRAM 1.5TB และแฟลชไดรฟ์ NVMe 3.2TB สี่ตัว รวมถึง GPU Nvidia A80 100GB แปดตัว โดยตัวหลังเชื่อมต่อด้วย NVLink และ NVSwitch

สิ่งนี้ทำให้โครงสร้างพื้นฐานของ Vela ใกล้เคียงกับไซต์การประมวลผลประสิทธิภาพสูง (HPC) มากกว่าโครงสร้างพื้นฐานระบบคลาวด์ทั่วไป แม้ว่า IBM จะยืนกรานว่ากำลังใช้เส้นทางที่ต่างออกไป เนื่องจาก "ซูเปอร์คอมพิวเตอร์แบบดั้งเดิมไม่ได้ออกแบบมาสำหรับ AI"

เป็นที่น่าสังเกตว่า IBM เลือกใช้โปรเซสเซอร์ x86 มากกว่าชิป Power 10 ของตัวเอง โดยเฉพาะอย่างยิ่ง ได้รับการขนานนามจาก Big Blue เนื่องจากเหมาะอย่างยิ่งสำหรับเวิร์กโหลดที่ใช้หน่วยความจำมาก เช่น การอนุมานด้วย AI โมเดลขนาดใหญ่

โหนดเชื่อมต่อกันโดยใช้อินเทอร์เฟซเครือข่าย 100Gbps หลายตัวที่จัดเรียงในโครงสร้าง Clos XNUMX ระดับ ซึ่งได้รับการออกแบบให้มีหลายเส้นทางสำหรับข้อมูลเพื่อให้ความซ้ำซ้อน

อย่างไรก็ตาม IBM อธิบายในบล็อกโพสต์ถึงเหตุผลในการเลือกใช้สถาปัตยกรรมแบบ cloud-native ซึ่งมุ่งเน้นไปที่การลดเวลาที่ต้องใช้ในการสร้างและปรับใช้โมเดล AI ขนาดใหญ่ให้ได้มากที่สุด

“เราจะสร้างระบบของเราภายในองค์กรโดยใช้โมเดลซูเปอร์คอมพิวเตอร์แบบเดิม หรือเราจะสร้างระบบนี้บนคลาวด์ โดยพื้นฐานแล้วจะสร้างซูเปอร์คอมพิวเตอร์ที่เป็นระบบคลาวด์ด้วยหรือไม่” บล็อกถาม

IBM อ้างว่าการใช้แนวทางหลังนี้ทำให้ประสิทธิภาพลดลงบ้าง แต่ได้ผลผลิตเพิ่มขึ้นมาก สิ่งนี้ลงมาจากความสามารถในการกำหนดค่าทรัพยากรที่จำเป็นทั้งหมดผ่านซอฟต์แวร์ เช่นเดียวกับการเข้าถึงบริการที่มีอยู่ใน IBM Cloud ที่กว้างขึ้น ด้วยตัวอย่างการโหลดชุดข้อมูลไปยัง Cloud Object Store ของ IBM แทนที่จะต้องสร้างโครงสร้างพื้นฐานหน่วยเก็บข้อมูลเฉพาะ

Big Blue ยังกล่าวอีกว่าบริษัทเลือกที่จะใช้งานโหนดทั้งหมดใน Vela เสมือนเป็นเครื่องจักรเสมือนแทนที่จะเป็นอินสแตนซ์แบบ Bare Metal เนื่องจากทำให้ง่ายต่อการจัดเตรียมและจัดเตรียมโครงสร้างพื้นฐานใหม่ด้วยชุดซอฟต์แวร์ต่างๆ ที่ผู้ใช้ AI ต่างๆ ต้องการ

“VM จะช่วยให้ทีมสนับสนุนของเราปรับขนาดคลัสเตอร์ AI แบบไดนามิกได้อย่างยืดหยุ่นและเปลี่ยนทรัพยากรระหว่างปริมาณงานประเภทต่างๆ ในเวลาไม่กี่นาที” บล็อกของ IBM อธิบาย

แต่บริษัทอ้างว่าพบวิธีเพิ่มประสิทธิภาพและลดโอเวอร์เฮดของเวอร์ชวลไลเซชันให้เหลือน้อยกว่า 5 เปอร์เซ็นต์ ซึ่งใกล้เคียงกับประสิทธิภาพแบบ Bare Metal

ซึ่งรวมถึงการกำหนดค่าโฮสต์ Bare Metal สำหรับการจำลองเสมือนด้วยการสนับสนุน Virtual Machine Extensions (VMX), การจำลองเสมือน IO แบบรูทเดียว (SR-IOV) และหน้าขนาดใหญ่ รวมถึงการกำหนดค่าฮาร์ดแวร์และซอฟต์แวร์ที่ไม่ได้ระบุอื่นๆ

สามารถดูรายละเอียดเพิ่มเติมเกี่ยวกับโครงสร้างพื้นฐานของ Vela ได้ที่ บล็อกของไอบีเอ็ม.

IBM ไม่ใช่บริษัทเดียวที่ใช้ระบบคลาวด์เพื่อโฮสต์ซูเปอร์คอมพิวเตอร์ AI Microsoft ปีที่แล้ว เปิดตัวแพลตฟอร์มของตัวเอง ใช้โครงสร้างพื้นฐาน Azure ร่วมกับตัวเร่ง GPU ของ Nvidia ชุดเครือข่าย และชุดซอฟต์แวร์ AI Enterprise ซึ่งคาดว่าลูกค้า Azure จะสามารถเข้าถึงได้ แต่ไม่มีการระบุกรอบเวลา

บริษัทอื่นๆ ที่สร้างซูเปอร์คอมพิวเตอร์ AI แต่ทำตามเส้นทางโครงสร้างพื้นฐานในองค์กรแบบเดิม ได้แก่ Meta และ เทสลา-

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน

Mobileye ของ Intel เปิดตัว 'รถยนต์ขับเคลื่อนด้วยตนเองไฟฟ้าเต็มรูปแบบเกรดการผลิต' รุ่นแรก ร่วมกับ Sixt สำหรับการเปิดตัวในมิวนิก

โหนดต้นทาง: 1866270
ประทับเวลา: กันยายน 8, 2021