บทบาทของ CPU ใน AI/ML ที่ยั่งยืน

บทบาทของ CPU ใน AI/ML ที่ยั่งยืน

โหนดต้นทาง: 3093662

บทความโฆษณา เนื่องจาก AI ขยายการเข้าถึงในสภาพแวดล้อมการประมวลผลทางธุรกิจ ผลกระทบของ AI จึงทำให้เกิดผลกระทบที่ไม่คาดคิด ไอดีซี ใหม่ล่าสุด ฟิวเจอร์สเคป ตัวอย่างเช่น รายงานคาดการณ์ว่าในขณะที่บริษัทต่างๆ แข่งขันกันเพื่อแนะนำผลิตภัณฑ์/บริการที่ปรับปรุงด้วย AI และช่วยเหลือลูกค้าในการใช้งาน AI เทคโนโลยีดังกล่าวจะกลายเป็นแรงผลักดันสำคัญในการสร้างสรรค์นวัตกรรม

การเปลี่ยนแปลงที่ขับเคลื่อนด้วย AI อีกประการหนึ่งจะเปลี่ยนแปลงไปในขอบเขตที่ศูนย์ข้อมูลอาจต้องปรับสมดุล CPU ด้วยตัวเร่งความเร็ว AI แบบแยก เช่น GPU หรือสถาปัตยกรรมเฉพาะทาง เพื่อมอบความสามารถในการคำนวณประสิทธิภาพสูงที่นักพัฒนา AI ต้องการ

เป็นการถกเถียงที่ก่อให้เกิดปัญหาที่มีเดิมพันสูงสำหรับเจ้าของศูนย์ข้อมูล ทั้งในแง่ของการลงทุน CAPEX เพิ่มเติม และความน่าจะเป็นที่ (แม้ว่าวิธีการวัดจะไม่แม่นยำ) การดำเนินการ AI ทั่วไปที่ขับเคลื่อนด้วย GPU จะใช้พลังงานมากกว่าปริมาณงานไอทีทั่วไป

การจัดการกับพลังงาน/ค่าใช้จ่ายคาร์บอนที่สูงขึ้นของ AI ถือเป็นปัญหาเพิ่มเติมสำหรับการทำงานของศูนย์ข้อมูล ซึ่งต้องแน่ใจว่าสถาปัตยกรรมการประมวลผลที่ได้รับการอัพเกรดซึ่งปรับให้เหมาะสมสำหรับ AI สามารถจัดการความต้องการพลังงานที่เพิ่มขึ้นได้ โดยไม่เสี่ยงต่อการโอเวอร์โหลดเทคโนโลยีหรือสิ่งอำนวยความสะดวกที่มีอยู่

ดังนั้น เนื่องจากกฎระเบียบที่ขยายออกไปในการกำกับดูแลด้านความยั่งยืนและการจัดการคาร์บอนผลักดันการดำเนินงานเพื่อลดการใช้พลังงานในกลุ่มฮาร์ดแวร์และซอฟต์แวร์ไอที AI จึงเป็นตัวแทนของทั้งโอกาสและอุปสรรค

ลดการใช้พลังงานของ AI

เมื่อนำมารวมกัน การใช้พลังงานที่เพิ่มขึ้น และการกำหนดค่าสถาปัตยกรรมใหม่ที่จำเป็นเพื่อรองรับปริมาณงาน AI และการเรียนรู้ของเครื่องก่อให้เกิดความท้าทายที่ไม่อาจหยุดยั้งสำหรับศูนย์ข้อมูล Stephan Gillich ผู้อำนวยการฝ่ายปัญญาประดิษฐ์ GTM ใน AI Center of Excellence ของ Intel อธิบาย

“เป็นที่ชัดเจนว่าในทุกภาคส่วนและอุตสาหกรรมตามแนวตั้ง ไม่ว่าที่ใดก็ตามแอปพลิเคชันและบริการ AI/Machine Learning ได้รับการพัฒนา ฝึกอบรม และดำเนินการ ความสามารถของสิ่งอำนวยความสะดวกด้านไอทีภายในองค์กรและบนคลาวด์ จะต้องได้รับการอัปเกรดเพื่อจัดการกับปริมาณข้อมูลที่เพิ่มขึ้น - ภาระงานหนัก” Gillich กล่าว “เป็นที่ชัดเจนว่าการอัพเกรดเหล่านั้นจะต้องนำมาซึ่งมากกว่าแค่การเพิ่มความสามารถในการประมวลผล”

Gillich เชื่อว่าสามารถทำได้หลายอย่างเพื่อเพิ่มความยั่งยืนของศูนย์ข้อมูลที่เน้น AI โดยเริ่มต้นด้วยการประเมินสมมติฐานบางประการเกี่ยวกับภูมิทัศน์ของ AI/Machine Learning อีกครั้ง หน่วยประมวลผลเป็นจุดเริ่มต้นที่ดี โดยเฉพาะอย่างยิ่งเมื่อตัดสินใจว่า CPU หรือ GPU เหมาะกับงานมากกว่าหรือไม่

เนื่องจากในขณะที่ปริมาณงานที่ใช้การประมวลผลสูงโดยเฉพาะของ AI ดูเหมือนจะเพิ่มขึ้น (ไม่มีใครแน่ใจว่ามีความเร็วเท่าใด) งานศูนย์ข้อมูลจำนวนมาก (ปริมาณงานที่ไม่ใช่ AI) จะต้องดำเนินต่อไปในแต่ละวัน - ส่งมอบแอปพลิเคชันที่มั่นคง และรายได้จากการบริการอย่าให้ถูกรบกวน

ปัจจุบันสิ่งเหล่านี้ส่วนใหญ่ได้รับการจัดการโดย CPU และการติดตั้งศูนย์ข้อมูลมาตรฐานด้วย GPU ที่มีราคาแพงกว่า จะทำให้สิ่งอำนวยความสะดวกจำนวนมากเกินความต้องการ โดยทั่วไป GPU จะใช้กำลังไฟมากกว่า CPU เพื่อทำงานที่คล้ายกัน ขึ้นอยู่กับแหล่งจ่ายไฟสำหรับการกำหนดค่าแร็คที่กำหนด การรวม GPU เข้ากับโครงสร้างพื้นฐานของศูนย์ข้อมูลจำเป็นต้องมีการอัพเกรดระบบจำหน่ายไฟฟ้า ซึ่งจะต้องเสียค่าใช้จ่ายล่วงหน้าเพิ่มเติม นอกเหนือจากค่าพลังงานที่สูงขึ้นเมื่อเปิดใช้งาน

ยิ่งไปกว่านั้น การพัฒนา CPU ของ Intel ยังคงสร้างสรรค์สิ่งใหม่ๆ อย่างต่อเนื่อง ในกรณีการใช้งานหลายกรณี CPU สามารถพิสูจน์ได้ว่ามีประสิทธิภาพโดยรวมดีและบางครั้งก็ดีกว่าด้วย Gillich ให้เหตุผล และสามารถเสริมประสิทธิภาพด้วยเทคโนโลยีล้ำสมัยเช่น Intel® AMX (Advanced Matrix Extensions) ซึ่งเป็นตัวเร่งความเร็วที่สร้างไว้ใน CPU Intel Xeon เจนเนอเรชั่น 4

“โปรเซสเซอร์ Intel Xeon ช่วยให้ศูนย์ข้อมูลปรับขนาดการนำ AI มาใช้ผ่านการเร่งความเร็ว AI ในตัวที่เพิ่มประสิทธิภาพ CPU สำหรับการเรียนรู้ของเครื่อง การฝึกอบรม และการอนุมาน” Gillich ชี้ให้เห็น “ด้วยวิธีนี้ พวกเขาสามารถใช้ตัวเร่งความเร็วแบบแยกเพื่อลด CAPEX และเพิ่มประสิทธิภาพสูงสุดในขณะที่ใช้ประโยชน์จากสภาพแวดล้อมการประมวลผล Intel Xeon ที่มีอยู่”

จำเป็นต้องผสมผสานปริมาณงาน AI และไม่ใช่ AI

Intel AMX คือบล็อกฮาร์ดแวร์เฉพาะบนคอร์โปรเซสเซอร์ Intel Xeon Scalable ซึ่งช่วยให้เวิร์กโหลด AI ทำงานบน CPU แทนที่จะถ่ายโอนไปยังตัวเร่งความเร็วแบบแยก ซึ่งช่วยเพิ่มประสิทธิภาพได้อย่างมาก เหมาะสำหรับปริมาณงาน AI เช่น ระบบแนะนำ Machine Learning การจดจำรูปภาพ และการประมวลผลภาษาธรรมชาติ ที่ต้องอาศัยคณิตศาสตร์เมทริกซ์

ข้อโต้แย้งอีกประการหนึ่งที่สนับสนุน CPU แบบเสริมก็คือ พวกมันจัดเตรียมเส้นทางที่คุ้มต้นทุนสำหรับผู้ปฏิบัติงานศูนย์ข้อมูลเพื่อทำตามข้อผูกพันของ CPU ที่มีอยู่มากขึ้น รับรองทรัพย์สินของพวกเขาในอนาคต เพื่อให้พวกเขาสามารถรับมือกับปริมาณงานแบบผสม และวางไว้ในตำแหน่งที่ดีกว่า ควบคุมการใช้พลังงานโดยรวม

ในทางกลับกัน อาจช่วยให้ผู้ให้บริการศูนย์ข้อมูล (และลูกค้าของพวกเขา) บรรลุเป้าหมายด้านความยั่งยืน และเป็นจุดขายสำหรับนักพัฒนาซอฟต์แวร์ (องค์กรหรือบุคคลที่สาม) ที่กำลังมองหาแพลตฟอร์มที่ได้รับการปรับปรุงเพื่อแสดงประสิทธิภาพการใช้พลังงานของการเขียนโค้ดของพวกเขา เอาท์พุท

“ความจริงก็คือ แทนที่จะเร่งรีบตามโอกาสที่ปริมาณงาน AI อาจคาดหวังได้ ผู้ปฏิบัติงานศูนย์ข้อมูลกลับตระหนักว่าพวกเขาควรพิจารณาความจำเป็นหลายประการที่ได้รับแจ้งจากข้อกังวลทางการค้ามากพอๆ กับตัวเลือกทางเทคโนโลยี” Gillich กล่าว

ความจำเป็นเหล่านี้อาจรวมถึง: การบูรณาการปริมาณงาน AI กับปริมาณงานที่ไม่ใช่ AI; การรวมกลุ่มฮาร์ดแวร์และซอฟต์แวร์ที่แตกต่างกัน และเนื่องจากพวกเขาต้องการให้แน่ใจว่าพวกเขามีสถาปัตยกรรมที่เหมาะกับปริมาณงานที่แตกต่างกัน การบูรณาการประเภทสตรีมงานที่แตกต่างกัน

“คำถามเหล่านี้ชี้ให้เห็นถึงความท้าทายที่ซับซ้อน เนื่องจากการทำให้มันถูกต้องนั้นขึ้นอยู่กับเทคโนโลยีและประสิทธิภาพการใช้พลังงานที่เหมาะสมที่สุด โดยที่ประสิทธิภาพการใช้พลังงานในปัจจุบันเป็นเกณฑ์มาตรฐานประสิทธิภาพหลักที่จะส่งผลกระทบต่อความสามารถในการใช้งานเชิงพาณิชย์ของศูนย์ข้อมูลได้มากขึ้น” Gillich กล่าว “เอาล่ะอีกครั้ง มันมีความสำคัญสูงสุด”

จากมุมมองของ Gillich กุญแจสำคัญในการปรับตัวให้เข้ากับความเป็นจริงที่เกิดขึ้นนี้คือกระบวนการขั้นตอนของสิ่งที่เรียกว่า 'การดูดซึมของ AI' ประเด็นหนึ่งที่นี่คือปริมาณงาน AI ไม่ได้แยกออกจากปริมาณงานประเภทอื่นๆ แต่จะถูกรวมเข้ากับปริมาณงานทั่วไป แทนที่จะทำงานแยกกัน

Gillich ยกตัวอย่างการประชุมทางวิดีโอเป็นตัวอย่างของการบูรณาการแบบเป็นขั้นตอนนี้: “ในขณะที่สตรีมการรับส่งข้อมูลเสียง/วิดีโอมาตรฐานผ่านแอปพลิเคชันมาตรฐาน AI ก็ถูกรวมเข้าด้วยกันเพื่อทำงานร่วมกัน เช่น การสรุป การแปล การถอดเสียง ฟีเจอร์ดังกล่าวได้รับการสนับสนุนอย่างดีจาก AI

การประหยัดพลังงานแบบครบวงจร

การบรรลุประสิทธิภาพการใช้พลังงานจะต้องเป็นการดำเนินการเชิงกลยุทธ์แบบครบวงจรอย่างแท้จริง Gillich ให้เหตุผล “มันครอบคลุมทั้งด้านซอฟต์แวร์และสถาปัตยกรรมฮาร์ดแวร์ ซึ่งเป็นกลไกที่สมบูรณ์ที่ช่วยให้เกิดกระบวนการเวิร์กโฟลว์ที่กำหนดได้ ข้อมูลถูกเก็บไว้ที่ไหนเพื่อให้การเข้าถึงมีประสิทธิภาพสูงสุด – ฉลาดในการประมวลผลและประหยัดพลังงาน – เป็นสถานที่ที่ดีที่สุดสำหรับการประหยัดพลังงานหรือไม่”

ปัจจัยอื่นที่ต้องนำเข้ามาในการประเมินนี้คือการกำหนดว่าปริมาณงานกำลังทำงานอยู่ที่ใด ตัวอย่างเช่น มันทำงานบนไคลเอนต์ (เช่น AI PC ที่ติดตั้งโปรเซสเซอร์ Intel Core Ultra แทนที่จะเป็นเซิร์ฟเวอร์ในศูนย์ข้อมูลหรือไม่ ปริมาณงาน AI เหล่านี้บางส่วนสามารถรันบนไคลเอนต์ได้จริง (ข้างเซิร์ฟเวอร์) หรือไม่

ทุกตัวเลือกควรค่าแก่การพิจารณาหากจะช่วยปรับสมดุลการประมวลผล AI/การใช้พลังงานให้อยู่ในแนวเดียวกันได้ดีขึ้นหรือไม่ Gillich ให้เหตุผลว่า "มันเกือบจะเหมือนกับการกลับไปสู่แนวคิดเก่าๆ ของการประมวลผลแบบกระจาย"

Gillich กล่าวเสริม: “บางครั้งลูกค้าของเราถามว่า 'AI จะเล่นที่ไหน?' – คำตอบก็คือ AI จะเล่นได้ทุกที่ ดังนั้นที่ Intel ความทะเยอทะยานของเราจึงมุ่งเน้นไปที่สิ่งที่เรียกว่าการอำนวยความสะดวกแบบสากลของ AI เพราะเราเชื่อว่ามันจะเข้าสู่ทุกสาขาการใช้งาน”

ที่ Intel สิ่งนี้ครอบคลุมมิดเดิลแวร์ เช่น API ซึ่งเหมือนกับส่วนอื่นๆ ของชุดซอฟต์แวร์ จะต้องมีประสิทธิภาพมากที่สุดเท่าที่จะเป็นไปได้ 'การขยาย API' อาจส่งผลให้เกิดการประมวลผลที่ไม่จำเป็น ลดขนาดโครงสร้างพื้นฐาน และขาดการตรวจสอบและควบคุม

“ด้วย อินเทล วันเอพีไอองค์กรต่างๆ สามารถตระหนักถึงคุณค่าของฮาร์ดแวร์ทั้งหมด พัฒนาโค้ดข้ามสถาปัตยกรรมประสิทธิภาพสูง และทำให้แอปพลิเคชันของตนพร้อมสำหรับความต้องการในอนาคต” Gillich อธิบาย

“Intel oneAPI เป็นรูปแบบการเขียนโปรแกรมแบบเปิด ข้ามอุตสาหกรรม อิงมาตรฐาน เป็นหนึ่งเดียว มีสถาปัตยกรรมหลายรูปแบบ และมีผู้จำหน่ายหลายราย ซึ่งมอบประสบการณ์นักพัฒนาทั่วไปในสถาปัตยกรรมตัวเร่งความเร็ว เพื่อประสิทธิภาพของแอปพลิเคชันที่รวดเร็วขึ้น และประสิทธิภาพการทำงานที่ดีขึ้น โครงการริเริ่ม oneAPI สนับสนุนการทำงานร่วมกันในข้อกำหนด oneAPI และการใช้งาน oneAPI ที่เข้ากันได้ทั่วทั้งระบบนิเวศ”

Gillich กล่าวเสริม: “oneAPI จัดเตรียมมิดเดิลแวร์สแต็กซึ่งรับสิ่งมาตรฐาน เช่น AI Frameworks เช่น Pytorch หรือ TensorFlow [แพลตฟอร์มซอฟต์แวร์โอเพ่นซอร์สสำหรับ AI และ Machine Learning] และแปลสิ่งเหล่านั้นในระดับเครื่อง และ oneAPI ช่วยให้มีวิธีที่มีประสิทธิภาพในการ ทำอย่างนั้น. ผู้ใช้สามารถใช้ API ทั่วไปในระดับเฟรมเวิร์ก Ai และเรามี API (oneAPI) ที่จัดการกับรสชาติของฮาร์ดแวร์ที่แตกต่างกัน” API ทั่วไปหมายความว่าผู้ใช้สามารถสร้างซอฟต์แวร์แบบเปิดที่สามารถรองรับบนสแต็กซอฟต์แวร์แบบเปิดได้

ประสิทธิภาพระดับ GPU ที่จุดราคาระดับ CPU

ความก้าวหน้าในด้านไอทีได้รับแรงผลักดันอย่างมากจากความคาดหวังของความก้าวหน้าทางเทคโนโลยีอย่างต่อเนื่องซึ่งสัมพันธ์กับการปรับปรุงที่ขับเคลื่อนด้วยข้อมูลเชิงลึกในกลยุทธ์การใช้งาน เป็นโมเดลที่อิงจากการค้นหาสมดุลที่ดีที่สุดระหว่างรายจ่ายตามงบประมาณและ ROI ทางธุรกิจ และความคาดหวังว่าจะมีนวัตกรรมใหม่ๆ ให้มุ่งมั่นอยู่เสมอ AI แสดงถึงจุดสูงสุดของอุดมคตินี้ โดยฉลาดพอที่จะนำเสนอคุณค่าของตัวเองผ่านการพัฒนาตนเองอย่างต่อเนื่อง

ด้วยการสร้าง AMX accelerator ให้เป็น CPU Intel Xeon เจนเนอเรชั่นที่ 4 นั้น Intel แสดงให้เห็นว่าสามารถบรรลุประสิทธิภาพระดับ GPU ในราคาระดับ CPU ได้อย่างไร สิ่งนี้ช่วยให้ศูนย์ข้อมูลปรับขนาดได้ในขณะที่เพิ่มมูลค่าผลตอบแทนสูงสุดจากการประมวลผลที่ขับเคลื่อนด้วย Intel Xeon ที่มีอยู่ แต่ยังให้รูปแบบการกำหนดราคาที่ลดต้นทุนการเข้าร่วมสำหรับลูกค้าที่มีเวิร์กโหลด AI แต่มีงบประมาณจำกัด

และการใช้พลังงานที่ลดลงของ CPU หมายความว่าสามารถบรรลุประสิทธิภาพการใช้พลังงานแบบองค์รวมตลอดการดำเนินงานทั้งหมดของศูนย์ข้อมูล เช่น การทำความเย็นและการระบายอากาศ และนั่นเป็นอีกหนึ่งชัยชนะของสถาปนิกซอฟต์แวร์และผู้พัฒนาโซลูชัน AL ที่คำนึงถึงความยั่งยืน

สนับสนุนโดยอินเทล

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน