Dell และ Nvidia ฝันถึงการสร้างโมเดล AI แบบ DIY

Dell และ Nvidia ฝันถึงการสร้างโมเดล AI แบบ DIY

โหนดต้นทาง: 2674711

เดลล์ เวิลด์ Dell ได้ร่วมมือกับ Nvidia เพื่อนำเสนอเครื่องมือสำหรับองค์กรต่างๆ ในการสร้างโมเดล AI เชิงกำเนิดที่ได้รับการฝึกฝนจากข้อมูลองค์กรของตนเอง แทนที่จะเป็นข้อมูลที่เปิดเผยต่อสาธารณะ เช่น ที่ใช้โดยโมเดลภาษาขนาดใหญ่ที่ใช้งานทั่วไป (LLM) เช่น GPT ของ OpenAI

กุญแจสำคัญในการเสนอขายคือความปลอดภัยของข้อมูล Manuvir Das รองประธานฝ่ายการประมวลผลระดับองค์กรของ Nvidia กล่าวกับนักข่าวว่าองค์กรที่สร้าง AI กำเนิดของตนเองได้รับการฝึกฝนบนข้อมูลเฉพาะโดเมนของตนเอง “ไม่ต้องกังวลว่าข้อมูลที่เป็นกรรมสิทธิ์จะปะปนกับข้อมูลที่เป็นกรรมสิทธิ์ของบริษัทอื่นในช่วง การฝึกอบรม."

Project Helix ซึ่งเป็นโครงการที่เปิดตัวโดย Nvidia และ Dell ในวันอังคารที่งาน Dell Technologies World 2023 รวมถึง พาวเวอร์เอดจ์ XE9680 และเซิร์ฟเวอร์แร็ค R760xa ที่ได้รับการปรับให้เหมาะกับการฝึกอบรม AI และเวิร์กโหลดการอนุมาน XE9680 ในขณะที่ใช้โปรเซสเซอร์ Xeon Scalable เจนเนอเรชั่นที่ 4 ของ Intel สองตัว ยังเก็บแปดโปรเซสเซอร์ล่าสุดของ Nvidia GPU เทนเซอร์คอร์ H100 เชื่อมต่อผ่านเครือข่าย NVLink ของ Nvidia

Nvidia ยังวางแผนที่จะใช้ประโยชน์จากซอฟต์แวร์ระดับองค์กร เฟรมเวิร์ก และเครื่องมือสำหรับนักพัฒนา AI รวมถึง NeMo และโมเดลพื้นฐานที่ได้รับการฝึกฝนล่วงหน้า ราวกันตก NeMo – เพื่อสร้างแชทบอท AI กำเนิดที่ปลอดภัย ระบบ PowerScale และ ECS Enterprise Object Storage ของ Dell สำหรับข้อมูลที่ไม่มีโครงสร้างสามารถใช้กับเซิร์ฟเวอร์ชั้นวาง PowerEdge ได้

“ทั้งหมดนี้ช่วยให้เราสามารถรวบรวมโซลูชันที่สมบูรณ์สำหรับ AI เจนเนอเรทีฟที่สามารถทำงานภายในองค์กรได้ ซึ่งได้รับการตรวจสอบอย่างสมบูรณ์กับฮาร์ดแวร์และซอฟต์แวร์ ที่ปลอดภัย [และ] เป็นส่วนตัว” Das กล่าว

อาศัยอยู่บนขอบ

การเรียกใช้เวิร์กโหลดการฝึกอบรมและการอนุมานภายในศูนย์ข้อมูลของบริษัทเป็นกุญแจสำคัญในการรักษาข้อมูลสำคัญขององค์กรไม่ให้สิ้นสุดในสาธารณสมบัติ และอาจเป็นไปได้ว่า การละเมิด กฎความเป็นส่วนตัวและความปลอดภัยอ้างอิงจาก Huang ในกรณีของ AI กำเนิด on-prem จะหมายถึงความได้เปรียบมากขึ้นเรื่อยๆ

“พวกเขาต้องทำภายในองค์กรเพราะนั่นคือที่ที่ข้อมูลของพวกเขาอยู่ และพวกเขาต้องทำใกล้กับขอบเพราะนั่นใกล้เคียงกับความเร็วแสงมากที่สุด” Huang กล่าว “คุณต้องการให้มันตอบสนองในทันที คุณต้องการให้มันอยู่ที่ขอบ เพราะในอนาคต คุณต้องการมีข้อมูลจากหลายรูปแบบ

“ยิ่งเราได้รับข้อมูลเชิงบริบทมากเท่าไหร่ การอนุมานที่ดีขึ้น … ที่เราสามารถทำได้ ความสามารถในการตัดสินใจเหล่านั้นให้ใกล้เคียงกับขอบมากที่สุดเท่าที่จะเป็นไปได้ ที่ซึ่งการดำเนินการคือที่ใด ข้อมูลทั้งหมดอยู่ที่ใด และที่ใดที่สามารถตอบสนองได้สูงที่สุดเท่าที่จะเป็นไปได้ เป็นสิ่งสำคัญอย่างยิ่ง”

สำหรับ Nvidia ซึ่งวางเดิมพันเมื่อ XNUMX ปีที่แล้วว่า AI จะเป็นเครื่องมือขับเคลื่อนการเติบโตในอนาคต Project Helix ยังช่วยประสานตำแหน่งในฐานะผู้เปิดใช้งานหลักของการเรียนรู้ของเครื่องสำหรับองค์กรและองค์กร HPC

ในช่วงเวลาที่ LLMs ฝึกอบรมชุดข้อมูลขนาดใหญ่สำหรับวัตถุประสงค์ทั่วไป ในกรณีของ GPT และบอท ChatGPT ที่สร้างขึ้นบนอินเทอร์เน็ต องค์กรต่างๆ ต้องการฝึกอบรมแบบจำลองที่เล็กลงในข้อมูลของตนเองเพื่อตอบสนองความต้องการเฉพาะของตนเอง ตามที่ Jeffrey Clarke กล่าว รองประธานและประธานเจ้าหน้าที่ฝ่ายปฏิบัติการร่วมของ Dell

“นั่นคือแนวโน้มที่เราเห็นจากลูกค้า” คลาร์กกล่าว “พวกเขาใช้บริบททางธุรกิจ ข้อมูลของพวกเขา และช่วยให้พวกเขาตัดสินใจทางธุรกิจได้ดีขึ้นได้อย่างไร คุณไม่จำเป็นต้องใช้โมเดลภาษาขนาดใหญ่ของ GPT ในการทำเช่นนั้น … บริษัทต่างๆ จะไม่ปรับใช้ ChatGPT ในโรงงานเพื่อให้โรงงานทำงานได้ดีขึ้น นั่นจะเป็นแบบจำลองที่แปลเป็นภาษาท้องถิ่นโดยบริษัท X, Y หรือ Z พร้อมข้อมูลของพวกเขา”

ให้การควบคุมที่มากขึ้น

การผลักดันให้องค์กรต่างๆ สามารถปรับแต่งรูปแบบการฝึกอบรมด้วยข้อมูลที่เป็นกรรมสิทธิ์ของตนและในศูนย์ข้อมูลของตนเองกำลังได้รับแรงผลักดัน เมื่อต้นเดือนนี้ ServiceNow และ Nvidia เปิดตัวความร่วมมือ คล้ายกับโครงการ Helix เดอะ ความคิดไม่ใช่เรื่องใหม่แต่ได้รับการเติมเต็มด้วยความเร่งล่าสุดในการพัฒนา AI และ LLM เชิงกำเนิด

ที่งาน GTC ในเดือนกันยายน 2022 Nvidia ได้เปิดตัวบริการ NeMo LLM โดยคำนึงถึงประเด็นดังกล่าว ซึ่งช่วยให้องค์กรต่างๆ สามารถปรับใช้โมเดลพื้นฐานที่ได้รับการฝึกอบรมล่วงหน้าได้หลากหลายเพื่อสร้างโมเดลที่กำหนดเองซึ่งได้รับการฝึกฝนจากข้อมูลของตนเอง

โมเดลที่ใช้งานทั่วไป เช่น GPT-4 ของ OpenAI จะใช้ได้กับบางงาน Das กล่าว "แต่ยังมีบริษัทระดับองค์กรจำนวนมากที่ต้องการมีโมเดลภาษาขนาดใหญ่ที่ปรับแต่งเองสำหรับโดเมนของตนเอง สำหรับข้อมูลที่เป็นกรรมสิทธิ์ของตนเอง เพื่อให้แน่ใจว่าโมเดลกำลังทำในสิ่งที่ต้องการในบริบทของบริษัท”

“NeMo เป็นแพลตฟอร์มจาก Nvidia สำหรับลูกค้าที่ต้องการสร้างและบำรุงรักษาโมเดลของตนเอง”

Jensen Huang ซีอีโอของ Nvidia ซึ่งปรากฏตัวในการสนทนาทางวิดีโอกับคลาร์กระหว่างการกล่าวสุนทรพจน์กล่าวว่า "ทุกบริษัทมีแกนหลักเกี่ยวกับข่าวกรอง"

“Project Helix … จะช่วยให้ทุกบริษัทเป็นโรงงาน AI และสามารถผลิตหน่วยสืบราชการลับ หน่วยสืบราชการลับเฉพาะโดเมน ความเชี่ยวชาญของพวกเขา จากนั้นทำด้วยความเร็วแสงและทำได้ตามขนาด” Huang กล่าว

นวัตกรรมที่รวดเร็วเกี่ยวกับ AI เชิงกำเนิดจะช่วยให้องค์กรมีตัวเลือกมากขึ้นด้วย Dell's Clarke กล่าว Dell Validated Designs ที่ใช้ Project Helix จะวางจำหน่ายตั้งแต่เดือนกรกฎาคมเป็นต้นไป ®

ประทับเวลา:

เพิ่มเติมจาก ลงทะเบียน