Dell och Nvidia drömmer om DIY-generativa AI-modeller

Dell och Nvidia drömmer om DIY-generativa AI-modeller

Källnod: 2674711

Dell World Dell har anslutit sig till Nvidia för att bjuda företag på verktyg för att bygga generativa AI-modeller utbildade på deras egna företagsdata, snarare än allmänt tillgänglig information som den som används av stora språkmodeller (LLMs) som OpenAI:s GPT.

Nyckeln till pitch är datasäkerhet. Nvidias Manuvir Das, vice vd för enterprise computing, sa till journalister att ett företag som bygger sin egen generativa AI utbildad på sin egen domänspecifika data "inte behöver oroa sig för att deras proprietära data blandas med proprietära data från något annat företag under Träning."

Project Helix, ett system som lanserades av Nvidia och Dell på tisdagen på Dell Technologies World 2023, inkluderar PowerEdge XE9680 och R760xa rackservrar som är optimerade för AI-träning och slutledning av arbetsbelastningar. XE9680, medan den kör två av Intels fjärde generationens Xeon skalbara processorer, har också åtta av Nvidias senaste H100 Tensor Core GPU:er ansluten via Nvidias NVLink-nätverk.

Nvidia planerar också att utnyttja sin AI-företagsprogramvara, ramverk och utvecklarverktyg – inklusive NeMo och förutbildade grundmodeller NeMo skyddsräcken – att bygga säkra generativa AI-chatbotar. Dells PowerScale och ECS Enterprise Object Storage-system för ostrukturerad data kan användas med PowerEdge-rackservrarna, heter det.

"Allt detta gör att vi verkligen kan sätta ihop en komplett lösning för generativ AI som kan köras på plats, som är helt validerad med hårdvaran och mjukvaran, som är säker [och] privat", enligt Das.

Lever på kanten

Att driva utbildnings- och slutledningsarbetsbelastningarna inom ett företags eget datacenter är nyckeln för att förhindra att kritisk företagsdata hamnar i det offentliga och ev. kränka integritets- och säkerhetsbestämmelser, enligt Huang. När det gäller generativ AI kommer on-prem i allt högre grad att innebära fördelen.

"De måste göra det på plats eftersom det är där deras data finns, och de måste göra det nära kanten eftersom det är närmast ljusets hastighet", sa Huang. "Du vill att den ska svara omedelbart. Du vill också att det ska vara på kanten, för i framtiden vill du ha information från flera modaliteter.

"Ju mer kontextuell information vi får, desto bättre ... slutledning kan vi dra. Förmågan att fatta dessa beslut så nära kanten som möjligt, var handlingen är, var all data finns och där lyhördheten kan vara så hög som möjligt, är verkligen viktigt.”

För Nvidia, som för ett decennium eller så sedan satsade på att AI skulle vara en framtida tillväxtmotor, hjälper Project Helix ytterligare att befästa sin position som en viktig möjliggörare för maskininlärning för företag och HPC-organisationer.

I en tid då LLM:er tränar på massiva datauppsättningar för allmänna ändamål – i fallet med GPT och ChatGPT-boten som byggts på den, internet – vill organisationer träna mindre modeller på sin egen data för att tillgodose sina egna specifika behov, enligt Jeffrey Clarke , vice ordförande och co-COO på Dell.

"Det är trenden vi ser hos kunderna," sa Clarke. "Hur tar de sitt affärssammanhang, sin data och hjälper dem att fatta bättre affärsbeslut? Du behöver inte en storspråkig GPT-modell för att göra det. … Företag kommer inte att distribuera ChatGPT i en fabrik för att få en fabrik att fungera bättre. Det kommer att vara en lokaliserad modell av företag X, Y eller Z med deras data."

Ge mer kontroll

Arbetet med att göra det möjligt för företag att anpassa utbildningsmodeller med sin egen information och i sina egna datacenter tar fart. Tidigare denna månad, ServiceNow och Nvidia presenterade ett partnerskap liknande Project Helix. De idén är inte ny, men det har överladdats med den senaste accelerationen i utvecklingen av generativ AI och LLM.

På GTC i september 2022 lanserade Nvidia tjänsten NeMo LLM med detta i åtanke, vilket ger företag ett sätt att anpassa en rad förutbildade grundmodeller för att skapa skräddarsydda modeller som tränas på sina egna data.

Allmänna modeller som OpenAI:s GPT-4 kommer att fungera för vissa jobb, sa Das, "men det finns också ett stort antal företagsföretag som behöver ha sina egna anpassade storspråkiga modeller för sin egen domän, för sin egen proprietära data , för att se till att modellerna gör precis vad de behöver göra i sitt företags sammanhang.”

"NeMo är en plattform från Nvidia för de kunder som behöver bygga och underhålla sina egna modeller."

Nvidias vd Jensen Huang, som dök upp i en videodiskussion med Clark under keynoten, sa att "varje företag är i sin kärna om intelligens."

"Project Helix ... kommer att hjälpa varje företag att vara en AI-fabrik och kunna producera sin intelligens, sin domänspecifika intelligens, sin expertis och sedan göra det i ljushastighet och göra det i skala," sa Huang.

Snabb innovation kring generativ AI kommer också att ge företag fler alternativ, hävdade Dells Clarke. Dell Validated Designs baserade på Project Helix kommer att finnas tillgängliga från och med juli. ®

Tidsstämpel:

Mer från Registret