Dell og Nvidia drømmer om DIY-generative AI-modeller

Dell og Nvidia drømmer om DIY-generative AI-modeller

Kildeknude: 2674711

Dell verden Dell har tilsluttet sig Nvidia for at pitche virksomheder på værktøjer til at bygge generative AI-modeller, der er trænet på deres egne virksomhedsdata, snarere end offentligt tilgængelig information, såsom den, der bruges af generelle store sprogmodeller (LLM'er) som OpenAI's GPT.

Nøglen til banen er datasikkerhed. Nvidias Manuvir Das, vicepræsident for enterprise computing, fortalte journalister, at en virksomhed, der bygger sin egen generative AI trænet på sine egne domænespecifikke data, "ikke behøver at bekymre sig om, at deres proprietære data bliver blandet med proprietære data fra en anden virksomhed under uddannelse."

Project Helix, en ordning lanceret af Nvidia og Dell tirsdag på Dell Technologies World 2023, inkluderer PowerEdge XE9680 og R760xa rack-servere, der er optimeret til AI-træning og inferencing af arbejdsbelastninger. XE9680, mens den kører to af Intels 4. generation af Xeon-skalerbare processorer, har også otte af Nvidias seneste H100 Tensor Core GPU'er tilsluttet via Nvidias NVLink-netværk.

Nvidia planlægger også at udnytte sin AI-virksomhedssoftware, rammer og udviklerværktøjer – herunder NeMo og forudtrænede fundamentmodeller NeMo-værn – at bygge sikre generative AI-chatbots. Dells PowerScale og ECS ​​Enterprise Object Storage-systemer til ustrukturerede data kan bruges sammen med PowerEdge-rackserverne, hedder det.

"Alt dette giver os mulighed for virkelig at sammensætte en komplet løsning til generativ AI, der kan køres on-prem, som er fuldt valideret med hardware og software, som er sikker [og] privat," ifølge Das.

Lever på kanten

Afvikling af trænings- og inferens-arbejdsbelastningerne inden for en virksomheds eget datacenter er nøglen til at forhindre, at kritiske virksomhedsdata ender i det offentlige domæne og evt. overtræde privatlivs- og sikkerhedsbestemmelser, ifølge Huang. I tilfælde af generativ AI vil on-prem i stigende grad betyde kanten.

"De er nødt til at gøre det på stedet, fordi det er der, deres data er, og de skal gøre det tæt på kanten, fordi det er tættest på lysets hastighed," sagde Huang. "Du vil have det til at reagere øjeblikkeligt. Du ønsker også, at det skal være på kanten, fordi du i fremtiden vil have information fra flere modaliteter.

"Jo mere kontekstuel information vi får, jo bedre ... konklusioner kan vi drage. Evnen til at træffe disse beslutninger så tæt på kanten som muligt, hvor handlingen er, hvor alle data er, og hvor lydhørheden kan være så høj som muligt, er virkelig essentiel."

For Nvidia, som for et årti eller deromkring siden satsede på, at kunstig intelligens er en fremtidig vækstmotor, hjælper Project Helix yderligere med at cementere sin position som en nøglemuligator af maskinlæring for virksomheder og HPC-organisationer.

På et tidspunkt, hvor LLM'er træner på massive datasæt til generelle formål - i tilfældet med GPT og ChatGPT-boten bygget på det, internettet - ønsker organisationer at træne mindre modeller på deres egne data for at imødekomme deres egne specifikke behov, ifølge Jeffrey Clarke , næstformand og co-COO hos Dell.

"Det er den tendens, vi ser hos kunderne," sagde Clarke. "Hvordan tager de deres forretningskontekst, deres data og hjælper dem med at træffe bedre forretningsbeslutninger? Du behøver ikke en storsproget GPT-model for at gøre det. … Virksomheder vil ikke implementere ChatGPT på en fabrik for at få en fabrik til at fungere bedre. Det vil være en lokaliseret model af firma X, Y eller Z med deres data."

Giver mere kontrol

Fremstødet for at gøre det muligt for virksomheder at tilpasse træningsmodeller med deres proprietære information og i deres egne datacentre tager fart. Tidligere denne måned, ServiceNow og Nvidia afslørede et partnerskab ligner Project Helix. Det idéen er ikke ny, men det er blevet superladet med den seneste acceleration i udviklingen af ​​generative AI og LLM'er.

På GTC i september 2022 lancerede Nvidia NeMo LLM-tjenesten med det i tankerne, hvilket gav virksomheder en måde at tilpasse en række præ-trænede fundamentmodeller til at skabe skræddersyede modeller trænet på deres egne data.

Generelle modeller som OpenAI's GPT-4 vil fungere til nogle jobs, sagde Das, "men der er også et stort antal virksomhedsvirksomheder, der skal have deres egne tilpassede store sprogmodeller til deres eget domæne til deres egne proprietære data , for at sikre, at modellerne gør præcis, hvad de skal gøre i forbindelse med deres virksomhed."

"NeMo er en platform fra Nvidia for de kunder, der skal bygge og vedligeholde deres egne modeller."

Nvidia CEO Jensen Huang, som optrådte i en videodiskussion med Clark under keynoten, sagde, at "enhver virksomhed er i sin kerne om intelligens."

"Project Helix ... vil hjælpe enhver virksomhed med at være en AI-fabrik og være i stand til at producere deres intelligens, deres domænespecifikke intelligens, deres ekspertise og derefter gøre det ved lyshastighed og gøre det i skala," sagde Huang.

Hurtig innovation omkring generativ AI vil også give virksomheder flere muligheder, hævdede Dells Clarke. Dell-validerede designs baseret på Project Helix vil være tilgængelige i begyndelsen af ​​juli. ®

Tidsstempel:

Mere fra Registret