Dell in Nvidia sanjata o DIY generativnih modelih AI

Dell in Nvidia sanjata o DIY generativnih modelih AI

Izvorno vozlišče: 2674711

Dell World Dell se je povezal z Nvidio, da bi podjetjem predstavil orodja za izdelavo generativnih modelov umetne inteligence, usposobljenih na njihovih lastnih korporativnih podatkih, namesto na javno dostopnih informacijah, kot so tiste, ki jih uporabljajo splošni modeli velikih jezikov (LLM), kot je GPT OpenAI.

Ključ do predstavitve je varnost podatkov. Nvidijin Manuvir Das, podpredsednik poslovnega računalništva, je povedal novinarjem, da podjetju, ki gradi lastno generativno umetno inteligenco, ki je usposobljena na lastnih domensko specifičnih podatkih, »ni treba skrbeti, da bi se njihovi lastniški podatki pomešali z lastniškimi podatki nekega drugega podjetja med usposabljanje."

Projekt Helix, shema, ki sta jo Nvidia in Dell predstavila v torek na Dell Technologies World 2023, vključuje PowerEdge XE9680 in R760xa rack strežniki, ki so optimizirani za usposabljanje z umetno inteligenco in sklepanje delovnih obremenitev. Čeprav XE9680 poganja dva Intelova razširljiva procesorja Xeon 4. generacije, ima tudi osem najnovejših Nvidijinih GPU H100 Tensor Core povezan prek omrežja Nvidia NVLink.

Nvidia prav tako načrtuje izkoriščanje svoje poslovne programske opreme, ogrodij in orodij za razvijalce z umetno inteligenco – vključno z NeMo in predhodno usposobljenimi osnovnimi modeli Zaščitne ograje NeMo – zgraditi varne generativne klepetalne robote z umetno inteligenco. Dellova sistema PowerScale in ECS Enterprise Object Storage za nestrukturirane podatke je mogoče uporabiti s strežniki PowerEdge rack, je dejal.

"Vse to nam omogoča, da sestavimo resnično popolno rešitev za generativno umetno inteligenco, ki jo je mogoče izvajati na mestu namestitve, ki je v celoti potrjena s strojno in programsko opremo, ki je varna [in] zasebna," je dejal Das.

Življenje na robu

Izvajanje delovnih obremenitev usposabljanja in sklepanja v lastnem podatkovnem središču podjetja je ključnega pomena za preprečevanje, da kritični podatki podjetja končajo v javni domeni in morda krši predpisi o zasebnosti in varnosti, pravi Huang. V primeru generativne umetne inteligence bo on-prem vse bolj pomenil prednost.

"To morajo storiti neposredno, ker so tam njihovi podatki, in to morajo narediti blizu roba, ker je to najbližje svetlobni hitrosti," je dejal Huang. »Želite, da se odzove takoj. Prav tako želite, da je na robu, ker v prihodnosti želite imeti informacije iz več modalitet.

»Več kontekstualnih informacij kot dobimo, boljši … lahko sklepamo. Sposobnost sprejemanja teh odločitev čim bližje robu, kjer je dogajanje, kjer so vsi podatki in kjer je lahko odzivnost čim višja, je resnično bistvenega pomena.«

Za Nvidio, ki je pred kakšnim desetletjem stavila na umetno inteligenco kot motor rasti prihodnosti, Project Helix še dodatno utrjuje njen položaj kot ključni dejavnik strojnega učenja za korporacije in organizacije HPC.

V času, ko se LLM-ji usposabljajo na množičnih naborih podatkov za splošne namene – v primeru GPT in robota ChatGPT, zgrajenega na njem, na internetu – želijo organizacije usposobiti manjše modele na svojih lastnih podatkih, da bodo obravnavale svoje posebne potrebe, pravi Jeffrey Clarke. , podpredsednik in co-COO pri Dell.

"To je trend, ki ga opažamo pri strankah," je dejal Clarke. »Kako vzamejo svoj poslovni kontekst, svoje podatke in jim pomagajo sprejemati boljše poslovne odločitve? Za to ne potrebujete modela GPT v velikem jeziku. … Podjetja ne bodo uvedla ChatGPT v tovarno, da bi tovarna bolje delovala. To bo lokaliziran model podjetja X, Y ali Z z njihovimi podatki.«

Daje več nadzora

Prizadevanje, da bi podjetjem omogočili prilagajanje modelov usposabljanja s svojimi lastniškimi informacijami in v lastnih podatkovnih centrih, pridobiva zagon. V začetku tega meseca ServiceNow in Nvidia razkrila partnerstvo podobno kot Project Helix. The ideja ni nova, vendar je bil nadgrajen z nedavnim pospeševanjem razvoja generativne AI in LLM.

Na GTC septembra 2022 je Nvidia s tem v mislih predstavila storitev NeMo LLM, ki podjetjem omogoča prilagoditev vrste vnaprej usposobljenih temeljnih modelov za ustvarjanje prilagojenih modelov, usposobljenih na njihovih lastnih podatkih.

Modeli za splošno uporabo, kot je GPT-4 OpenAI, bodo delovali za nekatera delovna mesta, je dejal Das, "vendar obstaja tudi veliko število podjetij, ki potrebujejo lastne prilagojene modele v velikih jezikih za svojo domeno, za lastne lastniške podatke , da bi zagotovili, da modeli delajo natanko tisto, kar morajo storiti v okviru svojega podjetja.«

"NeMo je platforma podjetja Nvidia za tiste stranke, ki morajo zgraditi in vzdrževati lastne modele."

Izvršni direktor Nvidie Jensen Huang, ki se je pojavil v video razpravi s Clarkom med osrednjim govorom, je dejal, da je "jedro vsakega podjetja v inteligenci."

»Projekt Helix … bo pomagal vsakemu podjetju, da postane tovarna umetne inteligence in bo lahko proizvedlo svojo inteligenco, svojo domensko specifično inteligenco, svoje strokovno znanje in nato to naredilo s svetlobno hitrostjo in v velikem obsegu,« je dejal Huang.

Hitre inovacije v zvezi z generativno umetno inteligenco bodo podjetjem dale tudi več možnosti, je trdil Dellov Clarke. Dell Validated Designs, ki temeljijo na projektu Helix, bodo na voljo od julija. ®

Časovni žig:

Več od Register