Dell ja Nvidia unistavad DIY generatiivsetest AI mudelitest

Dell ja Nvidia unistavad DIY generatiivsetest AI mudelitest

Allikasõlm: 2674711

Delli maailm Dell on teinud koostööd Nvidiaga, et pakkuda ettevõtetele tööriistu, mille abil luua generatiivseid AI-mudeleid, mis on koolitatud nende endi ettevõtteandmetele, mitte avalikult kättesaadavale teabele, mida kasutavad üldotstarbelised suurkeelsed mudelid (LLM-id), nagu OpenAI GPT.

Väljaku võti on andmete turvalisus. Nvidia ettevõtete andmetöötluse asepresident Manuvir Das ütles ajakirjanikele, et ettevõte, kes ehitab oma generatiivset AI-d, mis on koolitatud oma domeenispetsiifiliste andmete põhjal, "ei pea muretsema selle pärast, et nende varalised andmed segatakse mõne teise ettevõtte varaliste andmetega koolitus."

Projekt Helix, skeem, mille Nvidia ja Dell käivitasid teisipäeval Dell Technologies World 2023 raames, sisaldab PowerEdge XE9680 ja R760xa rack-serverid, mis on optimeeritud tehisintellekti treenimiseks ja töökoormuste tegemiseks. Kuigi XE9680-l on kaks Inteli 4. põlvkonna Xeoni skaleeritavat protsessorit, on sellel ka kaheksa Nvidia uusimat protsessorit. H100 Tensor Core GPU-d ühendatud Nvidia NVLinki võrgu kaudu.

Nvidia kavatseb kasutada ka oma tehisintellekti ettevõtte tarkvara, raamistikke ja arendaja tööriistu, sealhulgas NeMo ja eelkoolitatud alusmudeleid NeMo kaitsepiirded – luua turvalisi generatiivseid AI-vestlusboteid. Delli PowerScale'i ja ECS Enterprise Object Storage süsteeme struktureerimata andmete jaoks saab kasutada koos PowerEdge'i rack-serveritega.

"See kõik võimaldab meil koostada tõeliselt tervikliku lahenduse generatiivse AI jaoks, mida saab kohapeal käitada, mis on täielikult kinnitatud riist- ja tarkvaraga ning mis on turvaline [ja] privaatne," ütles Das.

Elan äärel

Koolituse ja järelduste tegemine ettevõtte enda andmekeskuses on võtmetähtsusega selleks, et ettevõtte kriitilised andmed ei satuks avalikku omandisse ja võimalikud. rikub Huangi sõnul privaatsus- ja turvareeglid. Generatiivse AI puhul tähendab on-prem üha enam eelist.

"Nad peavad seda tegema kohapeal, sest seal on nende andmed, ja nad peavad seda tegema serva lähedal, kuna see on valguse kiirusele kõige lähemal," ütles Huang. "Sa tahad, et see reageeriks kohe. Samuti soovite, et see oleks äärel, sest tulevikus soovite saada teavet mitmest modaalsusest.

"Mida rohkem kontekstuaalset teavet saame, seda paremad järeldused saame teha. Võimalus teha neid otsuseid võimalikult lähedal, kus on tegevus, kus on kõik andmed ja kus reageerimisvõime võib olla võimalikult kõrge, on tõesti oluline.

Nvidia jaoks, mis kümmekond aastat tagasi panustas tehisintellektile tulevase kasvumootorina, aitab Project Helix veelgi tugevdada oma positsiooni ettevõtete ja HPC-organisatsioonide masinõppe peamise võimaldajana.

Ajal, mil LLM-id treenivad massiivsete üldotstarbeliste andmekogumite – GPT ja sellele ehitatud ChatGPT roboti puhul internet – põhjal, tahavad organisatsioonid Jeffrey Clarke’i sõnul koolitada väiksemaid mudeleid oma andmete põhjal, et rahuldada oma konkreetseid vajadusi. , Delli aseesimees ja kaasjuht.

"See on suundumus, mida me klientidega näeme, " ütles Clarke. „Kuidas nad võtavad oma ärikonteksti, oma andmeid ja aitavad neil teha paremaid äriotsuseid? Selleks ei ole vaja GPT suurekeelset mudelit. … Ettevõtted ei kavatse ChatGPT-d tehases juurutada, et tehas paremini töötaks. See on ettevõtte X, Y või Z lokaliseeritud mudel koos nende andmetega.

Suurema kontrolli andmine

Tõuge võimaldada ettevõtetel kohandada koolitusmudeleid oma varalise teabega ja oma andmekeskustes kogub hoogu. Selle kuu alguses ServiceNow ja Nvidia avalikustas partnerluse sarnane Project Helixiga. The idee pole uus, kuid seda on ajendanud generatiivse AI ja LLM-ide hiljutine kiirendus.

2022. aasta septembris toimunud GTC-s käivitas Nvidia NeMo LLM-i teenuse seda silmas pidades, andes ettevõtetele võimaluse kohandada mitmesuguseid eelkoolitatud vundamendimudeleid, et luua kohandatud mudeleid, mis on koolitatud nende enda andmete põhjal.

Üldotstarbelised mudelid, nagu OpenAI GPT-4, sobivad teatud töökohtade jaoks, ütles Das, "kuid on ka suur hulk ettevõtteid, kellel on vaja oma domeeni jaoks oma kohandatud suurekeelseid mudeleid oma varaliste andmete jaoks. , veendumaks, et modellid teevad täpselt seda, mida nad oma ettevõtte kontekstis tegema peavad.

"NeMo on Nvidia platvorm neile klientidele, kes peavad ise oma mudeleid looma ja hooldama."

Nvidia tegevjuht Jensen Huang, kes esines peakõne ajal Clarkiga peetud videoarutelus, ütles, et "iga ettevõte on luureandmete keskmes."

"Projekt Helix … aitab igal ettevõttel olla tehisintellekti tehas ja suudab toota oma intelligentsust, domeenispetsiifilist luureandmeid ja teadmisi ning teha seda valguskiirusel ja mastaapselt," ütles Huang.

Kiire innovatsioon generatiivse AI ümber annab ka ettevõtetele rohkem võimalusi, väitis Delli Clarke. Project Helixil põhinevad Delli valideeritud disainilahendused on saadaval alates juulist. ®

Ajatempel:

Veel alates Register