Dell en Nvidia dromen van doe-het-zelf generatieve AI-modellen

Dell en Nvidia dromen van doe-het-zelf generatieve AI-modellen

Bronknooppunt: 2674711

Dell Wereld Dell werkt samen met Nvidia om bedrijven te pitchen over tools om generatieve AI-modellen te bouwen die zijn getraind op hun eigen bedrijfsgegevens, in plaats van openbaar beschikbare informatie zoals die wordt gebruikt door algemene grote-taalmodellen (LLM's) zoals OpenAI's GPT.

De sleutel tot het veld is gegevensbeveiliging. Nvidia's Manuvir Das, vice-president van enterprise computing, vertelde journalisten dat een onderneming die zijn eigen generatieve AI bouwt en getraind is op zijn eigen domeinspecifieke gegevens "zich geen zorgen hoeft te maken dat hun eigendomsgegevens worden vermengd met eigendomsgegevens van een ander bedrijf tijdens de opleiding."

Project Helix, een plan dat dinsdag door Nvidia en Dell is gelanceerd tijdens Dell Technologies World 2023, omvat de PowerEdge XE9680 en R760xa-rackservers die zijn geoptimaliseerd voor AI-training en deductie van workloads. Hoewel de XE9680 twee van Intel's 4e generatie Xeon schaalbare processors uitvoert, bevat hij ook acht van Nvidia's nieuwste H100 Tensor Core GPU's verbonden via Nvidia's NVLink-netwerk.

Nvidia is ook van plan om zijn AI-bedrijfssoftware, frameworks en ontwikkelaarstools te exploiteren, waaronder NeMo en vooraf getrainde basismodellen NeMo vangrails – om veilige generatieve AI-chatbots te bouwen. Dell's PowerScale- en ECS Enterprise Object Storage-systemen voor ongestructureerde gegevens kunnen worden gebruikt met de PowerEdge-rackservers, aldus het bedrijf.

"Dit alles stelt ons in staat om echt een complete oplossing voor generatieve AI samen te stellen die op locatie kan worden uitgevoerd, die volledig is gevalideerd met de hardware en software, die veilig [en] privé is", aldus Das.

Op het randje leven

Het uitvoeren van de trainings- en inferentieworkloads binnen het eigen datacenter van een bedrijf is essentieel om te voorkomen dat kritieke bedrijfsgegevens in het publieke domein terechtkomen en mogelijk schenden privacy- en veiligheidsregels, aldus Huang. In het geval van generatieve AI zal on-prem steeds meer het voordeel betekenen.

"Ze moeten het op locatie doen, omdat hun gegevens daar zijn, en ze moeten het dicht bij de rand doen, omdat dat het dichtst bij de lichtsnelheid ligt", zei Huang. “Je wilt dat het onmiddellijk reageert. Je wilt ook dat het aan de rand zit, want in de toekomst wil je informatie hebben van meerdere modaliteiten.

“Hoe meer contextuele informatie we krijgen, hoe beter … gevolgtrekkingen die we kunnen maken. Het vermogen om die beslissingen zo dicht mogelijk bij de rand te nemen, waar de actie is, waar alle gegevens zijn en waar de responsiviteit zo hoog mogelijk kan zijn, is echt essentieel.”

Voor Nvidia, dat zo'n tien jaar geleden erop gokte dat AI een toekomstige groeimotor zou zijn, helpt Project Helix zijn positie als een belangrijke aanjager van machine learning voor bedrijven en HPC-organisaties verder te versterken.

In een tijd waarin LLM's trainen op enorme datasets voor algemeen gebruik - in het geval van GPT en de daarop gebouwde ChatGPT-bot, het internet - willen organisaties kleinere modellen trainen op hun eigen data om aan hun eigen specifieke behoeften te voldoen, aldus Jeffrey Clarke , vice-voorzitter en co-COO bij Dell.

"Dat is de trend die we bij klanten zien", zei Clarke. “Hoe nemen ze hun zakelijke context, hun gegevens en helpen ze hen betere zakelijke beslissingen te nemen? U hebt daarvoor geen GPT-model met grote talen nodig. … Bedrijven gaan ChatGPT niet in een fabriek inzetten om een ​​fabriek beter te laten werken. Dat wordt een gelokaliseerd model van bedrijf X, Y of Z met hun data.”

Meer regie geven

De drang om ondernemingen in staat te stellen trainingsmodellen aan te passen met hun bedrijfseigen informatie en in hun eigen datacenters wint aan kracht. Eerder deze maand kwamen ServiceNow en Nvidia onthulde een partnerschap vergelijkbaar met Project Helix. De idee is niet nieuw, maar het heeft een boost gekregen met de recente versnelling in de ontwikkeling van generatieve AI en LLM's.

Op GTC in september 2022 lanceerde Nvidia de NeMo LLM-service met dat in gedachten, waardoor bedrijven een manier krijgen om een ​​reeks vooraf getrainde basismodellen aan te passen om aangepaste modellen te maken die zijn getraind op hun eigen gegevens.

Modellen voor algemeen gebruik, zoals OpenAI's GPT-4, zullen voor sommige banen werken, zei Das, "maar er is ook een groot aantal grote bedrijven die hun eigen aangepaste grote-taalmodellen nodig hebben voor hun eigen domein, voor hun eigen eigendomsgegevens. , om ervoor te zorgen dat de modellen precies doen wat ze moeten doen in de context van hun bedrijf.”

"NeMo is een platform van Nvidia voor klanten die hun eigen modellen moeten bouwen en onderhouden."

Jensen Huang, CEO van Nvidia, die tijdens de keynote in een videodiscussie met Clark verscheen, zei dat "elk bedrijf in de kern draait om intelligentie."

"Project Helix ... zal elk bedrijf helpen een AI-fabriek te zijn en in staat zijn om hun intelligentie, hun domeinspecifieke intelligentie, hun expertise te produceren en het vervolgens met lichte snelheid en op schaal te doen", zei Huang.

Snelle innovatie rond generatieve AI zal bedrijven ook meer opties geven, beweerde Clarke van Dell. Dell gevalideerde ontwerpen op basis van Project Helix zijn vanaf juli beschikbaar. ®

Tijdstempel:

Meer van Het register