Dell e Nvidia sognano modelli di intelligenza artificiale generativa fai-da-te

Dell e Nvidia sognano modelli di intelligenza artificiale generativa fai-da-te

Nodo di origine: 2674711

Dell mondo Dell si è unita a Nvidia per offrire alle aziende strumenti per costruire modelli di intelligenza artificiale generativa addestrati sui propri dati aziendali, piuttosto che su informazioni pubblicamente disponibili come quelle utilizzate da modelli di linguaggio di grandi dimensioni (LLM) generici come GPT di OpenAI.

La chiave del discorso è la sicurezza dei dati. Manuvir Das di Nvidia, vicepresidente dell'informatica aziendale, ha detto ai giornalisti che un'impresa che costruisce la propria intelligenza artificiale generativa addestrata sui propri dati specifici del dominio "non deve preoccuparsi che i propri dati proprietari vengano mescolati con dati proprietari di qualche altra azienda durante il formazione."

Project Helix, uno schema lanciato da Nvidia e Dell martedì al Dell Technologies World 2023, include il PowerEdge XE9680 e server rack R760xa ottimizzati per i carichi di lavoro di addestramento e inferenza AI. L'XE9680, mentre esegue due dei processori scalabili Xeon di quarta generazione di Intel, contiene anche otto degli ultimi processori di Nvidia GPU Tensor Core H100 connesso tramite la rete NVLink di Nvidia.

Nvidia prevede inoltre di sfruttare il suo software aziendale AI, i framework e gli strumenti di sviluppo, inclusi NeMo e modelli di base preaddestrati Guardrail NeMo – per creare chatbot di intelligenza artificiale generativa sicuri. I sistemi Dell PowerScale ed ECS Enterprise Object Storage per dati non strutturati possono essere utilizzati con i server rack PowerEdge.

"Tutto ciò ci consente di mettere insieme una soluzione davvero completa per l'IA generativa che può essere eseguita on-prem, che è completamente convalidata con l'hardware e il software, che è sicura [e] privata", secondo Das.

Vivere al limite

L'esecuzione dei carichi di lavoro di addestramento e inferenza all'interno del data center di un'azienda è la chiave per evitare che i dati aziendali critici finiscano nel pubblico dominio e possibilmente violando norme sulla privacy e sulla sicurezza, secondo Huang. Nel caso dell'IA generativa, on-prem significherà sempre più il vantaggio.

"Devono farlo in sede perché è lì che si trovano i loro dati, e devono farlo vicino al bordo perché è il più vicino alla velocità della luce", ha detto Huang. “Vuoi che risponda istantaneamente. Vuoi anche che sia al limite, perché in futuro vuoi avere informazioni da più modalità.

“Più informazioni contestuali otteniamo, migliore … deduzione che possiamo fare. La capacità di prendere queste decisioni il più vicino possibile al limite, dove si trova l'azione, dove si trovano tutti i dati e dove la reattività può essere la più alta possibile, è davvero essenziale".

Per Nvidia, che una decina di anni fa ha scommesso sull'intelligenza artificiale come motore di crescita futura, Project Helix aiuta ulteriormente a consolidare la sua posizione di abilitatore chiave dell'apprendimento automatico per le aziende e le organizzazioni HPC.

In un momento in cui gli LLM si addestrano su enormi set di dati generici - nel caso di GPT e del bot ChatGPT basato su di esso, Internet - le organizzazioni vogliono addestrare modelli più piccoli sui propri dati per soddisfare le proprie esigenze specifiche, secondo Jeffrey Clarke , vicepresidente e co-COO di Dell.

"Questa è la tendenza che vediamo con i clienti", ha detto Clarke. "Come prendono il loro contesto aziendale, i loro dati e li aiutano a prendere decisioni aziendali migliori? Non è necessario un modello GPT in linguaggio esteso per farlo. … Le aziende non implementeranno ChatGPT in una fabbrica per far funzionare meglio una fabbrica. Sarà un modello localizzato per società X, Y o Z con i loro dati".

Dare più controllo

La spinta per consentire alle aziende di personalizzare i modelli di formazione con le proprie informazioni proprietarie e nei propri data center sta guadagnando slancio. All'inizio di questo mese, ServiceNow e Nvidia ha svelato una partnership simile a Project Helix. IL l'idea non è nuova, ma è stato sovralimentato con la recente accelerazione nello sviluppo di IA generativa e LLM.

Al GTC nel settembre 2022, Nvidia ha lanciato il servizio NeMo LLM con questo in mente, offrendo alle aziende un modo per adattare una gamma di modelli di base pre-addestrati per creare modelli personalizzati addestrati sui propri dati.

I modelli per uso generico come GPT-4 di OpenAI funzioneranno per alcuni lavori, ha affermato Das, "ma ci sono anche un gran numero di aziende che hanno bisogno di avere i propri modelli di linguaggio di grandi dimensioni personalizzati per il proprio dominio, per i propri dati proprietari , per assicurarsi che i modelli stiano facendo esattamente ciò di cui hanno bisogno nel contesto della loro azienda."

"NeMo è una piattaforma di Nvidia per quei clienti che hanno bisogno di costruire e mantenere i propri modelli."

Il CEO di Nvidia Jensen Huang, che è apparso in una discussione video con Clark durante il keynote, ha affermato che "ogni azienda è al centro dell'intelligence".

"Project Helix... aiuterà ogni azienda a essere una fabbrica di intelligenza artificiale e sarà in grado di produrre la propria intelligenza, la propria intelligenza specifica per dominio, la propria esperienza, e poi farlo alla velocità della luce e farlo su larga scala", ha affermato Huang.

La rapida innovazione intorno all'IA generativa offrirà inoltre alle aziende più opzioni, ha affermato Clarke di Dell. I progetti Dell Validated basati su Project Helix saranno disponibili a partire da luglio. ®

Timestamp:

Di più da Il registro