Dell și Nvidia visează la modele AI generative DIY

Dell și Nvidia visează la modele AI generative DIY

Nodul sursă: 2674711

Lumea Dell Dell s-a conectat cu Nvidia pentru a prezenta întreprinderilor instrumente pentru a construi modele AI generative antrenate pe propriile date corporative, mai degrabă decât informații disponibile public, cum ar fi cele utilizate de modelele de limbă mare de uz general (LLM) precum GPT-ul OpenAI.

Cheia argumentului este securitatea datelor. Manuvir Das de la Nvidia, vicepreședinte pentru calcularea întreprinderii, le-a spus jurnaliștilor că o întreprindere care își construiește propriul inteligență artificială generativă instruită pe propriile date specifice domeniului „nu trebuie să-și facă griji că datele lor de proprietate sunt amestecate cu datele de proprietate ale unei alte companii în timpul Instruire."

Proiectul Helix, o schemă lansată de Nvidia și Dell marți la Dell Technologies World 2023, include PowerEdge XE9680 și servere rack R760xa care sunt optimizate pentru antrenamentul AI și sarcinile de lucru pentru inferențe. XE9680, în timp ce rulează două dintre procesoarele scalabile Intel Xeon de a patra generație, deține și opt dintre cele mai recente Nvidia. GPU-uri H100 Tensor Core conectat prin rețeaua NVLink de la Nvidia.

Nvidia intenționează, de asemenea, să exploateze software-ul de întreprindere AI, cadrele și instrumentele de dezvoltare - inclusiv NeMo și modele de fundație pre-antrenate Balustrade NeMo – pentru a construi chatbot securizați generativi AI. Sistemele Dell PowerScale și ECS Enterprise Object Storage pentru date nestructurate pot fi utilizate cu serverele rack PowerEdge, se arată în comunicat.

„Toate acestea ne permit să punem împreună o soluție completă pentru IA generativă care poate fi rulată on-prem, care este complet validată cu hardware și software, care este sigură [și] privată”, potrivit Das.

Trăind la margine

Desfășurarea sarcinilor de lucru de instruire și inferență în propriul centru de date al unei companii este cheia pentru a împiedica datele corporative esențiale să ajungă în domeniul public și, eventual, încălcarea regulile de confidențialitate și securitate, potrivit lui Huang. În cazul IA generativă, on-prem va însemna din ce în ce mai mult avantaj.

„Trebuie să o facă la nivel local pentru că acolo sunt datele lor și trebuie să o facă aproape de margine, deoarece aceasta este cea mai apropiată de viteza luminii”, a spus Huang. „Vrei să răspundă instantaneu. Vrei să fie și la margine, pentru că în viitor, vrei să ai informații din mai multe modalități.

„Cu cât obținem mai multe informații contextuale, cu atât mai bune... inferențe putem face. Abilitatea de a lua acele decizii cât mai aproape de margine posibil, unde este acțiunea, unde sunt toate datele și unde capacitatea de răspuns poate fi cât mai mare posibil, este cu adevărat esențială.”

Pentru Nvidia, care în urmă cu aproximativ un deceniu a pariat pe faptul că inteligența artificială va fi un viitor motor de creștere, Project Helix ajută și mai mult să-și cimenteze poziția ca un factor cheie al învățării automate pentru corporații și organizațiile HPC.

Într-un moment în care LLM se antrenează pe seturi masive de date cu scop general – în cazul GPT și al botului ChatGPT construit pe acesta, internetul – organizațiile doresc să antreneze modele mai mici pe propriile date pentru a-și răspunde nevoilor specifice, potrivit Jeffrey Clarke , vicepreședinte și co-COO la Dell.

„Aceasta este tendința pe care o vedem cu clienții”, a spus Clarke. „Cum își iau contextul de afaceri, datele și îi ajută să ia decizii de afaceri mai bune? Nu aveți nevoie de un model GPT pentru o limbă mare pentru a face asta. … Companiile nu vor implementa ChatGPT într-o fabrică pentru a face ca o fabrică să funcționeze mai bine. Acesta va fi un model localizat de către compania X, Y sau Z cu datele lor.”

Ofer mai mult control

Împingerea de a permite întreprinderilor să personalizeze modelele de instruire cu informațiile lor proprietare și în propriile centre de date câștigă amploare. La începutul acestei luni, ServiceNow și Nvidia a dezvăluit un parteneriat similar cu Project Helix. The ideea nu este noua, dar a fost supraalimentat cu accelerarea recentă a dezvoltării AI generative și LLM.

La GTC, în septembrie 2022, Nvidia a lansat serviciul NeMo LLM având în vedere acest lucru, oferind întreprinderilor o modalitate de a adapta o gamă de modele de fundație pre-instruite pentru a crea modele personalizate instruite pe propriile date.

Modelele de uz general, cum ar fi GPT-4 de la OpenAI, vor funcționa pentru unele locuri de muncă, a spus Das, „dar există și un număr mare de companii care trebuie să aibă propriile modele personalizate în limbaj mare pentru propriul domeniu, pentru propriile lor date proprietare. , pentru a se asigura că modelele fac exact ceea ce trebuie făcut în contextul companiei lor.”

„NeMo este o platformă de la Nvidia pentru acei clienți care trebuie să-și construiască și să-și întrețină propriile modele.”

CEO-ul Nvidia, Jensen Huang, care a apărut într-o discuție video cu Clark în timpul discursului principal, a spus că „fiecare companie este în centrul ei în ceea ce privește inteligența”.

„Proiectul Helix... va ajuta fiecare companie să devină o fabrică de inteligență artificială și să poată produce inteligența lor, inteligența lor specifică domeniului, expertiza lor, apoi să o facă la viteza luminii și să o facă la scară”, a spus Huang.

Inovația rapidă în jurul inteligenței artificiale generative va oferi, de asemenea, întreprinderilor mai multe opțiuni, a susținut Clarke de la Dell. Designele validate Dell bazate pe Project Helix vor fi disponibile începând cu luna iulie. ®

Timestamp-ul:

Mai mult de la Registrul