Nutanix consideră că puteți introduce AI într-o cutie pe care o gestionează

Nutanix consideră că puteți introduce AI într-o cutie pe care o gestionează

Nodul sursă: 2824656

Interesul pentru sarcinile de lucru AI a atins punctul în care furnizorii importanți de întreprinderi îl ambalează pentru un consum ușor, Nutanix fiind cel mai recent care își pregătește platforma pentru cutii binare.

Explicația ținutei pentru „Soluția sa GPT-in-a-Box” este că o mulțime de organizații sunt atât curioase de inteligență artificială, cât și precaute să experimenteze în cloud de teamă să nu ridice rapid facturile mari. Guvernanța datelor este o altă preocupare, potrivit lui Thomas Cornely, responsabilul Nutanix în domeniul managementului produselor, deoarece rularea sarcinilor de lucru AI înseamnă a lucra cu o mulțime de date care ar putea avea cerințe de conformitate diverse.

De asemenea, în mintea utilizatorilor, Cornely consideră că este și posibilitatea ca incursiunile lor inițiale AI să aibă un randament slab al investiției.

Ce trebuie să facă un utilizator? Când ești Nutanix, iar „ciocanul” tău este o stivă de software care retrage norii de hiperscale hardware în nori hibridi și automatizează managementul, fiecare sarcină de lucru arată ca un cui.

GPT-in-a-Box este, prin urmare, o reducere a stivei Nutanix adaptată nevoilor sarcinilor de lucru AI. Oferta include, de asemenea, Kubeflow, care urmărește să ușureze implementarea sarcinilor de lucru de învățare automată, cadrul de învățare automată PyTorch și Jupyter. De asemenea, utilizatorii pot rula transformatoarele generative pre-antrenate (GPT) preferate, cu Llama2, Falcon și mosaicML acceptate în prima zi.

Hypervisorul AHV al Nutanix este deja certificat pentru a rula Nvidia AI Enterprise 4.0, o sarcină de lucru cheie AI. Și Nutanix poate gestiona și GPU-uri.

Credința furnizorului de cloud hibrid intră în joc odată cu realizarea faptului că datele necesare pentru a alimenta un model pot fi substanțiale, deci pot fi cel mai bine localizate în cloud, dar încărcările de lucru AI ar putea rula on-prem, la margine, într-un cloud. Platforma Nutanix se referă la gestionarea unor astfel de colecții de încărcătură de lucru sub un construct logic.

Prin urmare, planul companiei este ca clienții care își desfășoară deja lucrurile să ia în considerare platforma pentru sarcinile lor de lucru AI, chiar dacă doar pentru că crearea unui siloz doar pentru AI este o idee prostească. Și, de asemenea, pentru că Nutanix vrea mai multe din lucrurile tale pe platforma sa.

Nu este singur în această ambiție. Dell a făcut-o deja gătită o ofertă similară. VMware are dezlânat parteneriate cu jucători AI pentru a-și împacheta produsele pentru vSphere, care vor fi dezvăluite probabil la conferința Explore de săptămâna viitoare. Marii nori hiperscale au împachetat deja încărcături de lucru AI.

Nutanix începe cu GPU Nvidia, iar Cornely ne-a spus că suportul pentru acceleratoarele AMD este pe drum. Am întrebat despre GPU-urile de sine stătătoare ale Intel, kit pe care l-a adus pe piață abia recent și care este bine privit, dar încă nu a obținut o adoptare notabilă. Cornely a spus că este prea devreme pentru Nutanix să ia în considerare suport, dar nu a exclus un viitor strălucit pentru GPU-urile Intel. ®

Timestamp-ul:

Mai mult de la Registrul