A Dell és az Nvidia a DIY generatív AI modellekről álmodik

A Dell és az Nvidia a DIY generatív AI modellekről álmodik

Forrás csomópont: 2674711

Dell World A Dell az Nvidiához csatlakozott, hogy olyan eszközöket kínáljon a vállalatoknak, amelyek segítségével generatív mesterségesintelligencia-modelleket hozhatnak létre saját vállalati adataik alapján, a nyilvánosan elérhető információk helyett, mint például az általános célú nagynyelvű modellek (LLM), például az OpenAI GPT.

A pálya kulcsa az adatbiztonság. Az Nvidia vállalati számítástechnikáért felelős alelnöke, Manuvir Das azt mondta az újságíróknak, hogy a saját, generatív mesterséges intelligencia kialakítását a saját domain-specifikus adataira kiképzett vállalkozásnak „nem kell attól tartania, hogy saját tulajdonú adatai összekeverednek egy másik vállalat védett adataival a folyamat során. kiképzés."

A Project Helix, az Nvidia és a Dell által kedden a Dell Technologies World 2023 rendezvényen elindított program magában foglalja a PowerEdge XE9680 és R760xa rack-szerverek, amelyek MI-tanításra és következtetések levonására lettek optimalizálva. Az XE9680 az Intel két 4. generációs Xeon skálázható processzorát futtatja, de az Nvidia nyolc legújabb processzorát is tartalmazza. H100 Tensor Core GPU-k az Nvidia NVLink hálózatán keresztül csatlakozik.

Az Nvidia azt is tervezi, hogy kiaknázza a mesterséges intelligencia vállalati szoftvereit, keretrendszereit és fejlesztői eszközeit – beleértve a NeMo-t és az előképzett alapmodelleket. NeMo védőkorlátok – biztonságos generatív AI chatbotok létrehozása. A Dell PowerScale és ECS Enterprise Object Storage rendszerei strukturálatlan adatok tárolására használhatók a PowerEdge rack szerverekkel.

„Mindez lehetővé teszi számunkra, hogy valóban egy komplett megoldást állítsunk össze a generatív mesterséges intelligencia számára, amely on-prem futtatható, amely hardverrel és szoftverrel teljesen validált, biztonságos [és] privát” – mondta Das.

Pengeélen táncolni

A képzési és következtetési munkaterhelés egy vállalat saját adatközpontján belüli futtatása kulcsfontosságú ahhoz, hogy a kritikus vállalati adatok ne kerüljenek nyilvánosságra, és esetleg megsértése adatvédelmi és biztonsági előírások Huang szerint. A generatív mesterséges intelligencia esetében az on-prem egyre inkább az élt fogja jelenteni.

"Ezt a helyszínen kell megtenniük, mert ott vannak az adataik, és a széléhez közel kell megtenniük, mert ez van a legközelebb a fénysebességhez" - mondta Huang. „Azt akarja, hogy azonnal válaszoljon. Azt is szeretné, hogy a szélén legyen, mert a jövőben több módozatból szeretne információkat szerezni.

„Minél több kontextuális információt kapunk, annál jobb… következtetéseket vonhatunk le. Az a képesség, hogy ezeket a döntéseket a lehető legközelebb hozzuk meg, ahol a cselekvés, ahol az összes adat, és ahol a válaszkészség a lehető legmagasabb lehet, nagyon fontos.”

Az Nvidia számára, amely egy évtizeddel ezelőtt a mesterséges intelligencia jövőbeli növekedési motorjaként fogadott, a Project Helix tovább segít megerősíteni pozícióját a vállalatok és HPC-szervezetek gépi tanulásának kulcsfontosságú elemeként.

Jeffrey Clarke szerint abban az időben, amikor az LLM-ek hatalmas általános célú adatkészleteken edzenek – a GPT és az arra épülő ChatGPT bot esetében az interneten –, a szervezetek kisebb modelleket akarnak betanítani saját adataikra, hogy megfeleljenek saját specifikus igényeiknek. , a Dell alelnöke és társ-vezérigazgatója.

„Ez az a tendencia, amelyet az ügyfeleknél látunk” – mondta Clarke. „Hogyan veszik fel üzleti környezetüket, adataikat, és hogyan segítik őket jobb üzleti döntések meghozatalában? Ehhez nincs szükség nagy nyelvű GPT-modellre. … A vállalatok nem telepítik a ChatGPT-t egy gyárban, hogy javítsák a gyár működését. Ez egy honosított modell lesz X, Y vagy Z cég adataival együtt.”

Nagyobb irányítás biztosítása

Egyre felerősödik az a törekvés, hogy a vállalatok saját információikkal és saját adatközpontjaikban testreszabhassák a képzési modelleket. A hónap elején a ServiceNow és az Nvidia partnerséget mutatott be hasonló a Project Helix-hez. A az ötlet nem új, de a generatív mesterséges intelligencia és az LLM-ek fejlesztésének közelmúltbeli felgyorsulása felgyorsult.

A 2022. szeptemberi GTC-n az Nvidia ezt szem előtt tartva indította el a NeMo LLM szolgáltatást, lehetőséget adva a vállalatoknak arra, hogy előre betanított alapmodelleket adaptáljanak a saját adataikra betanított, testreszabott modellek létrehozására.

Az általános célú modellek, mint például az OpenAI GPT-4, bizonyos munkáknál működni fognak – mondta Das –, de sok olyan vállalati vállalat is létezik, amelyeknek saját, testreszabott, nagy nyelvű modellekkel kell rendelkezniük a saját tartományukhoz, saját védett adataikhoz. , hogy megbizonyosodjanak arról, hogy a modellek pontosan azt teszik, amit a vállalatukkal összefüggésben kell tenniük.”

„A NeMo az Nvidia platformja azoknak az ügyfeleknek, akiknek saját modelleket kell készíteniük és karbantartaniuk.”

Az Nvidia vezérigazgatója, Jensen Huang, aki a vitaindító alatt megjelent a Clarkkal folytatott videobeszélgetésben, azt mondta, hogy „minden vállalat a lényege az intelligencia”.

„A Helix projekt… minden vállalatnak segíteni fog abban, hogy mesterséges intelligenciagyár legyen, és képes legyen előállítani intelligenciáját, tartományspecifikus intelligenciáját, szakértelmét, majd ezt fénysebességgel és nagy léptékben megtenni” – mondta Huang.

A generatív mesterséges intelligencia körüli gyors innováció több lehetőséget kínál a vállalatoknak – állította a Dell Clarke. A Project Helixen alapuló Dell Validated Designs júliustól lesz elérhető. ®

Időbélyeg:

Még több A regisztráció