Nvidia är öppet för tredje parter som gör anpassat kisel anpassat för CUDA-applikationer

Källnod: 1478032

Mjukvara är en högsta prioritet för Nvidia, har chipdesignern klargjort vid veckans pågående GPU Technology-konferens, och att detta fortsätter att påverka dess hårdvaruutveckling.

Silicon Valley-jätten är öppen för idén om icke-Nvidia-processorer anpassade för inbyggt exekvering av mjukvara byggd med hjälp av dess CUDA-utvecklingsverktyg, sa Nvidias vd Jensen Huang Registret under en presskonferens. CUDA är Nvidias proprietary programmeringsplattform och gränssnitt för applikationer för att utnyttja datorkraften hos företagets GPU:er. CUDA hjälper Nvidia att sälja fler av dessa acceleratorer till företag.

Företaget har inga planer på att öppna källkod för sin CUDA-utvecklingsmiljö, men om företag vill bygga eller optimera sina egna chips för CUDA-byggda applikationer är företaget inte nödvändigtvis emot den ansträngningen, sa Huang till oss.

"Under CUDA finns Nvidias hårdvara," sa Huang. "Det finns egentligen ingenting att öppna källkod. Om någon skulle vilja bygga en applikation för CUDA eller bygga ett annat chip för CUDA, är vi inte i grunden emot det, och ingen har någonsin frågat."

Alternativet skulle vara att Nvidia öppnade sina GPU:er för andra att använda i sina system-on-chips med CUDA-byggda applikationer som körs ovanpå, vilket helt enkelt inte kommer att hända, sa Huang. CUDA anses ofta vara ljusår före liknande ramverk för andra arkitekturer, och Nvidia kommer inte att öppna upp mjukvaran, eller den underliggande hårdvaran, för rivaler.

För att framgångsrikt producera en CUDA-kompatibel accelerator som kan dra full nytta av ramverket kommer du förmodligen att behöva Nvidias input, och det kommer bara att hända om det är kommersiellt vettigt överallt.

Om en stor aktör med mycket pengar att spendera vill utveckla anpassat kisel för programmeringsramverket, skulle det fånga Nvidias intresse, säger Jim McGregor, huvudanalytiker på Tirias Research.

"Om det är en stor kund som Facebook kommer [Nvidia] att göra vad de behöver," sa McGregor. Toppmolnleverantörer som Amazon och Google anpassar chips för specifika arbetsbelastningar, och Nvidia kan förlora på det om man väljer att inte samarbeta inom detta område, plus att CUDA:s relevans kan tunnas ut, menade han.

Google har sitt familj av hemmagjorda TPU:er för att påskynda maskininlärningsprogramvara, till exempel, noterar vi.

Nvidia positionerar sig som ett mjukvaruföretag kring CUDA, vilket mer är ett sätt att sälja fler GPU:er. Företaget ser sig själv som mjukvaru- och hårdvaruleverantören för metaverse, ett parallellt 3D-universum som försvaras av Facebook (nu Meta) som en gränslös digital värld där avatarer kan arbeta, spela och interagera.

CUDA är central för Nvidias metaverse hård- och mjukvaruplattform som kallas Omniversum. Samtidigt använder företag CUDA för att föra sina applikationer till virtuella världar.

Nvidia har 150 mjukvaruutvecklingssatser tillgängliga för att bygga verktyg och annat på CUDA, med några nya applikationer ReOpt för optimering av försörjningskedjan och cuQuantum för simulering av kvantberäkning på en GPU. CUDA används också för att skriva mjukvara för autonoma bilar utrustade med Nvidia-hårdvara.

Nvidia balanserar på en styv lina genom att projicera sig själv som ett "öppet" företag, samtidigt som de rekryterar organisationer till sitt slutna hård- och mjukvaruekosystem.

"Vår strategi är inte att vara en skräddarsydd dator, inte att vara en egen dator, utan att vara en öppen dator", sa Huang under presskonferensen, "utan att vara en öppen dator som låter världen bygga mjukvara på den. Och närhelst programvaran inte finns, går vi och skapar den.”

Medan Nvidia håller hårt på CUDA, dess kronjuveler, försöker rivaliserande verktyg att fylla luckan. Nvidias GPU:er är kompatibla med OpenCL, en parallell programmeringsram som stöds av AMD och Intel. AMD erbjuder en mjukvarusvit för hårdvaruacceleration och CUDA wannabe call ROCm, och Intel har sin helhet oneAPI erbjudande.

OpenAI tillkännagav i juli ett AI-specifikt ramverk kallat Triton, som tillhandahåller en Python-liknande programmeringsmiljö där forskare utan CUDA-erfarenhet kan skriva effektiv kod för exekvering på Nvidia GPU:er.

Ett projekt som heter Vortex är ute efter att föra exekvering av CUDA-applikationer till GPU:er inom RISC-V-enheter.

Redan 2013 sa Nvidia att de skulle licensiera sin GPU IP till tredje part. Företaget svarade inte när vi frågade om det fortfarande gör det. AMD har licensierat sin GPU-arkitektur till Samsung, som företaget planerar att använda i sina mobila chips. ®

Källa: https://go.theregister.com/feed/www.theregister.com/2021/11/10/nvidia_cuda_silicon/

Tidsstämpel:

Mer från Registret