GDDR6 levererar prestanda för AI/ML-inferens

GDDR6 levererar prestanda för AI/ML-inferens

Källnod: 2654216

Minnesgenomströmningshastighet och låg latens är avgörande när slutledningar skiftar från datacentret till nätverkskanten.

popularitet

AI/ML utvecklas i en blixtsnabb. Det går inte en vecka just nu utan några nya och spännande utvecklingar inom området, och applikationer som ChatGPT har fört generativa AI-kapaciteter i förgrunden för allmänhetens uppmärksamhet.

AI/ML är egentligen två tillämpningar: träning och slutledning. Var och en förlitar sig på minnesprestanda och alla har en unik uppsättning krav som driver valet av den bästa minneslösningen.

Med träning är minnesbandbredd och kapacitet kritiska krav. Detta är särskilt så med tanke på storleken och komplexiteten hos datamodeller för neurala nätverk som har vuxit med en hastighet av 10 gånger per år. Neural nätverksnoggrannhet beror på kvaliteten och kvantiteten av exempel i träningsdatauppsättningen, vilket leder till att man behöver enorma mängder data, och därmed minnesbandbredd och kapacitet.

Med tanke på värdet som skapas genom träning finns det ett kraftfullt incitament att genomföra träningskörningar så snabbt som möjligt. Eftersom utbildningsapplikationer körs i datacenter med allt mer begränsad kraft och utrymme, gynnas lösningar som erbjuder energieffektivitet och mindre storlek. Med tanke på alla dessa krav är HBM3 en idealisk minneslösning för AI-träningshårdvara. Det ger utmärkta bandbredds- och kapacitetsmöjligheter.

Resultatet av utbildning i neurala nätverk är en slutledningsmodell som kan användas brett. Med denna modell kan en slutledningsenhet bearbeta och tolka indata utanför gränserna för träningsdata. För slutledning är minneshastighet och låg latens avgörande, särskilt när realtidsåtgärder behövs. Med fler och fler AI-inferenser som flyttas från hjärtat av datacentret till nätverkskanten, blir dessa minnesfunktioner ännu mer kritiska.

Designers har ett antal minnesval för AI/ML-inferens, men på den kritiska parametern bandbredd lyser GDDR6-minnet verkligen. Med en datahastighet på 24 Gigabits per sekund (Gb/s), och ett 32-bitars brett gränssnitt, kan en GDDR6-enhet leverera 96 ​​Gigabyte per sekund (GB/s) minnesbandbredd, mer än dubbelt så mycket som någon alternativ DDR eller LPDDR-lösningar. GDDR6-minne erbjuder en fantastisk kombination av hastighet, bandbredd och latensprestanda för AI/ML-inferens, särskilt för slutledning vid kanten.

Rambus GDDR6-minnesgränssnittsundersystemet erbjuder prestanda på 24 Gb/s och är byggt på en grund av över 30 år av höghastighetssignalintegritet och effektintegritet (SI/PI) expertis, avgörande för att driva GDDR6 vid höga hastigheter. Den består av en PHY och en digital styrenhet – vilket ger ett komplett GDDR6-minnesgränssnittsundersystem.

Följ med mig på Rambus webbseminarium denna månad på "Högpresterande AI/ML-inferens med 24G GDDR6-minne” för att upptäcka hur GDDR6 stöder minnes- och prestandakraven för AI/ML-inferensarbetsbelastningar och lära dig om några av de viktigaste design- och implementeringsövervägandena för GDDR6-minnesgränssnittsundersystem.

Resurser:


Frank Ferro

Frank Ferro

  (alla inlägg)
Frank Ferro är senior director för produktmarknadsföring för IP-kärnor på Rambus.

Tidsstämpel:

Mer från Semi-teknik