Meta egyedi AI chipek telepítéséhez az AMD, Nvidia GPU-k mellé

Meta egyedi AI chipek telepítéséhez az AMD, Nvidia GPU-k mellé

Forrás csomópont: 3093660

Évek fejlesztése után a Meta idén végre értelmes módon bevezetheti saját gyártású AI-gyorsítóit.

A Facebook-birodalom megerősítette azon szándékát, hogy ezen a héten kiegészítse az Nvidia H100 és AMD MI300X GPU-k telepítését a Meta Training Inference Accelerator (MTIA) chipcsaláddal. Konkrétan a Meta következtetésekre optimalizált processzort fog telepíteni, állítólag Artemis kódnéven, a Szilícium-völgyi óriás első generációs részein alapul ugratta tavaly.

„Izgatottak vagyunk az MTIA-val végzett házon belüli szilícium-erõfeszítéseink terén elért fejlõdés miatt, és jó úton haladunk afelé, hogy 2024-ben megkezdjük a következtetési változatunk gyártásban történõ bevezetését” – mondta a Meta szóvivõje. A regisztráció csütörtökön.

„Úgy látjuk, hogy belső fejlesztésű gyorsítóink nagymértékben kiegészítik a kereskedelemben kapható GPU-kat a teljesítmény és a hatékonyság optimális keverékét biztosítva a Meta-specifikus munkaterheléseken” – folytatta a képviselő. Részletek? Dehogy. A szóvivő elmondta: "Várjuk, hogy még ebben az évben megoszthassunk további frissítéseket jövőbeli MTIA-terveinkről."

Ezt úgy értjük, hogy a második generációs következtetésre összpontosító lapka széles körben elterjedt, az első generációs, csak laboratóriumi verziót követve a következtetések levonására, és később megtudhatjuk az elsősorban képzésre vagy képzésre és következtetésre szánt részeket.

A Meta az Nvidia és az AMD egyik legjobb ügyfele lett, mivel a mesterséges intelligencia terhelése egyre szélesebb körben elterjedt, és megnőtt a speciális szilícium igénye és használata, hogy gépi tanulási szoftverei a lehető leggyorsabban futhassanak. Így nem is olyan meglepő az Instagram-óriás azon döntése, hogy saját egyedi processzorokat fejleszt.

Valójában a mega-cég viszonylag későn van az egyéni mesterséges intelligencia-párthoz képest, ami a valós alkalmazást illeti. Az Amazon és a Google néhány éve saját fejlesztésű komponenseket használ a belső gépi tanulási rendszerek felgyorsítására, például ajánlómodelleket és vásárlói ML-kódot. Eközben a Microsoft tavaly bemutatta hazai gyártású gyorsítóit.

De azon túl, hogy a Meta nagyszabásúan vezeti be az MTIA következtetési chipet, a közösségi hálózat nem hozta nyilvánosságra a pontos architektúráját, és azt sem, hogy milyen munkaterhelést tart fenn a házon belüli szilícium számára, és melyiket tölti le az AMD és az Nvidia GPU-ira.

Valószínűleg a Meta bevált modelleket fog futtatni egyedi ASIC-jein, hogy GPU-erőforrásokat szabadítson fel a dinamikusabb vagy fejlődő alkalmazások számára. Láttuk már, hogy a Meta ezt az utat járta be egyéni gyorsítókkal, amelyeket az adatok kiürítésére és az intenzív videoterhelés kiszámítására terveztek.

Ami a mögöttes tervezést illeti, a SemiAnalysis iparági megfigyelői elmondták, hogy az új chip szorosan a Meta első generációs részeinek architektúráján alapul.

Mérföldkő

Három év fejlesztés után 2023 elején jelentették be, a Meta MTIA v1 részét, amelyet barátaink a A következő platform nézett tavaly tavasszal kifejezetten a mélytanulási ajánlómodelleket szem előtt tartva tervezték.

Az első generációs chip egy RISC-V CPU klaszter köré épült, és a TSMC 7 nm-es eljárásával készült. A motorháztető alatt az alkatrész nyolcszor nyolcszoros feldolgozóelemek mátrixát alkalmazta, amelyek mindegyike két RV CPU maggal van felszerelve, amelyek közül az egyik vektor-matematikai kiterjesztéssel van felszerelve. Ezek a magok bőséges, 128 MB-os chipbe épített SRAM-ból és akár 128 GB-os LPDDR5 memóriából táplálkoznak.

Ahogy a Meta tavaly állította, a chip 800 MHz-en futott, és 102.4 billió művelet/másodperc INT8-as teljesítményt vagy 51.2 teraFLOPS-t fél pontossággal (FP16) teljesített. Összehasonlításképpen, az Nvidia H100-a közel négy petaFLOPS-os gyér FP8 teljesítményre képes. Bár közel sem olyan erős, mint az Nvidia vagy az AMD GPU-i, a chipnek van egy nagy előnye: az energiafogyasztás. Maga a chip termikus tervezési teljesítménye mindössze 25 watt volt.

Szerint Fél -elemzés, A Meta legújabb chipje továbbfejlesztett magokkal büszkélkedhet, és az LPDDR5-öt nagy sávszélességű memóriára cseréli, amely a TSMC chip-on-wafer-on-substrate (CoWoS) technológiájával van csomagolva.

Egy másik figyelemre méltó különbség, hogy a Meta második generációs chipje széles körben elterjedt lesz az adatközponti infrastruktúrájában. A Facebook titánja szerint míg az első generációs részt gyártási reklámmodellek futtatására használták, az soha nem hagyta el a labort.

A mesterséges általános intelligencia hajszolása

Az egyedi részeket leszámítva a Facebook és az Instagram szülője kidobta milliárd dollárt fordítottak a GPU-kra az elmúlt években, hogy felgyorsítsanak minden olyan feladatot, amelyek nem megfelelőek a hagyományos CPU-platformokhoz. Azonban a nagy nyelvi modellek, mint például a GPT-4 és a Meta saját Llama 2 térnyerése megváltoztatta a tájat, és hatalmas GPU-fürtök bevezetését eredményezte.

A Meta működésében ezek a trendek drasztikus változtatásokat tettek szükségessé infrastruktúrájában, beleértve a újratervezés több adatközpontból áll, amelyek támogatják a nagyméretű mesterségesintelligencia-telepítésekhez kapcsolódó hatalmas energia- és hűtési követelményeket.

A Meta telepítései pedig csak növekedni fognak a következő néhány hónapban, ahogy a vállalat a metaverzumról a fejlesztés általános mesterséges intelligencia. Állítólag az AI-n végzett munka segít a metaverzum kialakításában vagy valami hasonlóban.

Mark Zuckerberg vezérigazgató szerint a Meta csak ebben az évben 350,000 100 Nvidia HXNUMX-as telepítését tervezi.

A biznisz azt is bejelentette, hogy újonnan telepíti az AMD-t indított MI300X GPU-kat az adatközpontjaiban. Zuckerberg azt állította, hogy vállalata 600,000 100 HXNUMX-nak megfelelő számítási teljesítménnyel zárja az évet. Tehát egyértelműen a Meta MTIA chipjei nem fogják egyhamar leváltani a GPU-kat. ®

Időbélyeg:

Még több A regisztráció