Meta wdroży niestandardowe chipy AI wraz z procesorami graficznymi AMD i Nvidia

Meta wdroży niestandardowe chipy AI wraz z procesorami graficznymi AMD i Nvidia

Węzeł źródłowy: 3093660

Po latach rozwoju Meta może wreszcie w tym roku w znaczący sposób wdrożyć własne akceleratory AI.

Imperium Facebooka potwierdziło w tym tygodniu chęć uzupełnienia wdrożeń procesorów graficznych Nvidia H100 i AMD MI300X rodziną układów Meta Training Inference Accelerator (MTIA). W szczególności Meta wdroży procesor zoptymalizowany pod kątem wnioskowania, podobno o kryptonimie Artemis, bazujący na częściach pierwszej generacji giganta z Doliny Krzemowej dokuczał ostatni rok.

„Jesteśmy podekscytowani postępem, jaki poczyniliśmy w ramach naszych wewnętrznych wysiłków w zakresie krzemu wspólnie z MTIA i jesteśmy na dobrej drodze do rozpoczęcia wdrażania naszego wariantu wnioskowania w produkcji w 2024 r.” – powiedział rzecznik Meta Rejestr w czwartek.

„Widzimy, że nasze wewnętrznie opracowane akceleratory doskonale uzupełniają dostępne na rynku procesory graficzne, zapewniając optymalne połączenie wydajności i efektywności w przypadku obciążeń specyficznych dla Meta” – kontynuował przedstawiciel. Detale? Nie. Rzecznik powiedział nam: „Nie możemy się doczekać, aż jeszcze w tym roku udostępnimy więcej aktualizacji na temat naszych przyszłych planów MTIA”.

Rozumiemy, że oznacza to, że chip drugiej generacji skupiający się na wnioskowaniu będzie szeroko wdrażany, po wersji pierwszej generacji przeznaczonej wyłącznie do zastosowań laboratoryjnych do wnioskowania, a o częściach przeznaczonych głównie do szkolenia lub szkolenia i wnioskowania możemy dowiedzieć się później.

Meta stała się jednym z najlepszych klientów firm Nvidia i AMD w miarę wzrostu liczby zastosowań związanych ze sztuczną inteligencją, co zwiększyło jej zapotrzebowanie na specjalistyczny krzem i wykorzystanie go, aby oprogramowanie do uczenia maszynowego działało tak szybko, jak to możliwe. Dlatego decyzja giganta Instagrama o opracowaniu własnych, niestandardowych procesorów nie jest wcale taka zaskakująca.

W rzeczywistości, na pierwszy rzut oka, megakorporacja jest stosunkowo spóźniona z przyjęciem niestandardowej partii krzemowej AI pod względem wdrożenia w świecie rzeczywistym. Amazon i Google od kilku lat wykorzystują własne komponenty do przyspieszania wewnętrznych systemów uczenia maszynowego, takich jak modele rekomendacyjne i kod ML klienta. Tymczasem Microsoft ujawnił w zeszłym roku swoje rodzime akceleratory.

Ale poza faktem, że Meta wdraża na dużą skalę układ wnioskowania MTIA, sieć społecznościowa nie ujawniła jego dokładnej architektury ani tego, jakie obciążenia rezerwuje dla wewnętrznego krzemu, a które przerzuca na procesory graficzne AMD i Nvidia.

Prawdopodobnie Meta będzie uruchamiać ustalone modele na swoich niestandardowych układach ASIC, aby zwolnić zasoby GPU dla bardziej dynamicznych lub rozwijających się aplikacji. Widzieliśmy już, jak Meta poszła tą drogą z niestandardowymi akceleratorami zaprojektowanymi do odciążania danych i obliczania intensywnych obciążeń wideo.

Jeśli chodzi o podstawowy projekt, obserwatorzy branży z SemiAnalytics mówią nam, że nowy chip jest ściśle oparty na architekturze części pierwszej generacji Meta.

Kamienie schodkowe

Ogłoszone na początku 2023 r., po trzech latach prac, części Meta MTIA v1, które nasi przyjaciele z Następna platforma spojrzał na zeszłej wiosny zostały zaprojektowane specjalnie z myślą o modelach rekomendacji głębokiego uczenia się.

Układ pierwszej generacji został zbudowany w oparciu o klaster procesorów RISC-V i wyprodukowany w procesie technologicznym 7 nm firmy TSMC. Pod maską komponent wykorzystywał matrycę elementów przetwarzających o wymiarach osiem na osiem, każdy wyposażony w dwa rdzenie procesora RV, z których jeden jest wyposażony w rozszerzenia matematyki wektorowej. Rdzenie te zasilane są z dużej ilości 128 MB wbudowanej pamięci SRAM i aż do 128 GB pamięci LPDDR5.

Jak twierdziła Meta w zeszłym roku, chip działał z częstotliwością 800 MHz i osiągał maksymalną wydajność 102.4 biliona operacji na sekundę w trybie INT8, czyli 51.2 teraflopów przy połowie precyzji (FP16). Dla porównania, Nvidia H100 jest w stanie uzyskać prawie cztery petaFLOPS przy rzadkiej wydajności w FP8. Chociaż nie jest tak potężny jak procesory graficzne Nvidii czy AMD, chip ma jedną główną zaletę: zużycie energii. Sam chip miał moc cieplną wynoszącą zaledwie 25 watów.

Zgodnie z Półanaliza, najnowszy chip Meta może pochwalić się ulepszonymi rdzeniami i zamienić LPDDR5 na pamięć o dużej przepustowości wykorzystującą technologię chip-on-wafer-on-substrate (CoWoS) firmy TSMC.

Kolejną zauważalną różnicą jest to, że chip drugiej generacji Meta będzie faktycznie szeroko wdrażany w infrastrukturze centrum danych. Według tytana Facebooka, choć część pierwszej generacji służyła do uruchamiania modeli reklamowych w produkcji, to nigdy nie opuściła laboratorium.

W pogoni za sztuczną inteligencją ogólną

Pomijając części niestandardowe, rodzic z Facebooka i Instagrama porzucił miliardy dolarów na procesory graficzne w ostatnich latach w celu przyspieszenia wszelkiego rodzaju zadań nieprzystosowanych do konwencjonalnych platform procesorowych. Jednak pojawienie się dużych modeli językowych, takich jak GPT-4 i własna Llama 2 Meta, zmieniło krajobraz i spowodowało wdrożenie ogromnych klastrów GPU.

Na skalę, na jaką działa Meta, trendy te wymagały drastycznych zmian w jej infrastrukturze, w tym w renowacje kilku centrów danych w celu obsługi ogromnych wymagań dotyczących zasilania i chłodzenia związanych z dużymi wdrożeniami sztucznej inteligencji.

Wdrożenia Meta będą coraz większe w ciągu najbliższych kilku miesięcy, ponieważ firma przeniesie uwagę z metaświata na rozwój sztucznej inteligencji ogólnej. Podobno praca wykonana nad sztuczną inteligencją pomoże w utworzeniu metaświata lub czegoś w tym rodzaju.

Według dyrektora generalnego Marka Zuckerberga Meta planuje wdrożyć aż 350,000 100 procesorów Nvidia HXNUMX tylko w tym roku.

Firma ogłosiła także plany wdrożenia nowego rozwiązania AMD uruchomiona Procesory graficzne MI300X w swoich centrach danych. Zuckerberg twierdził, że jego korporacja zakończy rok z mocą obliczeniową równoważną 600,000 100 HXNUMX. Jest więc jasne, że chipy MTIA firmy Meta nie zastąpią w najbliższym czasie procesorów graficznych. ®

Znak czasu:

Więcej z Rejestr