Meta, AMD ve Nvidia GPU'ların yanı sıra özel AI çiplerini dağıtacak

Meta, AMD ve Nvidia GPU'ların yanı sıra özel AI çiplerini dağıtacak

Kaynak Düğüm: 3093660

Yıllar süren geliştirme sürecinin ardından Meta, kendi geliştirdiği yapay zeka hızlandırıcılarını nihayet bu yıl anlamlı bir şekilde kullanıma sunabilir.

Facebook imparatorluğu, bu hafta Nvidia H100 ve AMD MI300X GPU dağıtımlarını Meta Eğitim Çıkarım Hızlandırıcı (MTIA) yonga ailesiyle destekleme arzusunu doğruladı. Spesifik olarak Meta, çıkarım açısından optimize edilmiş bir işlemci dağıtacak, kod adı Artemis olduğu bildirildiSilikon Vadisi devinin birinci nesil parçalarına dayanan alay geçen yıl.

Bir Meta sözcüsü, "MTIA ile şirket içi silikon çalışmalarımızda kaydettiğimiz ilerlemeden heyecan duyuyoruz ve çıkarım değişkenimizi 2024'te üretimde uygulamaya başlama yolunda ilerliyoruz" dedi. Kayıt Perşembe günü.

Temsilci şöyle devam etti: "Şirket içinde geliştirdiğimiz hızlandırıcıların, Meta'ya özgü iş yüklerinde optimum performans ve verimlilik karışımını sunma konusunda ticari olarak mevcut GPU'ları son derece tamamlayıcı olduğunu görüyoruz." Detaylar? Hayır. Sözcü bize şunları söyledi: "Bu yılın ilerleyen zamanlarında gelecekteki MTIA planlarımıza ilişkin daha fazla güncellemeyi paylaşmayı sabırsızlıkla bekliyoruz."

Bunu, ikinci nesil çıkarım odaklı çipin, çıkarım için yalnızca laboratuvarlarda kullanılan birinci nesil versiyonunun ardından geniş çapta yayıldığı anlamına geliyor ve daha sonra öncelikle eğitim veya öğretim ve çıkarım amaçlı parçalar hakkında bilgi edinebiliriz.

Yapay zeka iş yüklerinin dağıtımı arttıkça Meta, Nvidia ve AMD'nin en iyi müşterilerinden biri haline geldi; makine öğrenimi yazılımının mümkün olduğu kadar hızlı çalışmasını sağlamak için özel silikon ihtiyacı ve kullanımı arttı. Dolayısıyla Instagram devinin kendi özel işlemcilerini geliştirme kararı o kadar da şaşırtıcı değil.

Aslına bakılırsa mega şirket, gerçek dünyadaki dağıtım açısından özel yapay zeka silikon partisine nispeten geç kalmış durumda. Amazon ve Google, birkaç yıldır öneri modelleri ve müşteri makine öğrenimi kodu gibi dahili makine öğrenimi sistemlerini hızlandırmak için kendi geliştirdiği bileşenleri kullanıyor. Bu arada Microsoft, geçen yıl kendi geliştirdiği hızlandırıcılarını açıkladı.

Ancak Meta'nın geniş ölçekte bir MTIA çıkarım çipi piyasaya sürmesinin ötesinde, sosyal ağ, kesin mimarisini veya şirket içi silikon için hangi iş yüklerini ayırdığını ve hangilerini AMD ve Nvidia'nın GPU'larına aktardığını açıklamadı.

Meta'nın, daha dinamik veya gelişen uygulamalar için GPU kaynaklarını serbest bırakmak amacıyla yerleşik modelleri özel ASIC'leri üzerinde çalıştırması muhtemeldir. Verileri boşaltmak ve yoğun video iş yüklerini hesaplamak için tasarlanan özel hızlandırıcılarla Meta'nın bu yola girdiğini daha önce görmüştük.

Temel tasarıma gelince, SemiAnalytics'teki endüstri gözlemcileri bize yeni çipin Meta'nın ilk nesil parçalarının mimarisine yakından dayandığını söylüyor.

Basamak taşları

Meta'nın MTIA v2023 parçaları, üç yıllık geliştirme sürecinin ardından 1'ün başlarında duyuruldu. Bir Sonraki Platform baktım Geçtiğimiz baharda, derin öğrenme öneri modelleri göz önünde bulundurularak özel olarak tasarlandı.

Birinci nesil çip, bir RISC-V CPU kümesi etrafında oluşturuldu ve TSMC'nin 7 nm süreci kullanılarak üretildi. Kaputun altında bileşen, her biri iki RV CPU çekirdeğiyle donatılmış, bunlardan biri vektör matematik uzantılarıyla donatılmış sekize sekizlik bir işleme elemanları matrisi kullanıyordu. Bu çekirdekler, 128 MB'lık cömert bir çip üzerinde SRAM ve 128 GB'a kadar LPDDR5 bellekten beslenir.

Meta'nın geçen yıl iddia ettiği gibi çip 800 MHz'de çalıştı ve saniyede 102.4 trilyon INT8 performansına veya yarı hassasiyette 51.2 teraFLOPS'a (FP16) ulaştı. Karşılaştırıldığında, Nvidia'nın H100'ü neredeyse dört petaFLOPS'luk seyrek FP8 performansına sahip. Her ne kadar Nvidia ya da AMD'nin GPU'ları kadar güçlü olmasa da çipin büyük bir avantajı vardı: Güç tüketimi. Çipin kendisi sadece 25 watt'lık bir termal tasarım gücüne sahipti.

Göre YarıAnalizMeta'nın en yeni çipi, gelişmiş çekirdeklere sahip ve TSMC'nin alt tabaka üzerinde çip (CoWoS) teknolojisi kullanılarak paketlenmiş yüksek bant genişliğine sahip bellek için LPDDR5'i kullanıyor.

Bir diğer dikkate değer fark ise Meta'nın ikinci nesil çipinin aslında veri merkezi altyapısında yaygın olarak konuşlandırılmasıdır. Facebook titan'a göre, birinci nesil parça üretim reklam modellerini çalıştırmak için kullanılırken laboratuvardan hiç çıkmadı.

Yapay genel zekanın peşinde

Özel parçalar bir yana, Facebook ve Instagram ebeveyni terk etti milyarlarca Geleneksel CPU platformlarına uygun olmayan her türlü görevi hızlandırmak için son yıllarda GPU'lara büyük miktarda dolar harcandı. Ancak GPT-4 ve Meta'nın kendi Llama 2'si gibi büyük dil modellerinin yükselişi manzarayı değiştirdi ve devasa GPU kümelerinin konuşlandırılmasına yol açtı.

Meta'nın faaliyet gösterdiği ölçekte bu eğilimler, Meta'nın altyapısında ciddi değişiklikler yapılmasını gerektirdi. yeniden tasarlamak Büyük yapay zeka dağıtımlarıyla ilişkili muazzam güç ve soğutma gereksinimlerini desteklemek için çeşitli veri merkezlerinin sayısı.

Ve şirket odağını meta veri tabanından veri tabanına kaydırdıkça, Meta'nın dağıtımları önümüzdeki birkaç ay içinde daha da büyüyecek. gelişme yapay genel zekanın Yapay zeka üzerinde yapılan çalışmanın metaveri veya buna benzer bir şeyin oluşturulmasına yardımcı olacağı iddia ediliyor.

CEO Mark Zuckerberg'e göre Meta, yalnızca bu yıl 350,000 kadar Nvidia H100 dağıtmayı planlıyor.

Biz ayrıca AMD'nin yeni çözümlerini dağıtma planlarını da duyurdu. başlattı Veri merkezlerinde MI300X GPU'lar. Zuckerberg, şirketinin yılı 600,000 H100'e eşdeğer hesaplama gücüyle tamamlayacağını iddia etti. Açıkça görülüyor ki Meta'nın MTIA çipleri yakın zamanda GPU'ların yerini almayacak. ®

Zaman Damgası:

Den fazla Kayıt