Meta untuk menerapkan chip AI khusus bersama AMD, GPU Nvidia

Meta untuk menerapkan chip AI khusus bersama AMD, GPU Nvidia

Node Sumber: 3093660

Setelah bertahun-tahun melakukan pengembangan, Meta akhirnya dapat meluncurkan akselerator AI buatannya dengan cara yang berarti pada tahun ini.

Kerajaan Facebook mengonfirmasi keinginannya untuk melengkapi penerapan GPU Nvidia H100 dan AMD MI300X dengan keluarga chip Meta Training Inference Accelerator (MTIA) minggu ini. Secara khusus, Meta akan menerapkan prosesor yang dioptimalkan untuk inferensi, dilaporkan diberi nama sandi Artemis, berdasarkan suku cadang generasi pertama raksasa Lembah Silikon itu menggoda tahun lalu.

“Kami gembira dengan kemajuan yang telah kami capai dalam upaya silikon internal kami dengan MTIA dan berada di jalur yang tepat untuk mulai menerapkan varian inferensi kami dalam produksi pada tahun 2024,” kata juru bicara Meta. Pendaftaran pada hari Kamis.

“Kami melihat akselerator yang kami kembangkan secara internal akan sangat melengkapi GPU yang tersedia secara komersial dalam memberikan perpaduan optimal antara kinerja dan efisiensi pada beban kerja khusus Meta,” lanjut perwakilan tersebut. Detailnya? Tidak. Juru bicaranya mengatakan kepada kami: “Kami berharap dapat menyampaikan lebih banyak pembaruan mengenai rencana MTIA masa depan kami pada akhir tahun ini.”

Kami mengartikan bahwa chip yang berfokus pada inferensi generasi kedua diluncurkan secara luas, mengikuti versi khusus lab generasi pertama untuk inferensi, dan nanti kami akan mengetahui bagian-bagian yang ditujukan terutama untuk pelatihan atau pelatihan dan inferensi.

Meta telah menjadi salah satu pelanggan terbaik Nvidia dan AMD seiring dengan berkembangnya penerapan beban kerja AI, sehingga meningkatkan kebutuhan dan penggunaan silikon khusus untuk membuat perangkat lunak pembelajaran mesinnya berjalan secepat mungkin. Oleh karena itu, keputusan raksasa Instagram untuk mengembangkan prosesor kustomnya sendiri tidaklah terlalu mengejutkan.

Faktanya, perusahaan besar tersebut, secara sepintas, relatif terlambat memasuki kelompok silikon AI khusus dalam hal penerapan di dunia nyata. Amazon dan Google telah menggunakan komponen buatan sendiri untuk mempercepat sistem pembelajaran mesin internal, seperti model pemberi rekomendasi, dan kode ML pelanggan selama beberapa tahun. Sementara itu, Microsoft mengungkapkan akselerator buatannya tahun lalu.

Namun selain fakta bahwa Meta meluncurkan chip inferensi MTIA dalam skala besar, jejaring sosial tersebut belum mengungkapkan arsitektur tepatnya atau beban kerja apa yang dicadangkannya untuk silikon internal dan yang diturunkan ke GPU AMD dan Nvidia.

Kemungkinan besar Meta akan menjalankan model yang sudah ada pada ASIC kustomnya untuk membebaskan sumber daya GPU untuk aplikasi yang lebih dinamis atau berkembang. Kami telah melihat Meta melakukan hal ini sebelumnya dengan akselerator khusus yang dirancang untuk memindahkan data dan menghitung beban kerja video yang intensif.

Mengenai desain yang mendasarinya, pengamat industri di SemiAnalysis memberi tahu kami bahwa chip baru ini sangat didasarkan pada arsitektur bagian generasi pertama Meta.

Batu pijakan

Diumumkan pada awal tahun 2023 setelah tiga tahun pengembangan, bagian MTIA v1 Meta, yang teman-teman kita di Platform Selanjutnya memandang musim semi lalu, dirancang khusus dengan mempertimbangkan model rekomendasi pembelajaran mendalam.

Chip generasi pertama dibuat dengan cluster CPU RISC-V dan dibuat menggunakan proses 7nm TSMC. Di bagian dalamnya, komponen ini menggunakan matriks elemen pemrosesan berukuran delapan kali delapan yang masing-masing dilengkapi dengan dua inti CPU RV, salah satunya dilengkapi dengan ekstensi matematika vektor. Inti-inti ini ditenagai oleh SRAM on-chip sebesar 128 MB dan memori LPDDR128 hingga 5 GB.

Seperti yang diklaim Meta tahun lalu, chip tersebut berjalan pada 800 MHz dan mencapai 102.4 triliun operasi per detik kinerja INT8 atau 51.2 teraFLOPS dengan presisi setengah (FP16). Sebagai perbandingan, Nvidia H100 mampu menghasilkan hampir empat petaFLOPS kinerja FP8 yang jarang. Meskipun tidak sekuat GPU Nvidia atau AMD, chip ini memiliki satu keunggulan utama: Konsumsi daya. Chip itu sendiri memiliki daya desain termal hanya 25 watt.

Menurut SemiAnalisis, Chip terbaru Meta menawarkan inti yang ditingkatkan dan menukar LPDDR5 dengan memori bandwidth tinggi yang dikemas menggunakan teknologi chip-on-wafer-on-substrate (CoWoS) TSMC.

Perbedaan penting lainnya adalah chip Meta generasi kedua akan diterapkan secara luas di seluruh infrastruktur pusat datanya. Menurut raksasa Facebook tersebut, meskipun bagian generasi pertama digunakan untuk menjalankan model iklan produksi, ia tidak pernah meninggalkan lab.

Mengejar kecerdasan umum buatan

Selain bagian khusus, induk Facebook dan Instagram telah membuangnya miliaran dolar untuk GPU dalam beberapa tahun terakhir untuk mempercepat segala jenis tugas yang tidak sesuai dengan platform CPU konvensional. Namun, munculnya model bahasa besar, seperti GPT-4 dan Llama 2 milik Meta, telah mengubah lanskap dan mendorong penerapan cluster GPU secara besar-besaran.

Pada skala Meta beroperasi, tren ini memerlukan perubahan drastis pada infrastrukturnya, termasuk mendesain ulang dari beberapa pusat data untuk mendukung kebutuhan daya dan pendinginan yang sangat besar terkait dengan penerapan AI dalam jumlah besar.

Dan penerapan Meta akan semakin besar dalam beberapa bulan ke depan karena perusahaan mengalihkan fokus dari metaverse ke pengembangan dari kecerdasan umum buatan. Seharusnya, pekerjaan yang dilakukan pada AI akan membantu membentuk metaverse atau semacamnya.

Menurut CEO Mark Zuckerberg, Meta berencana menyebarkan sebanyak 350,000 Nvidia H100 pada tahun ini saja.

Pihak biz juga mengumumkan rencana untuk menyebarkan AMD yang baru diluncurkan GPU MI300X di pusat datanya. Zuckerberg mengklaim perusahaannya akan mengakhiri tahun ini dengan kekuatan komputasi yang setara dengan 600,000 H100. Jadi jelas chip MTIA Meta tidak akan menggantikan GPU dalam waktu dekat. ®

Stempel Waktu:

Lebih dari Pendaftaran