Bitbarn skala besar akan tumbuh karena permintaan AI

Bitbarn skala besar akan tumbuh karena permintaan AI

Node Sumber: 2944472

Total kapasitas pusat data skala besar akan tumbuh hampir tiga kali lipat dalam enam tahun ke depan berkat permintaan AI, sehingga secara signifikan meningkatkan jumlah daya yang dibutuhkan oleh fasilitas tersebut.

Dengan siklus AI generatif yang terus bergerak, operator pusat data membuat rencana ke depan untuk mengantisipasi kebutuhan infrastruktur dengan kepadatan lebih tinggi dan kinerja lebih tinggi untuk memenuhi persyaratan pemrosesan.

A laporan baru dari analis IDC, misalnya, memperkirakan bahwa perusahaan-perusahaan di seluruh dunia akan menghabiskan hampir $16 miliar untuk AI generatif pada tahun 2023. Pengeluaran ini, yang mencakup perangkat lunak serta perangkat keras infrastruktur terkait dan layanan TI/bisnis, diperkirakan mencapai $143 miliar pada tahun 2027 .

Hasil dari ini, menurut Kelompok Penelitian Sinergi, adalah bahwa kapasitas rata-rata pembukaan pusat data skala besar selama beberapa tahun ke depan akan lebih dari dua kali lipat kapasitas fasilitas saat ini.

Juga akan ada retrofit pada pusat data yang ada untuk meningkatkan kapasitasnya, dan rata-rata beban TI pada masing-masing bit barn terus bertambah, sehingga Synergy memperkirakan total kapasitas semua pusat data hyperscale akan meningkat hampir tiga kali lipat dalam enam tahun ke depan.

Synergy mendasarkan analisis ini pada operasi 19 perusahaan layanan cloud dan internet terbesar di dunia. Ini termasuk penyedia SaaS, IaaS, PaaS, pencarian, jejaring sosial, e-commerce, dan game.

Pada tahun 2023, hyperscaler tersebut memiliki total 926 bit barn besar yang beroperasi di seluruh dunia, dan Synergy mengatakan pihaknya telah mengetahui adanya 427 fasilitas lainnya yang sedang dalam proses.

Synergy mengatakan jumlah pusat data di seluruh dunia telah meningkat dua kali lipat dalam lima tahun terakhir. Diperkirakan jumlah ini akan terus bertambah lebih dari seratus per tahun.

Namun, kemajuan terbaru dalam AI generatif tidak serta merta mempercepat pembangunan asrama data, namun akan “meningkatkan secara signifikan” jumlah daya yang dibutuhkan untuk mengoperasikan fasilitas tersebut, berkat semakin banyaknya akselerator GPU dengan watt tinggi yang dijejali di dalamnya. node server.

Hal ini dicatat oleh lembaga penelitian lain, omdia, yang menemukan bahwa permintaan server yang dilengkapi dengan delapan GPU untuk pekerjaan pemrosesan AI juga berdampak pada kenaikan harga rata-rata untuk sistem pusat data.

Sinergi masih malu-malu mengenai seberapa besar jumlah daya yang dibutuhkan akan “meningkat secara signifikan”.

Namun, makalah penelitian terbaru menghitung bahwa mengintegrasikan AI generatif ke dalam setiap penelusuran Google berpotensi menghabiskan jumlah daya yang sama dengan negara sebesar Irlandia.

Direktur riset senior IDC untuk Eropa Andrew Buss setuju bahwa AI mendorong permintaan akan infrastruktur pusat data berkinerja lebih tinggi.

“Kami melihat sejumlah besar kapasitas komputasi yang dipercepat sedang dipasang,” katanya kepada kami. “Kami melihat para hyperscaler membeli sejumlah besar keseluruhan akselerator AI yang masuk ke pasar untuk mendukung model generatif dan transformator besar di seluruh pelanggan B2C dan B2B, serta banyak organisasi yang mencoba mendapatkan pasokan juga.”

Hal ini meningkatkan kepadatan daya server dan menciptakan banyak masalah pasokan daya dan pendinginan, kata Buss. “Banyak pusat data dibangun dengan anggaran daya antara 7.5 dan 15kW per rak, namun kini satu Nvidia DGX dapat menggunakan hingga 10kW, artinya seluruh anggaran daya digunakan oleh satu kotak 10U,” jelasnya.

Kepala analis Synergy, John Dinsdale mengatakan kepada kami bahwa permasalahan listrik menyebabkan operator hyperscale memikirkan kembali beberapa arsitektur pusat data dan rencana penerapannya untuk mengubah tata letak dan memungkinkan kepadatan daya per rak yang jauh lebih tinggi, dan bahkan mungkin meninjau lokasi asrama data mereka.

“Ini bukan hanya soal ketersediaan listrik dan biaya,” kata Dinsdale. “Banyak beban kerja AI yang tidak sensitif terhadap latensi dibandingkan beban kerja lainnya, sehingga memungkinkan operator menempatkan pusat data di lokasi yang lebih jauh dan lebih murah. Misalnya, kami telah melihat pertumbuhan pusat data berskala besar di wilayah Midwest AS yang melampaui pertumbuhan di wilayah lain seperti Virginia Utara dan Silicon Valley. Kami sepenuhnya berharap tren ini akan terus berlanjut,” tambahnya.

Baru minggu ini, Nvidia dan produsen elektronik Taiwan Foxconn Mengumumkan rencana untuk bekerja sama dan membangun apa yang mereka sebut “pabrik AI”, yang berarti pusat data yang didedikasikan untuk pemrosesan AI.

“Jenis manufaktur baru telah muncul – produksi intelijen. Dan pusat data yang memproduksinya adalah pabrik AI,” kata CEO Nvidia Jensen Huang dalam sebuah pernyataan, seraya menambahkan bahwa Foxconn memiliki keahlian dan skala untuk membangun pabrik AI tersebut secara global.

Foxconn akan menggunakan teknologi Nvidia untuk mengembangkan pusat data baru untuk layanan AI generatif yang mencakup berbagai aplikasi, termasuk robot industri dan mobil tanpa pengemudi. Foxconn diperkirakan akan membangun sejumlah besar sistem berdasarkan CPU, GPU, dan jaringan Nvidia untuk basis pelanggan globalnya, banyak di antaranya berupaya membuat dan mengoperasikan pabrik AI mereka sendiri, klaim Nvidia. ®

Stempel Waktu:

Lebih dari Pendaftaran