Hyperscale bitbarns vor crește din cauza cererii AI

Hyperscale bitbarns vor crește din cauza cererii AI

Nodul sursă: 2944472

Capacitatea totală a centrelor de date hiperscale va crește de aproape trei ori în următorii șase ani, pe fondul cererii de AI, crescând substanțial cantitatea de energie necesară de aceste facilități.

Cu ciclul generativ de hype AI în mișcare perpetuă, operatorii centrelor de date plănuiesc din timp pentru a anticipa nevoia unei infrastructuri de densitate mai mare și performanță mai ridicată pentru a îndeplini cerințele de procesare.

A raport nou de la analistul IDC, de exemplu, estimările că întreprinderile din întreaga lume vor arunca aproape 16 miliarde de dolari în IA generativă în 2023. Aceste cheltuieli, care includ software-ul, precum și hardware-ul de infrastructură aferente și serviciile IT/de afaceri, se estimează că vor ajunge la 143 de miliarde de dolari în 2027. .

Rezultatul acestui lucru, conform Grupul de cercetare sinergie, este că capacitatea medie a oricărui centru de date hiperscale care se va deschide în următorii câțiva ani va fi mai mult decât dublu față de instalațiile actuale.

Va exista, de asemenea, unele modernizari ale centrelor de date existente pentru a le spori capacitatea, iar încărcarea medie IT a barnurilor de biți individuale continuă să crească, astfel încât Synergy estimează că capacitatea totală a tuturor centrelor de date hiperscale se va tripla în următorii șase ani.

Sinergia a bazat această analiză pe operațiunile a 19 dintre cele mai mari firme de servicii de internet și cloud din lume. Aceasta include furnizorii de SaaS, IaaS, PaaS, căutare, rețele sociale, comerț electronic și jocuri.

Începând cu 2023, acele hyperscalers aveau un total de 926 de hambare masive de biți în funcțiune în întreaga lume, iar Synergy a spus că știe deja despre alte 427 de unități care sunt în curs de dezvoltare.

Synergy spune că numărul total mondial de centre de date s-a dublat deja în ultimii cinci ani. Se prezice că acestea vor continua să crească cu peste o sută pe an.

Cu toate acestea, progresele recente în IA generativă nu vor accelera neapărat construcția de cămine de date, ci mai degrabă vor „crește substanțial” cantitatea de putere necesară pentru a opera aceste facilități, datorită numărului în creștere de acceleratoare GPU de mare putere care sunt înghesuite în noduri de server.

Acest lucru a fost remarcat de un alt grup de cercetare, Odiseea, care a constatat că cererea de servere echipate cu opt GPU-uri pentru procesarea AI a avut, de asemenea, efectul de a crește prețurile medii pentru sistemele de centre de date.

Sinergia este timidă cu privire la cât de mult consideră că cantitatea de putere necesară va „crește substanțial”.

Cu toate acestea, lucrare de cercetare recentă a calculat că integrarea AI generativă în fiecare căutare Google ar putea consuma aceeași cantitate de energie ca o țară de mărimea Irlandei.

Directorul senior de cercetare IDC pentru Europa, Andrew Buss, a fost de acord că AI stimulează cererea pentru o infrastructură de centre de date mai performantă.

„Vedem că este instalată o cantitate imensă de capacitate de calcul accelerată”, ne-a spus el. „Vedem că hiperscalerii cumpără o cantitate semnificativă din acceleratoarele AI care vin pe piață pentru a susține modelele mari generative și transformatoare pentru clienții B2C și B2B, precum și multe organizații care încearcă să obțină și o anumită aprovizionare.”

Acest lucru crește densitatea de putere a serverelor și creează o mulțime de probleme de alimentare și de răcire, a spus Buss. „Multe centre de date sunt construite cu un buget de putere cuprins între 7.5 și 15 kW per rack, dar acum un singur Nvidia DGX poate folosi până la 10 kW, ceea ce înseamnă că întregul buget de putere este utilizat de o singură cutie de 10U”, a explicat el.

Analistul șef Synergy, John Dinsdale, ne-a spus că preocupările legate de putere îi determină pe operatorii la scară largă să-și regândească unele dintre arhitectura centrelor de date și planurile de implementare pentru a modifica aspectul și a permite o densitate mult mai mare de putere per rack și, eventual, chiar să revizuiască locația căminelor lor de date.

„Nu este vorba doar despre disponibilitatea și costul energiei”, a spus Dinsdale. „Multe încărcături de lucru AI nu sunt la fel de sensibile la latență ca alte sarcini de lucru, așa că pot permite operatorului să plaseze centre de date în locații mai îndepărtate și mai puțin costisitoare. De exemplu, am observat deja o creștere la scară largă a centrelor de date în Vestul Mijlociu al SUA, depășind creșterea în alte regiuni, cum ar fi Virginia de Nord și Silicon Valley. Ne așteptăm pe deplin ca această tendință să continue”, a adăugat el.

Chiar în această săptămână, Nvidia și producătorul taiwanez de electronice Foxconn au anunțat planurile să facă echipă și să construiască ceea ce ei numesc „fabrici AI”, adică centre de date dedicate procesării AI.

„A apărut un nou tip de producție – producția de inteligență. Iar centrele de date care le produc sunt fabrici de inteligență artificială”, a declarat CEO-ul Nvidia, Jensen Huang, într-o declarație, adăugând că Foxconn are expertiza și amploarea pentru a construi acele fabrici de inteligență artificială la nivel global.

Foxconn va folosi tehnologia Nvidia pentru a dezvolta noi centre de date pentru servicii de inteligență artificială generativă care acoperă o gamă largă de aplicații, inclusiv roboți industriali și mașini autonome. Se așteaptă ca Foxconn să construiască un număr mare de sisteme bazate pe procesoarele, GPU-urile și rețelele Nvidia pentru baza sa globală de clienți, dintre care mulți caută să creeze și să opereze propriile fabrici de AI, a susținut Nvidia. ®

Timestamp-ul:

Mai mult de la Registrul