Hyperscale bitbarns bodo rasli zaradi povpraševanja po AI

Hyperscale bitbarns bodo rasli zaradi povpraševanja po AI

Izvorno vozlišče: 2944472

Skupna zmogljivost podatkovnih centrov hiperscale naj bi se v naslednjih šestih letih zaradi povpraševanja po umetni inteligenci skoraj potrojila, kar bo znatno povečalo količino energije, ki jo potrebujejo ti objekti.

Ker je generativni cikel navdušenja AI v nenehnem gibanju, operaterji podatkovnih centrov vnaprej načrtujejo predvidevanje potrebe po infrastrukturi z večjo gostoto in večjo zmogljivostjo, da bi izpolnili zahteve za obdelavo.

A novo poročilo analitik IDC na primer napoveduje, da bodo podjetja po vsem svetu leta 16 porabila skoraj 2023 milijard dolarjev za generativno umetno inteligenco. Ocenjuje se, da bo ta poraba, ki vključuje programsko opremo ter povezano infrastrukturno strojno opremo in IT/poslovne storitve, leta 143 dosegla 2027 milijard dolarjev .

Posledica tega je po mnenju Raziskovalna skupina Synergy, je, da bo povprečna zmogljivost katerega koli hiperrazširjenega podatkovnega središča, odprtega v naslednjih nekaj letih, več kot dvakrat večja od trenutnih zmogljivosti.

Obstoječe podatkovne centre bo tudi nekaj nadgradilo, da se poveča njihova zmogljivost, povprečna IT obremenitev posameznih bitnih centrov pa še naprej narašča, zaradi česar Synergy napoveduje, da se bo skupna zmogljivost vseh podatkovnih centrov hiperscale skoraj potrojila v naslednjih šestih letih.

Synergy je to analizo zasnoval na delovanju 19 največjih podjetij v oblaku in internetnih storitvah na svetu. To vključuje ponudnike storitev SaaS, IaaS, PaaS, iskanja, družabnih omrežij, e-trgovine in iger.

Od leta 2023 so imeli ti hiperrazmerjevalniki skupno 926 masivnih bitnih skednjev, ki so delovali po vsem svetu, Synergy pa je dejal, da že ve za nadaljnjih 427 objektov, ki so v pripravi.

Synergy pravi, da se je skupno število podatkovnih centrov po vsem svetu v zadnjih petih letih že podvojilo. Predvideva, da bodo te še naprej rasle za več kot sto na leto.

Vendar pa nedavni napredek generativne umetne inteligence ne bo nujno pospešil gradnje podatkovnih spalnic, ampak bo prej "bistveno povečal" količino energije, potrebno za delovanje teh objektov, zahvaljujoč naraščajočemu številu pospeševalnikov GPU z visoko močjo, ki so natlačeni v strežniška vozlišča.

To je ugotovila druga raziskovalna enota, Omdija, ki je ugotovil, da je povpraševanje po strežnikih, opremljenih z osmimi grafičnimi procesorji za obdelavo z umetno inteligenco, vplivalo tudi na dvig povprečnih cen sistemov podatkovnih centrov.

Synergy je sramežljiv glede tega, koliko računa, da se bo količina potrebne energije "znatno povečala".

Vendar pa a nedavni raziskovalni članek izračunal, da bi lahko integracija generativne umetne inteligence v vsako iskanje v Googlu potencialno porabila enako količino energije kot država velikosti Irske.

Višji raziskovalni direktor IDC za Evropo Andrew Buss se je strinjal, da umetna inteligenca spodbuja povpraševanje po zmogljivejši infrastrukturi podatkovnih centrov.

"Vidimo, da je nameščena ogromna količina pospešenih računalniških zmogljivosti," nam je povedal. "Vidimo, da hiperskalerji kupujejo precejšnjo količino vseh pospeševalnikov umetne inteligence, ki prihajajo na trg za podporo velikim generatorskim in transformatorskim modelom med strankami B2C in B2B, pa tudi številne organizacije, ki poskušajo pridobiti tudi nekaj ponudbe."

To povečuje gostoto moči strežnikov in ustvarja veliko težav z napajanjem in hlajenjem, je dejal Buss. »Številni podatkovni centri so zgrajeni z porabo energije med 7.5 in 15 kW na omaro, zdaj pa lahko en sam Nvidia DGX porabi do 10 kW, kar pomeni, da celoten proračun energije porabi ena škatla 10U,« je pojasnil.

Glavni analitik družbe Synergy John Dinsdale nam je povedal, da pomisleki glede porabe energije povzročajo, da operaterji hiperscale ponovno razmislijo o nekaterih arhitekturah svojih podatkovnih centrov in načrtih za uvedbo, da bi spremenili postavitev in omogočili veliko večjo gostoto moči na omaro ter morda celo pregledali lokacijo svojih podatkovnih spalnic.

"Ne gre le za razpoložljivost električne energije in stroške," je dejal Dinsdale. »Številne delovne obremenitve AI niso tako občutljive na zakasnitve kot druge delovne obremenitve, zato lahko operaterju omogočijo namestitev podatkovnih centrov na bolj oddaljene in cenejše lokacije. Na primer, na srednjem zahodu ZDA smo bili že priča rasti podatkovnih centrov hiperscale, ki je prehitela rast v drugih regijah, kot sta Severna Virginija in Silicijeva dolina. Popolnoma pričakujemo, da se bo ta trend nadaljeval,« je dodal.

Samo ta teden sta Nvidia in tajvanski proizvajalec elektronike Foxconn napovedal načrte da se združijo in zgradijo tako imenovane »tovarne AI«, kar pomeni podatkovne centre, namenjene obdelavi AI.

»Pojavila se je nova vrsta proizvodnje – proizvodnja inteligence. In podatkovni centri, ki jih proizvajajo, so tovarne umetne inteligence,« je v izjavi dejal izvršni direktor Nvidie Jensen Huang in dodal, da ima Foxconn strokovno znanje in obseg za gradnjo teh tovarn umetne inteligence po vsem svetu.

Foxconn bo uporabil Nvidijino tehnologijo za razvoj novih podatkovnih centrov za generativne storitve umetne inteligence, ki pokrivajo vrsto aplikacij, vključno z industrijskimi roboti in samovozečimi avtomobili. Pričakuje se, da bo Foxconn zgradil veliko število sistemov, ki temeljijo na Nvidijinih CPU-jih, GPE-jih in omrežju za svojo globalno bazo strank, od katerih si mnoge prizadevajo ustvariti in upravljati lastne tovarne AI, trdi Nvidia. ®

Časovni žig:

Več od Register