Hyperscale bitbarns vil vokse på grund af AI-efterspørgsel

Hyperscale bitbarns vil vokse på grund af AI-efterspørgsel

Kildeknude: 2944472

Den samlede kapacitet for hyperskala datacentre forventes at vokse næsten tredoblet i løbet af de næste seks år på baggrund af AI-efterspørgsel, hvilket væsentligt øger mængden af ​​strøm, der kræves af disse faciliteter.

Med den generative AI-hype-cyklus i evig bevægelse planlægger datacenteroperatører at forudse behovet for en højere tæthed og højere ydeevne for at opfylde behandlingskravene.

A ny rapport fra analytiker IDC, for eksempel, forudsiger, at virksomheder verden over er indstillet til at sprænge næsten 16 milliarder dollars på generativ kunstig intelligens i 2023. Disse udgifter, som omfatter software såvel som relateret infrastrukturhardware og IT/forretningstjenester, anslås at nå 143 milliarder dollars i 2027 .

Resultatet af dette, iflg Synergy Research Group, er, at den gennemsnitlige kapacitet for ethvert hyperskala datacenter, der åbner over de næste mange år, vil være mere end det dobbelte af de nuværende faciliteter.

Der vil også være en vis eftermontering af eksisterende datacentre for at øge deres kapacitet, og den gennemsnitlige IT-belastning af individuelle bitstalde fortsætter med at vokse, med det resultat, at Synergy forudsiger, at den samlede kapacitet for alle hyperskala datacentre næsten vil tredobles i løbet af de næste seks år.

Synergy baserede denne analyse på driften af ​​19 af verdens største cloud- og internetservicevirksomheder. Dette inkluderer udbydere af SaaS, IaaS, PaaS, søgning, sociale netværk, e-handel og spil.

Fra 2023 havde disse hyperskalere i alt 926 massive bitstalde i drift rundt om i verden, og Synergy sagde, at det allerede kender til yderligere 427 faciliteter, der er i pipelinen.

Synergy siger, at det verdensomspændende samlede antal datacentre allerede er fordoblet i løbet af de sidste fem år. Det forudsiger, at disse vil fortsætte med at vokse med godt hundrede om året.

De seneste fremskridt inden for generativ AI vil dog ikke nødvendigvis fremskynde konstruktionen af ​​datakollegier, men vil snarere "væsentligt øge" mængden af ​​strøm, der kræves for at drive disse faciliteter, takket være det spirende antal høj-watt GPU-acceleratorer, der er proppet ind i server noder.

Dette blev bemærket af et andet forskningsudstyr, Odysséen, som fandt ud af, at efterspørgslen efter servere udstyret med otte GPU'er til AI-behandlingsarbejde også har haft den effekt at presse gennemsnitspriserne for datacentersystemer op.

Synergi er kedeligt med hensyn til, hvor meget den regner med, at mængden af ​​krævet strøm vil "stige væsentligt".

Men en nyligt forsknings papir beregnet, at integration af generativ AI i hver Google-søgning potentielt kunne forbruge den samme mængde strøm som et land på størrelse med Irland.

IDC senior forskningsdirektør for Europa Andrew Buss var enig i, at AI driver efterspørgslen efter datacenterinfrastruktur med højere ydeevne.

"Vi ser en enorm mængde accelereret computerkapacitet, der bliver installeret," fortalte han os. "Vi ser hyperscalere købe en betydelig mængde af de overordnede AI-acceleratorer, der kommer på markedet for at understøtte de store generative og transformatormodeller på tværs af B2C- og B2B-kunder, såvel som mange organisationer, der også forsøger at få noget udbud."

Dette øger servernes strømtæthed og skaber en masse strømforsynings- og afkølingsproblemer, sagde Buss. "Mange datacentre er bygget med et strømbudget på mellem 7.5 og 15kW pr. rack, men nu kan en enkelt Nvidia DGX bruge op til 10kW, hvilket betyder, at hele strømbudgettet bruges af en enkelt 10U-boks," forklarede han.

Synergy-chefanalytiker John Dinsdale fortalte os, at strømproblemer får hyperskaleringsoperatører til at genoverveje nogle af deres datacenterarkitektur og implementeringsplaner for at ændre layoutet og muliggøre meget højere strømtæthed pr. rack og muligvis endda gennemgå placeringen af ​​deres datasovesale.

"Det handler ikke kun om strømtilgængelighed og omkostninger," sagde Dinsdale. "Mange AI-arbejdsbelastninger er ikke så latensfølsomme som andre arbejdsbelastninger, så det kan give operatøren mulighed for at placere datacentre på fjernere og billigere steder. For eksempel så vi allerede vækst i hyperskala datacenter i det amerikanske midtvest, der oversteg væksten i andre regioner såsom Northern Virginia og Silicon Valley. Vi forventer fuldt ud, at den tendens vil fortsætte," tilføjede han.

Netop i denne uge har Nvidia og den taiwanske elektronikproducent Foxconn annoncerede planer at slå sig sammen og bygge det, de kalder "AI-fabrikker", hvilket betyder datacentre dedikeret til AI-behandling.

"En ny type fremstilling er opstået - produktion af intelligens. Og datacentrene, der producerer dem, er AI-fabrikker,” sagde Nvidias administrerende direktør Jensen Huang i en erklæring og tilføjede, at Foxconn har ekspertisen og skalaen til at bygge disse AI-fabrikker globalt.

Foxconn vil bruge Nvidias teknologi til at udvikle nye datacentre til generative AI-tjenester, der dækker en række applikationer, herunder industrirobotter og selvkørende biler. Foxconn forventes at bygge et stort antal systemer baseret på Nvidias CPU'er, GPU'er og netværk til sin globale kundebase, hvoraf mange søger at skabe og drive deres egne AI-fabrikker, hævdede Nvidia. ®

Tidsstempel:

Mere fra Registret