Hyperscale bitbarns vil vokse på grunn av AI-etterspørselen

Hyperscale bitbarns vil vokse på grunn av AI-etterspørselen

Kilde node: 2944472

Den totale kapasiteten til hyperskalerte datasentre er satt til å vokse nesten tredoblet i løpet av de neste seks årene på bakgrunn av AI-etterspørselen, noe som øker mengden kraft som kreves av disse fasilitetene.

Med den generative AI-hype-syklusen i evig bevegelse, planlegger datasenteroperatører fremover for å forutse behovet for høyere tetthet og høyere ytelsesinfrastruktur for å møte behandlingskravene.

A ny rapport fra analytiker IDC, for eksempel, prognoser at bedrifter over hele verden er satt til å blåse nesten 16 milliarder dollar på generativ AI i 2023. Disse utgiftene, som inkluderer programvare så vel som relatert infrastrukturmaskinvare og IT/forretningstjenester, anslås å nå 143 milliarder dollar i 2027 .

Resultatet av dette, ifølge Synergy Research Group, er at den gjennomsnittlige kapasiteten til ethvert hyperskala datasenter som åpnes i løpet av de neste årene vil være mer enn det dobbelte av dagens fasiliteter.

Det vil også være noe ettermontering av eksisterende datasentre for å øke kapasiteten deres, og den gjennomsnittlige IT-belastningen til individuelle bitfjøs fortsetter å vokse, med det resultat at Synergy spår at den totale kapasiteten til alle hyperskala datasentre nesten vil tredobles i løpet av de neste seks årene.

Synergy baserte denne analysen på operasjonene til 19 av verdens største sky- og internettjenestefirmaer. Dette inkluderer leverandørene av SaaS, IaaS, PaaS, søk, sosiale nettverk, e-handel og spill.

Fra og med 2023 hadde disse hyperskalerne totalt 926 massive bitfjøs i drift rundt om i verden, og Synergy sa at de allerede vet om ytterligere 427 anlegg som er i rørledningen.

Synergy sier at det verdensomspennende totale antallet datasentre allerede har doblet seg i løpet av de siste fem årene. Den spår at disse vil fortsette å vokse med godt over hundre per år.

Imidlertid vil de nylige fremskritt innen generativ AI ikke nødvendigvis øke hastigheten på byggingen av datasovesaler, men vil snarere "betraktelig øke" mengden kraft som kreves for å drive disse fasilitetene, takket være det voksende antallet høy-watts GPU-akseleratorer som blir stappet inn i servernoder.

Dette ble bemerket av et annet forskningsutstyr, Odyssey, som fant at etterspørselen etter servere utstyrt med åtte GPUer for AI-behandlingsarbeid også har hatt en effekt av å presse gjennomsnittsprisene for datasentersystemer opp.

Synergi er usikker på hvor mye den regner med at mengden kraft som kreves vil "øke betydelig".

Men en nylig forskningspapir beregnet at integrering av generativ AI i hvert Google-søk potensielt kan forbruke samme mengde strøm som et land på størrelse med Irland.

IDC senior forskningsdirektør for Europa Andrew Buss var enig i at AI driver etterspørselen etter datasenterinfrastruktur med høyere ytelse.

"Vi ser at en enorm mengde akselerert beregningskapasitet blir installert," fortalte han oss. "Vi ser at hyperskalere kjøper en betydelig mengde av de totale AI-akseleratorene som kommer på markedet for å støtte de store generative og transformatormodellene på tvers av B2C- og B2B-kunder, så vel som mange organisasjoner som prøver å få litt forsyning også."

Dette øker strømtettheten til serverne og skaper mange problemer med strømforsyning og kjøling, sa Buss. "Mange datasentre er bygget med et strømbudsjett på mellom 7.5 og 15kW per rack, men nå kan en enkelt Nvidia DGX bruke opptil 10kW, noe som betyr at hele strømbudsjettet brukes av en enkelt 10U-boks," forklarte han.

Synergy-sjefanalytiker John Dinsdale fortalte oss at strømproblemer får hyperskaleringsoperatører til å revurdere noen av datasenterarkitekturen og distribusjonsplanene deres for å endre oppsettet og muliggjøre mye høyere strømtetthet per rack, og muligens til og med vurdere plasseringen av datasovesalene deres.

"Det handler ikke bare om strømtilgjengelighet og kostnader," sa Dinsdale. "Mange AI-arbeidsbelastninger er ikke like latenssensitive som andre arbeidsbelastninger, så de kan tillate operatøren å plassere datasentre på fjernere og rimeligere steder. For eksempel så vi allerede en hyperskala datasentervekst i det amerikanske Midtvesten som overtrådte veksten i andre regioner som Northern Virginia og Silicon Valley. Vi forventer fullt ut at denne trenden vil fortsette, la han til.

Bare denne uken, Nvidia og den taiwanske elektronikkprodusenten Foxconn annonserte planer å slå seg sammen og bygge det de kaller "AI-fabrikker", som betyr datasentre dedikert til AI-behandling.

"En ny type produksjon har dukket opp - produksjon av intelligens. Og datasentrene som produserer dem er AI-fabrikker," sa Nvidia-sjef Jensen Huang i en uttalelse, og la til at Foxconn har ekspertisen og skalaen til å bygge disse AI-fabrikkene globalt.

Foxconn vil bruke Nvidias teknologi til å utvikle nye datasentre for generative AI-tjenester som dekker en rekke applikasjoner, inkludert industriroboter og selvkjørende biler. Foxconn forventes å bygge et stort antall systemer basert på Nvidias CPUer, GPUer og nettverk for sin globale kundebase, hvorav mange søker å lage og drive sine egne AI-fabrikker, hevdet Nvidia. ®

Tidstempel:

Mer fra Registeret