Hyperscale-Bitbarns werden aufgrund der KI-Nachfrage wachsen

Hyperscale-Bitbarns werden aufgrund der KI-Nachfrage wachsen

Quellknoten: 2944472

Die Gesamtkapazität von Hyperscale-Rechenzentren wird sich aufgrund der KI-Nachfrage in den nächsten sechs Jahren voraussichtlich fast verdreifachen, wodurch sich der Energiebedarf dieser Einrichtungen erheblich erhöht.

Da der Hype um generative KI ständig in Bewegung ist, planen Rechenzentrumsbetreiber im Voraus, um den Bedarf an Infrastruktur mit höherer Dichte und höherer Leistung zu antizipieren, um die Verarbeitungsanforderungen zu erfüllen.

A neuer Bericht Der Analyst IDC prognostiziert beispielsweise, dass Unternehmen weltweit im Jahr 16 fast 2023 Milliarden US-Dollar für generative KI ausgeben werden. Diese Ausgaben, die Software sowie zugehörige Infrastruktur-Hardware und IT-/Geschäftsdienstleistungen umfassen, werden im Jahr 143 schätzungsweise 2027 Milliarden US-Dollar erreichen .

Das Ergebnis davon ist laut Forschungsgruppe Synergie, dass die durchschnittliche Kapazität jedes Hyperscale-Rechenzentrums, das in den nächsten Jahren eröffnet wird, mehr als doppelt so hoch sein wird wie die der aktuellen Einrichtungen.

Darüber hinaus wird es einige Nachrüstungen bestehender Rechenzentren geben, um deren Kapazität zu erhöhen, und die durchschnittliche IT-Auslastung einzelner Bitscheunen nimmt weiter zu, sodass Synergy prognostiziert, dass sich die Gesamtkapazität aller Hyperscale-Rechenzentren in den nächsten sechs Jahren fast verdreifachen wird.

Synergy stützte diese Analyse auf die Geschäftstätigkeit von 19 der weltweit größten Cloud- und Internetdienstleistungsunternehmen. Dazu gehören die Anbieter von SaaS, IaaS, PaaS, Suche, sozialen Netzwerken, E-Commerce und Gaming.

Im Jahr 2023 hatten diese Hyperscaler weltweit insgesamt 926 riesige Bitscheunen in Betrieb, und Synergy gab an, bereits von weiteren 427 Anlagen zu wissen, die in der Pipeline sind.

Laut Synergy hat sich die weltweite Gesamtzahl der Rechenzentren in den letzten fünf Jahren bereits verdoppelt. Es wird prognostiziert, dass diese weiterhin um weit über hundert pro Jahr wachsen werden.

Die jüngsten Fortschritte in der generativen KI werden jedoch nicht unbedingt den Bau von Datenlagern beschleunigen, sondern vielmehr die für den Betrieb dieser Einrichtungen erforderliche Energiemenge „erheblich erhöhen“, dank der wachsenden Zahl von GPU-Beschleunigern mit hoher Leistung, die darin untergebracht sind Serverknoten.

Dies wurde von einer anderen Forschungseinrichtung festgestellt, OdysseeDabei wurde festgestellt, dass die Nachfrage nach Servern mit acht GPUs für KI-Verarbeitungsaufgaben auch zu einem Anstieg der Durchschnittspreise für Rechenzentrumssysteme geführt hat.

Synergy hält sich zurückhaltend, was die Einschätzung angeht, dass die erforderliche Energiemenge „erheblich zunehmen“ wird.

Jedoch eine neuestes Forschungspapier hat berechnet, dass die Integration generativer KI in jede Google-Suche möglicherweise genauso viel Strom verbrauchen könnte wie ein Land von der Größe Irlands.

Andrew Buss, Senior Research Director für Europa bei IDC, stimmte zu, dass KI die Nachfrage nach leistungsstärkerer Rechenzentrumsinfrastruktur ankurbelt.

„Wir sehen, dass eine große Menge an beschleunigter Rechenkapazität installiert wird“, sagte er uns. „Wir sehen, dass Hyperscaler einen erheblichen Teil der gesamten KI-Beschleuniger kaufen, die auf den Markt kommen, um die großen generativen und transformatorischen Modelle bei B2C- und B2B-Kunden zu unterstützen, und dass auch viele Organisationen versuchen, etwas Angebot zu bekommen.“

Dies erhöht die Leistungsdichte der Server und führt zu vielen Problemen bei der Stromversorgung und Kühlung, sagte Buss. „Viele Rechenzentren werden mit einem Strombudget zwischen 7.5 und 15 kW pro Rack gebaut, aber jetzt kann ein einzelner Nvidia DGX bis zu 10 kW verbrauchen, was bedeutet, dass das gesamte Strombudget von einer einzelnen 10U-Box genutzt wird“, erklärte er.

Synergy-Chefanalyst John Dinsdale sagte uns, dass Bedenken hinsichtlich der Stromversorgung Hyperscale-Betreiber dazu veranlassen, einige ihrer Rechenzentrumsarchitekturen und Bereitstellungspläne zu überdenken, um das Layout zu ändern und eine viel höhere Leistungsdichte pro Rack zu ermöglichen und möglicherweise sogar den Standort ihrer Datenlager zu überprüfen.

„Es geht nicht nur um Stromverfügbarkeit und Kosten“, sagte Dinsdale. „Viele KI-Workloads sind nicht so latenzempfindlich wie andere Workloads und können es dem Betreiber daher ermöglichen, Rechenzentren an weiter entfernten und kostengünstigeren Standorten zu platzieren. Beispielsweise konnten wir bereits beobachten, dass das Wachstum von Hyperscale-Rechenzentren im Mittleren Westen der USA das Wachstum in anderen Regionen wie Nord-Virginia und Silicon Valley übertraf. Wir gehen davon aus, dass sich dieser Trend fortsetzt“, fügte er hinzu.

Erst diese Woche haben Nvidia und der taiwanesische Elektronikhersteller Foxconn Kündigte Pläne an sich zusammenzuschließen und sogenannte „KI-Fabriken“ aufzubauen, also Rechenzentren, die der KI-Verarbeitung gewidmet sind.

„Eine neue Art der Fertigung ist entstanden – die Produktion von Intelligenz. Und die Rechenzentren, die sie produzieren, sind KI-Fabriken“, sagte Jensen Huang, CEO von Nvidia, in einer Erklärung und fügte hinzu, dass Foxconn über das Fachwissen und die Größe verfügt, um diese KI-Fabriken weltweit aufzubauen.

Foxconn wird die Technologie von Nvidia nutzen, um neue Rechenzentren für generative KI-Dienste zu entwickeln, die eine Reihe von Anwendungen abdecken, darunter Industrieroboter und selbstfahrende Autos. Laut Nvidia wird Foxconn voraussichtlich eine große Anzahl von Systemen auf Basis der CPUs, GPUs und Netzwerke von Nvidia für seinen weltweiten Kundenstamm bauen, von denen viele ihre eigenen KI-Fabriken aufbauen und betreiben wollen. ®

Zeitstempel:

Mehr von Das Register