Гіпермасштабні бітбарни зростатимуть через попит на ШІ

Гіпермасштабні бітбарни зростатимуть через попит на ШІ

Вихідний вузол: 2944472

Загальна потужність гіпермасштабованих центрів обробки даних зросте майже втричі протягом наступних шести років завдяки попиту на штучний інтелект, що значно збільшить кількість енергії, необхідної для цих об’єктів.

Оскільки генеративний цикл ажіотажу штучного інтелекту знаходиться в постійному русі, оператори центрів обробки даних заздалегідь планують передбачити потребу в інфраструктурі з більшою щільністю та високою продуктивністю для задоволення вимог обробки.

A новий звіт Наприклад, аналітик IDC прогнозує, що підприємства в усьому світі планують витратити майже 16 мільярдів доларів на генеративний штучний інтелект у 2023 році. Ці витрати, які включають програмне забезпечення, а також відповідне апаратне забезпечення інфраструктури та ІТ/бізнес-послуги, за оцінками, досягнуть 143 мільярдів доларів у 2027 році. .

Підсумок цього, згідно з Дослідницька група Synergy, полягає в тому, що середня потужність будь-якого гіпермасштабованого центру обробки даних, який відкривається протягом наступних кількох років, буде більш ніж удвічі перевищувати поточні потужності.

Буде також проведена деяка модернізація існуючих центрів обробки даних для збільшення їхньої потужності, а середнє ІТ-навантаження окремих біт-амбарів продовжує зростати, в результаті чого, за прогнозами Synergy, загальна потужність усіх гіпермасштабованих центрів обробки даних збільшиться майже втричі протягом наступних шести років.

Synergy заснувала цей аналіз на основі діяльності 19 найбільших у світі компаній, що надають хмарні та інтернет-послуги. Це включає постачальників SaaS, IaaS, PaaS, пошуку, соціальних мереж, електронної комерції та ігор.

Станом на 2023 рік ці гіперскейлери мали загалом 926 масивних бітових комбінатів у всьому світі, і Synergy заявила, що вже знає про ще 427 об’єктів, які знаходяться в стадії розробки.

Synergy каже, що загальна кількість центрів обробки даних у світі подвоїлася за останні п’ять років. Він передбачає, що вони продовжуватимуть зростати на понад сто на рік.

Однак нещодавні досягнення в галузі генеративного штучного інтелекту не обов’язково прискорять будівництво гуртожитків даних, а скоріше «суттєво збільшать» кількість енергії, необхідної для роботи цих об’єктів, завдяки зростаючій кількості високопотужних прискорювачів GPU, які втиснуті в них. серверні вузли.

Це відзначила інша дослідницька група, Омдія, який виявив, що попит на сервери, оснащені вісьмома графічними процесорами для обробки ШІ, також вплинув на підвищення середніх цін на системи центрів обробки даних.

Synergy скромно говорить про те, наскільки, на її думку, кількість необхідної потужності «суттєво збільшиться».

Однак нещодавній дослідницький документ підрахували, що інтеграція генеративного штучного інтелекту в кожен пошук Google може потенційно споживати стільки ж енергії, скільки країна розміром з Ірландію.

Старший директор з досліджень IDC у Європі Ендрю Басс погодився, що ШІ стимулює попит на високопродуктивну інфраструктуру центрів обробки даних.

«Ми бачимо, що встановлюється величезна кількість прискорених обчислювальних потужностей», — сказав він нам. «Ми бачимо, що гіпермасштабувальники купують значну кількість прискорювачів штучного інтелекту, які виходять на ринок для підтримки великих генераторних і трансформаторних моделей серед клієнтів B2C і B2B, а також багато організацій, які також намагаються отримати певну пропозицію».

За словами Басса, це збільшує щільність потужності серверів і створює багато проблем з живленням і охолодженням. «Багато центрів обробки даних будуються з бюджетом потужності від 7.5 до 15 кВт на стійку, але тепер один Nvidia DGX може використовувати до 10 кВт, тобто весь бюджет енергії використовується одним блоком 10U», — пояснив він.

Головний аналітик Synergy Джон Дінсдейл сказав нам, що занепокоєння енергоспоживанням змушує операторів гіпермасштабування переглядати деякі архітектури своїх центрів обробки даних і плани розгортання, щоб змінити макет і забезпечити набагато вищу щільність електроенергії на стійку, і, можливо, навіть переглянути розташування своїх спалень даних.

«Справа не лише в доступності електроенергії та вартості, — сказав Дінсдейл. «Багато робочих навантажень штучного інтелекту не настільки чутливі до затримки, як інші робочі навантаження, тому можуть дозволити оператору розміщувати центри обробки даних у більш віддалених і менш дорогих місцях. Наприклад, ми вже спостерігали зростання гіпермасштабованих центрів обробки даних на Середньому Заході США, що випереджало зростання в інших регіонах, таких як Північна Вірджинія та Кремнієва долина. Ми повністю очікуємо, що ця тенденція продовжиться», – додав він.

Лише цього тижня Nvidia та тайванський виробник електроніки Foxconn оголошені плани щоб об’єднатися та створити те, що вони називають «фабриками штучного інтелекту», тобто центри обробки даних, призначені для обробки штучного інтелекту.

«Виник новий тип виробництва – виробництво інтелекту. А центри обробки даних, які їх виробляють, є фабриками штучного інтелекту», — сказав у своїй заяві генеральний директор Nvidia Дженсен Хуанг, додавши, що Foxconn має досвід і масштаб для створення цих фабрик штучного інтелекту по всьому світу.

Foxconn використовуватиме технологію Nvidia для розробки нових центрів обробки даних для генеративних служб штучного інтелекту, які охоплюють низку додатків, включаючи промислових роботів і самокеровані автомобілі. Очікується, що Foxconn побудує велику кількість систем на основі процесорів, графічних процесорів і мереж Nvidia для своєї глобальної клієнтської бази, багато з яких прагнуть створити та керувати власними фабриками ШІ, стверджує Nvidia. ®

Часова мітка:

Більше від Реєстр