Wysoki popyt na generatywną sztuczną inteligencję wywiera presję na centra danych

Węzeł źródłowy: 2909019

Z najnowszego raportu wynika, że ​​centra danych znajdują się pod presją wzrostu popytu na generatywną sztuczną inteligencję, co zmusza je do obciążania klientów pewnymi kosztami.

Chociaż generatywna sztuczna inteligencja zyskała na popularności po uruchomieniu ChatGPT i odniosła natychmiastowy sukces, jest to operacja kapitałochłonna, która wymaga wyższego poziomu mocy obliczeniowej.

Według firmy z branży nieruchomości JLL wraz ze wzrostem popytu wzrosły również koszty infrastruktury, które w tym roku gwałtownie wzrosły.

Ciężko znaleźć miejsce

Według JLL, która analizowała trendy na rynku centrów danych, na przykład popyt na powierzchnię kolokacyjną w Ameryce Północnej przewyższa podaż, co skutkuje gwałtownym wzrostem kosztów. The Zgłoś notatki że w rezultacie koszty dla klientów wzrosły o 30%.

„Główni dostawcy usług w chmurze szybko się rozwijają, aby sprostać nowym wymaganiom AI i zapotrzebowaniu na większą moc obliczeniową, co utrudnia na wielu rynkach znalezienie przestrzeni i mocy dla mniejszych wymagań” – zauważono w raporcie.

Ponadto podkreśla, że ​​doprowadziło to do znacznego „wzrostu leasingu w drugim kwartale 2023 r., wraz z rosnącym zapotrzebowaniem na pojemność spełniającą wymagania centrów danych o większej gęstości w zakresie rozwoju sztucznej inteligencji”.

Przeczytaj także: ChatGPT zyskuje funkcje głosowe i obrazowe, stając się bardziej podobnym do Siri firmy Apple

Koszty do dalszego wzrostu

Raport JLL ściśle pokrywa się z innymi badaniami przeprowadzonymi na temat wpływu generatywnej sztucznej inteligencji na centra danych w skali globalnej. Firma badawcza Tirias Research prognozowała, że ​​popyt na infrastrukturę centrów danych i koszt generatywnej sztucznej inteligencji mogą przekroczyć 76 miliardów dolarów do 2028 r. To ponad dwukrotnie więcej niż obecnie szacowany koszt Amazon Web Services (AWS), który stanowi jedną trzecią całkowitego rynku usług w chmurze rynek usług infrastrukturalnych.

Inne badanie przeprowadzone na początku tego roku przez TD Cowen wykazało, że stawki dzierżawy centrów danych osiągnęły „rekordowy poziom”, w miarę jak hiperskalowerzy stale zwiększali możliwości rozwoju sztucznej inteligencji.

Z badania tego wynika, że ​​branża doświadcza „tsunami popytu na sztuczną inteligencję”, a niektórzy dostawcy usług nie radzą sobie z popytem ze strony hiperskalarników.

JLL zwróciła jednak uwagę na potrzebę centra danych w celu poprawy wydajności i dostosować swoją infrastrukturę, aby umożliwić im obsługę „klastrów o dużej gęstości mocy”.

Remont infrastruktury

Według raportu ITPro remont infrastruktury oznacza, że ​​mogą nastąpić zmiany w możliwościach chłodzenia i zużyciu energii. Niedawne SiliconANGLE raport ujawnił również, że centra danych są zużywając duże ilości wody w celu ochłodzenia serwerów generatywnej sztucznej inteligencji w związku ze wzrostem wykorzystania tej technologii.

Firma Microsoft podała, że ​​zużycie wody w jej centrum danych wzrosło o 35% w 2022 r. w porównaniu z rokiem 2021. Według raportu firma w samym 1.7 r. zużyła ponad 6.4 miliarda galonów, czyli 2022 miliarda litrów wody, co wystarczy, aby „napełnić więcej ponad 2,500 basenów o wymiarach olimpijskich.”

Wysokie zużycie wody to nie wszystko, ponieważ zużycie energii w centrach danych jest również wysokie.

Według raportu JLL w przypadku niektórych większych wymagań gęstość klastrów może zostać zwiększona do 50–100 KW na szafę. W raporcie dodaje się, że oznacza to gwałtowny wzrost w porównaniu z obecnym zapotrzebowaniem na hiperskalery.

„Wielu dostawców kolokacji podniosło napięcie dostarczane do podłogi do 415 woltów, co może obniżyć początkowe koszty dostarczania energii do klastrów o dużej gęstości” – stwierdziła JLL w raporcie.

„Będą potrzebne dodatkowe innowacje, aby poprawić wydajność chłodzenia i efektywność energetyczną w zastosowaniach AI, biorąc pod uwagę cele w zakresie zrównoważonego rozwoju hiperskalerów i dostawców kolokacji” – dodał.

Co powinno być zrobione?

W rozmowie z ITPro wiceprezes Kao Data Adam Nethersole powiedział, że chociaż popyt związany z generatywną sztuczną inteligencją wywiera presję na centra danych, powodując niedobory powierzchni w USA, można zrobić coś, aby dostosować się do wzrostu aktywności, co ma „pozytywne konsekwencje” dla Europy i brytyjskimi dostawcami centrów danych.

„Chociaż niedobory mocy na amerykańskim rynku centrów danych mogły zostać spotęgowane zarówno przez przyjęcie generatywnej sztucznej inteligencji, jak i towarzyszący mu rozwój platform hiperskalowych, bardziej lokalnie w Wielkiej Brytanii i Europie, widzimy pozytywne konsekwencje dla tego sektora” – powiedział .

Dodał, że utrzymujący się wzrost popytu na HPC, sztuczna inteligencja i technologie oparte na procesorach graficznych przyspieszały rozwój nowych centrów danych poziomu 2.

Według Nethersole prowokuje to „całkowite przeprojektowanie lub przeprojektowanie wydajności centrum danych w celu dostosowania go do obliczeń o dużej gęstości”.

„Obejmowało to wdrożenie nowych, wstępnie skonfigurowanych systemów o dużej gęstości, takich jak SuperPOD firmy Nvidia, w niektórych przypadkach szersze zastosowanie chłodzenia cieczą oraz ciągłe zapotrzebowanie na ultraefektywną energetycznie pojemność kolokacyjną, zasilaną w 100% energią odnawialną. ”

W raporcie JLL podkreślono wpływ generatywnego rozwoju sztucznej inteligencji na klientów potrzebujących „mniejszych” usług kolokacyjnych – a więc firm, które wymagają infrastruktury centrum danych do celów operacyjnych innych niż generatywna sztuczna inteligencja rozwój."

Według Nethersole w dłuższej perspektywie mogą pojawić się obawy, że skupiając się na generatywna sztuczna inteligencja rozwoju, niektórzy klienci mogą mieć zakaz dostępu do usług kolokacji.

Znak czasu:

Więcej z MetaWiadomości