Bitbary hiperskalowe będą rosły ze względu na zapotrzebowanie na sztuczną inteligencję

Bitbary hiperskalowe będą rosły ze względu na zapotrzebowanie na sztuczną inteligencję

Węzeł źródłowy: 2944472

Całkowita pojemność hiperskalowych centrów danych wzrośnie prawie trzykrotnie w ciągu najbliższych sześciu lat ze względu na zapotrzebowanie na sztuczną inteligencję, znacznie zwiększając ilość energii wymaganej przez te obiekty.

Ponieważ cykl szumu wokół generatywnej sztucznej inteligencji jest w ciągłym ruchu, operatorzy centrów danych planują z wyprzedzeniem, aby przewidzieć potrzebę infrastruktury o większej gęstości i wydajności, aby spełnić wymagania dotyczące przetwarzania.

A nowy raport Analityk IDC prognozuje na przykład, że przedsiębiorstwa na całym świecie wydadzą w 16 r. prawie 2023 miliardów dolarów na generatywną sztuczną inteligencję. Szacuje się, że wydatki te, obejmujące oprogramowanie i powiązany sprzęt infrastrukturalny oraz usługi IT/biznesowe, wyniosą w 143 r. 2027 miliardy dolarów .

Skutkiem tego, według Grupa Badawcza Synergii, jest to, że średnia pojemność każdego hiperskalowego centrum danych otwartego w ciągu najbliższych kilku lat będzie ponad dwukrotnie większa niż w przypadku obecnych obiektów.

Przeprowadzona zostanie również pewna modernizacja istniejących centrów danych w celu zwiększenia ich wydajności, a średnie obciążenie IT poszczególnych bloków bitowych w dalszym ciągu rośnie, w związku z czym Synergy przewiduje, że łączna pojemność wszystkich hiperskalowych centrów danych niemal się potroi w ciągu najbliższych sześciu lat.

Synergy oparła tę analizę na działalności 19 największych na świecie firm świadczących usługi w chmurze i Internecie. Obejmuje to dostawców usług SaaS, IaaS, PaaS, wyszukiwania, sieci społecznościowych, handlu elektronicznego i gier.

Według stanu na 2023 r. w ramach tych hiperskalerów na całym świecie działało łącznie 926 masywnych stodoł bitowych, a firma Synergy twierdzi, że wie już o kolejnych 427 obiektach, które są w przygotowaniu.

Synergy twierdzi, że w ciągu ostatnich pięciu lat łączna liczba centrów danych na całym świecie podwoiła się. Przewiduje się, że liczba ta będzie nadal rosła o ponad sto rocznie.

Jednak ostatnie postępy w dziedzinie generatywnej sztucznej inteligencji niekoniecznie przyspieszą budowę akademików danych, ale raczej „znacznie zwiększą” ilość energii wymaganej do obsługi tych obiektów dzięki rosnącej liczbie wysokowydajnych akceleratorów graficznych upchniętych w węzły serwerowe.

Zostało to odnotowane przez inny zespół badawczy, Dzień Om, które wykazało, że popyt na serwery wyposażone w osiem procesorów graficznych do przetwarzania AI również miał wpływ na wzrost średnich cen systemów centrów danych.

Firma Synergy nieśmiało twierdzi, że ilość wymaganej mocy „znacznie wzrośnie”.

Jednakże, ostatni artykuł badawczy obliczyli, że włączenie generatywnej sztucznej inteligencji do każdej wyszukiwarki Google może potencjalnie pochłonąć taką samą ilość energii, jak kraj wielkości Irlandii.

Starszy dyrektor ds. badań IDC na Europę, Andrew Buss, zgodził się, że sztuczna inteligencja napędza popyt na infrastrukturę centrów danych o wyższej wydajności.

„Widzimy, że instalowana jest ogromna ilość przyspieszonych mocy obliczeniowych” – powiedział nam. „Widzimy, że podmioty zajmujące się hiperskalem kupują znaczną liczbę akceleratorów sztucznej inteligencji, które pojawiają się na rynku, aby wspierać duże modele generatorów i transformatorów wśród klientów B2C i B2B, a także wielu organizacji próbujących również uzyskać pewne dostawy”.

Zwiększa to gęstość mocy serwerów i powoduje wiele problemów z zasilaniem i chłodzeniem, powiedział Buss. „Wiele centrów danych ma budżet mocy od 7.5 do 15 kW na szafę, ale obecnie pojedyncza karta Nvidia DGX może zużywać 10 kW, co oznacza, że ​​cały budżet mocy jest wykorzystywany przez pojedynczą jednostkę 10U” – wyjaśnił.

Główny analityk Synergy, John Dinsdale, powiedział nam, że problemy z zasilaniem zmuszają operatorów hiperskali do ponownego przemyślenia niektórych architektur centrów danych i planów wdrożeniowych, aby zmienić układ i umożliwić znacznie większą gęstość mocy na szafę, a być może nawet dokonać przeglądu lokalizacji swoich akademików danych.

„Nie chodzi tylko o dostępność i koszt zasilania” – powiedział Dinsdale. „Wiele obciążeń AI nie jest tak wrażliwych na opóźnienia jak inne obciążenia, dlatego może pozwolić operatorowi na umieszczanie centrów danych w bardziej odległych i tańszych lokalizacjach. Na przykład zaobserwowaliśmy już wzrost liczby hiperskalowych centrów danych na Środkowym Zachodzie Stanów Zjednoczonych, przewyższający wzrost w innych regionach, takich jak Północna Wirginia i Dolina Krzemowa. W pełni oczekujemy, że ten trend się utrzyma” – dodał.

Właśnie w tym tygodniu Nvidia i tajwański producent elektroniki Foxconn ogłosił plany połączyć siły i zbudować tak zwane „fabryki sztucznej inteligencji”, czyli centra danych przeznaczone do przetwarzania sztucznej inteligencji.

„Pojawił się nowy rodzaj produkcji – produkcja inteligencji. A centra danych, które je produkują, to fabryki sztucznej inteligencji” – powiedział dyrektor generalny Nvidii Jensen Huang w oświadczeniu, dodając, że Foxconn ma wiedzę i skalę, aby budować te fabryki sztucznej inteligencji na całym świecie.

Foxconn wykorzysta technologię Nvidii do opracowania nowych centrów danych dla generatywnych usług sztucznej inteligencji, które obejmują szereg zastosowań, w tym roboty przemysłowe i samochody autonomiczne. Oczekuje się, że Foxconn zbuduje dużą liczbę systemów opartych na procesorach, procesorach graficznych i sieciach Nvidia dla swojej globalnej bazy klientów, z których wielu pragnie stworzyć i obsługiwać własne fabryki sztucznej inteligencji, twierdzi Nvidia. ®

Znak czasu:

Więcej z Rejestr