AI 수요로 인해 하이퍼스케일 비트반이 성장할 것입니다.

AI 수요로 인해 하이퍼스케일 비트반이 성장할 것입니다.

소스 노드 : 2944472

하이퍼스케일 데이터센터의 총 용량은 AI 수요에 힘입어 향후 XNUMX년 동안 거의 XNUMX배 증가할 예정이며, 이에 따라 해당 시설에 필요한 전력량이 크게 늘어날 것입니다.

끊임없이 움직이는 생성적 AI 과대광고 주기를 통해 데이터 센터 운영자는 처리 요구 사항을 충족하기 위해 더 높은 밀도, 더 높은 성능의 인프라에 대한 필요성을 예상할 수 있도록 미리 계획하고 있습니다.

A 새 보고서 예를 들어, 분석가 IDC는 16년에 전 세계 기업이 생성 AI에 거의 2023억 달러를 지출할 것으로 예측합니다. 소프트웨어와 관련 인프라 하드웨어, IT/비즈니스 서비스를 포함하는 이 지출은 143년에 2027억 달러에 이를 것으로 추산됩니다. .

이에 따른 결론은 시너지 리서치 그룹, 향후 몇 년 동안 개장하는 하이퍼스케일 데이터센터의 평균 용량은 현재 시설의 두 배 이상이 될 것이라는 점입니다.

또한 용량을 늘리기 위해 기존 데이터 센터를 일부 개조할 것이며, 개별 비트반의 평균 IT 부하가 계속 증가할 것입니다. 그 결과 Synergy는 모든 하이퍼스케일 데이터 센터의 총 용량이 향후 XNUMX년 내에 거의 XNUMX배가 될 것으로 예측합니다.

Synergy는 세계 최대 클라우드 및 인터넷 서비스 기업 19개 기업의 운영을 바탕으로 이 분석을 실시했습니다. 여기에는 SaaS, IaaS, PaaS, 검색, 소셜 네트워킹, 전자상거래 및 게임 제공업체가 포함됩니다.

2023년 현재 이러한 하이퍼스케일러는 전 세계적으로 총 926개의 대규모 비트 헛간을 운영하고 있으며 시너지는 이미 파이프라인에 있는 추가 427개 시설을 알고 있다고 말했습니다.

시너지(Synergy)에 따르면 전 세계 데이터 센터의 총 수는 지난 XNUMX년 동안 이미 두 배로 늘어났습니다. 이는 매년 XNUMX명 이상씩 계속해서 성장할 것으로 예측됩니다.

그러나 최근 제너레이티브 AI의 발전으로 반드시 데이터 기숙사 건설 속도가 빨라지는 것은 아니지만, 급증하는 고와트 GPU 가속기 덕분에 해당 시설을 운영하는 데 필요한 전력량이 "실질적으로 증가"할 것입니다. 서버 노드.

이는 다른 연구 기관에서 지적한 바 있습니다. 옴 디아, AI 처리 작업을 위해 XNUMX개의 GPU가 장착된 서버에 대한 수요도 데이터 센터 시스템의 평균 가격을 높이는 효과가 있음을 발견했습니다.

시너지는 필요한 전력량이 얼마나 "상당히 증가"할 것인지에 대해 수줍어합니다.

그러나, 최근 연구 논문 생성 AI를 모든 Google 검색에 통합하면 잠재적으로 아일랜드 크기의 국가와 동일한 양의 전력을 소비할 수 있다고 계산했습니다.

IDC 유럽 담당 수석 연구 이사인 Andrew Buss는 AI가 더 높은 성능의 데이터 센터 인프라에 대한 수요를 주도한다는 데 동의했습니다.

“우리는 엄청난 양의 가속화된 컴퓨팅 용량이 설치되는 것을 보고 있습니다.”라고 그는 말했습니다. "우리는 B2C 및 B2B 고객뿐만 아니라 일부 공급을 얻으려고 노력하는 많은 조직에서 대규모 생성 및 변환 모델을 지원하기 위해 시장에 출시되는 전체 AI 가속기의 상당 부분을 하이퍼스케일러가 구매하는 것을 봅니다."

이로 인해 서버의 전력 밀도가 증가하고 많은 전원 공급 및 냉각 문제가 발생하고 있다고 Buss는 말했습니다. "많은 데이터 센터가 랙당 7.5~15kW의 전력 예산으로 구축되었지만 이제 단일 Nvidia DGX는 최대 10kW를 사용할 수 있습니다. 이는 전체 전력 예산이 단일 10U 상자에서 사용된다는 의미입니다."라고 그는 설명했습니다.

Synergy의 수석 분석가인 John Dinsdale은 전력 문제로 인해 하이퍼스케일 운영자가 레이아웃을 수정하고 랙당 훨씬 더 높은 전력 밀도를 구현하기 위해 일부 데이터 센터 아키텍처 및 배포 계획을 재고하고 데이터 기숙사의 위치를 ​​검토할 수도 있다고 말했습니다.

“이것은 단지 전력 가용성과 비용에 관한 것이 아닙니다.”라고 Dinsdale은 말했습니다. “많은 AI 워크로드는 다른 워크로드만큼 대기 시간에 민감하지 않으므로 운영자는 더 멀리 있고 저렴한 위치에 데이터 센터를 배치할 수 있습니다. 예를 들어, 우리는 이미 미국 중서부 지역의 하이퍼스케일 데이터 센터 성장이 버지니아 북부 및 실리콘 밸리와 같은 다른 지역의 성장을 앞지르는 것을 목격하고 있었습니다. 우리는 이러한 추세가 계속될 것으로 기대한다”고 덧붙였다.

이번주만 해도 엔비디아와 대만 전자업체 폭스콘이 발표 된 계획 팀을 구성하여 AI 처리 전용 데이터 센터를 의미하는 "AI 공장"을 구축합니다.

“새로운 유형의 제조, 즉 지능의 생산이 등장했습니다. 엔비디아 CEO 젠슨 황은 성명을 통해 “이를 생산하는 데이터센터는 AI 공장”이라며 “폭스콘은 전 세계적으로 AI 공장을 건설할 수 있는 전문성과 규모를 갖추고 있다”고 말했다.

Foxconn은 Nvidia의 기술을 사용하여 산업용 로봇 및 자율주행차를 포함한 다양한 애플리케이션을 포괄하는 생성 AI 서비스를 위한 새로운 데이터 센터를 개발할 예정입니다. Foxconn은 글로벌 고객 기반을 위해 Nvidia의 CPU, GPU 및 네트워킹을 기반으로 하는 수많은 시스템을 구축할 것으로 예상되며, 이들 중 다수는 자체 AI 공장을 만들고 운영하려고 한다고 Nvidia는 주장했습니다. ®

타임 스탬프 :

더보기 등록