Bitbarn siêu quy mô sẽ phát triển do nhu cầu AI

Bitbarn siêu quy mô sẽ phát triển do nhu cầu AI

Nút nguồn: 2944472

Tổng công suất của các trung tâm dữ liệu siêu quy mô dự kiến ​​sẽ tăng gần gấp ba lần trong sáu năm tới do nhu cầu về AI, làm tăng đáng kể lượng điện năng mà các cơ sở đó yêu cầu.

Với chu kỳ cường điệu AI tổng hợp trong chuyển động không ngừng, các nhà khai thác trung tâm dữ liệu đang lên kế hoạch trước để dự đoán nhu cầu về cơ sở hạ tầng có mật độ cao hơn, hiệu suất cao hơn để đáp ứng các yêu cầu xử lý.

A báo cáo mới Chẳng hạn, từ nhà phân tích IDC, dự báo rằng các doanh nghiệp trên toàn thế giới sẽ chi gần 16 tỷ USD cho AI vào năm 2023. Khoản chi này, bao gồm phần mềm cũng như phần cứng cơ sở hạ tầng liên quan và dịch vụ CNTT/kinh doanh, ước tính sẽ đạt 143 tỷ USD vào năm 2027 .

Kết quả của việc này, theo Nhóm nghiên cứu sức mạnh tổng hợp, là công suất trung bình của bất kỳ trung tâm dữ liệu siêu quy mô nào mở trong vài năm tới sẽ cao hơn gấp đôi so với cơ sở hiện tại.

Cũng sẽ có một số trang bị thêm cho các trung tâm dữ liệu hiện có để tăng công suất và tải CNTT trung bình của các kho bit riêng lẻ tiếp tục tăng, kết quả là Synergy dự đoán tổng công suất của tất cả các trung tâm dữ liệu siêu quy mô sẽ tăng gần gấp ba trong sáu năm tới.

Synergy dựa trên phân tích này về hoạt động của 19 công ty dịch vụ internet và đám mây lớn nhất thế giới. Điều này bao gồm các nhà cung cấp SaaS, IaaS, PaaS, tìm kiếm, mạng xã hội, thương mại điện tử và trò chơi.

Tính đến năm 2023, những công ty siêu quy mô đó có tổng cộng 926 kho lưu trữ bit khổng lồ đang hoạt động trên khắp thế giới và Synergy cho biết họ đã biết thêm 427 cơ sở nữa đang được triển khai.

Synergy cho biết tổng số trung tâm dữ liệu trên toàn thế giới đã tăng gấp đôi trong XNUMX năm qua. Nó dự đoán những điều này sẽ tiếp tục tăng hơn một trăm mỗi năm.

Tuy nhiên, những tiến bộ gần đây trong AI tạo ra sẽ không nhất thiết đẩy nhanh việc xây dựng các ký túc xá dữ liệu mà sẽ “tăng đáng kể” lượng điện năng cần thiết để vận hành các cơ sở đó, nhờ vào số lượng ngày càng tăng các bộ tăng tốc GPU công suất cao được nhồi nhét vào. các nút máy chủ.

Điều này đã được ghi nhận bởi một tổ chức nghiên cứu khác, Odyssey, nhận thấy rằng nhu cầu về máy chủ được trang bị XNUMX GPU cho công việc xử lý AI cũng có tác dụng đẩy giá trung bình cho các hệ thống trung tâm dữ liệu lên cao.

Synergy tỏ ra dè dặt về việc họ tính toán lượng điện năng cần thiết sẽ “tăng đáng kể” đến mức nào.

Tuy nhiên, một nghiên cứu gần đây đã tính toán rằng việc tích hợp AI tổng quát vào mọi tìm kiếm của Google có thể tiêu thụ lượng điện năng tương đương với một quốc gia có diện tích như Ireland.

Giám đốc nghiên cứu cấp cao của IDC tại Châu Âu Andrew Buss đồng ý rằng AI đang thúc đẩy nhu cầu về cơ sở hạ tầng trung tâm dữ liệu hiệu suất cao hơn.

Ông nói với chúng tôi: “Chúng tôi thấy một lượng lớn công suất tính toán tăng tốc đang được lắp đặt. “Chúng tôi nhận thấy các công ty siêu quy mô mua một lượng đáng kể các bộ tăng tốc AI tổng thể đang có mặt trên thị trường để hỗ trợ các mô hình máy biến áp và máy phát điện lớn cho các khách hàng B2C và B2B, cũng như nhiều tổ chức đang cố gắng có được một số nguồn cung cấp.”

Buss cho biết điều này đang làm tăng mật độ năng lượng của các máy chủ và tạo ra nhiều vấn đề về nguồn điện và làm mát. Ông giải thích: “Nhiều trung tâm dữ liệu được xây dựng với mức tiêu thụ điện năng từ 7.5 đến 15kW mỗi giá, nhưng giờ đây, một Nvidia DGX có thể sử dụng tới 10kW, nghĩa là toàn bộ nguồn điện được sử dụng bởi một hộp 10U duy nhất.

Nhà phân tích trưởng của Synergy, John Dinsdale, cho chúng tôi biết rằng những lo ngại về năng lượng đang khiến các nhà khai thác siêu quy mô phải suy nghĩ lại một số kế hoạch triển khai và kiến ​​trúc trung tâm dữ liệu của họ để sửa đổi cách bố trí và cho phép mật độ năng lượng trên mỗi giá cao hơn nhiều và thậm chí có thể xem xét lại vị trí của ký túc xá dữ liệu của họ.

Dinsdale nói: “Vấn đề không chỉ là về nguồn điện sẵn có và chi phí. “Nhiều khối lượng công việc AI không nhạy cảm với độ trễ như các khối lượng công việc khác, do đó có thể cho phép nhà điều hành đặt trung tâm dữ liệu ở những địa điểm xa hơn và ít tốn kém hơn. Ví dụ: chúng tôi đã chứng kiến ​​​​sự tăng trưởng của trung tâm dữ liệu siêu quy mô ở vùng Trung Tây Hoa Kỳ vượt xa mức tăng trưởng ở các khu vực khác như Bắc Virginia và Thung lũng Silicon. Chúng tôi hoàn toàn mong đợi xu hướng đó sẽ tiếp tục”, ông nói thêm.

Chỉ trong tuần này, Nvidia và nhà sản xuất điện tử Đài Loan Foxconn công bố kế hoạch để hợp tác và xây dựng cái mà họ gọi là “nhà máy AI”, nghĩa là trung tâm dữ liệu dành riêng cho việc xử lý AI.

“Một loại hình sản xuất mới đã xuất hiện – sản xuất trí thông minh. Và các trung tâm dữ liệu sản xuất ra chúng là các nhà máy AI”, Giám đốc điều hành Nvidia Jensen Huang cho biết trong một tuyên bố, đồng thời cho biết thêm rằng Foxconn có chuyên môn và quy mô để xây dựng các nhà máy AI đó trên toàn cầu.

Foxconn sẽ sử dụng công nghệ của Nvidia để phát triển các trung tâm dữ liệu mới cho các dịch vụ AI tổng hợp bao gồm nhiều ứng dụng, bao gồm robot công nghiệp và ô tô tự lái. Foxconn dự kiến ​​​​sẽ xây dựng một số lượng lớn hệ thống dựa trên CPU, GPU và mạng của Nvidia cho cơ sở khách hàng toàn cầu của mình, nhiều người trong số họ đang tìm cách tạo và vận hành các nhà máy AI của riêng họ, Nvidia tuyên bố. ®

Dấu thời gian:

Thêm từ Đăng ký