Tương lai của máy tính thích ứng: Trung tâm dữ liệu dùng một lần

Nút nguồn: 805091

AdobeStock_267083342 (002).jpeg

Bài đăng trên blog này được trích từ bài phát biểu quan trọng của Salil Raje, EVP và GM Nhóm trung tâm dữ liệu Xilinx, được đưa ra vào ngày 24 tháng 2021 năm XNUMX, tại Xilinx Adapt: ​​Trung tâm dữ liệu. Để xem bài phát biểu quan trọng của Salil theo yêu cầu, cùng với một loạt các bài thuyết trình tuyệt vời của các chuyên gia trong ngành, bạn có thể đăng ký và xem nội dung tại đây.

Hầu hết chúng ta vẫn gặp gỡ đồng nghiệp của mình thông qua hội nghị truyền hình trực tuyến sau sự thay đổi mô hình do đại dịch COVID-19 gây ra. Bạn có thể không nghĩ nhiều về những gì cần thiết để truyền phát tất cả nội dung và nguồn cấp dữ liệu từ các cuộc họp của mình. Nhưng nếu bạn là nhà điều hành trung tâm dữ liệu, có lẽ bạn đã mất ngủ nhiều trong năm qua vì lo lắng về cách xử lý lưu lượng truy cập video tăng đột biến trong đại dịch.

Không chỉ vậy, các trung tâm dữ liệu ngày nay còn phải xử lý sự bùng nổ dữ liệu phi cấu trúc từ nhiều loại khối lượng công việc như hội nghị truyền hình, nội dung phát trực tuyến, trò chơi trực tuyến và thương mại điện tử. Nhiều ứng dụng trong số này rất nhạy cảm với độ trễ và cũng phải tuân theo các tiêu chuẩn không ngừng phát triển về kiến ​​trúc nén, mã hóa và cơ sở dữ liệu.

Điều này đã buộc các trung tâm dữ liệu phải mở rộng quy mô cơ sở hạ tầng của họ để đáp ứng các yêu cầu về hiệu suất và độ trễ của nhiều loại khối lượng công việc đòi hỏi khắt khe, đồng thời cố gắng giảm thiểu chi phí và mức tiêu thụ điện năng. Điều đó tỏ ra rất khó khăn và buộc các nhà khai thác trung tâm dữ liệu phải suy nghĩ lại về kiến ​​trúc hiện tại của họ và khám phá các cấu hình mới vốn có khả năng mở rộng và hiệu quả hơn.

Hiện tại, hầu hết các trung tâm dữ liệu đều có giá đỡ với các bộ tài nguyên cố định, kết hợp SSD, CPU và Bộ tăng tốc trong một máy chủ. Mặc dù điều này đảm bảo kết nối băng thông cao giữa tính toán và lưu trữ, nhưng nó rất kém hiệu quả về mặt sử dụng tài nguyên vì có một tỷ lệ lưu trữ và tính toán cố định trong mọi máy chủ. Vì khối lượng công việc yêu cầu sự kết hợp khác nhau giữa điện toán và lưu trữ, nên các đảo tài nguyên không sử dụng sẽ được để lại trong mỗi máy chủ.

Cơ sở hạ tầng tổng hợp

Một kiến ​​trúc mới đang nổi lên hứa hẹn sẽ tạo ra sự cải thiện đáng kể trong việc sử dụng tài nguyên. Nó được gọi là "cơ sở hạ tầng tổng hợp". Cơ sở hạ tầng có thể kết hợp đòi hỏi tách rời tài nguyên và thay vào đó tập hợp chúng lại với nhau và làm cho chúng có thể truy cập được từ mọi nơi. Cơ sở hạ tầng có thể kết hợp cho phép cung cấp khối lượng công việc chỉ với lượng tài nguyên phù hợp và cấu hình lại nhanh chóng thông qua phần mềm.

Một kiến ​​trúc có thể kết hợp với nhóm CPU, SSDS và bộ tăng tốc được kết nối với nhau và được kiểm soát bởi khung cung cấp dựa trên tiêu chuẩn hứa hẹn sẽ cải thiện đáng kể hiệu quả sử dụng tài nguyên của trung tâm dữ liệu. Trong một kiến ​​trúc như vậy, các khối lượng công việc khác nhau có thể có các yêu cầu về tính toán, lưu trữ và tăng tốc khác nhau, đồng thời những tài nguyên đó sẽ được chỉ định tương ứng mà không gây lãng phí phần cứng. Tất cả điều đó nghe có vẻ tuyệt vời về mặt lý thuyết, nhưng trên thực tế, có một vấn đề lớn: Độ trễ.

Thách thức về độ trễ

Khi bạn phân tách các tài nguyên và di chuyển chúng ra xa nhau hơn, bạn sẽ phải chịu nhiều độ trễ hơn và giảm băng thông do lưu lượng mạng giữa CPU và SSD hoặc giữa CPU và bộ tăng tốc. Trừ khi bạn có một số cách để giảm lưu lượng mạng và kết nối các tài nguyên một cách hiệu quả, điều này có thể bị hạn chế nghiêm trọng. Đó là nơi FPGA đóng ba vai trò chính trong việc giải quyết thách thức về độ trễ:

  • FPGA đóng vai trò là máy gia tốc thích ứng có thể được tùy chỉnh cho từng khối lượng công việc để có hiệu suất tối đa. 
  • FPGA cũng có thể mang tính toán đến gần dữ liệu hơn, do đó giảm độ trễ và giảm thiểu băng thông cần thiết.
  • Cấu trúc thông minh, có thể thích ứng của FPGA cho phép tổng hợp tài nguyên hiệu quả mà không gây ra sự chậm trễ quá mức. 

Tăng tốc thích ứng

Lợi thế đáng kể đầu tiên đối với các bộ tăng tốc điện toán dựa trên FPGA là hiệu suất được cải thiện đáng kể cho các khối lượng công việc có nhu cầu cao hiện nay. Trong các trường hợp sử dụng chuyển mã video cho các ứng dụng phát trực tiếp, các giải pháp FPGA thường vượt trội hơn 86 lần so với CPU x30, giúp các nhà khai thác trung tâm dữ liệu đáp ứng sự gia tăng lớn về số lượng luồng đồng thời. Một ví dụ khác là trong lĩnh vực giải trình tự bộ gen quan trọng. Một khách hàng gần đây của Xilinx genomics đã phát hiện ra rằng máy gia tốc dựa trên FPGA của chúng tôi đưa ra câu trả lời nhanh hơn 90 lần so với CPU, giúp các nhà nghiên cứu y tế kiểm tra các mẫu DNA trong một khoảng thời gian ngắn so với trước đây.

Di chuyển máy tính đến gần hơn với dữ liệu

Lợi thế quan trọng thứ hai đối với FPGA trong một trung tâm dữ liệu có thể kết hợp là khả năng mang khả năng tính toán có thể thích ứng gần với dữ liệu, dù ở trạng thái nghỉ hay đang chuyển động. Xilinx FPGA được sử dụng trong các thiết bị lưu trữ tính toán SmartSSD tăng tốc các chức năng như tìm kiếm, phân tích cú pháp, nén và mã hóa tốc độ cao, thường được thực hiện bởi CPU. Điều này giúp giảm tải cho CPU đối với các tác vụ phức tạp hơn nhưng cũng giảm lưu lượng giữa CPU và SSD, do đó cắt giảm mức tiêu thụ băng thông và giảm độ trễ.

Tương tự, các FPGA của chúng tôi hiện được sử dụng trong SmartNIC như Alveo SN1000 mới của chúng tôi để tăng tốc dữ liệu đang chuyển động với các dịch vụ xử lý, nén và mã hóa gói tốc độ dây cũng như khả năng thích ứng với các yêu cầu chuyển đổi tùy chỉnh cho một trung tâm dữ liệu hoặc khách hàng cụ thể.   

Vải thông minh

When you combine an FPGA’s adaptable compute acceleration with low-latency connectivity, you can go a step further in the composable data center.  You can assign a compute-heavy workload to a cluster of accelerators that are interconnected by an adaptable intelligent fabric - creating a high-performance computer on demand.

Tất nhiên, điều này không thể thực hiện được nếu bạn không thể lập trình các bộ tăng tốc điện toán, SmartSSD và SmartNIC bằng các thuật toán tăng tốc tối ưu, sau đó cung cấp chúng theo đúng số lượng cho mỗi khối lượng công việc. Đối với nhiệm vụ đó, chúng tôi đã xây dựng một ngăn xếp phần mềm toàn diện, tận dụng các khuôn khổ ngành dành riêng cho miền như TensorFlow và FFMPEG, hoạt động cùng với nền tảng phát triển Vitis của chúng tôi. Chúng tôi cũng nhận thấy vai trò của các khung cung cấp cấp cao hơn như RedFish để giúp phân bổ tài nguyên thông minh.

Tương lai là đây

Lời hứa về trung tâm dữ liệu có thể kết hợp là một sự thay đổi thú vị và các thiết bị và thẻ tăng tốc của Xilinx là những khối xây dựng chính cho kiến ​​trúc hiệu quả mới này. Với khả năng cấu hình lại nhanh chóng, độ trễ thấp và kiến ​​trúc linh hoạt có thể thích ứng với khối lượng công việc thay đổi, Xilinx có vị trí thuận lợi để trở thành người chơi chính trong quá trình phát triển này.

Nguồn: https://forums.xilinx.com/t5/Xilinx-Xclusive-Blog/The-Future-of-Adaptive-Computing-The-Composable-Data-Center/ba-p/1221927

Dấu thời gian:

Thêm từ Xlnx