Vai trò của CPU trong AI/ML bền vững

Vai trò của CPU trong AI/ML bền vững

Nút nguồn: 3093662

Quảng cáo Khi AI mở rộng phạm vi tiếp cận của nó trên các môi trường điện toán kinh doanh, tác động của nó sẽ gây ra một số hiệu ứng dây chuyền không lường trước được. IDC mới nhất Tương laiScape chẳng hạn, báo cáo dự đoán rằng khi các công ty chạy đua giới thiệu các sản phẩm/dịch vụ được tăng cường AI và hỗ trợ khách hàng của họ triển khai AI, thì công nghệ này sẽ trở thành động lực chính cho sự đổi mới.

Một thay đổi khác do AI điều khiển xoay quanh mức độ mà trung tâm dữ liệu có thể phải cân bằng CPU với Bộ tăng tốc AI riêng biệt, chẳng hạn như GPU hoặc kiến ​​trúc chuyên dụng để cung cấp khả năng tính toán hiệu suất cao mà các nhà phát triển AI mong muốn.

Đó là một cuộc tranh luận đặt ra các vấn đề có nguy cơ cao đối với chủ sở hữu trung tâm dữ liệu, cả về khoản đầu tư CAPEX bổ sung và xác suất (mặc dù các phương pháp đo lường không chính xác) các hoạt động AI dựa trên GPU thông thường tiêu thụ nhiều năng lượng hơn khối lượng công việc CNTT thông thường.

Việc xử lý chi phí năng lượng/carbon cao hơn của AI là một điểm khó khăn bổ sung cho hoạt động của trung tâm dữ liệu. Điều này cũng phải đảm bảo rằng các kiến ​​trúc điện toán được nâng cấp được tối ưu hóa cho AI có thể quản lý nhu cầu năng lượng ngày càng tăng mà không có nguy cơ làm quá tải công nghệ hoặc cơ sở hiện có.

Vì vậy, khi quy định mở rộng về quản lý bền vững và quản lý carbon thúc đẩy các hoạt động giảm mức sử dụng năng lượng trên toàn bộ phần cứng và phần mềm CNTT, AI đại diện cho cả cơ hội và trở ngại.

Giảm thiểu mức tiêu thụ năng lượng AI

Stephan Gillich, Giám đốc Trí tuệ Nhân tạo GTM tại Trung tâm Xuất sắc AI của Intel, giải thích: Tổng hợp lại, mức tiêu thụ điện năng tăng lên và các cấu hình lại kiến ​​trúc cần thiết cần thiết để đáp ứng khối lượng công việc AI và Machine Learning đặt ra một thách thức không thể tránh khỏi đối với các trung tâm dữ liệu.

“Một điều khá rõ ràng là trong các lĩnh vực và ngành dọc, ở bất cứ nơi nào các ứng dụng và dịch vụ AI/Machine Learning đang được phát triển, đào tạo và vận hành, thì khả năng của các cơ sở CNTT tại chỗ và được lưu trữ trên nền tảng đám mây sẽ phải nâng cấp để xử lý khối lượng dữ liệu ngày càng tăng. -khối lượng công việc chuyên sâu,” Gillich nói. “Rõ ràng là những nâng cấp đó sẽ đòi hỏi nhiều thứ hơn là chỉ tăng cường khả năng tính toán.”

Gillich tin rằng có thể làm nhiều việc để nâng cao tính bền vững của các trung tâm dữ liệu tập trung vào AI, bắt đầu bằng việc đánh giá lại một số giả định xung quanh bối cảnh AI/Machine Learning. Bộ xử lý là nơi tốt để bắt đầu, đặc biệt khi quyết định xem CPU hay GPU phù hợp hơn với nhiệm vụ.

Bởi vì trong khi khối lượng công việc chuyên sâu về tính toán cụ thể của AI dường như đang gia tăng (không ai chắc chắn về tốc độ như thế nào) thì phần lớn công việc ở trung tâm dữ liệu (khối lượng công việc không phải AI) phải tiếp tục xử lý ngày này qua ngày khác - cung cấp ứng dụng ổn định và các dòng doanh thu dịch vụ không bị xáo trộn.

Hầu hết trong số này hiện được xử lý bởi CPU và việc trang bị lại một trung tâm dữ liệu tiêu chuẩn với GPU đắt tiền hơn sẽ khiến rất nhiều cơ sở vượt quá yêu cầu. Nói chung, GPU tiêu thụ nhiều điện năng hơn CPU để thực hiện một tác vụ tương tự. Tùy thuộc vào nguồn điện cho một cấu hình giá nhất định, việc tích hợp GPU vào cơ sở hạ tầng trung tâm dữ liệu chẳng hạn đòi hỏi phải nâng cấp hệ thống phân phối điện, điều này chắc chắn sẽ phải chịu thêm chi phí trả trước, bên cạnh hóa đơn năng lượng cao hơn khi chúng hoạt động.

Hơn nữa, quá trình phát triển CPU của Intel vẫn tiếp tục đổi mới. Gillich lập luận rằng trong nhiều trường hợp sử dụng, CPU có thể được chứng minh là đạt được hiệu suất tổng thể tốt – và đôi khi tốt hơn – như GPU. Và hiệu suất của chúng có thể được tăng cường bằng công nghệ đột phá như Intel® AMX (Phần mở rộng ma trận nâng cao), một bộ tăng tốc được tích hợp trong CPU Intel Xeon thế hệ thứ 4.

Gillich chỉ ra: “Bộ xử lý Intel Xeon có thể cho phép trung tâm dữ liệu mở rộng quy mô áp dụng AI thông qua khả năng tăng tốc AI tích hợp giúp tăng hiệu suất CPU cho Machine Learning, đào tạo và suy luận”. “Bằng cách này, họ có thể áp dụng các bộ tăng tốc riêng biệt để giảm thiểu CAPEX và tối đa hóa hiệu suất trong khi tận dụng môi trường xử lý Intel Xeon hiện có.”

Cần kết hợp khối lượng công việc AI và không AI

Intel AMX là khối phần cứng chuyên dụng trên lõi bộ xử lý Intel Xeon có khả năng mở rộng, cho phép khối lượng công việc AI chạy trên CPU thay vì chuyển chúng sang một bộ tăng tốc riêng biệt, giúp tăng hiệu suất đáng kể. Nó phù hợp với khối lượng công việc AI như hệ thống đề xuất Machine Learning, nhận dạng hình ảnh và xử lý ngôn ngữ tự nhiên dựa trên toán học ma trận.

Một lập luận khác ủng hộ CPU tăng cường là chúng cung cấp một lộ trình hiệu quả về mặt chi phí cho các nhà khai thác trung tâm dữ liệu để thực hiện nhiều cam kết CPU hiện có hơn, đảm bảo tài sản của họ trong tương lai để họ có thể đảm nhận khối lượng công việc hỗn hợp và đặt chúng ở vị trí tốt hơn. kiểm soát việc sử dụng năng lượng tổng thể.

Ngược lại, điều này có thể giúp các nhà cung cấp dịch vụ trung tâm dữ liệu (và khách hàng của họ) đáp ứng các mục tiêu bền vững và mang lại điểm bán hàng cho các nhà phát triển phần mềm (doanh nghiệp hoặc bên thứ ba), những người đang tìm kiếm một nền tảng được tối ưu hóa để thể hiện hiệu quả năng lượng trong quá trình mã hóa của họ. đầu ra.

“Thực tế là, thay vì lao vào những cơ hội mà khối lượng công việc AI có thể hứa hẹn, các nhà khai thác trung tâm dữ liệu đang nhận ra rằng họ nên xem xét một loạt các mệnh lệnh được thông báo nhiều bởi các mối quan tâm thương mại cũng như các lựa chọn công nghệ,” Gillich nói.

Những mệnh lệnh này có thể bao gồm: tích hợp khối lượng công việc AI với khối lượng công việc không phải AI; sự tích hợp của các ngăn xếp phần cứng và phần mềm khác nhau; và bởi vì họ muốn đảm bảo rằng họ có kiến ​​trúc phù hợp với nhiều khối lượng công việc khác nhau, nên họ muốn tích hợp các loại luồng công việc khác nhau.

Gillich cho biết: “Những câu hỏi này chỉ ra những thách thức phức tạp, bởi vì việc thực hiện đúng các câu hỏi sẽ mang lại hiệu quả năng lượng và công nghệ tối ưu – với hiệu suất năng lượng hiện là chuẩn mực hiệu suất cốt lõi sẽ ngày càng ảnh hưởng đến khả năng tồn tại thương mại của trung tâm dữ liệu”. “Vì vậy, một lần nữa, nó cực kỳ quan trọng.”

Theo quan điểm của Gillich, chìa khóa để thích ứng với thực tế mới nổi này là một quá trình từng bước của cái có thể gọi là 'đồng hóa AI'. Điểm thứ nhất ở đây là khối lượng công việc AI không bị tách biệt khỏi các loại khối lượng công việc khác – chúng sẽ được tích hợp vào khối lượng công việc thông thường, thay vì chạy riêng biệt.

Gillich lấy hội nghị truyền hình làm ví dụ về sự tích hợp theo từng giai đoạn này: “Trong khi truyền tải lưu lượng âm thanh/video tiêu chuẩn qua các ứng dụng tiêu chuẩn, AI được tích hợp để thực hiện các nhiệm vụ đồng thời như tóm tắt, dịch thuật, phiên âm. Những tính năng như vậy được AI hỗ trợ rất tốt.

Tiết kiệm năng lượng từ đầu đến cuối

Gillich lập luận rằng việc đạt được hiệu quả sử dụng năng lượng phải là một cam kết chiến lược thực sự từ đầu đến cuối. “Nó mở rộng về mặt phần mềm cũng như kiến ​​trúc phần cứng – cơ chế hoàn chỉnh cho phép thực hiện một quy trình làm việc nhất định. Dữ liệu được lưu trữ ở đâu để giúp truy cập hiệu quả nhất – tính toán thông minh và do đó tiết kiệm năng lượng – đó có phải là nơi tốt nhất để sử dụng năng lượng hiệu quả không?”

Yếu tố khác cần đưa vào đánh giá này là xác định khối lượng công việc đang chạy ở đâu. Ví dụ: nó có chạy trên máy khách không (chẳng hạn như PC AI được trang bị bộ xử lý Intel Core Ultra, thay vì máy chủ trong trung tâm dữ liệu? Liệu một số khối lượng công việc AI này có thể thực sự chạy trên máy khách (cùng với máy chủ) không?

Mọi lựa chọn đều đáng được cân nhắc nếu nó giúp cân bằng điện toán/tiêu thụ năng lượng/điện toán AI trở nên phù hợp hơn, Gillich lập luận: “Nó gần giống như sự quay trở lại khái niệm truyền thống về điện toán phân tán”.

Gillich cho biết thêm: “Đôi khi khách hàng của chúng tôi hỏi: 'AI sẽ chơi ở đâu?' – câu trả lời là AI sẽ chơi ở mọi nơi. Vì vậy, tại Intel, tham vọng của chúng tôi là tập trung vào những gì có thể gọi là sự phù hợp phổ quát của AI, bởi vì chúng tôi tin rằng nó sẽ tham gia vào tất cả các lĩnh vực ứng dụng.”

Tại Intel, điều này bao gồm phần mềm trung gian như API, giống như bất kỳ phần nào khác của hệ thống phần mềm, phải hiệu quả nhất có thể. 'Việc mở rộng API' có thể dẫn đến việc xử lý không cần thiết, giảm thiểu dấu chân cơ sở hạ tầng cũng như thiếu khả năng giám sát và kiểm soát.

"Với Intel oneAPI, doanh nghiệp có thể nhận ra toàn bộ giá trị phần cứng của mình, phát triển mã đa kiến ​​trúc hiệu suất cao và làm cho ứng dụng của họ sẵn sàng đáp ứng các nhu cầu trong tương lai,” Gillich giải thích.

“Intel oneAPI là một mô hình lập trình mở, đa ngành, dựa trên tiêu chuẩn, thống nhất, đa kiến ​​trúc, đa nhà cung cấp, mang lại trải nghiệm chung cho nhà phát triển trên các kiến ​​trúc tăng tốc - để có hiệu suất ứng dụng nhanh hơn và cải thiện năng suất. Sáng kiến ​​oneAPI khuyến khích sự hợp tác về đặc tả oneAPI và triển khai oneAPI tương thích trên toàn hệ sinh thái.”

Gillich cho biết thêm: “oneAPI cung cấp một ngăn xếp phần mềm trung gian sử dụng những thứ tiêu chuẩn như Khung AI – như Pytorch hoặc TensorFlow [nền tảng phần mềm nguồn mở cho AI và Machine Learning] – và dịch chúng ở cấp độ máy, đồng thời oneAPI cho phép một cách hiệu quả để làm việc đó đi. Người dùng có thể sử dụng API phổ biến ở cấp khung Ai và chúng tôi có API (oneAPI) giải quyết các loại phần cứng khác nhau.” Vì vậy, một API chung có nghĩa là người dùng có thể tạo phần mềm mở có thể được hỗ trợ trên một kho phần mềm mở.

Hiệu suất ở mức GPU ở mức giá ở mức CPU

Tiến bộ trong lĩnh vực CNTT được thúc đẩy chủ yếu nhờ kỳ vọng về tiến bộ công nghệ liên tục gắn liền với những cải tiến dựa trên hiểu biết sâu sắc trong các chiến lược triển khai. Đó là mô hình dựa trên việc tìm kiếm sự cân bằng tốt nhất có thể đạt được giữa chi tiêu ngân sách và ROI của doanh nghiệp, đồng thời kỳ vọng rằng luôn có sự đổi mới hơn nữa để phấn đấu. AI đại diện cho đỉnh cao của lý tưởng này – nó đủ thông minh để tái tạo lại đề xuất giá trị của chính mình thông qua quá trình tự cải thiện không ngừng.

Bằng cách tích hợp bộ tăng tốc AMX vào CPU Intel Xeon thế hệ thứ 4, Intel cho thấy hiệu suất cấp GPU có thể đạt được ở mức giá cấp CPU như thế nào. Điều này cho phép các trung tâm dữ liệu mở rộng quy mô đồng thời tối đa hóa giá trị lợi nhuận của các bộ xử lý được hỗ trợ bởi Intel Xeon hiện có, đồng thời cung cấp mô hình định giá giúp giảm chi phí đầu vào cho những khách hàng có khối lượng công việc AI nhưng có ngân sách hạn chế.

Và mức tiêu thụ điện năng thấp hơn của CPU có nghĩa là có thể đạt được hiệu quả sử dụng năng lượng một cách toàn diện trong toàn bộ hoạt động của cơ sở trung tâm dữ liệu – chẳng hạn như làm mát và thông gió – và đó là một lợi thế khác dành cho các kiến ​​trúc sư và nhà phát triển phần mềm chú trọng đến tính bền vững của giải pháp AL.

Đóng góp bởi Intel.

Dấu thời gian:

Thêm từ Đăng ký