Dell và Nvidia mơ về các mô hình AI tổng hợp DIY

Dell và Nvidia mơ về các mô hình AI tổng hợp DIY

Nút nguồn: 2674711

Thế giới Dell Dell đã liên kết với Nvidia để quảng cáo cho các doanh nghiệp về các công cụ xây dựng các mô hình AI tổng quát được đào tạo trên dữ liệu công ty của chính họ, thay vì thông tin có sẵn công khai, chẳng hạn như thông tin được sử dụng bởi các mô hình ngôn ngữ lớn (LLM) có mục đích chung như GPT của OpenAI.

Chìa khóa của sân là bảo mật dữ liệu. Manuvir Das, phó chủ tịch mảng điện toán doanh nghiệp của Nvidia, nói với các nhà báo rằng một doanh nghiệp xây dựng AI tổng quát của riêng mình được đào tạo trên dữ liệu dành riêng cho miền của mình “không phải lo lắng về việc dữ liệu độc quyền của họ bị trộn lẫn với dữ liệu độc quyền của một số công ty khác trong quá trình đào tạo."

Project Helix, một kế hoạch do Nvidia và Dell đưa ra vào thứ Ba tại Dell Technologies World 2023, bao gồm PowerEdge XE9680 và máy chủ giá đỡ R760xa được tối ưu hóa cho khối lượng công việc đào tạo AI và suy luận. XE9680, trong khi chạy hai Bộ xử lý Xeon có thể mở rộng thế hệ thứ 4 của Intel, cũng chứa tám bộ vi xử lý mới nhất của Nvidia. GPU H100 Tenor Core được kết nối thông qua mạng NVLink của Nvidia.

Nvidia cũng có kế hoạch khai thác phần mềm doanh nghiệp AI, khung và công cụ dành cho nhà phát triển – bao gồm NeMo và các mô hình nền tảng được đào tạo trước lan can NeMo – để xây dựng các chatbot AI tổng quát an toàn. Các hệ thống lưu trữ đối tượng doanh nghiệp PowerScale và ECS của Dell dành cho dữ liệu phi cấu trúc có thể được sử dụng với các máy chủ giá đỡ PowerEdge.

“Tất cả những điều này cho phép chúng tôi tập hợp một giải pháp thực sự hoàn chỉnh cho AI tổng quát có thể chạy tại chỗ, được xác thực đầy đủ với phần cứng và phần mềm, an toàn [và] riêng tư,” theo Das.

Sống trên bờ vực

Chạy khối lượng công việc đào tạo và suy luận trong trung tâm dữ liệu của chính công ty là chìa khóa để giữ cho dữ liệu quan trọng của công ty không bị đưa vào phạm vi công cộng và có thể vi phạm quy định về quyền riêng tư và bảo mật, theo Huang. Trong trường hợp AI tổng quát, on-prem sẽ ngày càng có nghĩa là lợi thế.

Huang nói: “Họ phải làm điều đó tại chỗ vì đó là nơi chứa dữ liệu của họ và họ phải làm điều đó gần ranh giới bởi vì điều đó gần với tốc độ ánh sáng nhất. “Bạn muốn nó phản hồi ngay lập tức. Bạn cũng muốn nó ở rìa, bởi vì trong tương lai, bạn muốn có thông tin từ nhiều phương thức.

“Chúng tôi càng nhận được nhiều thông tin theo ngữ cảnh, chúng tôi càng có thể suy luận … tốt hơn. Khả năng đưa ra những quyết định đó càng gần ranh giới càng tốt, nơi hành động, nơi có tất cả dữ liệu và nơi khả năng phản hồi có thể cao nhất có thể, thực sự cần thiết.”

Đối với Nvidia, công ty cách đây một thập kỷ đã đặt cược vào việc AI sẽ trở thành động cơ tăng trưởng trong tương lai, Project Helix tiếp tục giúp củng cố vị trí của mình với tư cách là người hỗ trợ chính về học máy cho các tập đoàn và tổ chức HPC.

Theo Jeffrey Clarke, vào thời điểm các LLM đào tạo trên các bộ dữ liệu đa năng khổng lồ – trong trường hợp của GPT và bot ChatGPT được xây dựng trên đó, internet – các tổ chức muốn đào tạo các mô hình nhỏ hơn trên dữ liệu của chính họ để giải quyết các nhu cầu cụ thể của riêng họ , phó chủ tịch và đồng COO tại Dell.

“Đó là xu hướng mà chúng tôi thấy với khách hàng,” Clarke nói. “Làm cách nào để họ nắm bắt bối cảnh kinh doanh, dữ liệu của họ và giúp họ đưa ra quyết định kinh doanh tốt hơn? Bạn không cần một mô hình ngôn ngữ lớn GPT để làm điều đó. … Các công ty sẽ không triển khai ChatGPT trong nhà máy để làm cho nhà máy hoạt động tốt hơn. Đó sẽ là một mô hình được bản địa hóa bởi công ty X, Y hoặc Z với dữ liệu của họ.”

Trao quyền kiểm soát nhiều hơn

Nỗ lực cho phép các doanh nghiệp tùy chỉnh các mô hình đào tạo bằng thông tin độc quyền của họ và trong các trung tâm dữ liệu của riêng họ đang đạt được đà phát triển. Đầu tháng này, ServiceNow và Nvidia công bố quan hệ đối tác tương tự như Project Helix. Các ý tưởng không mới, nhưng nó đã được tăng cường với sự tăng tốc gần đây trong quá trình phát triển AI và LLM tổng quát.

Tại GTC vào tháng 2022 năm XNUMX, Nvidia đã ra mắt dịch vụ NeMo LLM với ý tưởng đó, mang đến cho các doanh nghiệp cách điều chỉnh một loạt các mô hình nền tảng được đào tạo trước để tạo ra các mô hình tùy chỉnh được đào tạo trên dữ liệu của riêng họ.

Das cho biết, các mô hình có mục đích chung như GPT-4 của OpenAI sẽ phù hợp với một số công việc, “nhưng cũng có một số lượng lớn các công ty doanh nghiệp cần có các mô hình ngôn ngữ lớn được tùy chỉnh riêng cho miền của họ, cho dữ liệu độc quyền của riêng họ , để đảm bảo rằng các người mẫu đang làm chính xác những gì họ cần làm trong bối cảnh công ty của họ.”

“NeMo là một nền tảng của Nvidia dành cho những khách hàng cần xây dựng và duy trì các mô hình của riêng họ.”

Giám đốc điều hành Nvidia, Jensen Huang, người đã xuất hiện trong một cuộc thảo luận video với Clark trong bài phát biểu quan trọng, nói rằng “mọi công ty đều có cốt lõi là trí thông minh.”

“Dự án Helix… sẽ giúp mọi công ty trở thành nhà máy AI và có thể sản xuất trí thông minh, trí thông minh theo lĩnh vực cụ thể, chuyên môn của họ, sau đó thực hiện điều đó với tốc độ ánh sáng và thực hiện trên quy mô lớn,” Huang nói.

Clarke của Dell tuyên bố, sự đổi mới nhanh chóng xung quanh AI tổng quát cũng sẽ mang đến cho các doanh nghiệp nhiều lựa chọn hơn. Dell Validated Designs dựa trên Project Helix sẽ có sẵn từ tháng XNUMX. ®

Dấu thời gian:

Thêm từ Đăng ký