Microsoft nhồi nhét đám mây Azure với nhiều máy học hơn

Microsoft nhồi nhét đám mây Azure với nhiều máy học hơn

Nút nguồn: 2677257

Microsoft đảm bảo đưa Azure vào lễ hội AI, đó là hội nghị nhà phát triển Build 2023 trong tuần này.

Khi các doanh nghiệp xem xét thử nghiệm hoặc triển khai AI tổng quát, họ có thể xem xét các đám mây công cộng và cơ sở hạ tầng lưu trữ và tính toán có thể mở rộng tương tự để chạy những thứ như mô hình ngôn ngữ lớn (LLM).

Microsoft, trang bị ChatGPT, GPT-4 và các hệ thống OpenAI khác trong nhiều tháng đã đưa các khả năng của AI vào mọi ngóc ngách trong đế chế của nó. Azure cũng không ngoại lệ – Dịch vụ OpenAI là một ví dụ – và sau đó Xây dựng hội nghị, đám mây công cộng của Redmond hiện thậm chí còn có nhiều ưu đãi được xác nhận hơn.

Cao trong danh sách là một mở rộng hợp tác với Nvidia, bản thân nó đang gấp rút khẳng định mình là nhà cung cấp công nghệ AI không thể thiếu, từ bộ tăng tốc GPU đến phần mềm. Chỉ trong tuần này, nhà sản xuất chip đã tiết lộ một loạt quan hệ đối tác, chẳng hạn như với Dell tại Dell Technologies World và các nhà sản xuất siêu máy tính tại ISC23.

Đưa tài nguyên Nvidia vào Azure

Cụ thể, Microsoft đang tích hợp bộ phần mềm, công cụ phát triển, khung và mô hình được đào tạo trước AI Enterprise của Nvidia vào Azure Machine Learning, tạo ra thứ mà Tina Manghnani, giám đốc sản phẩm cho nền tảng đám mây máy học, gọi là "sẵn sàng, an toàn, kết thúc đầu tiên cho doanh nghiệp". -nền tảng đám mây toàn diện dành cho các nhà phát triển để xây dựng, triển khai và quản lý các ứng dụng AI bao gồm các mô hình ngôn ngữ lớn tùy chỉnh."

Cùng ngày, Microsoft đã tạo ra Azure Machine Learning cơ quan đăng ký – một nền tảng để lưu trữ và chia sẻ các khối xây dựng máy học như bộ chứa, mô hình và dữ liệu cũng như một công cụ để tích hợp AI Enterprise vào Azure – thường có sẵn. AI Enterprise trong Azure Machine Learning cũng có sẵn trong bản xem trước kỹ thuật hạn chế.

"Điều này có nghĩa là đối với những khách hàng hiện có cam kết và mối quan hệ với Azure, họ có thể sử dụng các mối quan hệ đó - họ có thể sử dụng từ các hợp đồng đám mây mà họ đã có - để có được Nvidia AI Enterprise và sử dụng nó trong Azure ML để có được điều này trải nghiệm liền mạch cấp doanh nghiệp hoặc riêng biệt trong các trường hợp họ chọn”, Manuvir Das, phó chủ tịch phụ trách điện toán doanh nghiệp tại Nvidia, nói với các nhà báo vài ngày trước khi Build khai trương.

Cô lập mạng để bảo vệ dữ liệu AI

Các doanh nghiệp vận hành AI trên đám mây muốn đảm bảo dữ liệu của họ không bị lộ cho các công ty khác, với việc cách ly mạng là công cụ chính. Microsoft có các tính năng như không gian làm việc liên kết riêng tư và bảo vệ chống rò rỉ dữ liệu, nhưng không có tùy chọn IP công cộng cho tài nguyên điện toán của các công ty đào tạo mô hình AI. Tại Build, nhà cung cấp đã công bố cách ly mạng được quản lý trong Azure Machine Learning để chọn chế độ cách ly phù hợp nhất với chính sách bảo mật của doanh nghiệp.

Đừng bỏ lỡ phạm vi phủ sóng Build 2023 của chúng tôi

Không có gì đáng ngạc nhiên khi các công cụ nguồn mở ngày càng xuất hiện nhiều hơn trong không gian AI. Microsoft năm ngoái đã hợp tác với Hugging Face để mang đến các điểm cuối Azure Machine Learning được hỗ trợ bởi công nghệ nguồn mở của công ty. Tại Build, cặp tổ chức mở rộng mối quan hệ của họ.

Ôm mặt đã cung cấp một bộ tuyển chọn các công cụ và API cũng như một trung tâm lớn của các mô hình ML để tải xuống và sử dụng. Giờ đây, bộ sưu tập hàng nghìn mô hình này sẽ xuất hiện trong danh mục Azure Machine Learning của Redmond để khách hàng có thể truy cập và triển khai chúng trên các điểm cuối được quản lý trong đám mây của Microsoft.

Nhiều tùy chọn mô hình nền tảng hơn

Redmond cũng đang làm mô hình nền tảng trong Azure Machine Learning có sẵn trong bản xem trước công khai. Các mô hình nền tảng là các mô hình được đào tạo trước mạnh mẽ và có khả năng cao mà các tổ chức có thể tùy chỉnh với dữ liệu của riêng họ cho mục đích riêng của họ và triển khai khi cần.

Mô hình nền tảng đang trở nên khá quan trọng, vì chúng có thể giúp các tổ chức xây dựng các ứng dụng hỗ trợ ML không tầm thường, được định hình theo các yêu cầu cụ thể của họ mà không phải chi hàng trăm triệu đô la để đào tạo các mô hình từ đầu hoặc giảm tải quá trình xử lý và dữ liệu nhạy cảm của khách hàng lên đám mây.

Nvidia đã phát hành một nemo khuôn khổ có thể hữu ích trong lĩnh vực này, và tháng này có hợp tác với ServiceNow và – tuần này – Dell trong Dự án Helix dọc theo những dòng đó.

“Khi chúng tôi làm việc với các công ty doanh nghiệp về AI tạo ra trong vài tháng qua, điều chúng tôi học được là có một số lượng lớn các công ty doanh nghiệp muốn tận dụng sức mạnh của AI tạo ra, nhưng thực hiện điều đó trong trung tâm dữ liệu của riêng họ. hoặc thực hiện nó bên ngoài đám mây công cộng”, Das của Nvidia cho biết.

Các tài nguyên như nguồn mở và các mô hình nền tảng hứa hẹn sẽ giảm độ phức tạp và chi phí để cho phép nhiều tổ chức hơn tiếp cận với AI tổng quát. ®

Dấu thời gian:

Thêm từ Đăng ký