Microsoft наповнює хмару Azure додатковими можливостями машинного навчання

Microsoft наповнює хмару Azure додатковими можливостями машинного навчання

Вихідний вузол: 2677257

Корпорація Майкрософт подбала про те, щоб включити Azure до фестивалю штучного інтелекту, тобто конференції розробників Build 2023 цього тижня.

Коли підприємства розглядають можливість експериментувати з генеративним штучним інтелектом або розгортати його, вони цілком можуть звернути увагу на загальнодоступні хмари та подібну масштабовану обчислювальну інфраструктуру та інфраструктуру зберігання для запуску таких речей, як широкомовні моделі (LLM).

Microsoft, озброєний ChatGPT, GPT-4 та інші системи OpenAI місяцями впроваджували можливості штучного інтелекту в усі закутки своєї імперії. Azure нічим не відрізняється – наприклад, служба OpenAI – і після неї Створення конференції, Redmond's public cloud now has even more claimed offers.

На першому місці списку розширений партнерство з Nvidia, яка сама поспішає зарекомендувати себе як незамінний постачальник технологій ШІ, від прискорювачів GPU до програмного забезпечення. Тільки цього тижня виробник мікросхем оприлюднив низку партнерських відносин, наприклад, з Dell на Dell Technologies World і виробниками суперкомп’ютерів на ISC23.

Перенесення ресурсів Nvidia в Azure

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

Того ж дня Microsoft створила Azure Machine Learning реєстри – платформа для розміщення та спільного використання таких будівельних блоків машинного навчання, як контейнери, моделі та дані, а також інструмент для інтеграції AI Enterprise в Azure – загальнодоступний. AI Enterprise у машинному навчанні Azure також доступний у обмеженій технічній попередній версії.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Ізоляція мереж для захисту даних ШІ

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced керована ізоляція мережі in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations розширений їхні стосунки.

Hugging Face вже пропонує a кураторський набір інструментів і API, а також a величезний хаб of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Більше варіантів моделі фундаменту

Редмонд також робить моделі фундаменту у машинному навчанні Azure доступний у загальнодоступній попередній версії. Базові моделі — це потужні та високопродуктивні попередньо навчені моделі, які організації можуть налаштовувати за допомогою власних даних для власних цілей і розгортати за потреби.

Моделі фундаменту стають дуже важливими, оскільки вони можуть допомогти організаціям створювати нетривіальні програми на основі машинного навчання, розроблені відповідно до їхніх конкретних вимог, без необхідності витрачати сотні мільйонів доларів на навчання моделей з нуля або перенесення обробки та конфіденційних даних клієнтів у хмару.

Nvidia випустила a немо структура, яка може бути корисною в цій сфері, і цього місяця є партнерська за допомогою ServiceNow і – цього тижня – Dell Проект Helix уздовж цих ліній.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Такі ресурси, як моделі з відкритим вихідним кодом і базові моделі, обіцяють зменшити складність і витрати, щоб надати більшій кількості організацій доступ до генеративного ШІ. ®

Часова мітка:

Більше від Реєстр