Microsoft расширяет возможности облака Azure машинным обучением

Microsoft расширяет возможности облака Azure машинным обучением

Исходный узел: 2677257

Microsoft позаботилась о том, чтобы включить Azure в AI-fest, который был конференцией разработчиков Build 2023 на этой неделе.

Поскольку предприятия планируют экспериментировать с генеративным искусственным интеллектом или развертывать его, они вполне могут обратиться к общедоступным облакам и аналогичной масштабируемой инфраструктуре вычислений и хранения для запуска таких вещей, как модели с большим языком (LLM).

Microsoft, вооружившись ChatGPT, GPT-4 и другие системы OpenAI в течение нескольких месяцев внедряли возможности ИИ в каждый уголок своей империи. Azure ничем не отличается — например, служба OpenAI — и после ее Построить конференциюПубличное облако Редмонда теперь имеет еще больше востребованных предложений.

Верхним в списке является расширенный партнерство с Nvidia, которая сама спешит зарекомендовать себя как незаменимый поставщик технологий искусственного интеллекта, от ускорителей GPU до программного обеспечения. Только на этой неделе производитель чипов объявил о множестве партнерских отношений, таких как Dell на Dell Technologies World и производители суперкомпьютеров на ISC23.

Перенос ресурсов Nvidia в Azure

В частности, Microsoft интегрирует пакет программного обеспечения Nvidia AI Enterprise, инструменты разработки, платформы и предварительно обученные модели в машинное обучение Azure, создавая то, что Тина Мангани, менеджер по продукту облачной платформы машинного обучения, назвала «первым готовым к использованию на предприятии безопасным конечным продуктом». Комплексная облачная платформа, позволяющая разработчикам создавать, развертывать и управлять приложениями искусственного интеллекта, включая пользовательские модели большого языка».

В тот же день Microsoft сделала Azure Machine Learning реестры — общедоступная платформа для размещения и совместного использования таких строительных блоков машинного обучения, как контейнеры, модели и данные, а также инструмент для интеграции AI Enterprise в Azure. AI Enterprise в Машинном обучении Azure также доступен в ограниченной технической предварительной версии.

«Это означает, что клиенты, у которых есть существующие обязательства и отношения с Azure, они могут использовать эти отношения – они могут использовать уже имеющиеся у них облачные контракты – для получения Nvidia AI Enterprise и использовать его либо в Azure ML, чтобы получить это беспрепятственную работу корпоративного уровня или отдельно в тех экземплярах, которые они выберут», — сказал журналистам Манувир Дас, вице-президент по корпоративным вычислениям Nvidia, за несколько дней до открытия Build.

Изоляция сетей для защиты данных ИИ

Предприятия, выполняющие операции искусственного интеллекта в облаке, хотят гарантировать, что их данные не станут доступными другим компаниям, при этом сетевая изоляция является ключевым инструментом. У Microsoft есть такие функции, как частное рабочее пространство и защита от кражи данных, но нет опции общедоступного IP-адреса для вычислительных ресурсов компаний, обучающих модели искусственного интеллекта. На Build вендор объявил изоляция управляемой сети в Машинном обучении Azure для выбора режима изоляции, который лучше всего соответствует политикам безопасности предприятия.

Не пропустите наш репортаж о Build 2023

Неудивительно, что инструменты с открытым исходным кодом все чаще проникают в сферу искусственного интеллекта. В прошлом году Microsoft заключила партнерское соглашение с Hugging Face, чтобы создать конечные точки машинного обучения Azure на основе технологии компании с открытым исходным кодом. В Build пара организаций расширенный их отношения.

Hugging Face уже предлагает кураторский набор инструментов и API, а также огромный центр моделей машинного обучения для загрузки и использования. Теперь коллекция из тысяч этих моделей появится в каталоге машинного обучения Azure в Редмонде, чтобы клиенты могли получить к ним доступ и развернуть их на управляемых конечных точках в облаке Microsoft.

Больше вариантов модели фундамента

Редмонд также делает модели фундамента в Машинном обучении Azure, доступном в общедоступной предварительной версии. Базовые модели — это мощные и высокопроизводительные предварительно обученные модели, которые организации могут настраивать с использованием собственных данных для своих целей и развертывать по мере необходимости.

Модели фундамента становятся весьма важными, поскольку они могут помочь организациям создавать нетривиальные приложения на основе машинного обучения, адаптированные к их конкретным требованиям, без необходимости тратить сотни миллионов долларов на обучение моделей с нуля или перенос обработки и конфиденциальных данных клиентов в облако.

Nvidia выпустила НеМо рамки, которые могут быть полезны в этой области, и в этом месяце партнерство с ServiceNow и — на этой неделе — Dell в Проект Хеликс по этим линиям.

«После того, как мы работали с корпоративными компаниями над генеративным ИИ в течение последних нескольких месяцев, мы узнали, что существует большое количество корпоративных компаний, которые хотели бы использовать возможности генеративного ИИ, но делают это в своих собственных центрах обработки данных. или сделайте это за пределами общедоступного облака», — сказал Дас из Nvidia.

Ресурсы, такие как модели с открытым исходным кодом и базовые модели, обещают снизить сложность и затраты, чтобы предоставить большему количеству организаций доступ к генеративному ИИ. ®

Отметка времени:

Больше от Регистр