Microsoft llena la nube de Azure con más aprendizaje automático

Microsoft llena la nube de Azure con más aprendizaje automático

Nodo de origen: 2677257

Microsoft se aseguró de incluir a Azure en el festival de IA que fue la conferencia de desarrolladores Build 2023 esta semana.

A medida que las empresas consideren experimentar o implementar IA generativa, es posible que busquen nubes públicas e infraestructura de almacenamiento y computación escalable similar para ejecutar cosas como modelos de lenguaje grande (LLM).

Microsoft, armado con ChatGPT, GPT-4 y otros sistemas OpenAI han estado impulsando durante meses las capacidades de IA en todos los rincones y grietas de su imperio. Azure no es diferente, el servicio OpenAI es un ejemplo, y después de su Construir conferencia, Redmond's public cloud now has even more claimed offers.

En lo alto de la lista se encuentra una versión ampliada asociación con Nvidia, que se apresura a establecerse como el proveedor indispensable de tecnología de inteligencia artificial, desde aceleradores de GPU hasta software. Solo esta semana, el fabricante de chips dio a conocer una serie de asociaciones, como con Dell en Dell Technologies World y los fabricantes de supercomputadoras en ISC23.

Llevar los recursos de Nvidia a Azure

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

El mismo día, Microsoft hizo Azure Machine Learning registros – una plataforma para hospedar y compartir bloques de construcción de aprendizaje automático como contenedores, modelos y datos y una herramienta para integrar AI Enterprise en Azure – disponible de forma general. AI Enterprise en Azure Machine Learning también está disponible en versión preliminar técnica limitada.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Aislamiento de redes para proteger los datos de IA

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced aislamiento de red administrado in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations expandido su relación.

Hugging Face ya ofrece una conjunto curado de herramientas y APIs, así como un gran centro of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Más opciones de modelo de base

Redmond también está haciendo modelos de cimientos en Azure Machine Learning disponible en versión preliminar pública. Los modelos básicos son modelos preentrenados potentes y de gran capacidad que las organizaciones pueden personalizar con sus propios datos para sus propios fines e implementar según sea necesario.

Modelos de cimentación se están volviendo muy importantes, ya que pueden ayudar a las organizaciones a crear aplicaciones basadas en ML no triviales, adaptadas a sus requisitos específicos, sin tener que gastar cientos de millones de dólares entrenando los modelos desde cero o descargando el procesamiento y los datos confidenciales de los clientes a la nube.

Nvidia lanzó un nemo marco que puede ser útil en esta área, y este mes ha asociado con ServiceNow y, esta semana, Dell en Proyecto Helix Entre esas líneas.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Los recursos como los modelos básicos y de código abierto prometen reducir la complejidad y los costos para permitir que más organizaciones accedan a la IA generativa. ®

Sello de tiempo:

Mas de El registro