Microsoft propt de Azure-cloud vol met meer machine learning

Microsoft propt de Azure-cloud vol met meer machine learning

Bronknooppunt: 2677257

Microsoft zorgde ervoor dat Azure deze week werd opgenomen in het AI-fest dat de Build 2023-ontwikkelaarsconferentie was.

Als ondernemingen overwegen te experimenteren met generatieve AI of deze in te zetten, kijken ze misschien naar openbare clouds en vergelijkbare schaalbare computer- en opslaginfrastructuur om zaken als large-language models (LLM's) uit te voeren.

Microsoft, gewapend met ChatGPT, GPT-4 en andere OpenAI-systemen hebben al maanden AI-mogelijkheden in alle hoeken en gaten van hun imperium geduwd. Azure is niet anders – de OpenAI Service is een voorbeeld – en daarna Conferentie opzetten, Redmond's public cloud now has even more claimed offers.

Hoog op de lijst staat een uitgebreide samenwerking met Nvidia, dat zelf haast heeft om zichzelf te vestigen als de onmisbare aanbieder van AI-technologie, van GPU-versnellers tot software. Alleen al deze week onthulde de chipmaker een groot aantal partnerschappen, zoals met Dell op Dell Technologies World en supercomputermakers op ISC23.

Nvidia-resources naar Azure brengen

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

Diezelfde dag maakte Microsoft Azure Machine Learning registers – een platform voor het hosten en delen van machine learning-bouwstenen zoals containers, modellen en data en een tool voor het integreren van AI Enterprise in Azure – algemeen beschikbaar. AI Enterprise in Azure Machine Learning is ook beschikbaar in beperkte technische preview.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Netwerken isoleren om AI-gegevens te beschermen

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced beheerde netwerkisolatie in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations uitgebreid hun relatie.

Hugging Face biedt al een samengestelde set van tools en API's, evenals een enorme hub of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Meer opties voor funderingsmodellen

Redmond maakt ook funderingsmodellen in Azure Machine Learning beschikbaar in openbare preview. Foundation-modellen zijn krachtige en zeer capabele vooraf getrainde modellen die organisaties kunnen aanpassen met hun eigen gegevens voor hun eigen doeleinden en naar behoefte kunnen uitrollen.

Funderingsmodellen worden behoorlijk belangrijk, omdat ze organisaties kunnen helpen bij het bouwen van niet-triviale ML-aangedreven applicaties, gevormd naar hun specifieke vereisten, zonder dat ze honderden miljoenen dollars hoeven te besteden aan het trainen van de modellen vanaf het begin of het verplaatsen van verwerking en gevoelige klantgegevens naar de cloud.

Nvidia heeft een nemo kader dat op dit gebied nuttig kan zijn, en deze maand heeft partnered met ServiceNow en – deze week – Dell binnen ProjectHelix langs die lijnen.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Middelen zoals open-source- en basismodellen beloven de complexiteit en kosten te verminderen om meer organisaties toegang te geven tot generatieve AI. ®

Tijdstempel:

Meer van Het register