Microsoft fyller på Azure-molnet med mer maskininlärning

Microsoft fyller på Azure-molnet med mer maskininlärning

Källnod: 2677257

Microsoft såg till att inkludera Azure i AI-festen som var utvecklarkonferensen Build 2023 denna vecka.

När företag överväger att experimentera med eller distribuera generativ AI kan de mycket väl se till offentliga moln och liknande skalbar dator- och lagringsinfrastruktur för att köra saker som stora språkmodeller (LLM).

Microsoft, beväpnad med ChatGPT, GPT-4 och andra OpenAI-system har i flera månader knuffat in AI-kapaciteter i varje skrymsle och vrår av dess imperium. Azure är inte annorlunda – OpenAI-tjänsten är ett exempel – och efter dess Bygg konferens, Redmond's public cloud now has even more claimed offers.

Högt upp på listan står en utökad samarbete med Nvidia, som själv skyndar sig att etablera sig som den oumbärliga AI-teknikleverantören, från GPU-acceleratorer till mjukvara. Bara denna vecka presenterade chiptillverkaren en mängd partnerskap, som med Dell på Dell Technologies World och superdatortillverkare på ISC23.

Ta med Nvidia-resurser till Azure

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

Samma dag gjorde Microsoft Azure Machine Learning register – en plattform för att vara värd för och dela sådana maskinlärande byggstenar som behållare, modeller och data och ett verktyg för att integrera AI Enterprise i Azure – allmänt tillgängligt. AI Enterprise i Azure Machine Learning är också tillgänglig i begränsad teknisk förhandsvisning.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Isolera nätverk för att skydda AI-data

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced hanterad nätverksisolering in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations expanderade deras relation.

Hugging Face erbjuder redan en utvald uppsättning av verktyg och API:er samt en enormt nav of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Fler alternativ för foundationmodell

Redmond gör också grundmodeller i Azure Machine Learning tillgänglig i offentlig förhandsvisning. Grundmodeller är kraftfulla och mycket kapabla förtränade modeller som organisationer kan anpassa med sin egen data för sina egna syften och rulla ut efter behov.

Grundmodeller blir ganska viktiga, eftersom de kan hjälpa organisationer att bygga icke-triviala ML-drivna applikationer, formade efter deras specifika krav, utan att behöva spendera hundratals miljoner dollar på att träna modellerna från grunden eller ladda ner bearbetning och känslig kunddata till molnet.

Nvidia släppte en nemo ramverk som kan vara användbart på detta område, och den här månaden har samarbetar med ServiceNow och – den här veckan – Dell in Projekt Helix längs de linjerna.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Resurser som öppen källkod och grundmodeller lovar att minska komplexiteten och kostnaderna för att ge fler organisationer tillgång till generativ AI. ®

Tidsstämpel:

Mer från Registret