Microsoft completează Azure cloud cu mai multă învățare automată

Microsoft completează Azure cloud cu mai multă învățare automată

Nodul sursă: 2677257

Microsoft s-a asigurat că include Azure în festivalul AI care a fost conferința pentru dezvoltatori Build 2023 săptămâna aceasta.

Pe măsură ce întreprinderile iau în considerare să experimenteze sau să implementeze IA generativă, ele pot apela la nori publici și la o infrastructură de calcul și stocare scalabilă similară pentru a rula lucruri precum modele de limbă mare (LLM).

Microsoft, înarmat cu ChatGPT, GPT-4 și alte sisteme OpenAI au introdus de luni de zile capabilitățile AI în fiecare colț al imperiului său. Azure nu este diferit – Serviciul OpenAI este un exemplu – și după el Construiește conferința, Redmond's public cloud now has even more claimed offers.

În fruntea listei este un extins parteneriat cu Nvidia, care se grăbește să se impună ca furnizor indispensabil de tehnologie AI, de la acceleratoare GPU până la software. Numai în această săptămână, producătorul de cipuri a dezvăluit o serie de parteneriate, cum ar fi cu Dell la Dell Technologies World și producătorii de supercomputere la ISC23.

Aducerea resurselor Nvidia în Azure

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

În aceeași zi, Microsoft a creat Azure Machine Learning registre – o platformă pentru găzduirea și partajarea unor blocuri de învățare automată precum containere, modele și date și un instrument pentru integrarea AI Enterprise în Azure – disponibil în general. AI Enterprise în Azure Machine Learning este disponibil și în previzualizare tehnică limitată.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Izolarea rețelelor pentru a proteja datele AI

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced izolarea rețelei gestionate in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations extins relatia lor.

Hugging Face oferă deja o set curatat de instrumente și API-uri precum și a hub imens of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Mai multe opțiuni de model de fundație

Redmond face și el modele de fundație în Azure Machine Learning disponibil în previzualizare publică. Modelele de fundație sunt modele puternice și de înaltă capacitate pregătite pe care organizațiile le pot personaliza cu propriile date pentru propriile scopuri și le pot implementa după cum este necesar.

Modele de fundație devin destul de importante, deoarece pot ajuta organizațiile să construiască aplicații non-triviale bazate pe ML, adaptate cerințelor lor specifice, fără a fi nevoie să cheltuiască sute de milioane de dolari pentru antrenarea modelelor de la zero sau să descarce procesarea și datele sensibile ale clienților în cloud.

Nvidia a lansat un nemo cadru care poate fi util în acest domeniu, iar luna aceasta are parteneriat cu ServiceNow și – săptămâna aceasta – Dell în Proiectul Helix pe acele linii.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Resurse precum modelele open-source și fundația promit să reducă complexitatea și costurile pentru a permite mai multor organizații să aibă acces la IA generativă. ®

Timestamp-ul:

Mai mult de la Registrul