Microsoft riempie il cloud di Azure con più machine learning

Microsoft riempie il cloud di Azure con più machine learning

Nodo di origine: 2677257

Microsoft si è assicurata di includere Azure nell'AI-fest che è stata la conferenza degli sviluppatori Build 2023 di questa settimana.

Poiché le aziende prendono in considerazione la possibilità di sperimentare o implementare l'IA generativa, potrebbero benissimo rivolgersi a cloud pubblici e simili infrastrutture di calcolo e archiviazione scalabili per eseguire cose come i modelli LLM (Large-Language Model).

Microsoft, armato con ChatGPT, GPT-4 e altri sistemi OpenAI, da mesi spingono le capacità dell'IA in ogni angolo del suo impero. Azure non è diverso - il servizio OpenAI è un esempio - e dopo di esso Costruisci conferenza, Redmond's public cloud now has even more claimed offers.

In cima alla lista c'è un espanso collaborazione con Nvidia, che a sua volta si sta affrettando ad affermarsi come l'indispensabile fornitore di tecnologia AI, dagli acceleratori GPU al software. Solo questa settimana il produttore di chip ha svelato una serie di partnership, come con Dell al Dell Technologies World e con i produttori di supercomputer all'ISC23.

Portare le risorse Nvidia in Azure

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

Lo stesso giorno, Microsoft ha realizzato Azure Machine Learning registri – una piattaforma per l'hosting e la condivisione di elementi costitutivi di apprendimento automatico come contenitori, modelli e dati e uno strumento per l'integrazione di AI Enterprise in Azure – generalmente disponibile. AI Enterprise in Azure Machine Learning è disponibile anche in anteprima tecnica limitata.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Isolare le reti per proteggere i dati AI

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced isolamento della rete gestito in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations ampliato la loro relazione.

Hugging Face offre già a set curato di strumenti e API, nonché a enorme hub of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Altre opzioni del modello di fondazione

Anche Redmond sta facendo modelli di fondazione in Azure Machine Learning disponibile in anteprima pubblica. I modelli di base sono modelli preaddestrati potenti e altamente capaci che le organizzazioni possono personalizzare con i propri dati per i propri scopi e implementarli secondo necessità.

Modelli di fondazione stanno diventando piuttosto importanti, in quanto possono aiutare le organizzazioni a creare applicazioni basate su ML non banali, modellate sui loro requisiti specifici, senza dover spendere centinaia di milioni di dollari per addestrare i modelli da zero o scaricare l'elaborazione e i dati sensibili dei clienti nel cloud.

Nvidia ha rilasciato un nemo quadro che può essere utile in questo settore, e questo mese ha collaborato con ServiceNow e, questa settimana, Dell in Progetto Elica lungo quelle linee.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Risorse come i modelli open source e di base promettono di ridurre la complessità e i costi per consentire a più organizzazioni di accedere all'IA generativa. ®

Timestamp:

Di più da Il registro