Microsoft lisab Azure'i pilve rohkem masinõpet

Microsoft lisab Azure'i pilve rohkem masinõpet

Allikasõlm: 2677257

Microsoft lisas kindlasti Azure'i AI-festile, mis oli sel nädalal Build 2023 arendajate konverents.

Kuna ettevõtted kaaluvad generatiivse tehisintellektiga katsetamist või juurutamist, võivad nad selliste asjade käitamiseks kasutada avalikke pilvi ja sarnast skaleeritavat arvutus- ja salvestusinfrastruktuuri.

Microsoft relvastatud ChatGPT, GPT-4 ja teised OpenAI süsteemid on juba kuid tootnud tehisintellekti võimalusi oma impeeriumi igasse nurka. Azure ei erine – OpenAI teenus on näide – ja pärast seda Konverentsi ehitamine, Redmond's public cloud now has even more claimed offers.

Nimekirja kõrgel kohal on laiendatud koostöö Nvidiaga, mis ise tormab end kehtestama asendamatu AI-tehnoloogia pakkujana, alates GPU-kiirenditest kuni tarkvarani. Ainuüksi sel nädalal avalikustas kiibitootja hulga partnerlussuhteid, näiteks Delliga Dell Technologies Worldis ja superarvutite tootjatega ISC23-s.

Nvidia ressursside toomine Azure'i

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

Samal päeval tegi Microsoft Azure'i masinõppe registrid – platvorm selliste masinõppe ehitusplokkide, nagu konteinerid, mudelid ja andmed, hostimiseks ja jagamiseks ning tööriist AI Enterprise'i integreerimiseks Azure'i – üldiselt saadaval. AI Enterprise in Azure Machine Learning on saadaval ka piiratud tehnilise eelvaatega.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Võrkude eraldamine AI andmete kaitsmiseks

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced hallatud võrgu isoleerimine in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations laiendatud nende suhe.

Hugging Face pakub juba a kureeritud komplekt tööriistade ja API-de ning a tohutu keskus of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Rohkem vundamendi mudelivalikuid

Redmond teeb samuti vundamendi mudelid Azure'i masinõppes, mis on saadaval avalikus eelvaates. Vundamendimudelid on võimsad ja suure võimekusega eelkoolitatud mudelid, mida organisatsioonid saavad oma andmetega oma eesmärkidel kohandada ja vajadusel kasutusele võtta.

Vundamendi mudelid muutuvad üsna oluliseks, kuna need võivad aidata organisatsioonidel luua mittetriviaalseid ML-toega rakendusi, mis on kujundatud nende spetsiifiliste vajaduste järgi, ilma et peaksid kulutama sadu miljoneid dollareid mudelite koolitamiseks nullist või töötlemise ja tundlike kliendiandmete pilve laadimisest.

Nvidia andis välja a nemo raamistik, mis võib selles valdkonnas kasulik olla, ja see kuu on seda teinud partnerlusega ServiceNow'ga ja sel nädalal Delliga Projekt Helix neid jooni mööda.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Sellised ressursid nagu avatud lähtekoodiga ja sihtasutuse mudelid lubavad vähendada keerukust ja kulusid, et võimaldada rohkematel organisatsioonidel juurdepääs generatiivsele AI-le. ®

Ajatempel:

Veel alates Register