Microsoft Azure क्लाउड को अधिक मशीन लर्निंग से भरता है

Microsoft Azure क्लाउड को अधिक मशीन लर्निंग से भरता है

स्रोत नोड: 2677257

Microsoft ने Azure को AI-उत्सव में शामिल करना सुनिश्चित किया जो इस सप्ताह बिल्ड 2023 डेवलपर सम्मेलन था।

जैसा कि उद्यम जनरेटिव एआई के साथ प्रयोग करने या तैनात करने पर विचार करते हैं, वे बड़े-भाषा मॉडल (एलएलएम) जैसी चीजों को चलाने के लिए सार्वजनिक बादलों और समान स्केलेबल कंप्यूट और स्टोरेज इंफ्रास्ट्रक्चर को अच्छी तरह से देख सकते हैं।

माइक्रोसॉफ्ट, सशत्र ChatGPT, GPT-4, और अन्य OpenAI सिस्टम, महीनों से AI क्षमताओं को अपने साम्राज्य के हर नुक्कड़ पर धकेल रहे हैं। Azure अलग नहीं है – OpenAI सेवा एक उदाहरण है – और इसके बाद सम्मेलन बनाएँ, Redmond's public cloud now has even more claimed offers.

सूची में उच्च एक विस्तारित है एनवीडिया के साथ साझेदारी, जो खुद को GPU त्वरक से लेकर सॉफ्टवेयर तक अनिवार्य AI प्रौद्योगिकी प्रदाता के रूप में स्थापित करने के लिए दौड़ रहा है। इस हफ्ते अकेले चिपमेकर ने कई साझेदारियों का अनावरण किया, जैसे डेल टेक्नोलॉजीज वर्ल्ड में डेल और ISC23 में सुपरकंप्यूटर निर्माताओं के साथ।

Nvidia संसाधनों को Azure में लाना

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

उसी दिन, Microsoft ने Azure Machine Learning बनाया रजिस्ट्रियों - इस तरह के मशीन-लर्निंग बिल्डिंग ब्लॉक को कंटेनर, मॉडल और डेटा के रूप में होस्ट करने और साझा करने के लिए एक मंच और एज़्योर में एआई एंटरप्राइज को एकीकृत करने के लिए एक उपकरण - आम तौर पर उपलब्ध है। Azure Machine Learning में AI Enterprise सीमित तकनीकी पूर्वावलोकन में भी उपलब्ध है।

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

एआई डेटा की सुरक्षा के लिए नेटवर्क को अलग करना

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced प्रबंधित नेटवर्क अलगाव in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations विस्तारित उनके रिश्ते।

हगिंग फेस पहले से ही ऑफर करता है क्यूरेटेड सेट टूल्स और एपीआई के साथ-साथ ए विशाल हब of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

अधिक नींव मॉडल विकल्प

रेडमंड भी बना रहा है नींव मॉडल सार्वजनिक पूर्वावलोकन में उपलब्ध एज़्योर मशीन लर्निंग में। फाउंडेशन मॉडल शक्तिशाली और अत्यधिक सक्षम पूर्व-प्रशिक्षित मॉडल हैं जिन्हें संगठन अपने उद्देश्यों के लिए अपने स्वयं के डेटा के साथ अनुकूलित कर सकते हैं और आवश्यकतानुसार रोल आउट कर सकते हैं।

फाउंडेशन मॉडल काफी महत्वपूर्ण होते जा रहे हैं, क्योंकि वे संगठनों को गैर-तुच्छ एमएल-संचालित अनुप्रयोगों का निर्माण करने में मदद कर सकते हैं, जो कि उनकी विशिष्ट आवश्यकताओं के लिए तैयार किए जा सकते हैं, सैकड़ों मिलियन डॉलर खर्च किए बिना मॉडल को स्क्रैच या ऑफलोडिंग प्रसंस्करण और संवेदनशील ग्राहक डेटा को क्लाउड पर खर्च किए बिना।

एनवीडिया ने ए जारी किया निमो रूपरेखा जो इस क्षेत्र में उपयोगी हो सकती है, और इस महीने में है भागीदारी ServiceNow के साथ और - इस सप्ताह - Dell in प्रोजेक्ट हेलिक्स उन पंक्तियों के साथ.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

ओपन-सोर्स और फाउंडेशन मॉडल जैसे संसाधन जटिलता और लागत को कम करने का वादा करते हैं ताकि अधिक संगठनों को जेनेरेटिव एआई तक पहुंच की अनुमति मिल सके। ®

समय टिकट:

से अधिक रजिस्टर