Microsoft füllt die Azure-Cloud mit mehr maschinellem Lernen

Microsoft füllt die Azure-Cloud mit mehr maschinellem Lernen

Quellknoten: 2677257

Microsoft hat dafür gesorgt, Azure in das KI-Fest der Build 2023-Entwicklerkonferenz dieser Woche einzubeziehen.

Wenn Unternehmen darüber nachdenken, mit generativer KI zu experimentieren oder diese einzusetzen, könnten sie durchaus auf öffentliche Clouds und ähnliche skalierbare Rechen- und Speicherinfrastrukturen zurückgreifen, um Dinge wie Large-Language-Models (LLMs) auszuführen.

Microsoft, bewaffnet mit ChatGPT, GPT-4 und andere OpenAI-Systeme drängen seit Monaten KI-Fähigkeiten in jeden Winkel ihres Imperiums. Azure ist nicht anders – der OpenAI Service ist ein Beispiel – und danach Konferenz aufbauen, Redmond's public cloud now has even more claimed offers.

Ganz oben auf der Liste steht ein erweitertes Partnerschaft mit Nvidia, das selbst bestrebt ist, sich als unverzichtbarer Anbieter von KI-Technologie zu etablieren, von GPU-Beschleunigern bis hin zu Software. Allein diese Woche stellte der Chiphersteller eine Reihe von Partnerschaften vor, beispielsweise mit Dell auf der Dell Technologies World und Supercomputerherstellern auf der ISC23.

Nvidia-Ressourcen in Azure integrieren

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

Am selben Tag führte Microsoft Azure Machine Learning ein Registrierungen – eine Plattform zum Hosten und Teilen von Bausteinen des maschinellen Lernens wie Containern, Modellen und Daten sowie ein Tool zur Integration von AI Enterprise in Azure – allgemein verfügbar. AI Enterprise in Azure Machine Learning ist auch in einer eingeschränkten technischen Vorschau verfügbar.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

Isolierung von Netzwerken zum Schutz von KI-Daten

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced verwaltete Netzwerkisolation in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations ergänzt ihre Beziehung.

Hugging Face bietet bereits eine kuratiertes Set von Tools und APIs sowie a riesiger Knotenpunkt of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

Weitere Optionen für Stiftungsmodelle

Redmond macht auch Gründungsmodelle in Azure Machine Learning in der öffentlichen Vorschau verfügbar. Foundation-Modelle sind leistungsstarke und hochleistungsfähige vorab trainierte Modelle, die Unternehmen mit ihren eigenen Daten für ihre eigenen Zwecke anpassen und bei Bedarf einführen können.

Gründungsmodelle werden immer wichtiger, da sie Unternehmen dabei helfen können, nicht-triviale ML-basierte Anwendungen zu erstellen, die auf ihre spezifischen Anforderungen zugeschnitten sind, ohne Hunderte Millionen Dollar dafür ausgeben zu müssen, die Modelle von Grund auf zu trainieren oder Verarbeitungs- und sensible Kundendaten in die Cloud auszulagern.

Nvidia hat eine veröffentlicht Nemo Rahmen, der in diesem Bereich nützlich sein könnte, und dieser Monat hat dies getan Partnerschaft mit ServiceNow und – diese Woche – Dell in Projekt Helix entlang dieser Linien.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

Ressourcen wie Open-Source- und Foundation-Modelle versprechen eine Reduzierung der Komplexität und Kosten, um mehr Organisationen Zugang zu generativer KI zu ermöglichen. ®

Zeitstempel:

Mehr von Das Register