Microsoft fylder Azure-skyen med mere maskinlæring

Microsoft fylder Azure-skyen med mere maskinlæring

Kildeknude: 2677257

Microsoft sørgede for at inkludere Azure i AI-festen, der var Build 2023 udviklerkonferencen i denne uge.

Efterhånden som virksomheder overvejer at eksperimentere med eller implementere generativ kunstig intelligens, kan de godt se på offentlige skyer og lignende skalerbar computer- og lagringsinfrastruktur for at køre ting som store-sprogede modeller (LLM'er).

Microsoft, bevæbnet med ChatGPT, GPT-4 og andre OpenAI-systemer har i flere måneder skubbet AI-egenskaber ind i alle afkroge af imperiet. Azure er ikke anderledes – OpenAI Service er et eksempel – og efter dens Byg konference, Redmonds offentlige sky har nu endnu flere hævdede tilbud.

Højt på listen er en udvidet samarbejde med Nvidia, som selv skynder sig at etablere sig som den uundværlige AI-teknologileverandør, fra GPU-acceleratorer til software. Alene denne uge afslørede chipproducenten et væld af partnerskaber, såsom med Dell hos Dell Technologies World og supercomputerproducenter på ISC23.

Bringer Nvidia-ressourcer ind i Azure

Specifikt integrerer Microsoft Nvidias AI Enterprise-pakke af software, udviklingsværktøjer, rammer og fortrænede modeller i Azure Machine Learning, og skaber det, Tina Manghnani, produktchef for maskinlæringsskyplatformen, kaldte "den første virksomhedsklare, sikre ende." -to-end cloud platform for udviklere til at bygge, implementere og administrere AI-applikationer, herunder tilpassede store sprogmodeller."

Samme dag lavede Microsoft Azure Machine Learning registre – en platform til hosting og deling af sådanne maskinlæringsbyggeblokke som containere, modeller og data og et værktøj til at integrere AI Enterprise i Azure – generelt tilgængeligt. AI Enterprise i Azure Machine Learning er også tilgængelig i begrænset teknisk forhåndsvisning.

"Det betyder, at for kunder, der har eksisterende engagementer og relationer med Azure, kan de bruge disse relationer – de kan forbruge fra de cloud-kontrakter, de allerede har – til at få Nvidia AI Enterprise og bruge det enten inden for Azure ML for at få dette problemfri oplevelse i virksomhedskvalitet eller separat på tilfælde, som de vælger at gøre," fortalte Manuvir Das, vicepræsident for enterprise computing hos Nvidia, til journalister et par dage før Build åbnede.

Isolering af netværk for at beskytte AI-data

Virksomheder, der kører AI-operationer i skyen, ønsker at sikre, at deres data ikke bliver eksponeret for andre virksomheder, hvor netværksisolering er et nøgleværktøj. Microsoft har funktioner som privat link-arbejdsområde og dataeksfiltreringsbeskyttelse, men ingen offentlig IP-mulighed for computerressourcer fra virksomheder, der træner AI-modeller. Hos Build meddelte leverandøren administreret netværksisolering i Azure Machine Learning for at vælge den isolationstilstand, der passer bedst til en virksomheds sikkerhedspolitikker.

Gå ikke glip af vores Build 2023-dækning

Ikke overraskende kommer open source-værktøjer i stigende grad ind i AI-området. Microsoft samarbejdede sidste år med Hugging Face for at bringe Azure Machine Learning-endepunkter drevet af open source-virksomhedens teknologi. Hos Build er parret af organisationer udvidet deres forhold.

Hugging Face tilbyder allerede en kurateret sæt af værktøjer og API'er samt en kæmpe hub af ML-modeller til at downloade og bruge. Nu vises en samling af tusindvis af disse modeller Redmonds Azure Machine Learning-katalog, så kunderne kan få adgang til og implementere dem på administrerede slutpunkter i Microsofts sky.

Flere muligheder for fundamentmodel

Redmond laver også fundament modeller i Azure Machine Learning tilgængelig i offentlig forhåndsvisning. Foundation-modeller er kraftfulde og yderst kompetente, fortrænede modeller, som organisationer kan tilpasse med deres egne data til deres egne formål og udrulle efter behov.

Fundamentmodeller er ved at blive ret vigtige, da de kan hjælpe organisationer med at bygge ikke-trivielle ML-drevne applikationer, formet efter deres specifikke krav, uden at skulle bruge hundredvis af millioner af dollars på at træne modellerne fra bunden eller aflæse behandling og følsomme kundedata til skyen.

Nvidia udgav en nemo rammer, der kan være nyttige på dette område, og denne måned har partnerskab med ServiceNow og – i denne uge – Dell in Projekt Helix i den retning.

"Da vi har arbejdet med virksomhedsvirksomheder om generativ AI i de sidste par måneder, har vi lært, at der er et stort antal virksomhedsvirksomheder, der gerne vil udnytte kraften i generativ AI, men gør det i deres egne datacentre eller gør det uden for den offentlige sky," sagde Nvidias Das.

Ressourcer som open source- og fundamentmodeller lover at reducere kompleksitet og omkostninger for at give flere organisationer adgang til generativ AI. ®

Tidsstempel:

Mere fra Registret