Microsoft fyller Azure-skyen med mer maskinlæring

Microsoft fyller Azure-skyen med mer maskinlæring

Kilde node: 2677257

Microsoft sørget for å inkludere Azure i AI-festen som var Build 2023-utviklerkonferansen denne uken.

Når bedrifter vurderer å eksperimentere med eller distribuere generativ AI, kan de godt se til offentlige skyer og lignende skalerbar databehandlings- og lagringsinfrastruktur for å kjøre ting som store språkmodeller (LLM).

Microsoft, bevæpnet med ChatGPT, GPT-4 og andre OpenAI-systemer har i flere måneder skjøvet AI-evner inn i hver krok og krok av imperiet. Azure er ikke annerledes – OpenAI-tjenesten er et eksempel – og etter dens Bygg konferanse, Redmonds offentlige sky har nå enda flere hevdet tilbud.

Høyt på listen er en utvidet samarbeid med Nvidia, som selv skynder seg å etablere seg som den uunnværlige AI-teknologileverandøren, fra GPU-akseleratorer til programvare. Bare denne uken avslørte brikkeprodusenten en rekke partnerskap, for eksempel med Dell på Dell Technologies World og superdatamaskinprodusenter på ISC23.

Bringe Nvidia-ressurser inn i Azure

Spesifikt integrerer Microsoft Nvidias AI Enterprise-pakke med programvare, utviklingsverktøy, rammeverk og forhåndsopplærte modeller i Azure Machine Learning, og skaper det Tina Manghnani, produktsjef for maskinlæringsskyplattformen, kalte "den første bedriftsklare, sikre, slutten -to-end skyplattform for utviklere for å bygge, distribuere og administrere AI-applikasjoner, inkludert tilpassede store språkmodeller."

Samme dag laget Microsoft Azure Machine Learning registre – en plattform for å være vert for og dele slike maskinlæringsbyggeblokker som containere, modeller og data og et verktøy for å integrere AI Enterprise i Azure – generelt tilgjengelig. AI Enterprise i Azure Machine Learning er også tilgjengelig i begrenset teknisk forhåndsvisning.

"Dette betyr at for kunder som har eksisterende engasjementer og relasjoner med Azure, kan de bruke disse relasjonene – de kan konsumere fra skykontraktene som de allerede har – for å skaffe Nvidia AI Enterprise og bruke det enten innenfor Azure ML for å få dette sømløs bedriftserfaring eller separat på tilfeller de velger å gjøre," sa Manuvir Das, visepresident for enterprise computing i Nvidia, til journalister noen dager før Build åpnet.

Isolere nettverk for å beskytte AI-data

Bedrifter som kjører AI-operasjoner i skyen ønsker å sikre at dataene deres ikke blir eksponert for andre selskaper, med nettverksisolering som et nøkkelverktøy. Microsoft har funksjoner som privat lenkearbeidsområde og dataeksfiltreringsbeskyttelse, men ingen offentlig IP-alternativ for dataressurser til selskaper som trener AI-modeller. Hos Build annonserte leverandøren administrert nettverksisolasjon i Azure Machine Learning for å velge isolasjonsmodusen som passer best til en bedrifts sikkerhetspolicyer.

Ikke gå glipp av vår Build 2023-dekning

Ikke overraskende kommer åpen kildekode-verktøy i økende grad inn i AI-området. Microsoft samarbeidet i fjor med Hugging Face for å bringe Azure Machine Learning-endepunkter drevet av åpen kildekode-selskapets teknologi. Hos Build, organisasjonsparet utvidet deres forhold.

Hugging Face tilbyr allerede en kuratert sett av verktøy og APIer samt en stort nav av ML-modeller å laste ned og bruke. Nå vil en samling av tusenvis av disse modellene vises Redmonds Azure Machine Learning-katalog slik at kunder kan få tilgang til og distribuere dem på administrerte endepunkter i Microsofts sky.

Flere alternativer for fundamentmodeller

Redmond lager også grunnmodeller i Azure Machine Learning tilgjengelig i offentlig forhåndsvisning. Foundation-modeller er kraftige og svært dyktige forhåndsutdannede modeller som organisasjoner kan tilpasse med sine egne data for sine egne formål og rulle ut etter behov.

Fundamentmodeller blir ganske viktige, ettersom de kan hjelpe organisasjoner med å bygge ikke-trivielle ML-drevne applikasjoner, formet etter deres spesifikke krav, uten å måtte bruke hundrevis av millioner av dollar på å trene modellene fra bunnen av eller laste ned prosessering og sensitiv kundedata til skyen.

Nvidia ga ut en nemo rammeverk som kan være nyttig på dette området, og denne måneden har samarbeid med ServiceNow og – denne uken – Dell in Prosjekt Helix langs de linjene.

"Som vi har jobbet med bedriftsbedrifter om generativ AI de siste månedene, er det vi har lært at det er et stort antall bedriftsbedrifter som ønsker å utnytte kraften til generativ AI, men gjør det i sine egne datasentre eller gjør det utenfor den offentlige skyen," sa Nvidias Das.

Ressurser som åpen kildekode og grunnleggende modeller lover å redusere kompleksitet og kostnader for å gi flere organisasjoner tilgang til generativ AI. ®

Tidstempel:

Mer fra Registeret