A Microsoft több gépi tanulással tölti fel az Azure felhőt

A Microsoft több gépi tanulással tölti fel az Azure felhőt

Forrás csomópont: 2677257

A Microsoft gondoskodott arról, hogy az Azure-t bevonja az AI-festbe, amely a Build 2023 fejlesztői konferenciája volt ezen a héten.

Mivel a vállalatok fontolgatják a generatív mesterséges intelligencia kísérletezését vagy bevezetését, a nyilvános felhők és a hasonló méretezhető számítási és tárolási infrastruktúra segítségével olyan dolgokat futtathatnak, mint a nagynyelvű modellek (LLM).

A Microsoft, felfegyverzett A ChatGPT, a GPT-4 és más OpenAI-rendszerek hónapok óta birodalmának minden zugába és zugába tolják be az AI-képességeket. Az Azure nem más – erre példa az OpenAI szolgáltatás – és utána Konferencia építése, Redmond nyilvános felhője most még több igényelt ajánlattal rendelkezik.

A lista előkelő helyén egy kibővített partnerség az Nvidiával, amely a GPU-gyorsítóktól a szoftverekig igyekszik meghonosodni a nélkülözhetetlen AI technológiai szolgáltatóvá. Csak ezen a héten a chipgyártó partnerségek sorát mutatta be, például a Dell-lel a Dell Technologies Worldnél és a szuperszámítógép-gyártókkal az ISC23-on.

Nvidia-erőforrások behozása az Azure-ba

Konkrétan a Microsoft az Nvidia AI Enterprise szoftvercsomagját, fejlesztői eszközeit, keretrendszereit és előre betanított modelljeit integrálja az Azure Machine Learningbe, így létrehozva azt, amit Tina Manghnani, a gépi tanulási felhőplatform termékmenedzsere „az első vállalati használatra kész, biztonságos végpontnak” nevezett. - végpontig terjedő felhőplatform a fejlesztők számára mesterséges intelligencia-alkalmazások készítéséhez, telepítéséhez és kezeléséhez, beleértve az egyéni nagy nyelvi modelleket."

Ugyanezen a napon a Microsoft elkészítette az Azure Machine Learninget nyilvántartások – platform olyan gépi tanulási építőelemek tárolására és megosztására, mint a konténerek, modellek és adatok, valamint egy eszköz az AI Enterprise Azure-ba való integrálásához – általánosan elérhető. Az Azure Machine Learningben az AI Enterprise korlátozott technikai előnézetben is elérhető.

"Ez azt jelenti, hogy azok az ügyfelek, akiknek már meglévő kötelezettségei és kapcsolatai vannak az Azure-ral, használhatják ezeket a kapcsolatokat – felhasználhatják a már meglévő felhőszerződéseikből – az Nvidia AI Enterprise beszerzéséhez, és az Azure ML-en belül használhatják ezt a szolgáltatást. zökkenőmentes vállalati szintű tapasztalat, vagy külön az általuk választott példányokon” – mondta Manuvir Das, az Nvidia vállalati számítástechnikai alelnöke újságíróknak néhány nappal a Build megnyitása előtt.

Hálózatok elkülönítése az AI-adatok védelme érdekében

A felhőben mesterséges intelligencia-műveleteket futtató vállalatok biztosítani akarják, hogy adataik ne kerüljenek ki más vállalatok számára, mivel a hálózati elkülönítés kulcsfontosságú eszköz. A Microsoft rendelkezik olyan funkciókkal, mint a privát kapcsolati munkaterület és az adatok kiszűrése elleni védelem, de nincs nyilvános IP-opció az AI-modelleket oktató vállalatok számítási erőforrásaihoz. A Buildnél az eladó bejelentette menedzselt hálózati elkülönítés az Azure Machine Learningben a vállalat biztonsági szabályzatainak leginkább megfelelő elkülönítési mód kiválasztásához.

Ne hagyja ki Build 2023 tudósításunkat

Nem meglepő módon a nyílt forráskódú eszközök egyre gyakrabban jelennek meg az AI-térben. A Microsoft tavaly partnerségre lépett a Hugging Face-szel, hogy az Azure Machine Learning végpontjait a nyílt forráskódú vállalat technológiájával hajtotta végre. A Buildnél a szervezetpár kiterjesztett az ő kapcsolatuk.

Hugging Face már kínál a válogatott készlet eszközök és API-k, valamint a hatalmas csomópont ML modellek letöltése és használata. Most több ezer ilyen modellből álló gyűjtemény jelenik meg a redmondi Azure Machine Learning katalógusban, így az ügyfelek elérhetik és telepíthetik őket a Microsoft felhőjében lévő felügyelt végpontokon.

További alapmodell lehetőségek

Redmond is készül alapozó modellek nyilvános előnézetben elérhető az Azure Machine Learningben. Az alapítványi modellek erőteljes és nagy teljesítményű előképzett modellek, amelyeket a szervezetek saját adataikkal saját céljaikra testreszabhatnak, és szükség szerint bevezethetnek.

Alapozó modellek egyre fontosabbá válnak, mivel segíthetnek a szervezeteknek nem triviális, ML-alapú, sajátos igényeiknek megfelelően kialakított alkalmazásokat létrehozni anélkül, hogy több száz millió dollárt kellene költeniük a modellek betanítására a semmiből, vagy a feldolgozás és az érzékeny ügyféladatok felhőbe való áttöltéséről.

Az Nvidia kiadta a nemo keretrendszer, amely hasznos lehet ezen a területen, és ebben a hónapban is társult a ServiceNow-val és – ezen a héten – a Dell-lel Projekt Helix ezen a vonalon.

"Mivel az elmúlt néhány hónapban nagyvállalati vállalatokkal dolgoztunk a generatív mesterséges intelligencia területén, azt tanultuk meg, hogy sok olyan vállalat van, amely szeretné kihasználni a generatív mesterséges intelligencia erejét, de ezt saját adatközpontjaiban teszi. vagy tegye ezt a nyilvános felhőn kívül” – mondta az Nvidia Das.

Az olyan erőforrások, mint a nyílt forráskódú és az alapozó modellek, azt ígérik, hogy csökkentik a bonyolultságot és a költségeket, hogy több szervezet számára lehetővé tegyék a generatív mesterséges intelligencia elérését. ®

Időbélyeg:

Még több A regisztráció