Microsoft napycha chmurę Azure większą ilością uczenia maszynowego

Microsoft napycha chmurę Azure większą ilością uczenia maszynowego

Węzeł źródłowy: 2677257

Microsoft zadbał o włączenie platformy Azure do AI-fest, którym była konferencja programistów Build 2023 w tym tygodniu.

Gdy przedsiębiorstwa rozważają eksperymentowanie z generatywną sztuczną inteligencją lub wdrażanie jej, mogą równie dobrze szukać chmur publicznych i podobnej skalowalnej infrastruktury obliczeniowej i pamięci masowej do obsługi takich rzeczy, jak modele wielkojęzyczne (LLM).

Microsoft, uzbrojony w ChatGPT, GPT-4 i inne systemy OpenAI od miesięcy wpychają możliwości sztucznej inteligencji w każdy zakamarek swojego imperium. Azure nie jest inny – przykładem jest usługa OpenAI – i po niej Zbuduj konferencję, chmura publiczna Redmond ma teraz jeszcze więcej ofert.

Wysoko na liście znajduje się wersja rozszerzona współpraca z Nvidią, która sama dąży do zdobycia pozycji niezastąpionego dostawcy technologii sztucznej inteligencji, od akceleratorów GPU po oprogramowanie. Tylko w tym tygodniu producent chipów ujawnił wiele partnerstw, takich jak Dell na Dell Technologies World i producenci superkomputerów na ISC23.

Przenoszenie zasobów Nvidii na platformę Azure

W szczególności Microsoft integruje pakiet oprogramowania AI Enterprise firmy Nvidia, narzędzia programistyczne, platformy i wstępnie wyszkolone modele z usługą Azure Machine Learning, tworząc coś, co Tina Manghnani, menedżer produktu ds. platformy chmurowej do uczenia maszynowego, nazwała „pierwszym, gotowym do stosowania w przedsiębiorstwach, bezpiecznym, końcowym kompleksowa platforma chmurowa dla programistów umożliwiająca tworzenie i wdrażanie aplikacji AI oraz zarządzanie nimi, w tym niestandardowe modele wielojęzyczne.”

Tego samego dnia Microsoft stworzył Azure Machine Learning rejestry – platforma do hostowania i udostępniania takich bloków uczenia maszynowego jak kontenery, modele i dane oraz narzędzie do integracji AI Enterprise z Azure – ogólnie dostępne. AI Enterprise w Azure Machine Learning jest również dostępne w ograniczonej technicznej wersji zapoznawczej.

„Oznacza to, że klienci, którzy mają już kontakty i relacje z platformą Azure, mogą wykorzystać te relacje – mogą korzystać z umów w chmurze, które już mają – aby uzyskać Nvidia AI Enterprise i używać jej w ramach Azure ML, aby to uzyskać bezproblemową pracę na poziomie korporacyjnym lub oddzielnie w wybranych przez siebie przypadkach” – powiedział dziennikarzom Manuvir Das, wiceprezes ds. komputerów dla przedsiębiorstw w Nvidii na kilka dni przed otwarciem Build.

Izolowanie sieci w celu ochrony danych AI

Przedsiębiorstwa prowadzące operacje AI w chmurze chcą mieć pewność, że ich dane nie zostaną ujawnione innym firmom, a izolacja sieci jest kluczowym narzędziem. Firma Microsoft oferuje takie funkcje, jak obszar roboczy z prywatnym łączem i ochrona przed eksfiltracją danych, ale nie ma opcji publicznego adresu IP dla zasobów obliczeniowych firm szkolących modele sztucznej inteligencji. Podczas Build sprzedawca ogłosił zarządzana izolacja sieci w Azure Machine Learning w celu wybrania trybu izolacji, który najlepiej pasuje do zasad zabezpieczeń przedsiębiorstwa.

Nie przegap naszej relacji z Build 2023

Nic więc dziwnego, że narzędzia typu open source coraz częściej pojawiają się w przestrzeni sztucznej inteligencji. W zeszłym roku firma Microsoft nawiązała współpracę z firmą Hugging Face, aby udostępnić punkty końcowe Azure Machine Learning oparte na technologii tej firmy o otwartym kodzie źródłowym. W Build to para organizacji rozszerzony ich związek.

Hugging Face już oferuje wyselekcjonowany zestaw narzędzi i interfejsów API, a także ogromne centrum modeli ML do pobrania i wykorzystania. Teraz kolekcja tysięcy tych modeli pojawi się w katalogu Azure Machine Learning firmy Redmond, dzięki czemu klienci będą mogli uzyskać do nich dostęp i wdrożyć je na zarządzanych punktach końcowych w chmurze Microsoftu.

Więcej opcji modeli fundamentów

Redmond również tworzy modele fundamentów w Azure Machine Learning dostępne w publicznej wersji zapoznawczej. Modele podstawowe to wydajne i wysoce wydajne wstępnie wytrenowane modele, które organizacje mogą dostosowywać za pomocą własnych danych do własnych celów i wdrażać w razie potrzeby.

Modele fundamentów stają się dość ważne, ponieważ mogą pomóc organizacjom w tworzeniu nietrywialnych aplikacji wspieranych przez ML, dostosowanych do ich specyficznych wymagań, bez konieczności wydawania setek milionów dolarów na szkolenie modeli od podstaw lub przenoszenie przetwarzania i wrażliwych danych klientów do chmury.

Nvidia wydała tzw nemo ramy, które mogą być przydatne w tej dziedzinie, iw tym miesiącu partner z ServiceNow i – w tym tygodniu – Dell in Helisa projektu wzdłuż tych linii.

„Gdy w ciągu ostatnich kilku miesięcy współpracowaliśmy z przedsiębiorstwami nad generatywną sztuczną inteligencją, dowiedzieliśmy się, że istnieje duża liczba przedsiębiorstw, które chciałyby wykorzystać moc generatywnej sztucznej inteligencji, ale robią to we własnych centrach danych lub zrób to poza chmurą publiczną” – powiedział Das z Nvidii.

Zasoby, takie jak open source i modele podstawowe, obiecują zmniejszenie złożoności i kosztów, aby umożliwić większej liczbie organizacji dostęp do generatywnej sztucznej inteligencji. ®

Znak czasu:

Więcej z Rejestr