Microsoft는 더 많은 기계 학습으로 Azure 클라우드를 채웁니다.

Microsoft는 더 많은 기계 학습으로 Azure 클라우드를 채웁니다.

소스 노드 : 2677257

Microsoft는 이번 주 Build 2023 개발자 컨퍼런스인 AI-fest에 Azure를 포함시켰습니다.

기업에서 제너레이티브 AI를 실험하거나 배포하는 것을 고려할 때 대규모 언어 모델(LLM)과 같은 것을 실행하기 위해 퍼블릭 클라우드와 유사한 확장 가능한 컴퓨팅 및 스토리지 인프라를 고려할 수 있습니다.

Microsoft, ~로 무장 한 ChatGPT, GPT-4 및 기타 OpenAI 시스템은 몇 달 동안 AI 기능을 제국의 구석구석에 밀어넣었습니다. Azure도 다르지 않습니다. OpenAI 서비스가 그 예입니다. 회의 구축, Redmond's public cloud now has even more claimed offers.

목록의 상위 항목은 확장된 엔비디아와 제휴GPU 가속기부터 소프트웨어까지 AI 필수 기술 제공자로 자리매김하기 위해 스스로를 서두르고 있다. 이번 주에만 이 칩 제조업체는 Dell Technologies World에서 Dell과 ISC23에서 슈퍼컴퓨터 제조업체와 같은 여러 파트너십을 발표했습니다.

Nvidia 리소스를 Azure로 가져오기

Specifically, Microsoft is integrating Nvidia's AI Enterprise suite of software, development tools, frameworks, and pretrained models into Azure Machine Learning, creating what Tina Manghnani, product manager for the machine learning cloud platform, called "the first enterprise-ready, secure, end-to-end cloud platform for developers to build, deploy, and manage AI applications including custom large language models."

같은 날 Microsoft는 Azure Machine Learning을 만들었습니다. 레지스트리 – 컨테이너, 모델 및 데이터와 같은 기계 학습 빌딩 블록을 호스팅하고 공유하기 위한 플랫폼과 AI Enterprise를 Azure에 통합하기 위한 도구 – 일반적으로 사용 가능합니다. Azure Machine Learning의 AI Enterprise는 제한된 기술 미리 보기로도 제공됩니다.

"What this means is that for customers who have existing engagements and relationships with Azure, they can use those relationships – they can consume from the cloud contracts that they already have – to obtain Nvidia AI Enterprise and use it either within Azure ML to get this seamless enterprise-grade experience or separately on instances that they choose to," Manuvir Das, vice president of enterprise computing at Nvidia, told journalists a few days before Build opened.

AI 데이터 보호를 위한 네트워크 격리

Enterprises running AI operations in the cloud want to ensure their data doesn't get exposed to other companies, with network isolation being a key tool. Microsoft has features like private link workspace and data exfiltration protection, but no public IP option for compute resources of companies training AI models. At Build, the vendor announced 관리형 네트워크 격리 in Azure Machine Learning for choosing the isolation mode that best fit an enterprise's security policies.

Don't miss our Build 2023 coverage

Unsurprisingly, open-source tools are increasingly coming into the AI space. Microsoft last year partnered with Hugging Face to bring Azure Machine Learning endpoints powered by the open-source company's technology. At Build, the pair of organizations 확대하는 그들의 관계.

Hugging Face는 이미 선별된 세트 도구 및 API뿐만 아니라 거대한 허브 of ML models to download and use. Now a collection of thousands of these models will appear Redmond's Azure Machine Learning catalog so that customers can access and deploy them on managed endpoints in Microsoft's cloud.

더 많은 기초 모델 옵션

레드몬드도 만들고 있습니다. 기초 모델 Azure Machine Learning에서 공개 미리 보기로 제공됩니다. 기초 모델은 조직이 자체 목적에 맞게 자체 데이터로 사용자 정의하고 필요에 따라 롤아웃할 수 있는 강력하고 매우 유능한 사전 훈련된 모델입니다.

기초 모델 모델을 처음부터 훈련시키거나 처리 및 민감한 고객 데이터를 클라우드로 오프로드하는 데 수억 달러를 지출하지 않고도 조직이 특정 요구 사항에 맞는 중요한 ML 기반 애플리케이션을 구축하는 데 도움이 될 수 있으므로 매우 중요해지고 있습니다.

엔비디아는 니모 이 분야에서 유용할 수 있는 프레임워크이며 이번 달에는 파트너 ServiceNow 및 – 이번 주 – Dell 프로젝트 나선 그 라인을 따라.

"As we've worked with enterprise companies on generative AI in the last few months, what we have learned is that there are a large number of enterprise companies that would like to leverage the power of generative AI, but do it in their own datacenters or do it outside of the public cloud," Nvidia's Das said.

오픈 소스 및 기초 모델과 같은 리소스는 복잡성과 비용을 줄여 더 많은 조직이 생성 AI에 액세스할 수 있도록 합니다. ®

타임 스탬프 :

더보기 등록