Microsoft enche a nuvem do Azure com mais aprendizado de máquina

Microsoft enche a nuvem do Azure com mais aprendizado de máquina

Nó Fonte: 2677257

A Microsoft fez questão de incluir o Azure no AI-fest que foi a conferência de desenvolvedores Build 2023 esta semana.

À medida que as empresas consideram experimentar ou implantar IA generativa, elas podem muito bem recorrer a nuvens públicas e infraestruturas de computação e armazenamento escaláveis ​​semelhantes para executar coisas como modelos de linguagem grande (LLMs).

Microsoft, armado com ChatGPT, GPT-4 e outros sistemas OpenAI vêm há meses colocando recursos de IA em todos os cantos de seu império. O Azure não é diferente – o OpenAI Service é um exemplo – e depois da sua Construir conferência, a nuvem pública de Redmond agora tem ofertas ainda mais reivindicadas.

No topo da lista está uma expansão parceria com Nvidia, que está correndo para se estabelecer como o fornecedor indispensável de tecnologia de IA, de aceleradores de GPU a software. Só esta semana, a fabricante de chips revelou uma série de parcerias, como com a Dell na Dell Technologies World e com fabricantes de supercomputadores na ISC23.

Trazendo recursos da Nvidia para o Azure

Especificamente, a Microsoft está integrando o conjunto AI Enterprise de software, ferramentas de desenvolvimento, estruturas e modelos pré-treinados da Nvidia no Azure Machine Learning, criando o que Tina Manghnani, gerente de produto da plataforma de nuvem de aprendizado de máquina, chamou de "o primeiro pronto para a empresa, seguro e final plataforma de nuvem completa para desenvolvedores criarem, implantarem e gerenciarem aplicativos de IA, incluindo modelos de linguagem grandes e personalizados."

No mesmo dia, a Microsoft criou o Azure Machine Learning registros – uma plataforma para hospedar e compartilhar blocos de construção de aprendizado de máquina como contêineres, modelos e dados e uma ferramenta para integrar a AI Enterprise no Azure – disponível ao público em geral. O AI Enterprise no Azure Machine Learning também está disponível em versão prévia técnica limitada.

“O que isso significa é que para os clientes que têm compromissos e relacionamentos existentes com o Azure, eles podem usar esses relacionamentos – eles podem consumir dos contratos de nuvem que já possuem – para obter o Nvidia AI Enterprise e usá-lo no Azure ML para obter isso. experiência perfeita de nível empresarial ou separadamente nas instâncias que eles escolherem", disse Manuvir Das, vice-presidente de computação empresarial da Nvidia, aos jornalistas alguns dias antes da inauguração do Build.

Isolando redes para proteger dados de IA

As empresas que executam operações de IA na nuvem desejam garantir que seus dados não sejam expostos a outras empresas, sendo o isolamento da rede uma ferramenta fundamental. A Microsoft possui recursos como espaço de trabalho de link privado e proteção contra exfiltração de dados, mas nenhuma opção de IP público para recursos de computação de empresas que treinam modelos de IA. No Build, o fornecedor anunciou isolamento de rede gerenciado no Azure Machine Learning para escolher o modo de isolamento que melhor se adapta às políticas de segurança de uma empresa.

Não perca nossa cobertura Build 2023

Não é novidade que as ferramentas de código aberto estão cada vez mais entrando no espaço da IA. A Microsoft fez parceria no ano passado com a Hugging Face para trazer endpoints do Azure Machine Learning alimentados pela tecnologia da empresa de código aberto. Na Build, a dupla de organizações expandido seu relacionamento.

Abraçar o Rosto já oferece uma conjunto selecionado de ferramentas e APIs, bem como um enorme centro de modelos de ML para baixar e usar. Agora, uma coleção de milhares desses modelos aparecerá no catálogo Azure Machine Learning de Redmond para que os clientes possam acessá-los e implantá-los em endpoints gerenciados na nuvem da Microsoft.

Mais opções de modelos de fundação

Redmond também está fazendo modelos de fundação no Azure Machine Learning disponível em versão prévia pública. Os modelos básicos são modelos pré-treinados poderosos e altamente capazes que as organizações podem personalizar com seus próprios dados para seus próprios fins e implementar conforme necessário.

modelos de fundação estão se tornando muito importantes, pois podem ajudar as organizações a criar aplicativos não triviais baseados em ML, moldados de acordo com seus requisitos específicos, sem ter que gastar centenas de milhões de dólares treinando os modelos do zero ou descarregando processamento e dados confidenciais de clientes para a nuvem.

A Nvidia lançou um nemo quadro que pode ser útil nesta área, e este mês tem parceria com ServiceNow e – esta semana – Dell em Projeto Helix nesse sentido.

“Como trabalhamos com empresas empresariais em IA generativa nos últimos meses, o que aprendemos é que há um grande número de empresas que gostariam de aproveitar o poder da IA ​​generativa, mas fazem isso em seus próprios datacenters. ou faça isso fora da nuvem pública", disse Das, da Nvidia.

Recursos como modelos de código aberto e básicos prometem reduzir a complexidade e os custos para permitir que mais organizações tenham acesso à IA generativa. ®

Carimbo de hora:

Mais de O registro