Dell e Nvidia sonham com modelos de IA generativos DIY

Dell e Nvidia sonham com modelos de IA generativos DIY

Nó Fonte: 2674711

Mundo Dell A Dell se associou à Nvidia para apresentar às empresas ferramentas para criar modelos de IA generativos treinados em seus próprios dados corporativos, em vez de informações disponíveis publicamente, como as usadas por modelos de linguagem ampla (LLMs) de uso geral, como o GPT da OpenAI.

A chave para o campo é a segurança dos dados. Manuvir Das, vice-presidente de computação corporativa da Nvidia, disse a jornalistas que uma empresa que constrói sua própria IA generativa treinada em seus próprios dados específicos de domínio “não precisa se preocupar com a mistura de seus dados proprietários com os dados proprietários de alguma outra empresa durante o treinamento."

O Projeto Helix, um esquema lançado pela Nvidia e Dell na terça-feira no Dell Technologies World 2023, inclui o PowerEdge XE9680 e servidores de rack R760xa otimizados para cargas de trabalho de treinamento e inferência de IA. O XE9680, embora execute dois dos processadores escaláveis ​​Xeon de 4ª geração da Intel, também possui oito dos mais recentes processadores da Nvidia. GPU H100 Tensor Core conectado via rede NVLink da Nvidia.

A Nvidia também planeja explorar seu software corporativo de IA, estruturas e ferramentas de desenvolvedor – incluindo NeMo e modelos de fundação pré-treinados Guarda-corpos NeMo – para construir chatbots de IA generativos seguros. Os sistemas PowerScale e ECS Enterprise Object Storage da Dell para dados não estruturados podem ser usados ​​com os servidores de rack PowerEdge, afirmou.

“Tudo isso nos permite montar uma solução realmente completa para IA generativa que pode ser executada no local, totalmente validada com hardware e software, segura [e] privada”, de acordo com Das.

Vivendo no limite

A execução das cargas de trabalho de treinamento e inferência no próprio datacenter da empresa é fundamental para impedir que dados corporativos críticos acabem no domínio público e possivelmente violando regulamentos de privacidade e segurança, de acordo com Huang. No caso da IA ​​generativa, o local significará cada vez mais a vantagem.

“Eles precisam fazer isso no local porque é onde estão seus dados, e precisam fazer isso perto da borda porque é o mais próximo da velocidade da luz”, disse Huang. “Você quer que ele responda instantaneamente. Você também quer estar na ponta, porque, no futuro, deseja ter informações de várias modalidades.

“Quanto mais informações contextuais obtivermos, melhor … inferência que podemos fazer. A capacidade de tomar essas decisões o mais próximo possível do limite, onde está a ação, onde estão todos os dados e onde a capacidade de resposta pode ser a mais alta possível, é realmente essencial.”

Para a Nvidia, que há cerca de uma década apostou na IA como um mecanismo de crescimento futuro, o Project Helix ajuda ainda mais a consolidar sua posição como um facilitador essencial de aprendizado de máquina para corporações e organizações de HPC.

Em um momento em que os LLMs treinam em conjuntos de dados massivos de propósito geral – no caso do GPT e o bot ChatGPT construído sobre ele, a internet – as organizações querem treinar modelos menores em seus próprios dados para atender às suas próprias necessidades específicas, de acordo com Jeffrey Clarke , vice-presidente e co-COO da Dell.

“Essa é a tendência que vemos com os clientes”, disse Clarke. “Como eles pegam seu contexto de negócios, seus dados e os ajudam a tomar melhores decisões de negócios? Você não precisa de um modelo de linguagem grande GPT para fazer isso. … As empresas não vão implantar o ChatGPT em uma fábrica para fazer uma fábrica funcionar melhor. Esse será um modelo localizado pela empresa X, Y ou Z com seus dados.”

Dando mais controle

O impulso para permitir que as empresas personalizem modelos de treinamento com suas informações proprietárias e em seus próprios datacenters está ganhando força. No início deste mês, a ServiceNow e a Nvidia revelou uma parceria semelhante ao Projeto Helix. O ideia não é nova, mas foi sobrecarregado com a recente aceleração no desenvolvimento de IA generativa e LLMs.

Na GTC em setembro de 2022, a Nvidia lançou o serviço NeMo LLM com isso em mente, oferecendo às empresas uma maneira de adaptar uma variedade de modelos básicos pré-treinados para criar modelos personalizados treinados em seus próprios dados.

Modelos de uso geral como o GPT-4 da OpenAI funcionarão para alguns trabalhos, disse Das, “mas também há um grande número de empresas que precisam ter seus próprios modelos personalizados de linguagem ampla para seu próprio domínio, para seus próprios dados proprietários. , para garantir que os modelos estejam fazendo exatamente o que precisam no contexto de sua empresa.”

“NeMo é uma plataforma da Nvidia para aqueles clientes que precisam construir e manter seus próprios modelos.”

O CEO da Nvidia, Jensen Huang, que apareceu em uma discussão em vídeo com Clark durante a palestra, disse que “toda empresa tem como foco a inteligência”.

“O Projeto Helix … ajudará todas as empresas a serem uma fábrica de IA e a produzir sua inteligência, sua inteligência específica de domínio, sua experiência e, em seguida, fazê-lo na velocidade da luz e em escala”, disse Huang.

A rápida inovação em torno da IA ​​generativa também dará às empresas mais opções, afirmou Clarke, da Dell. Os designs validados pela Dell baseados no Project Helix estarão disponíveis a partir de julho. ®

Carimbo de hora:

Mais de O registro