Dell y Nvidia sueñan con modelos de IA generativos DIY

Dell y Nvidia sueñan con modelos de IA generativos DIY

Nodo de origen: 2674711

Mundo Dell Dell se ha asociado con Nvidia para presentarles a las empresas herramientas para construir modelos de IA generativos entrenados en sus propios datos corporativos, en lugar de información disponible públicamente como la que usan los modelos de lenguaje grande (LLM) de uso general como GPT de OpenAI.

La clave del lanzamiento es la seguridad de los datos. Manuvir Das, vicepresidente de computación empresarial de Nvidia, dijo a los periodistas que una empresa que construye su propia IA generativa entrenada en sus propios datos específicos de dominio “no tiene que preocuparse de que sus datos propietarios se mezclen con datos propietarios de alguna otra compañía durante el capacitación."

Project Helix, un esquema lanzado por Nvidia y Dell el martes en Dell Technologies World 2023, incluye el PowerEdgeXE9680 y servidores en rack R760xa que están optimizados para cargas de trabajo de entrenamiento e inferencia de IA. El XE9680, aunque ejecuta dos de los procesadores escalables Xeon de cuarta generación de Intel, también contiene ocho de los últimos procesadores de Nvidia. GPU H100 Tensor Core conectado a través de la red NVLink de Nvidia.

Nvidia también planea explotar su software empresarial AI, marcos y herramientas de desarrollo, incluidos NeMo y modelos básicos preentrenados. Barandillas NeMo – para construir chatbots de IA generativos seguros. Los sistemas PowerScale y ECS Enterprise Object Storage de Dell para datos no estructurados se pueden usar con los servidores en rack PowerEdge, dijo.

“Todo esto nos permite armar una solución realmente completa para la IA generativa que se puede ejecutar en las instalaciones, que está totalmente validada con el hardware y el software, que es segura [y] privada”, según Das.

Viviendo al límite

Ejecutar las cargas de trabajo de capacitación e inferencia dentro del propio centro de datos de una empresa es clave para evitar que los datos corporativos críticos terminen en el dominio público y posiblemente violando normas de privacidad y seguridad, según Huang. En el caso de la IA generativa, lo local significará cada vez más la ventaja.

“Tienen que hacerlo en las instalaciones porque ahí es donde están sus datos, y tienen que hacerlo cerca del borde porque es lo más cercano a la velocidad de la luz”, dijo Huang. “Quieres que responda instantáneamente. También desea que esté en el borde, porque en el futuro desea tener información de múltiples modalidades.

“Cuanta más información contextual obtengamos, mejor… inferencia que podemos hacer. La capacidad de tomar esas decisiones lo más cerca posible del borde, donde está la acción, donde están todos los datos y donde la capacidad de respuesta puede ser lo más alta posible, es realmente esencial”.

Para Nvidia, que hace más o menos una década apostó a que la IA sería un motor de crecimiento futuro, Project Helix ayuda a consolidar su posición como un facilitador clave del aprendizaje automático para corporaciones y organizaciones de HPC.

En un momento en que los LLM se entrenan en conjuntos de datos masivos de propósito general (en el caso de GPT y el bot ChatGPT creado en él, Internet), las organizaciones quieren entrenar modelos más pequeños en sus propios datos para abordar sus propias necesidades específicas, según Jeffrey Clarke. , vicepresidente y codirector de operaciones de Dell.

“Esa es la tendencia que vemos con los clientes”, dijo Clarke. “¿Cómo toman su contexto comercial, sus datos y los ayudan a tomar mejores decisiones comerciales? No necesita un modelo de lenguaje grande de GPT para hacer eso. … Las empresas no van a implementar ChatGPT en una fábrica para que funcione mejor. Ese será un modelo localizado por la empresa X, Y o Z con sus datos”.

Dando más control

El impulso para permitir que las empresas personalicen los modelos de capacitación con su información patentada y en sus propios centros de datos está cobrando impulso. A principios de este mes, ServiceNow y Nvidia dio a conocer una asociación similar al Proyecto Hélice. El la idea no es nueva, pero ha sido sobrealimentado con la reciente aceleración en el desarrollo de IA generativa y LLM.

En GTC en septiembre de 2022, Nvidia lanzó el servicio NeMo LLM con eso en mente, brindando a las empresas una forma de adaptar una gama de modelos básicos preentrenados para crear modelos personalizados entrenados en sus propios datos.

Los modelos de propósito general como GPT-4 de OpenAI funcionarán para algunos trabajos, dijo Das, “pero también hay una gran cantidad de empresas que necesitan tener sus propios modelos personalizados de lenguaje grande para su propio dominio, para sus propios datos patentados. , para asegurarse de que los modelos estén haciendo exactamente lo que necesitan en el contexto de su empresa”.

“NeMo es una plataforma de Nvidia para aquellos clientes que necesitan construir y mantener sus propios modelos”.

El CEO de Nvidia, Jensen Huang, quien apareció en una discusión en video con Clark durante el discurso de apertura, dijo que "todas las empresas se centran en la inteligencia".

“El Proyecto Helix... ayudará a que cada empresa sea una fábrica de IA y pueda producir su inteligencia, su inteligencia específica de dominio, su experiencia, y luego hacerlo a la velocidad de la luz y hacerlo a escala”, dijo Huang.

La rápida innovación en torno a la IA generativa también brindará a las empresas más opciones, afirmó Clarke de Dell. Los diseños validados de Dell basados ​​en Project Helix estarán disponibles a partir de julio. ®

Sello de tiempo:

Mas de El registro