Dell и Nvidia мечтают о генеративных моделях искусственного интеллекта своими руками

Dell и Nvidia мечтают о генеративных моделях искусственного интеллекта своими руками

Исходный узел: 2674711

Мир Dell Dell объединилась с Nvidia, чтобы предложить предприятиям инструменты для создания генеративных моделей ИИ, обученных на их собственных корпоративных данных, а не на общедоступной информации, такой как та, которая используется в широкоязычных моделях общего назначения (LLM), таких как OpenAI GPT.

Ключом к презентации является безопасность данных. Манувир Дас из Nvidia, вице-президент по корпоративным вычислениям, сказал журналистам, что предприятие, создающее собственный генеративный ИИ, обученный на своих собственных данных, специфичных для предметной области, «не должно беспокоиться о том, что их собственные данные будут смешаны с частными данными какой-либо другой компании во время работы. обучение."

Project Helix, схема, запущенная Nvidia и Dell во вторник на выставке Dell Technologies World 2023, включает в себя PowerEdge XE9680 и стоечные серверы R760xa, оптимизированные для обучения ИИ и рабочих нагрузок логического вывода. XE9680, хотя и работает на двух масштабируемых процессорах Intel Xeon 4-го поколения, также содержит восемь новейших процессоров Nvidia. Графические процессоры H100 с тензорными ядрами подключен через сеть Nvidia NVLink.

Nvidia также планирует использовать свое корпоративное программное обеспечение, фреймворки и инструменты для разработки ИИ, включая NeMo и предварительно обученные базовые модели. Ограждения НеМо – для создания безопасных генеративных чат-ботов с искусственным интеллектом. Системы Dell PowerScale и ECS Enterprise Object Storage для неструктурированных данных можно использовать со стоечными серверами PowerEdge.

«Все это позволяет нам собрать действительно законченное решение для генеративного ИИ, которое можно запускать локально, которое полностью проверено с помощью аппаратного и программного обеспечения, которое является безопасным [и] частным», — сказал Дас.

Живу на краю

Выполнение рабочих нагрузок обучения и логических выводов в собственном центре обработки данных компании является ключом к тому, чтобы важные корпоративные данные не попали в открытый доступ и, возможно, нарушение правила конфиденциальности и безопасности, по словам Хуана. В случае с генеративным искусственным интеллектом локальная среда все чаще будет означать преимущество.

«Они должны делать это локально, потому что именно там находятся их данные, и они должны делать это близко к краю, потому что это ближе всего к скорости света», — сказал Хуанг. «Вы хотите, чтобы он ответил мгновенно. Вы также хотите, чтобы он был на краю, потому что в будущем вы хотите получать информацию из нескольких модальностей.

«Чем больше контекстной информации мы получаем, тем лучше… выводы мы можем сделать. Способность принимать эти решения как можно ближе к краю, где происходит действие, где находятся все данные и где скорость реагирования может быть максимально высокой, действительно важна».

Для Nvidia, которая примерно десять лет назад сделала ставку на ИИ как на двигатель будущего роста, Project Helix еще больше помогает укрепить свои позиции в качестве ключевого средства машинного обучения для корпораций и организаций, занимающихся высокопроизводительными вычислениями.

По словам Джеффри Кларка, в то время, когда LLM обучаются на массивных наборах данных общего назначения — в случае GPT и созданного на его основе бота ChatGPT, Интернета — организации хотят обучать более мелкие модели на своих собственных данных для удовлетворения своих конкретных потребностей. , вице-председатель и со-операционный директор Dell.

«Это тенденция, которую мы наблюдаем у клиентов», — сказал Кларк. «Как они используют свой бизнес-контекст, свои данные и помогают им принимать лучшие бизнес-решения? Для этого вам не нужна модель большого языка GPT. … Компании не собираются развертывать ChatGPT на заводе, чтобы улучшить его работу. Это будет локализованная модель компании X, Y или Z с их данными».

Предоставление большего контроля

Стремление предоставить предприятиям возможность настраивать модели обучения с использованием собственной информации и в собственных центрах обработки данных набирает обороты. Ранее в этом месяце ServiceNow и Nvidia представил партнерство похоже на проект Хеликс. идея не нова, но он был усилен недавним ускорением разработки генеративного ИИ и LLM.

Помня об этом, на GTC в сентябре 2022 года Nvidia запустила сервис NeMo LLM, предоставив предприятиям возможность адаптировать ряд предварительно обученных базовых моделей для создания настраиваемых моделей, обученных на их собственных данных.

Модели общего назначения, такие как OpenAI GPT-4, будут работать для некоторых задач, сказал Дас, «но есть также большое количество корпоративных компаний, которым необходимо иметь свои собственные специализированные широкоязычные модели для своей области, для своих собственных данных. , чтобы убедиться, что модели делают именно то, что им нужно в контексте их компании».

«NeMo — это платформа от Nvidia для тех клиентов, которым необходимо создавать и поддерживать свои собственные модели».

Генеральный директор Nvidia Дженсен Хуанг, который появился в видеообсуждении с Кларком во время основного доклада, сказал, что «каждая компания по своей сути занимается интеллектом».

«Проект Helix… поможет каждой компании стать фабрикой по производству искусственного интеллекта и иметь возможность производить свой интеллект, свой интеллект в своей области, свой опыт, а затем делать это со скоростью света и делать это в масштабе», — сказал Хуанг.

По словам Кларка из Dell, быстрые инновации в области генеративного ИИ также предоставят предприятиям больше возможностей. Dell Validated Designs, основанные на Project Helix, будут доступны с июля. ®

Отметка времени:

Больше от Регистр