Dell і Nvidia мріють про генеративні моделі ШІ своїми руками

Dell і Nvidia мріють про генеративні моделі ШІ своїми руками

Вихідний вузол: 2674711

Світ Dell Dell співпрацює з Nvidia, щоб запропонувати підприємствам інструменти для створення генеративних моделей штучного інтелекту, навчених на їхніх власних корпоративних даних, а не на загальнодоступній інформації, такій як та, що використовується широкомовними моделями загального призначення (LLM), такими як GPT OpenAI.

Ключ до презентації – безпека даних. Манувір Дас, віце-президент Nvidia з корпоративних обчислень, сказав журналістам, що підприємству, яке створює власний генеративний штучний інтелект, навчений на власних доменно-спеціальних даних, «не потрібно хвилюватися про те, що їхні власні дані будуть змішані з фірмовими даними іншої компанії під час навчання».

Проект Helix, схема, запущена Nvidia та Dell у вівторок на Dell Technologies World 2023, включає PowerEdge XE9680 і стійкові сервери R760xa, які оптимізовані для навчання штучного інтелекту та робочих навантажень з висновками. Хоча XE9680 працює з двома масштабованими процесорами Intel Xeon 4-го покоління, він також містить вісім останніх процесорів Nvidia Графічні процесори H100 Tensor Core підключений через мережу Nvidia NVLink.

Nvidia також планує використовувати своє корпоративне програмне забезпечення штучного інтелекту, фреймворки та інструменти розробника, включаючи NeMo та попередньо навчені базові моделі. Огородження NeMo – для створення безпечних генеративних чат-ботів ШІ. Системи Dell PowerScale і ECS Enterprise Object Storage для неструктурованих даних можна використовувати зі стійковими серверами PowerEdge.

«Усе це дозволяє нам зібрати справді повне рішення для генеративного штучного інтелекту, яке можна запускати локально, яке повністю перевірено за допомогою апаратного та програмного забезпечення, яке є безпечним [і] конфіденційним», — сказав Дас.

Живу на межі

Виконання робочих навантажень з навчання та висновків у власному центрі обробки даних компанії є ключовим фактором, щоб критично важливі корпоративні дані не потрапили у відкритий доступ і, можливо, порушуючи правила конфіденційності та безпеки, за словами Хуанга. У випадку генеративного штучного інтелекту, локальний все більше буде означати перевагу.

«Вони повинні робити це на місці, тому що там зберігаються їхні дані, і вони повинні робити це близько до краю, тому що це найближче до швидкості світла», — сказав Хуан. «Ви хочете, щоб він відповів миттєво. Ви також хочете, щоб це було на межі, тому що в майбутньому ви хочете мати інформацію з різних модальностей.

«Чим більше контекстної інформації ми отримуємо, тим кращий … висновок ми можемо зробити. Здатність приймати ці рішення якомога ближче до межі, де відбувається дія, де знаходяться всі дані та де реагування може бути якомога вищим, є справді важливою».

Для Nvidia, яка приблизно десять років тому зробила ставку на те, що штучний інтелект стане рушієм майбутнього зростання, Project Helix ще більше допомагає зміцнити її позицію як ключового механізму машинного навчання для корпорацій і організацій HPC.

За словами Джеффрі Кларка, у той час, коли магістратури навчаються на масивних наборах даних загального призначення – у випадку GPT і створеного на ньому бота ChatGPT, в Інтернеті – організації хочуть навчати менші моделі на власних даних, щоб задовольнити власні потреби. , віце-голова та співоператор Dell.

«Це тенденція, яку ми спостерігаємо серед клієнтів», — сказав Кларк. «Як вони використовують свій бізнес-контекст, свої дані та допомагають їм приймати кращі бізнес-рішення? Для цього вам не потрібна широкомовна модель GPT. … Компанії не збираються розгортати ChatGPT на заводі, щоб покращити роботу заводу. Це буде локалізована модель компанії X, Y або Z з їхніми даними».

Надання більшого контролю

Прагнення до того, щоб дати можливість підприємствам налаштовувати моделі навчання за допомогою їхньої конфіденційної інформації та у власних центрах обробки даних, набирає обертів. Раніше цього місяця ServiceNow і Nvidia оприлюднив партнерство подібний до Project Helix. The ідея не нова, але він був посилений нещодавнім прискоренням у розробці генеративного ШІ та LLM.

На GTC у вересні 2022 року Nvidia запустила послугу NeMo LLM з цією метою, даючи підприємствам можливість адаптувати низку попередньо навчених базових моделей для створення індивідуальних моделей, навчених на їхніх власних даних.

Моделі загального призначення, такі як GPT-4 OpenAI, підійдуть для деяких завдань, сказав Дас, «але є також велика кількість корпоративних компаній, яким потрібні власні налаштовані широкомовні моделі для власного домену, для власних приватних даних. , щоб переконатися, що моделі роблять саме те, що їм потрібно в контексті їхньої компанії».

«NeMo — це платформа від Nvidia для тих клієнтів, яким потрібно створювати та підтримувати власні моделі».

Генеральний директор Nvidia Дженсен Хуанг, який з’явився у відеодискусії з Кларком під час основної доповіді, сказав, що «в основі кожної компанії лежить інтелект».

«Проект Helix … допоможе кожній компанії стати фабрикою штучного інтелекту та мати можливість виробляти свій інтелект, свій предметний інтелект, свій досвід, а потім робити це зі швидкістю світла та робити це в масштабі», – сказав Хуан.

Стрімкі інновації навколо генеративного штучного інтелекту також дадуть підприємствам більше можливостей, заявив Кларк з Dell. Перевірені дизайни Dell на основі Project Helix будуть доступні з липня. ®

Часова мітка:

Більше від Реєстр