Dell i Nvidia marzą o generatywnych modelach sztucznej inteligencji

Dell i Nvidia marzą o generatywnych modelach sztucznej inteligencji

Węzeł źródłowy: 2674711

Świat Dell Dell nawiązał współpracę z firmą Nvidia, aby zaoferować przedsiębiorstwom narzędzia do tworzenia generatywnych modeli sztucznej inteligencji wyszkolonych na podstawie ich własnych danych korporacyjnych, a nie publicznie dostępnych informacji, takich jak te wykorzystywane przez modele wielkojęzyczne ogólnego przeznaczenia, takie jak GPT OpenAI.

Kluczem do rozwiązania jest bezpieczeństwo danych. Manuvir Das, wiceprezes ds. obliczeń dla przedsiębiorstw w Nvidii, powiedział dziennikarzom, że przedsiębiorstwo budujące własną generatywną sztuczną inteligencję wytrenowaną na własnych danych specyficznych dla domeny „nie musi się martwić, że jej zastrzeżone dane zostaną zmieszane z zastrzeżonymi danymi innej firmy w trakcie szkolenie."

Project Helix, program zaprezentowany przez Nvidię i Dell we wtorek na Dell Technologies World 2023, obejmuje PowerEdge XE9680 i serwery stelażowe R760xa zoptymalizowane pod kątem obciążeń związanych ze szkoleniem AI i wnioskowaniem. XE9680, chociaż obsługuje dwa procesory Intel Xeon Scalable czwartej generacji, obsługuje także osiem najnowszych procesorów Nvidia Procesory graficzne H100 Tensor Core połączone za pośrednictwem sieci NVLink firmy Nvidia.

Nvidia planuje także wykorzystać swoje oprogramowanie, frameworki i narzędzia programistyczne dla przedsiębiorstw AI – w tym NeMo i wstępnie wytrenowane modele podstawowe Poręcze NeMo – do budowy bezpiecznych chatbotów generatywnych AI. Systemy Dell PowerScale i ECS Enterprise Object Storage do przechowywania danych nieustrukturyzowanych mogą być używane z serwerami PowerEdge do montażu w szafie – twierdzi.

„Wszystko to pozwala nam stworzyć naprawdę kompletne rozwiązanie w zakresie generatywnej sztucznej inteligencji, które można uruchomić lokalnie, które jest w pełni sprawdzone pod względem sprzętu i oprogramowania, a także jest bezpieczne [i] prywatne” – twierdzi Das.

Życie na krawędzi

Uruchamianie obciążeń szkoleniowych i wnioskowania we własnym centrum danych firmy jest kluczem do zapobiegania przedostawaniu się krytycznych danych korporacyjnych do domeny publicznej i ewentualnie naruszać Według Huanga obowiązują przepisy dotyczące prywatności i bezpieczeństwa. W przypadku generatywnej sztucznej inteligencji, rozwiązania on-prem będą w coraz większym stopniu oznaczać przewagę.

„Muszą to robić lokalnie, ponieważ tam znajdują się ich dane, i muszą to robić blisko krawędzi, ponieważ jest to najbliżej prędkości światła” – powiedział Huang. „Chcesz, żeby reagował natychmiast. Chcesz także, aby był on na krawędzi, ponieważ w przyszłości chcesz mieć informacje z wielu modalności.

„Im więcej informacji kontekstowych otrzymamy, tym lepsze… wnioski możemy wyciągnąć. Zdolność do podejmowania decyzji możliwie blisko krawędzi, tam, gdzie toczy się akcja, gdzie znajdują się wszystkie dane i gdzie czas reakcji może być jak najwyższy, jest naprawdę niezbędna”.

W przypadku Nvidii, która mniej więcej dziesięć lat temu postawiła na sztuczną inteligencję jako motor przyszłego rozwoju, Project Helix dodatkowo pomaga ugruntować jej pozycję jako kluczowego czynnika umożliwiającego uczenie maszynowe dla korporacji i organizacji HPC.

Według Jeffreya Clarke’a, w czasach, gdy firmy LLM trenują na ogromnych zbiorach danych ogólnego przeznaczenia – w przypadku GPT i zbudowanego na nim bota ChatGPT – w Internecie – organizacje chcą szkolić mniejsze modele na własnych danych, aby zaspokoić własne, specyficzne potrzeby. , wiceprezes i współdyrektor operacyjny w firmie Dell.

„To trend, który obserwujemy wśród klientów” – powiedział Clarke. „W jaki sposób wykorzystują kontekst biznesowy, swoje dane i pomagają im podejmować lepsze decyzje biznesowe? Aby to zrobić, nie potrzebujesz wielkojęzycznego modelu GPT. … Firmy nie będą wdrażać ChatGPT w fabryce, aby usprawnić jej pracę. Będzie to zlokalizowany model firmy X, Y lub Z wraz z jej danymi.

Dając większą kontrolę

Dążenie do umożliwienia przedsiębiorstwom dostosowywania modeli szkoleniowych przy użyciu ich zastrzeżonych informacji i we własnych centrach danych nabiera tempa. Na początku tego miesiąca ServiceNow i Nvidia ujawnił partnerstwo podobny do Projektu Helix. The pomysł nie jest nowy, ale został on doładowany niedawnym przyspieszeniem rozwoju generatywnej sztucznej inteligencji i LLM.

Mając to na uwadze, na konferencji GTC we wrześniu 2022 r. Nvidia uruchomiła usługę NeMo LLM, dając przedsiębiorstwom możliwość dostosowania szeregu wstępnie wytrenowanych modeli podstawowych w celu tworzenia niestandardowych modeli wytrenowanych na ich własnych danych.

Das powiedział, że modele ogólnego przeznaczenia, takie jak GPT-4 OpenAI, sprawdzą się w niektórych zadaniach, „ale istnieje również duża liczba przedsiębiorstw, które muszą mieć własne, dostosowane modele wielojęzyczne dla własnej domeny, dla własnych zastrzeżonych danych , aby mieć pewność, że modelki robią dokładnie to, czego potrzebują w kontekście swojej firmy”.

„NeMo to platforma firmy Nvidia dla klientów, którzy muszą budować i utrzymywać własne modele”.

Dyrektor generalny Nvidii, Jensen Huang, który pojawił się w dyskusji wideo z Clarkiem podczas przemówienia, powiedział, że „każda firma skupia się na inteligencji”.

„Projekt Helix… pomoże każdej firmie stać się fabryką sztucznej inteligencji i będzie w stanie wytwarzać swoją inteligencję, inteligencję dotyczącą danej dziedziny i wiedzę specjalistyczną, a następnie robić to z szybkością światła i na dużą skalę” – powiedział Huang.

Szybkie innowacje w zakresie generatywnej sztucznej inteligencji dadzą przedsiębiorstwom więcej możliwości, twierdzi Clarke z firmy Dell. Zatwierdzone projekty firmy Dell oparte na projekcie Helix będą dostępne od lipca. ®

Znak czasu:

Więcej z Rejestr