Dell und Nvidia träumen von DIY-generativen KI-Modellen

Dell und Nvidia träumen von DIY-generativen KI-Modellen

Quellknoten: 2674711

Dell Welt Dell hat sich mit Nvidia zusammengetan, um Unternehmen für Tools zu werben, mit denen sie generative KI-Modelle erstellen können, die auf ihren eigenen Unternehmensdaten basieren, und nicht auf öffentlich zugänglichen Informationen, wie sie von allgemeinen Large-Language-Modellen (LLMs) wie dem GPT von OpenAI verwendet werden.

Der Schlüssel zum Pitch ist die Datensicherheit. Manuvir Das, Vizepräsident für Enterprise Computing bei Nvidia, sagte gegenüber Journalisten, dass ein Unternehmen, das seine eigene generative KI aufbaut, die auf seinen eigenen domänenspezifischen Daten trainiert wird, „sich keine Sorgen machen muss, dass seine proprietären Daten im Laufe der Zeit mit proprietären Daten eines anderen Unternehmens vermischt werden.“ Ausbildung."

Project Helix, ein Programm, das Nvidia und Dell am Dienstag auf der Dell Technologies World 2023 gestartet haben, umfasst das PowerEdge XE9680 und R760xa-Rack-Server, die für KI-Training und Inferenz-Workloads optimiert sind. Der XE9680 verfügt zwar über zwei der skalierbaren Xeon-Prozessoren der 4. Generation von Intel, verfügt aber auch über acht der neuesten Nvidia-Prozessoren H100 Tensor-Core-GPUs verbunden über Nvidias NVLink-Netzwerk.

Nvidia plant außerdem, seine KI-Unternehmenssoftware, Frameworks und Entwicklertools zu nutzen – einschließlich NeMo und vorab trainierten Basismodellen NeMo-Leitplanken – um sichere generative KI-Chatbots zu entwickeln. Dells PowerScale- und ECS Enterprise Object Storage-Systeme für unstrukturierte Daten könnten mit den PowerEdge-Rack-Servern verwendet werden, hieß es.

„All dies ermöglicht es uns, wirklich eine Komplettlösung für generative KI zusammenzustellen, die vor Ort ausgeführt werden kann, die vollständig mit der Hardware und Software validiert ist, die sicher [und] privat ist“, so Das.

Leben am Abgrund

Die Ausführung der Trainings- und Inferenz-Workloads im unternehmenseigenen Rechenzentrum ist der Schlüssel dazu, zu verhindern, dass kritische Unternehmensdaten in die Öffentlichkeit gelangen und möglicherweise verletzend Laut Huang gelten Datenschutz- und Sicherheitsbestimmungen. Im Fall der generativen KI wird On-Prem zunehmend den Vorsprung bedeuten.

„Sie müssen es vor Ort tun, weil sich dort ihre Daten befinden, und sie müssen es nahe am Rand tun, weil das der Lichtgeschwindigkeit am nächsten kommt“, sagte Huang. „Sie möchten, dass es sofort reagiert. Sie möchten auch, dass es am Rande liegt, denn in Zukunft möchten Sie Informationen von mehreren Modalitäten haben.

„Je mehr Kontextinformationen wir erhalten, desto bessere … Schlussfolgerungen können wir ziehen.“ Die Fähigkeit, diese Entscheidungen so nah wie möglich am Rande zu treffen, wo die Aktion stattfindet, wo sich alle Daten befinden und wo die Reaktionsfähigkeit so hoch wie möglich sein kann, ist wirklich wichtig.“

Für Nvidia, das vor etwa einem Jahrzehnt darauf gesetzt hat, dass KI ein zukünftiger Wachstumsmotor sein wird, trägt Project Helix dazu bei, seine Position als wichtiger Wegbereiter des maschinellen Lernens für Unternehmen und HPC-Organisationen weiter zu festigen.

In einer Zeit, in der LLMs auf riesigen, universellen Datensätzen trainieren – im Fall von GPT und dem darauf aufbauenden ChatGPT-Bot das Internet – möchten Organisationen laut Jeffrey Clarke kleinere Modelle auf ihren eigenen Daten trainieren, um ihren eigenen spezifischen Anforderungen gerecht zu werden , stellvertretender Vorsitzender und Co-COO bei Dell.

„Das ist der Trend, den wir bei den Kunden sehen“, sagte Clarke. „Wie nutzen sie ihren Geschäftskontext und ihre Daten und helfen ihnen, bessere Geschäftsentscheidungen zu treffen? Dazu benötigen Sie kein GPT-Modell für große Sprachen. … Unternehmen werden ChatGPT nicht in einer Fabrik einsetzen, um die Fabrik besser funktionieren zu lassen. Das wird ein lokalisiertes Modell der Unternehmen X, Y oder Z mit ihren Daten sein.“

Mehr Kontrolle geben

Der Vorstoß, es Unternehmen zu ermöglichen, Schulungsmodelle mit ihren proprietären Informationen und in ihren eigenen Rechenzentren anzupassen, gewinnt an Dynamik. Anfang dieses Monats ServiceNow und Nvidia gab eine Partnerschaft bekannt ähnlich wie Project Helix. Der Idee ist nicht neu, aber es wurde durch die jüngste Beschleunigung der Entwicklung generativer KI und LLMs beschleunigt.

Auf der GTC im September 2022 hat Nvidia vor diesem Hintergrund den NeMo LLM-Dienst eingeführt, der Unternehmen die Möglichkeit gibt, eine Reihe vorab trainierter Basismodelle anzupassen, um maßgeschneiderte Modelle zu erstellen, die auf ihren eigenen Daten trainiert werden.

Allzweckmodelle wie GPT-4 von OpenAI werden für einige Aufgaben funktionieren, sagte Das, „aber es gibt auch eine große Anzahl von Unternehmen, die ihre eigenen maßgeschneiderten, großsprachigen Modelle für ihre eigene Domäne und ihre eigenen proprietären Daten benötigen.“ , um sicherzustellen, dass die Models genau das tun, was sie im Kontext ihres Unternehmens tun müssen.“

„NeMo ist eine Plattform von Nvidia für Kunden, die ihre eigenen Modelle bauen und warten müssen.“

Jensen Huang, CEO von Nvidia, der während der Keynote in einer Videodiskussion mit Clark auftrat, sagte, dass „jedem Unternehmen im Kern Intelligenz am Herzen liegt.“

„Projekt Helix … wird jedem Unternehmen helfen, eine KI-Fabrik zu sein und in der Lage zu sein, seine Intelligenz, seine domänenspezifische Intelligenz, sein Fachwissen zu produzieren und dies dann mit Lichtgeschwindigkeit und in großem Maßstab zu tun“, sagte Huang.

Schnelle Innovationen rund um generative KI würden Unternehmen auch mehr Optionen bieten, behauptete Clarke von Dell. Von Dell validierte Designs auf Basis von Project Helix werden ab Juli verfügbar sein. ®

Zeitstempel:

Mehr von Das Register