Dell dan Nvidia memimpikan model AI generatif DIY

Dell dan Nvidia memimpikan model AI generatif DIY

Node Sumber: 2674711

Dunia Dell Dell telah bekerja sama dengan Nvidia untuk memperkenalkan perusahaan pada alat untuk membangun model AI generatif yang dilatih pada data perusahaan mereka sendiri, daripada informasi yang tersedia untuk umum seperti yang digunakan oleh model bahasa besar tujuan umum (LLM) seperti GPT OpenAI.

Kunci lapangan adalah keamanan data. Manuvir Das dari Nvidia, wakil presiden komputasi perusahaan, mengatakan kepada wartawan bahwa perusahaan yang membangun AI generatifnya sendiri yang dilatih pada data khusus domainnya sendiri “tidak perlu khawatir tentang data hak milik mereka yang dicampur dengan data hak milik beberapa perusahaan lain selama pelatihan."

Project Helix, skema yang diluncurkan oleh Nvidia dan Dell pada hari Selasa di Dell Technologies World 2023, termasuk PowerEdge XE9680 dan server rak R760xa yang dioptimalkan untuk pelatihan AI dan beban kerja inferensi. XE9680, meskipun menjalankan dua Prosesor Xeon Scalable Generasi ke-4 Intel, juga memiliki delapan prosesor terbaru Nvidia. GPU Inti Tensor H100 terhubung melalui jaringan NVLink Nvidia.

Nvidia juga berencana untuk mengeksploitasi perangkat lunak perusahaan AI, kerangka kerja, dan alat pengembangnya – termasuk NeMo dan model dasar pra-pelatihan Pagar Pembatas NeMo – untuk membangun bot obrolan AI generatif yang aman. Sistem Dell PowerScale dan ECS Enterprise Object Storage untuk data tidak terstruktur dapat digunakan dengan server rak PowerEdge, katanya.

“Semua ini memungkinkan kami untuk menyusun solusi yang benar-benar lengkap untuk AI generatif yang dapat dijalankan di tempat, yang sepenuhnya divalidasi dengan perangkat keras dan perangkat lunak, yang aman [dan] pribadi,” menurut Das.

Tinggal di tepi

Menjalankan beban kerja pelatihan dan inferensi dalam pusat data perusahaan sendiri adalah kunci untuk menjaga agar data perusahaan penting tidak berakhir di domain publik dan mungkin melanggar peraturan privasi dan keamanan, menurut Huang. Dalam kasus AI generatif, on-prem akan semakin berarti keunggulan.

“Mereka harus melakukannya di tempat karena di situlah data mereka berada, dan mereka harus melakukannya di dekat tepi karena paling dekat dengan kecepatan cahaya,” kata Huang. “Anda ingin itu merespons secara instan. Anda juga ingin berada di tepi, karena di masa mendatang, Anda ingin memiliki informasi dari berbagai modalitas.

“Semakin banyak informasi kontekstual yang kami dapatkan, semakin baik… kesimpulan yang dapat kami buat. Kemampuan untuk membuat keputusan sedekat mungkin, di mana tindakannya, di mana semua data berada, dan di mana daya tanggap setinggi mungkin, sangatlah penting.”

Untuk Nvidia, yang satu dekade lalu bertaruh pada AI sebagai mesin pertumbuhan di masa depan, Project Helix selanjutnya membantu memperkuat posisinya sebagai pendukung utama pembelajaran mesin untuk perusahaan dan organisasi HPC.

Pada saat LLM melatih kumpulan data tujuan umum yang besar – dalam kasus GPT dan bot ChatGPT yang dibangun di atasnya, internet – organisasi ingin melatih model yang lebih kecil pada data mereka sendiri untuk memenuhi kebutuhan khusus mereka sendiri, menurut Jeffrey Clarke , wakil ketua dan co-COO di Dell.

“Itulah tren yang kami lihat pada pelanggan,” kata Clarke. “Bagaimana mereka menggunakan konteks bisnis, data, dan membantu mereka membuat keputusan bisnis yang lebih baik? Anda tidak memerlukan model bahasa besar GPT untuk melakukannya. … Perusahaan tidak akan menggunakan ChatGPT di pabrik untuk membuat pabrik berfungsi lebih baik. Itu akan menjadi model yang dilokalkan oleh perusahaan X, Y, atau Z dengan data mereka.”

Memberikan kontrol lebih

Dorongan untuk memungkinkan perusahaan menyesuaikan model pelatihan dengan informasi hak milik mereka dan di pusat data mereka sendiri mendapatkan momentum. Awal bulan ini, ServiceNow dan Nvidia meluncurkan kemitraan mirip dengan Proyek Helix. Itu ide bukanlah hal baru, tetapi telah dipercepat dengan percepatan baru-baru ini dalam pengembangan AI dan LLM generatif.

Di GTC pada bulan September 2022, Nvidia meluncurkan layanan NeMo LLM dengan mempertimbangkan hal itu, memberi perusahaan cara untuk mengadaptasi berbagai model dasar pra-pelatihan untuk membuat model khusus yang dilatih berdasarkan data mereka sendiri.

Model tujuan umum seperti GPT-4 OpenAI akan bekerja untuk beberapa pekerjaan, kata Das, “tetapi ada juga sejumlah besar perusahaan perusahaan yang perlu memiliki model bahasa besar yang disesuaikan sendiri untuk domain mereka sendiri, untuk data hak milik mereka sendiri , untuk memastikan bahwa model melakukan apa yang perlu dilakukan dalam konteks perusahaan mereka.”

“NeMo adalah platform dari Nvidia untuk pelanggan yang perlu membangun dan memelihara model mereka sendiri.”

CEO Nvidia Jensen Huang, yang muncul dalam diskusi video dengan Clark selama keynote, mengatakan bahwa "setiap perusahaan pada intinya adalah tentang kecerdasan."

“Project Helix … akan membantu setiap perusahaan menjadi pabrik AI dan dapat menghasilkan kecerdasan mereka, kecerdasan khusus domain mereka, keahlian mereka, dan kemudian melakukannya dengan kecepatan ringan dan melakukannya dalam skala besar,” kata Huang.

Inovasi cepat seputar AI generatif juga akan memberi perusahaan lebih banyak pilihan, klaim Dell's Clarke. Desain yang Divalidasi Dell berdasarkan Project Helix akan tersedia mulai bulan Juli. ®

Stempel Waktu:

Lebih dari Pendaftaran