Dell ve Nvidia, DIY üretken yapay zeka modellerinin hayalini kuruyor

Dell ve Nvidia, DIY üretken yapay zeka modellerinin hayalini kuruyor

Kaynak Düğüm: 2674711

Dell Dünyası Dell, OpenAI'nin GPT'si gibi genel amaçlı geniş dilli modeller (LLM'ler) tarafından kullanılanlar gibi halka açık bilgiler yerine, işletmelere kendi kurumsal verileri üzerinde eğitilmiş üretken yapay zeka modelleri oluşturmaya yönelik araçlar konusunda tavsiyelerde bulunmak için Nvidia ile bağlantı kurdu.

Satış konuşmasının anahtarı veri güvenliğidir. Nvidia'nın kurumsal bilgi işlem başkan yardımcısı Manuvir Das, gazetecilere, kendi alanına özgü verileri üzerinde eğitilmiş kendi üretken yapay zekasını oluşturan bir kuruluşun "kendi özel verilerinin, başka bir şirketin özel verileriyle karıştırılması konusunda endişelenmesine gerek olmadığını" söyledi. eğitim."

Nvidia ve Dell tarafından Salı günü Dell Technologies World 2023'te başlatılan bir program olan Project Helix şunları içerir: PowerEdge XE9680 ve yapay zeka eğitimi ve çıkarım iş yükleri için optimize edilmiş R760xa raf tipi sunucular. XE9680, Intel'in 4. Nesil Xeon Ölçeklenebilir İşlemcilerinden ikisini çalıştırırken aynı zamanda Nvidia'nın en yeni sekiz işlemcisini de barındırıyor H100 Tensör Çekirdekli GPU'lar Nvidia'nın NVLink ağı aracılığıyla bağlanır.

Nvidia ayrıca NeMo ve önceden eğitilmiş temel modelleri dahil olmak üzere yapay zeka kurumsal yazılımından, çerçevelerinden ve geliştirici araçlarından yararlanmayı planlıyor. NeMo Korkulukları – güvenli üretken yapay zeka sohbet botları oluşturmak için. Yapılandırılmamış veriler için Dell'in PowerScale ve ECS Kurumsal Nesne Depolama sistemlerinin PowerEdge raf tipi sunucularla kullanılabileceği belirtildi.

Das'a göre "Bütün bunlar, şirket içinde çalıştırılabilen, donanım ve yazılımla tamamen doğrulanmış, güvenli [ve] özel, üretken yapay zeka için gerçekten eksiksiz bir çözüm oluşturmamıza olanak tanıyor."

Sınırda yaşamak

Eğitim ve çıkarım iş yüklerini bir şirketin kendi veri merkezinde çalıştırmak, kritik kurumsal verilerin kamu malı olmasını ve muhtemelen ihlal Huang'a göre gizlilik ve güvenlik düzenlemeleri. Üretken yapay zeka söz konusu olduğunda, şirket içi giderek daha fazla uç anlamına gelecektir.

Huang, "Bunu şirket içinde yapmak zorundalar çünkü verileri orası ve bunu uca yakın yapmak zorundalar çünkü ışık hızına en yakın hız bu," dedi. “Anında yanıt vermesini istiyorsun. Ayrıca uçta olmasını istersiniz, çünkü gelecekte birden çok modaliteden bilgi almak istersiniz.

“Ne kadar bağlamsal bilgi alırsak, o kadar iyi... çıkarım yapabiliriz. Bu kararları mümkün olduğu kadar uca yakın, eylemin nerede olduğu, tüm verilerin nerede olduğu ve yanıt verme hızının mümkün olduğunca yüksek olabileceği yerlerde verme yeteneği gerçekten çok önemli.”

On yıl kadar önce AI'nın gelecekteki bir büyüme motoru olacağına bahse giren Nvidia için Project Helix, şirketler ve HPC organizasyonları için makine öğreniminin kilit bir sağlayıcısı olarak konumunu sağlamlaştırmaya yardımcı oluyor.

Jeffrey Clarke'a göre, LLM'lerin büyük genel amaçlı veri kümeleri üzerinde eğitildiği bir zamanda - GPT ve bunun üzerine inşa edilen ChatGPT botu, internet söz konusu olduğunda - kuruluşlar kendi özel ihtiyaçlarını karşılamak için kendi verileri üzerinde daha küçük modeller eğitmek istiyor Jeffrey Clarke , Dell'de başkan yardımcısı ve co-COO.

Clarke, "Müşterilerde gördüğümüz trend bu," dedi. "İş bağlamlarını, verilerini nasıl alıyorlar ve daha iyi iş kararları almalarına nasıl yardımcı oluyorlar? Bunu yapmak için bir GPT geniş dil modeline ihtiyacınız yoktur. … Şirketler, bir fabrikanın daha iyi çalışmasını sağlamak için bir fabrikada ChatGPT kullanmayacak. Bu, verileriyle birlikte X, Y veya Z şirketi tarafından yerelleştirilmiş bir model olacaktır."

Daha fazla kontrol vermek

Kuruluşların eğitim modellerini kendi özel bilgileriyle ve kendi veri merkezlerinde özelleştirmelerini sağlama çabası ivme kazanıyor. Bu ayın başlarında, ServiceNow ve Nvidia ortaklığı açıkladı Project Helix'e benzer. bu fikir yeni değil, ancak üretken AI ve LLM'lerin geliştirilmesindeki son hızlanma ile güçlendi.

Eylül 2022'deki GTC'de Nvidia, bunu göz önünde bulundurarak NeMo LLM hizmetini başlattı ve kuruluşlara kendi verileri üzerinde eğitilmiş özelleştirilmiş modeller oluşturmak için bir dizi önceden eğitilmiş temel modeli uyarlama yolu verdi.

Das, OpenAI'nin GPT-4'ü gibi genel amaçlı modellerin bazı işler için işe yarayacağını söyledi, "ancak kendi etki alanları ve kendi özel verileri için kendi özelleştirilmiş geniş dil modellerine sahip olması gereken çok sayıda kurumsal şirket de var. , modellerin şirketleri bağlamında yapılması gerekenleri tam olarak yaptıklarından emin olmak için."

"NeMo, kendi modellerini oluşturması ve bakımını yapması gereken müşteriler için bir Nvidia platformudur."

Açılış konuşması sırasında Clark ile bir video tartışmasında yer alan Nvidia CEO'su Jensen Huang, "her şirketin özünde zeka vardır" dedi.

Huang, "Project Helix ... her şirketin bir yapay zeka fabrikası olmasına ve zekasını, alana özgü zekasını, uzmanlıklarını üretmesine ve ardından bunu ışık hızında ve ölçekte yapmasına yardımcı olacak" dedi.

Dell'den Clarke, üretici yapay zeka etrafındaki hızlı inovasyonun işletmelere daha fazla seçenek sunacağını da iddia etti. Project Helix'e dayalı Dell Onaylı Tasarımlar, Temmuz ayından itibaren kullanıma sunulacaktır. ®

Zaman Damgası:

Den fazla Kayıt