Dell과 Nvidia는 DIY 생성 AI 모델을 꿈꿉니다.

Dell과 Nvidia는 DIY 생성 AI 모델을 꿈꿉니다.

소스 노드 : 2674711

델 월드 Dell은 OpenAI의 GPT와 같은 범용 대규모 언어 모델(LLM)에서 사용하는 것과 같은 공개적으로 사용 가능한 정보가 아니라 자체 기업 데이터에 대해 훈련된 생성 AI 모델을 구축하기 위한 도구를 기업에 제공하기 위해 Nvidia와 연결했습니다.

피치의 핵심은 데이터 보안입니다. Nvidia의 기업 컴퓨팅 부사장인 Manuvir Das는 기자들에게 자신의 영역별 데이터에 대해 훈련된 자체 생성 AI를 구축하는 기업은 "독점 데이터가 다른 회사의 독점 데이터와 혼합되는 것에 대해 걱정할 필요가 없습니다. 훈련."

화요일 Dell Technologies World 2023에서 Nvidia와 Dell이 시작한 계획인 Project Helix에는 다음이 포함됩니다. 파워에지 XE9680 AI 교육 및 추론 워크로드에 최적화된 R760xa 랙 서버. XE9680은 Intel의 4세대 Xeon Scalable 프로세서 XNUMX개를 실행하는 동시에 Nvidia의 최신 프로세서 XNUMX개도 보유하고 있습니다. H100 Tensor 코어 GPU Nvidia의 NVLink 네트워킹을 통해 연결됩니다.

Nvidia는 또한 NeMo 및 사전 훈련된 기초 모델을 포함하여 AI 엔터프라이즈 소프트웨어, 프레임워크 및 개발자 도구를 활용할 계획입니다. NeMo 가드레일 – 안전한 생성 AI 챗봇 구축. 구조화되지 않은 데이터를 위한 Dell의 PowerScale 및 ECS Enterprise Object Storage 시스템은 PowerEdge 랙 서버와 함께 사용할 수 있다고 합니다.

Das는 "이 모든 것을 통해 우리는 온프레미스에서 실행할 수 있고 하드웨어 및 소프트웨어로 완전히 검증되고 안전하고 비공개적인 생성 AI를 위한 완벽한 솔루션을 구성할 수 있습니다."라고 말했습니다.

가장자리에 살고

회사 자체 데이터 센터 내에서 교육 및 추론 워크로드를 실행하는 것은 중요한 회사 데이터가 공용 도메인에 저장되지 않도록 하는 데 중요합니다. 위반 Huang에 따르면 개인 정보 보호 및 보안 규정. 제너레이티브 AI의 경우 온프레미스가 점점 더 에지를 의미하게 될 것입니다.

Huang은 "그들은 데이터가 있는 곳이기 때문에 온프레미스에서 수행해야 하며, 빛의 속도에 가장 가깝기 때문에 가장자리에 가깝게 수행해야 합니다."라고 말했습니다. “즉시 반응하기를 원합니다. 또한 미래에는 여러 양식의 정보를 원하기 때문에 가장자리에 있기를 원합니다.

“상황에 맞는 정보를 많이 얻을수록 더 나은 추론을 할 수 있습니다. 행동이 어디에 있고, 모든 데이터가 어디에 있고, 응답성이 가능한 한 높은 곳에 가능한 한 에지에 가까운 결정을 내리는 능력이 정말 중요합니다.”

약 XNUMX년 전에 AI가 미래 성장 엔진이 될 것이라고 장담한 Nvidia의 경우 Project Helix는 기업 및 HPC 조직을 위한 머신 러닝의 핵심 지원자로서의 입지를 더욱 확고히 하는 데 도움이 됩니다.

제프리 클라크(Jeffrey Clarke)에 따르면 LLM이 대규모 범용 데이터 세트(GPT 및 이를 기반으로 하는 ChatGPT 봇, 인터넷의 경우)에서 학습할 때 조직은 고유한 요구 사항을 해결하기 위해 자체 데이터로 더 작은 모델을 학습하기를 원합니다. , Dell의 부회장 겸 공동 COO입니다.

Clarke는 "이것이 우리가 고객에게서 볼 수 있는 추세입니다."라고 말했습니다. “그들은 비즈니스 컨텍스트와 데이터를 어떻게 활용하고 더 나은 비즈니스 의사 결정을 내리는 데 도움을 줍니까? 이를 위해 GPT 대규모 언어 모델이 필요하지 않습니다. … 회사는 공장이 더 잘 작동하도록 하기 위해 공장에 ChatGPT를 배포하지 않을 것입니다. 그것은 X, Y 또는 Z 회사의 데이터와 함께 현지화된 모델이 될 것입니다.”

더 많은 제어권 제공

기업이 독점 정보를 사용하여 자체 데이터 센터에서 교육 모델을 사용자 정의할 수 있도록 하는 노력이 추진력을 얻고 있습니다. 이달 초 ServiceNow와 Nvidia 파트너십을 발표했다 프로젝트 헬릭스와 유사합니다. 그만큼 아이디어가 새롭지 않다, 그러나 최근 생성 AI 및 LLM 개발이 가속화되면서 과급되었습니다.

2022년 XNUMX월 GTC에서 Nvidia는 이를 염두에 두고 NeMo LLM 서비스를 출시하여 기업이 사전 훈련된 기초 모델을 조정하여 자체 데이터로 훈련된 맞춤형 모델을 만들 수 있는 방법을 제공했습니다.

OpenAI의 GPT-4와 같은 범용 모델은 일부 작업에 적합할 것이라고 Das는 말했습니다. , 모델이 회사의 맥락에서 수행해야 하는 작업을 정확히 수행하는지 확인합니다.”

"NeMo는 자체 모델을 구축하고 유지해야 하는 고객을 위한 Nvidia의 플랫폼입니다."

기조 연설에서 Clark과의 화상 토론에 출연한 Nvidia CEO Jensen Huang은 "모든 회사는 인텔리전스에 대한 핵심"이라고 말했습니다.

Huang은 "프로젝트 헬릭스는 모든 회사가 AI 공장이 되어 인텔리전스, 도메인별 인텔리전스, 전문성을 생산한 다음 광속으로 대규모로 수행할 수 있도록 도울 것"이라고 말했습니다.

제너레이티브 AI에 대한 급속한 혁신은 또한 기업에 더 많은 옵션을 제공할 것이라고 Dell의 Clarke는 주장했습니다. Project Helix를 기반으로 하는 Dell Validated Design은 XNUMX월부터 제공됩니다. ®

타임 스탬프 :

더보기 등록