مایکروسافت ابر Azure را با یادگیری ماشینی بیشتر پر می کند

مایکروسافت ابر Azure را با یادگیری ماشینی بیشتر پر می کند

گره منبع: 2677257

مایکروسافت مطمئن شد که Azure را در جشنواره AI-Fest که کنفرانس توسعه دهندگان Build 2023 این هفته بود، قرار داد.

از آنجایی که شرکت‌ها به آزمایش یا استقرار هوش مصنوعی مولد فکر می‌کنند، ممکن است به ابرهای عمومی و زیرساخت‌های محاسباتی و ذخیره‌سازی مقیاس‌پذیر مشابه برای اجرای چیزهایی مانند مدل‌های زبان بزرگ (LLM) نگاه کنند.

مایکروسافت مسلح با ChatGPT، GPT-4 و سایر سیستم‌های OpenAI، ماه‌هاست که قابلیت‌های هوش مصنوعی را به گوشه و کنار امپراتوری خود منتقل کرده‌اند. Azure تفاوتی ندارد - سرویس OpenAI یک مثال است - و بعد از آن ساخت کنفرانس، ابر عمومی ردموند اکنون پیشنهادات ادعایی بیشتری دارد.

در بالای لیست، یک گسترش یافته است همکاری با انویدیا، که خود عجله دارد تا خود را به عنوان ارائه‌دهنده ضروری فناوری هوش مصنوعی، از شتاب‌دهنده‌های GPU گرفته تا نرم‌افزار، تثبیت کند. تنها در این هفته، سازنده تراشه از مجموعه‌ای از شراکت‌ها مانند با Dell در Dell Technologies World و سازندگان ابر رایانه در ISC23 رونمایی کرد.

آوردن منابع Nvidia به Azure

به طور خاص، مایکروسافت در حال ادغام مجموعه نرم‌افزار، ابزارهای توسعه، چارچوب‌ها و مدل‌های از پیش آموزش‌دیده انویدیا AI Enterprise در Azure Machine Learning است و چیزی را ایجاد می‌کند که تینا منگنانی، مدیر محصول برای پلتفرم ابری یادگیری ماشین، آن را «اولین آماده، ایمن، پایان کار سازمانی» می‌نامد. پلت فرم ابری به پایان برای توسعه دهندگان برای ساخت، استقرار و مدیریت برنامه های کاربردی هوش مصنوعی از جمله مدل های زبان بزرگ سفارشی."

در همان روز، مایکروسافت Azure Machine Learning را ساخت ثبت نام – پلتفرمی برای میزبانی و به اشتراک گذاری بلوک های سازنده یادگیری ماشینی مانند کانتینرها، مدل ها و داده ها و ابزاری برای ادغام AI Enterprise در Azure – به طور کلی در دسترس است. AI Enterprise در یادگیری ماشینی Azure نیز در پیش نمایش فنی محدود موجود است.

«این بدان معناست که برای مشتریانی که تعاملات و روابط موجود با Azure دارند، می‌توانند از این روابط استفاده کنند – آنها می‌توانند از قراردادهای ابری که قبلاً داشته‌اند – برای به دست آوردن Nvidia AI Enterprise استفاده کنند و از آن در Azure ML برای دریافت این مورد استفاده کنند. Manuvir Das، معاون محاسبات سازمانی در Nvidia، چند روز قبل از افتتاح Build به خبرنگاران گفت: تجربه یکپارچه در سطح سازمانی یا به طور جداگانه در مواردی که آنها انتخاب می کنند.

جداسازی شبکه ها برای محافظت از داده های هوش مصنوعی

شرکت‌هایی که عملیات‌های هوش مصنوعی را در فضای ابری اجرا می‌کنند، می‌خواهند اطمینان حاصل کنند که داده‌هایشان در معرض سایر شرکت‌ها قرار نمی‌گیرد و جداسازی شبکه یک ابزار کلیدی است. مایکروسافت دارای ویژگی هایی مانند فضای کاری لینک خصوصی و حفاظت از استخراج داده است، اما هیچ گزینه IP عمومی برای منابع محاسباتی شرکت هایی که مدل های هوش مصنوعی را آموزش می دهند، ندارد. در بیلد، فروشنده اعلام کرد جداسازی شبکه مدیریت شده در Azure Machine Learning برای انتخاب حالت جداسازی که به بهترین وجه با خط مشی‌های امنیتی یک شرکت مطابقت دارد.

پوشش بیلد 2023 ما را از دست ندهید

جای تعجب نیست که ابزارهای منبع باز به طور فزاینده ای وارد فضای هوش مصنوعی می شوند. مایکروسافت سال گذشته با Hugging Face همکاری کرد تا نقاط پایانی Azure Machine Learning را با فناوری منبع باز این شرکت ارائه دهد. در بیلد، این جفت سازمان منبسط رابطه آنها

Hagging Face قبلاً یک پیشنهاد می دهد مجموعه انتخاب شده ابزارها و APIها و همچنین الف مرکز بزرگ مدل های ML برای دانلود و استفاده. اکنون مجموعه ای از هزاران مدل از کاتالوگ یادگیری ماشینی ردموندی Azure ظاهر می شود تا مشتریان بتوانند به آنها دسترسی داشته باشند و آنها را در نقاط پایانی مدیریت شده در ابر مایکروسافت مستقر کنند.

گزینه های بیشتر مدل فونداسیون

ردموند نیز در حال ساخت است مدل های پایه در Azure Machine Learning در پیش نمایش عمومی موجود است. مدل‌های بنیادی، مدل‌های از پیش آموزش‌دیده قدرتمند و بسیار توانمندی هستند که سازمان‌ها می‌توانند آن‌ها را با داده‌های خود برای اهداف خود سفارشی کنند و در صورت نیاز عرضه کنند.

مدل های فونداسیون بسیار مهم می‌شوند، زیرا می‌توانند به سازمان‌ها کمک کنند تا برنامه‌های غیر پیش پاافتاده مبتنی بر ML بسازند، که مطابق با نیازهای خاص آن‌ها شکل می‌گیرند، بدون نیاز به صرف صدها میلیون دلار برای آموزش مدل‌ها از ابتدا یا بارگذاری پردازش و داده‌های حساس مشتری به ابر.

انویدیا a نمو چارچوبی که ممکن است در این زمینه مفید باشد و این ماه نیز دارد مشارکت کرد با ServiceNow و – این هفته – Dell in پروژه هلیکس در امتداد آن خطوط

همانطور که در چند ماه گذشته با شرکت‌های سازمانی روی هوش مصنوعی مولد کار کرده‌ایم، چیزی که آموخته‌ایم این است که تعداد زیادی از شرکت‌های سازمانی وجود دارند که می‌خواهند از قدرت هوش مصنوعی مولد استفاده کنند، اما این کار را در مراکز داده خودشان انجام می‌دهند. یا این کار را خارج از ابر عمومی انجام دهید،" Das از Nvidia گفت.

منابعی مانند مدل‌های منبع باز و مبانی نوید کاهش پیچیدگی و هزینه‌ها را می‌دهند تا سازمان‌های بیشتری به هوش مصنوعی مولد دسترسی داشته باشند. ®

تمبر زمان:

بیشتر از ثبت نام