مدل های بنیادی در لبه - وبلاگ IBM

مدل های بنیادی در لبه - وبلاگ IBM

گره منبع: 2891323

مدل های بنیادی در لبه - وبلاگ IBM



نمای هوایی ساختمان

مدل های بنیادی (FM) آغاز یک دوره جدید در یادگیری ماشین (ML) و هوش مصنوعی (AI)که منجر به توسعه سریع‌تر هوش مصنوعی می‌شود که می‌تواند با طیف گسترده‌ای از وظایف پایین دستی سازگار شود و برای مجموعه‌ای از برنامه‌ها به‌خوبی تنظیم شود. 

با افزایش اهمیت پردازش داده‌ها در جایی که کار انجام می‌شود، ارائه مدل‌های هوش مصنوعی در لبه سازمانی، پیش‌بینی‌های هم‌زمان را امکان‌پذیر می‌کند، در حالی که از الزامات حاکمیت داده و حفظ حریم خصوصی تبعیت می‌کند. با ترکیب کردن آی بی ام واتسونکس داده ها و قابلیت های پلت فرم هوش مصنوعی برای FM ها با محاسبات لبه، شرکت ها می توانند بارهای کاری هوش مصنوعی را برای تنظیم دقیق FM و استنتاج در لبه عملیاتی اجرا کنند. این به شرکت‌ها امکان می‌دهد تا استقرار هوش مصنوعی را در لبه مقیاس کنند و زمان و هزینه استقرار را با زمان‌های پاسخ سریع‌تر کاهش دهند.

لطفاً مطمئن شوید که تمام اقساط این سری از پست های وبلاگ در مورد محاسبات لبه را بررسی کنید:

مدل های بنیادی چیست؟

مدل‌های بنیادی (FM) که بر روی مجموعه وسیعی از داده‌های بدون برچسب در مقیاس آموزش داده می‌شوند، برنامه‌های کاربردی پیشرفته هوش مصنوعی (AI) را هدایت می‌کنند. آنها را می توان با طیف گسترده ای از وظایف پایین دستی تطبیق داد و برای مجموعه ای از برنامه ها به خوبی تنظیم کرد. مدل‌های مدرن هوش مصنوعی، که وظایف خاصی را در یک دامنه انجام می‌دهند، جای خود را به FM می‌دهند، زیرا آنها به طور کلی‌تر یاد می‌گیرند و در دامنه‌ها و مشکلات کار می‌کنند. همانطور که از نام آن پیداست، FM می تواند پایه و اساس بسیاری از کاربردهای مدل هوش مصنوعی باشد.

FM ها به دو چالش کلیدی می پردازند که شرکت ها را از افزایش پذیرش هوش مصنوعی باز داشته است. اولاً، شرکت‌ها حجم وسیعی از داده‌های بدون برچسب تولید می‌کنند که تنها بخشی از آن برای آموزش مدل‌های هوش مصنوعی برچسب‌گذاری شده است. دوم، این کار برچسب‌گذاری و حاشیه نویسی بسیار انسانی است و اغلب به چند صد ساعت وقت یک متخصص موضوع (SME) نیاز دارد. این امر باعث می‌شود که مقیاس‌بندی در موارد استفاده مقرون‌به‌صرفه باشد، زیرا به ارتشی از SMEها و متخصصان داده نیاز دارد. FM ها با دریافت مقادیر زیادی از داده های بدون برچسب و استفاده از تکنیک های خود نظارت شده برای آموزش مدل، این تنگناها را از بین برده و راه را برای پذیرش گسترده هوش مصنوعی در سراسر سازمان باز کرده اند. این حجم عظیم از داده‌ها که در هر کسب‌وکاری وجود دارد، در انتظار انتشار هستند تا بینش‌هایی را به دست آورند.

مدل های زبان بزرگ چیست؟

مدل‌های زبان بزرگ (LLMs) یک کلاس از مدل‌های پایه (FM) هستند که از لایه‌هایی تشکیل شده‌اند. شبکه های عصبی که بر روی این حجم عظیم از داده های بدون برچسب آموزش دیده اند. آنها از الگوریتم های یادگیری خود نظارتی برای انجام انواع مختلف استفاده می کنند پردازش زبان طبیعی (NLP) وظایف به روشی شبیه به نحوه استفاده انسان از زبان (شکل 1 را ببینید).

شکل 1. مدل های زبان بزرگ (LLM) زمینه هوش مصنوعی را طوفانی کرده اند.
شکل 1. مدل های زبان بزرگ (LLM) زمینه هوش مصنوعی را طوفانی کرده اند.

مقیاس و سرعت بخشیدن به تأثیر هوش مصنوعی

چندین مرحله برای ساخت و استقرار یک مدل پایه (FM) وجود دارد. اینها شامل دریافت داده، انتخاب داده، پیش پردازش داده، پیش آموزش FM، تنظیم مدل برای یک یا چند کار پایین دستی، ارائه استنتاج، و مدیریت و مدیریت چرخه عمر مدل داده و هوش مصنوعی است که همه آنها را می توان به صورت زیر توصیف کرد. FMOps.

برای کمک به همه این موارد، IBM ابزارها و قابلیت‌های لازم را به شرکت‌ها ارائه می‌کند تا از قدرت این FM‌ها استفاده کنند. آی بی ام واتسونکس، یک پلتفرم هوش مصنوعی و داده آماده برای سازمانی که برای چند برابر کردن تأثیر هوش مصنوعی در یک شرکت طراحی شده است. IBM watsonx شامل موارد زیر است:

  1. IBM watsonx.ai جدید می آورد هوش مصنوعی مولد قابلیت‌هایی که توسط FMها و یادگیری ماشین سنتی (ML) ارائه می‌شوند، به یک استودیوی قدرتمند که چرخه عمر هوش مصنوعی را در بر می‌گیرد.
  2. IBM watsonx.data یک فروشگاه داده مناسب برای مقاصد است که بر اساس معماری خانه دریاچه باز ساخته شده است تا حجم کاری هوش مصنوعی را برای همه داده های شما، در هر مکانی، مقیاس کند.
  3. IBM watsonx.governance یک جعبه ابزار مدیریت چرخه عمر هوش مصنوعی خودکار سرتاسر است که برای فعال کردن گردش‌های کاری هوش مصنوعی مسئولانه، شفاف و قابل توضیح ساخته شده است.

یکی دیگر از عوامل کلیدی، اهمیت فزاینده محاسبات در لبه سازمانی است، مانند مکان‌های صنعتی، طبقات تولیدی، فروشگاه‌های خرده‌فروشی، سایت‌های لبه مخابراتی و غیره. به طور خاص، هوش مصنوعی در لبه سازمانی پردازش داده‌ها را در جایی که کار برای آن انجام می‌شود، امکان‌پذیر می‌سازد. تجزیه و تحلیل نزدیک به زمان واقعی لبه سازمانی جایی است که حجم وسیعی از داده‌های سازمانی تولید می‌شود و هوش مصنوعی می‌تواند بینش‌های تجاری ارزشمند، به‌موقع و عملی را ارائه دهد.

ارائه مدل‌های هوش مصنوعی در لبه، پیش‌بینی‌های هم‌زمان را امکان‌پذیر می‌کند و در عین حال از حاکمیت داده‌ها و الزامات حریم خصوصی پیروی می‌کند. این امر تأخیر اغلب مرتبط با اکتساب، انتقال، تبدیل و پردازش داده های بازرسی را به طور قابل توجهی کاهش می دهد. کار در لبه به ما امکان می دهد از داده های حساس سازمانی محافظت کنیم و هزینه های انتقال داده را با زمان پاسخ سریعتر کاهش دهیم.

با این حال، مقیاس‌بندی استقرار هوش مصنوعی در لبه، در میان چالش‌های مرتبط با داده‌ها (ناهمگونی، حجم و مقررات) و منابع محدود (محاسبات، اتصال به شبکه، ذخیره‌سازی و حتی مهارت‌های فناوری اطلاعات) کار آسانی نیست. این موارد را می توان به طور کلی در دو دسته توصیف کرد:

  • زمان/هزینه استقرار: هر استقرار شامل چندین لایه سخت افزار و نرم افزار است که قبل از استقرار باید نصب، پیکربندی و آزمایش شوند. امروزه، یک متخصص خدمات می تواند تا یک یا دو هفته برای نصب زمان نیاز داشته باشد در هر مکان، به شدت محدود کردن سرعت و مقرون به صرفه بودن شرکت ها در گسترش استقرار در سراسر سازمانشان.                                  
  • مدیریت روز دوم: تعداد زیاد لبه‌های مستقر شده و موقعیت جغرافیایی هر استقرار اغلب می‌تواند ارائه پشتیبانی IT محلی در هر مکان برای نظارت، نگهداری و به‌روزرسانی این استقرارها را بسیار پرهزینه کند.

استقرار هوش مصنوعی Edge

IBM معماری لبه‌ای را توسعه داده است که با آوردن یک مدل سخت‌افزار/نرم‌افزار یکپارچه (HW/SW) برای استقرار هوش مصنوعی لبه، به این چالش‌ها می‌پردازد. این شامل چندین پارادایم کلیدی است که به مقیاس پذیری استقرار هوش مصنوعی کمک می کند:

  • ارائه پشته نرم افزاری بدون لمس مبتنی بر سیاست.
  • نظارت مستمر بر سلامت سیستم لبه
  • قابلیت مدیریت و ارسال به‌روزرسانی‌های نرم‌افزار/امنیتی/پیکربندی به مکان‌های لبه متعدد—همه از یک مکان مرکزی مبتنی بر ابر برای مدیریت روز دوم.

یک معماری توزیع‌شده هاب و اسپیک می‌تواند برای مقیاس‌بندی استقرار هوش مصنوعی سازمانی در لبه استفاده شود، که در آن یک ابر مرکزی یا مرکز داده سازمانی به‌عنوان یک هاب عمل می‌کند و دستگاه لبه در جعبه به‌عنوان یک پره در یک مکان لبه عمل می‌کند.. این مدل هاب و پره، که در سراسر محیط‌های ابری ترکیبی و لبه گسترش می‌یابد، تعادل لازم برای استفاده بهینه از منابع مورد نیاز برای عملیات FM را به بهترین شکل نشان می‌دهد (شکل 2 را ببینید).

شکل 2. پیکربندی استقرار هاب و اسپک برای هوش مصنوعی سازمانی در مکان های لبه.
شکل 2. پیکربندی استقرار هاب و اسپک برای هوش مصنوعی سازمانی در مکان های لبه.

پیش‌آموزش این مدل‌های پایه زبان بزرگ (LLM) و انواع دیگر مدل‌های پایه با استفاده از تکنیک‌های خود نظارت بر مجموعه داده‌های بدون برچسب گسترده، اغلب به منابع محاسباتی (GPU) قابل توجهی نیاز دارد و به بهترین شکل در یک هاب انجام می‌شود. منابع محاسباتی تقریباً نامحدود و انبوه داده‌های بزرگ که اغلب در ابر ذخیره می‌شوند، امکان پیش‌آموزش مدل‌های پارامترهای بزرگ و بهبود مستمر دقت این مدل‌های پایه پایه را فراهم می‌کنند.

از سوی دیگر، تنظیم این FM های پایه برای کارهای پایین دستی - که فقط به چند ده یا صدها نمونه داده برچسب دار و ارائه استنتاج نیاز دارند - تنها با چند GPU در لبه سازمانی قابل انجام است. این اجازه می‌دهد تا داده‌های برچسب‌گذاری شده حساس (یا داده‌های تاج جواهر سازمانی) با خیال راحت در محیط عملیاتی سازمانی باقی بمانند و در عین حال هزینه‌های انتقال داده را نیز کاهش دهند.

با استفاده از یک رویکرد تمام پشته برای استقرار برنامه ها در لبه، یک دانشمند داده می تواند تنظیم دقیق، آزمایش و استقرار مدل ها را انجام دهد. این را می توان در یک محیط واحد انجام داد و در عین حال چرخه عمر توسعه را برای ارائه مدل های جدید هوش مصنوعی به کاربران نهایی کاهش داد. پلتفرم‌هایی مانند Red Hat OpenShift Data Science (RHODS) و Red Hat OpenShift AI ابزارهایی برای توسعه سریع و استقرار مدل‌های هوش مصنوعی آماده تولید در ابر توزیع شده و محیط های لبه

در نهایت، ارائه مدل دقیق هوش مصنوعی در لبه سازمانی به طور قابل توجهی تأخیر مرتبط با کسب، انتقال، تبدیل و پردازش داده ها را کاهش می دهد. جداسازی پیش‌آموزش در ابر از تنظیم دقیق و استنتاج در لبه، هزینه عملیاتی کلی را با کاهش زمان مورد نیاز و هزینه‌های جابجایی داده مرتبط با هر کار استنتاجی کاهش می‌دهد (شکل 3 را ببینید).

شکل 3. پیشنهاد ارزش برای تنظیم دقیق FM و استنتاج در لبه عملیاتی با یک edge-in-a-box. یک مورد استفاده نمونه با یک مهندس عمران که چنین مدل FM را برای بینش‌های تشخیص عیب در زمان واقعی با استفاده از ورودی‌های تصویر پهپاد به کار می‌برد.
شکل 3. پیشنهاد ارزش برای تنظیم دقیق FM و استنتاج در لبه عملیاتی با یک edge-in-a-box. یک مورد استفاده نمونه با یک مهندس عمران که چنین مدل FM را برای بینش‌های تشخیص عیب در زمان واقعی با استفاده از ورودی‌های تصویر پهپاد به کار می‌برد.

برای نشان دادن این ارزش پیشنهادی سرتاسر، یک مدل پایه مبتنی بر ترانسفورماتور بینایی برای زیرساخت‌های عمرانی (از پیش آموزش داده شده با استفاده از مجموعه داده‌های خاص صنعت عمومی و سفارشی) به‌خوبی تنظیم شده و برای استنتاج بر روی یک لبه سه گره به کار گرفته شد. (گفتار) خوشه. پشته نرم افزار شامل پلتفرم کانتینر OpenShift Red Hat و Data Science OpenShift Red Hat بود. این خوشه لبه همچنین به نمونه ای از هاب Red Hat Advanced Cluster Management برای Kubernetes (RHACM) که در فضای ابری اجرا می شود متصل شد.

تامین صفر لمسی

فراهم‌سازی مبتنی بر خط‌مشی و بدون لمس با Red Hat Advanced Cluster Management برای Kubernetes (RHACM) از طریق خط‌مشی‌ها و برچسب‌های قرارگیری، که خوشه‌های لبه خاصی را به مجموعه‌ای از اجزای نرم‌افزار و پیکربندی‌ها متصل می‌کنند، انجام شد. این مؤلفه‌های نرم‌افزار – که در سراسر پشته کامل گسترش می‌یابند و محاسبات، ذخیره‌سازی، شبکه و حجم کاری هوش مصنوعی را پوشش می‌دهند – با استفاده از اپراتورهای مختلف OpenShift، ارائه خدمات کاربردی مورد نیاز و S3 Bucket (ذخیره‌سازی) نصب شدند.

مدل پایه از پیش آموزش‌دیده (FM) برای زیرساخت‌های عمرانی از طریق یک نوت‌بوک Jupyter در Red Hat OpenShift Data Science (RHODS) با استفاده از داده‌های برچسب‌گذاری‌شده برای طبقه‌بندی شش نوع نقص پیدا شده بر روی پل‌های بتنی تنظیم شد. ارائه استنتاج این FM با تنظیم دقیق نیز با استفاده از سرور تریتون نشان داده شد. علاوه بر این، نظارت بر سلامت این سیستم لبه با تجمیع معیارهای مشاهده پذیری از قطعات سخت افزاری و نرم افزاری از طریق Prometheus به داشبورد مرکزی RHACM در فضای ابری امکان پذیر شد. شرکت‌های زیرساخت‌های غیرنظامی می‌توانند این FM‌ها را در مکان‌های لبه‌شان مستقر کنند و از تصاویر هواپیماهای بدون سرنشین برای شناسایی نقص‌ها در زمان واقعی استفاده کنند – که زمان رسیدن به بینش را تسریع می‌کند و هزینه انتقال حجم زیادی از داده‌های با کیفیت بالا به و از Cloud را کاهش می‌دهد.

خلاصه

ترکیب آی بی ام واتسونکس داده ها و قابلیت های پلت فرم هوش مصنوعی برای مدل های پایه (FM) با دستگاه لبه در جعبه به شرکت ها اجازه می دهد تا بارهای کاری هوش مصنوعی را برای تنظیم دقیق FM و استنتاج در لبه عملیاتی اجرا کنند. این دستگاه می‌تواند موارد استفاده پیچیده را خارج از جعبه مدیریت کند و چارچوب هاب و اسپیک را برای مدیریت متمرکز، اتوماسیون و سلف سرویس ایجاد می‌کند. استقرار Edge FM را می توان با موفقیت تکرارپذیر، انعطاف پذیری و امنیت بالاتر از هفته ها به ساعت ها کاهش داد.

درباره مدل های پایه بیشتر بدانید

لطفاً مطمئن شوید که تمام اقساط این سری از پست های وبلاگ در مورد محاسبات لبه را بررسی کنید:

دسته بندی ها

موارد بیشتر از Cloud

Temenos قابلیت‌های پرداخت نوآورانه را برای IBM Cloud به ارمغان می‌آورد تا به بانک‌ها کمک کند تا تغییر کنند

3 حداقل خواندن - اکوسیستم پرداخت در نقطه عطف تحول قرار دارد و ما معتقدیم اکنون زمان تغییر است. از آنجایی که بانک‌ها به دنبال مدرن‌سازی سفرهای پرداخت خود هستند، Temenos Payments Hub به اولین راه‌حل پرداخت اختصاصی برای ارائه قابلیت‌های پرداخت نوآورانه در IBM Cloud for Financial Services تبدیل شده است - یک پلتفرم خاص صنعت که برای تسریع تحولات دیجیتال موسسات مالی با امنیت در خط مقدم این آخرین ابتکار در تاریخ طولانی ما با هم است که به مشتریان کمک می کند تا تغییر کنند. با پرداخت های Temenos…

موج بعدی نوسازی پرداخت: به حداقل رساندن پیچیدگی برای ارتقای تجربه مشتری

3 حداقل خواندن - اکوسیستم پرداخت ها در نقطه عطف تحول قرار دارد، به خصوص که ما شاهد ظهور شرکت های دیجیتال مختل کننده هستیم که روش های پرداخت جدیدی مانند ارزهای دیجیتال و ارزهای دیجیتال بانک مرکزی (CDBC) را معرفی می کنند. با انتخاب های بیشتر برای مشتریان، تصاحب سهم کیف پول برای بانک های سنتی رقابتی تر می شود. این تنها یکی از نمونه های متعددی است که نشان می دهد فضای پرداخت چگونه تکامل یافته است. در عین حال، ما به طور فزاینده ای شاهد نظارت دقیق رگولاتورها بر صنعت هستیم…

پلتفرم تجارت متصل IBM به دیجیتالی شدن تجارت و تامین مالی زنجیره تامین کمک می کند

4 حداقل خواندن - امروزه، شاهد اختلالات دیجیتالی قابل توجهی در تجارت و تامین مالی زنجیره تامین هستیم که تا حد زیادی تحت تاثیر رویدادهای جهانی و ژئوپلیتیک، تغییر مقررات، الزامات انطباق و کنترل، پیشرفت در فناوری و نوآوری، و دسترسی به سرمایه است. هنگام بررسی دقیق تر این اخلالگرها، واضح است که طیف گسترده ای از عوامل وجود دارند که می توانند بر تجارت جهانی و تامین مالی زنجیره تامین تاثیر بگذارند. اینها می توانند از تورم بالا (که پتانسیل ایجاد حاشیه را دارد) متفاوت باشند.

ضبط ایمن جلسات SSH در RHEL در یک شبکه خصوصی VPC

5 حداقل خواندن - در این پست وبلاگ، نحوه ضبط جلسات SSH در Red Hat Enterprise Linux (RHEL) VSI در یک شبکه خصوصی VPC با استفاده از بسته های داخلی را یاد خواهید گرفت. شبکه خصوصی VPC از طریق Terraform تهیه می شود و بسته های RHEL با استفاده از اتوماسیون Ansible نصب می شوند. علاوه بر این، یاد خواهید گرفت که چگونه یک میزبان سنگر بسیار در دسترس را راه اندازی کنید. ضبط جلسه چیست و چرا لازم است؟ میزبان سنگر و سرور پرش هر دو مکانیسم های امنیتی هستند که در شبکه و…

تمبر زمان:

بیشتر از آی بی ام