Acronix در پلتفرم انتخاب برای هوش مصنوعی در لبه

Acronix در پلتفرم انتخاب برای هوش مصنوعی در لبه

گره منبع: 1931159

کالین الکساندر (مدیر بازاریابی محصول در آکرونیکس) اخیراً یک وبینار در مورد این موضوع منتشر کرده است. تنها 20 دقیقه وبینار یک ساعت آسان و به روز رسانی مفید در مورد ترافیک داده ها و گزینه های پیاده سازی است. دانلودها همچنان تحت سلطه ویدیو هستند (بیش از 50٪ برای فیس بوک) که اکنون به شدت به ذخیره سازی در لبه یا نزدیک به آن بستگی دارد. اینکه کدام یک از این موارد اعمال می شود به تعریف شما از "لبه" بستگی دارد. دنیای اینترنت اشیا خود را به عنوان لبه می بیند، دنیای ابر و زیرساخت ظاهرا آخرین گره محاسباتی در زیرساخت، قبل از آن دستگاه های برگ، را به عنوان لبه می بیند. سیب زمینی، سیب زمینی. در هر صورت، نمای زیرساختی لبه جایی است که می‌توانید ذخیره ویدیو را پیدا کنید تا محبوب‌ترین بارگیری‌ها را به بهترین نحو و در سریع‌ترین زمان ممکن ارائه دهید.

Acronix در پلتفرم انتخاب برای هوش مصنوعی در لبه

محاسبه گزینه ها در لبه (و در ابر)

کالین در ابتدا در مورد لبه زیرساخت صحبت می کند که در آن مقداری اسب بخار در محاسبات و هوش مصنوعی مورد نیاز است. او گزینه های استاندارد را ارائه می دهد: CPU، GPU، ASIC یا FPGA. یک راه حل مبتنی بر CPU بیشترین انعطاف را دارد زیرا راه حل شما کاملاً مبتنی بر نرم افزار خواهد بود. به همین دلیل، معمولاً کندترین، پر انرژی ترین و طولانی ترین گزینه تأخیر خواهد بود (من فرض می کنم برای رفت و برگشت به گره های برگ). پردازنده‌های گرافیکی تا حدودی از نظر عملکرد و قدرت با انعطاف‌پذیری کمتری نسبت به پردازنده‌ها بهتر هستند. یک ASIC (سخت‌افزار سفارشی) سریع‌ترین، کمترین قدرت و کمترین تأخیر را خواهد داشت، اگرچه در مفهوم کمتر انعطاف‌پذیر است (همه هوشمندی‌ها در سخت‌افزاری هستند که قابل تغییر نیستند).

او FPGA (یا FPGA/eFPGA تعبیه شده) را به عنوان یک سازش خوب بین این افراط ها ارائه می کند. از نظر عملکرد، قدرت و تأخیر بهتر از CPU یا GPU و جایی بین CPU و GPU در انعطاف پذیری. در حالی که بسیار بهتر از ASIC در انعطاف پذیری است زیرا FPGA را می توان دوباره برنامه ریزی کرد. که همه چیز برای من منطقی است، اگرچه فکر می کنم داستان باید با افزودن DSP ها به خط پلتفرم تکمیل می شد. اینها می توانند مزایای سخت افزاری مخصوص هوش مصنوعی (بردارسازی، آرایه های MAC و غیره) داشته باشند که به عملکرد، قدرت و تأخیر کمک می کنند. با حفظ انعطاف پذیری نرم افزار. نکته مهم دیگر هزینه است. البته این موضوع همیشه یک موضوع حساس است، اما پردازنده‌های گرافیکی، پردازنده‌های گرافیکی و دستگاه‌های FPGA با قابلیت هوش مصنوعی می‌توانند گران باشند، و این یک نگرانی برای صورتحساب مواد یک گره لبه است.

استدلال کالین برای من در لبه eFPGA تعبیه شده در یک SoC بزرگتر منطقی است. در یک برنامه ابری، محدودیت ها متفاوت است. کارت رابط شبکه هوشمند احتمالاً به قیمت حساس نیست و ممکن است یک مزیت عملکردی در راه حل مبتنی بر FPGA در مقابل راه حل مبتنی بر نرم افزار وجود داشته باشد.

پشتیبانی از برنامه های کاربردی هوش مصنوعی در لبه محاسباتی از طریق یک eFPGA گزینه ای به نظر می رسد که ارزش بررسی بیشتر را دارد. دورتر به سمت گره های برگ برای من مبهم است. مطمئناً یک ردیاب لجستیک یا یک سنسور رطوبت خاک میزبان محاسبات قابل توجهی نخواهد بود، اما در مورد یک کنترل از راه دور تلویزیون فعال شده با صدا چطور؟ یا مایکروویو هوشمند؟ هر دو به هوش مصنوعی نیاز دارند اما هیچکدام به اسب بخار زیادی نیاز ندارند. مایکروویو دارای برق سیمی است، اما ریموت تلویزیون یا بلندگوی هوشمند از راه دور با باتری کار می کند. دانستن مبادلات eFPGA در اینجا جالب خواهد بود.

قابلیت های eFPGA برای هوش مصنوعی

طبق دیتاشیت، Speedster 7t MACهای عدد صحیح کاملاً قابل شکست، نقطه شناور انعطاف پذیر، پشتیبانی بومی برای bfloat و ضرب ماتریس کارآمد را ارائه می دهد. من نتوانستم هیچ داده ای در مورد TOPS یا TOPS/Watt پیدا کنم. من مطمئن هستم که به اجرا بستگی دارد، اما مثال ها مفید خواهند بود. حتی در لبه، برخی از برنامه ها بسیار حساس به عملکرد هستند - برای مثال نظارت هوشمند و تشخیص اشیاء رو به جلو در اتومبیل ها. جالب است بدانیم که eFPGA در کجا ممکن است در چنین برنامه هایی قرار گیرد.

وبینار تامل برانگیز. می توانید آن را تماشا کنید اینجا.

اشتراک گذاری این پست از طریق:

تمبر زمان:

بیشتر از نیمه ویکی