یک برنامه وب برای تعامل بصری با اشیاء شناسایی شده با استفاده از یادگیری ماشین ایجاد کنید

گره منبع: 1849328

خلاصه

مدل‌های IBM Model Asset EXchange (MAX) که در مبادلات یادگیری ماشینی میزبانی می‌شوند (https://ml-exchange.org/models/) به توسعه دهندگان برنامه های کاربردی بدون تجربه علم داده دسترسی آسان به مدل های یادگیری ماشینی از پیش ساخته شده داده اند. این الگوی کد نحوه ایجاد یک برنامه وب ساده برای تجسم خروجی متن یک مدل MAX را نشان می دهد. برنامه وب از آشکارساز شی از MAX و یک رابط وب ساده ایجاد می کند که کادرهای محدود کننده را در اطراف اشیاء شناسایی شده در یک تصویر نمایش می دهد و به شما امکان می دهد اشیاء را بر اساس برچسب آنها و دقت احتمالی ارائه شده توسط مدل فیلتر کنید.

توضیحات:

این الگوی کد از یکی از مدل‌های Model Asset eXchange استفاده می‌کند، صرافی که در آن می‌توانید مدل‌های یادگیری عمیق منبع باز را بیابید و آزمایش کنید. به طور خاص، از Object Detector برای ایجاد یک برنامه وب استفاده می کند که اشیاء را در یک تصویر تشخیص می دهد و به شما امکان می دهد اشیاء را بر اساس برچسب شناسایی شده و دقت پیش بینی آنها فیلتر کنید. برنامه وب یک رابط کاربری تعاملی را ارائه می دهد که توسط یک سرور سبک وزن Node.js با استفاده از Express پشتیبانی می شود. سرور میزبان یک رابط کاربری وب سمت کلاینت است و تماس‌های API را به مدل از رابط کاربری وب به نقطه پایانی REST برای مدل ارسال می‌کند. رابط وب یک تصویر را می گیرد و از طریق سرور به نقطه پایانی مدل REST می فرستد و اشیاء شناسایی شده را در رابط کاربری نمایش می دهد. نقطه پایانی REST مدل با استفاده از تصویر Docker ارائه شده در MAX تنظیم می شود. رابط کاربری وب اشیاء شناسایی شده را در یک تصویر با استفاده از یک کادر و برچسب محدود کننده نمایش می دهد و شامل یک نوار ابزار برای فیلتر کردن اشیاء شناسایی شده بر اساس برچسب آنها یا یک آستانه برای دقت پیش بینی است.

هنگامی که این الگوی کد را تکمیل کردید، می فهمید که چگونه:

  • یک تصویر Docker از مدل Object Detector MAX بسازید
  • یک مدل یادگیری عمیق را با نقطه پایانی REST اجرا کنید
  • با استفاده از REST API مدل MAX اشیاء را در یک تصویر تشخیص دهید
  • یک برنامه وب را اجرا کنید که از REST API مدل استفاده می کند

جریان

جریان

  1. کاربر از رابط کاربری وب برای ارسال تصویر به مدل API استفاده می کند.
  2. Model API داده های شی را برمی گرداند و رابط کاربری وب اشیاء شناسایی شده را نمایش می دهد.
  3. کاربر برای مشاهده و فیلتر کردن اشیاء شناسایی شده با رابط کاربری وب در تعامل است.

دستورالعمل ها

برای استفاده از این الگوی کد آماده هستید؟ جزئیات کامل در مورد نحوه شروع اجرا و استفاده از این برنامه در این قسمت موجود است README.

منبع: https://developer.ibm.com/patterns/create-a-web-app-to-interact-with-objects-detected-using-machine-learning/

تمبر زمان:

بیشتر از توسعه دهنده IBM