Erstellen Sie eine Web-App zur visuellen Interaktion mit mithilfe von maschinellem Lernen erkannten Objekten

Quellknoten: 1849328

Zusammenfassung

Die IBM Model Asset eXchange (MAX)-Modelle, die auf Machine Learning eXchange gehostet werden (https://ml-exchange.org/models/) haben Anwendungsentwicklern ohne Data-Science-Erfahrung einfachen Zugang zu vorgefertigten Modellen für maschinelles Lernen ermöglicht. Dieses Codemuster zeigt, wie Sie eine einfache Webanwendung erstellen, um die Textausgabe eines MAX-Modells zu visualisieren. Die Web-App verwendet die Objektdetektor von MAX und erstellt eine einfache Web-Benutzeroberfläche, die Begrenzungsrahmen um erkannte Objekte in einem Bild anzeigt und es Ihnen ermöglicht, die Objekte basierend auf ihrer Beschriftung und der wahrscheinlichen Genauigkeit, die durch das Modell gegeben wird, zu filtern.

Beschreibung

Dieses Codemuster verwendet eines der Modelle von Model Asset eXchange, einer Börse, auf der Sie Open-Source-Deep-Learning-Modelle finden und damit experimentieren können. Konkret wird der Objektdetektor verwendet, um eine Webanwendung zu erstellen, die Objekte in einem Bild erkennt und es Ihnen ermöglicht, die Objekte basierend auf ihrer erkannten Beschriftung und Vorhersagegenauigkeit zu filtern. Die Webanwendung bietet eine interaktive Benutzeroberfläche, die von einem einfachen Node.js-Server mit Express unterstützt wird. Der Server hostet eine clientseitige Web-Benutzeroberfläche und leitet API-Aufrufe an das Modell von der Web-Benutzeroberfläche an einen REST-Endpunkt für das Modell weiter. Die Web-Benutzeroberfläche nimmt ein Bild auf, sendet es über den Server an den Modell-REST-Endpunkt und zeigt die erkannten Objekte auf der Benutzeroberfläche an. Der REST-Endpunkt des Modells wird mithilfe des auf MAX bereitgestellten Docker-Images eingerichtet. Die Web-Benutzeroberfläche zeigt die erkannten Objekte in einem Bild mithilfe eines Begrenzungsrahmens und einer Beschriftung an und enthält eine Symbolleiste zum Filtern der erkannten Objekte basierend auf ihren Beschriftungen oder einem Schwellenwert für die Vorhersagegenauigkeit.

Wenn Sie dieses Codemuster abgeschlossen haben, wissen Sie, wie Sie:

  • Erstellen Sie ein Docker-Image des Object Detector MAX-Modells
  • Stellen Sie ein Deep-Learning-Modell mit einem REST-Endpunkt bereit
  • Erkennen Sie Objekte in einem Bild mithilfe der REST-API des MAX-Modells
  • Führen Sie eine Webanwendung aus, die die REST-API des Modells verwendet

Flow

Fluss

  1. Der Benutzer verwendet die Web-Benutzeroberfläche, um ein Bild an die Modell-API zu senden.
  2. Die Modell-API gibt die Objektdaten zurück und die Web-Benutzeroberfläche zeigt die erkannten Objekte an.
  3. Der Benutzer interagiert mit der Web-Benutzeroberfläche, um die erkannten Objekte anzuzeigen und zu filtern.

Anweisungen

Bereit, dieses Codemuster zu verwenden? Ausführliche Informationen zum Starten und Verwenden dieser Anwendung finden Sie in der README.

Quelle: https://developer.ibm.com/patterns/create-a-web-app-to-interact-with-objects-detected-using-machine-learning/

Zeitstempel:

Mehr von IBM Entwickler