Créer une application Web pour interagir visuellement avec les objets détectés à l'aide de l'apprentissage automatique

Nœud source: 1849328

Résumé

Les modèles IBM Model Asset eXchange (MAX) hébergés sur Machine Learning eXchange (https://ml-exchange.org/models/) ont permis aux développeurs d'applications sans expérience en science des données d'accéder facilement à des modèles d'apprentissage automatique prédéfinis. Ce modèle de code montre comment créer une application Web simple pour visualiser la sortie texte d'un modèle MAX. L'application Web utilise le Détecteur d'objets à partir de MAX et crée une interface utilisateur Web simple qui affiche des cadres de délimitation autour des objets détectés dans une image et vous permet de filtrer les objets en fonction de leur étiquette et de la précision probable donnée par le modèle.

Description

Ce modèle de code utilise l'un des modèles de Model Asset eXchange, un échange où vous pouvez trouver et expérimenter des modèles d'apprentissage profond open source. Plus précisément, il utilise le détecteur d'objets pour créer une application Web qui reconnaît les objets dans une image et vous permet de filtrer les objets en fonction de leur étiquette détectée et de la précision de leur prédiction. L'application Web fournit une interface utilisateur interactive soutenue par un serveur Node.js léger utilisant Express. Le serveur héberge une interface utilisateur Web côté client et relaie les appels d'API vers le modèle depuis l'interface utilisateur Web vers un point de terminaison REST pour le modèle. L'interface utilisateur Web récupère une image et l'envoie au point de terminaison REST du modèle via le serveur et affiche les objets détectés sur l'interface utilisateur. Le point de terminaison REST du modèle est configuré à l'aide de l'image Docker fournie sur MAX. L'interface utilisateur Web affiche les objets détectés dans une image à l'aide d'un cadre de délimitation et d'une étiquette et comprend une barre d'outils pour filtrer les objets détectés en fonction de leurs étiquettes ou d'un seuil de précision de prédiction.

Lorsque vous avez terminé ce modèle de code, vous comprenez comment:

  • Créer une image Docker du modèle Object Detector MAX
  • Déployer un modèle d'apprentissage en profondeur avec un point de terminaison REST
  • Reconnaître les objets dans une image à l'aide de l'API REST du modèle MAX
  • Exécutez une application Web qui utilise l'API REST du modèle

Flow

flux

  1. L'utilisateur utilise l'interface utilisateur Web pour envoyer une image à l'API Model.
  2. L'API Model renvoie les données de l'objet et l'interface utilisateur Web affiche les objets détectés.
  3. L'utilisateur interagit avec l'interface utilisateur Web pour afficher et filtrer les objets détectés.

Instructions

Prêt à utiliser ce modèle de code? Les détails complets sur la façon de commencer à utiliser et à utiliser cette application sont dans le README.

Source : https://developer.ibm.com/patterns/create-a-web-app-to-interact-with-objects-detected-using-machine-learning/

Horodatage:

Plus de Développeur IBM