Crea un'app Web per interagire visivamente con gli oggetti rilevati utilizzando il machine learning

Nodo di origine: 1849328

Sommario

I modelli IBM Model Asset eXchange (MAX) ospitati su Machine Learning eXchange (https://ml-exchange.org/models/) hanno offerto agli sviluppatori di applicazioni senza esperienza nella scienza dei dati un facile accesso a modelli di machine learning predefiniti. Questo modello di codice mostra come creare una semplice applicazione Web per visualizzare l'output testuale di un modello MAX. L'app Web utilizza il file Rilevatore di oggetti da MAX e crea una semplice interfaccia utente Web che visualizza riquadri di delimitazione attorno agli oggetti rilevati in un'immagine e consente di filtrare gli oggetti in base alla loro etichetta e alla probabile precisione data dal modello.

Descrizione

Questo modello di codice utilizza uno dei modelli di Model Asset eXchange, uno scambio in cui puoi trovare e sperimentare modelli di deep learning open source. Nello specifico, utilizza Object Detector per creare un'applicazione web che riconosce gli oggetti in un'immagine e consente di filtrare gli oggetti in base all'etichetta rilevata e alla precisione della previsione. L'applicazione Web fornisce un'interfaccia utente interattiva supportata da un server Node.js leggero che utilizza Express. Il server ospita un'interfaccia utente Web lato client e inoltra le chiamate API al modello dall'interfaccia utente Web a un endpoint REST per il modello. L'interfaccia utente Web acquisisce un'immagine e la invia all'endpoint REST del modello tramite il server e visualizza gli oggetti rilevati sull'interfaccia utente. L'endpoint REST del modello viene configurato utilizzando l'immagine Docker fornita su MAX. L'interfaccia utente Web visualizza gli oggetti rilevati in un'immagine utilizzando un riquadro di delimitazione e un'etichetta e include una barra degli strumenti per filtrare gli oggetti rilevati in base alle relative etichette o a una soglia per la precisione della previsione.

Dopo aver completato questo modello di codice, capisci come:

  • Crea un'immagine Docker del modello Object Detector MAX
  • Distribuire un modello di apprendimento profondo con un endpoint REST
  • Riconoscere gli oggetti in un'immagine utilizzando l'API REST del modello MAX
  • Eseguire un'applicazione Web che utilizza l'API REST del modello

Flow

flusso

  1. L'utente utilizza l'interfaccia utente Web per inviare un'immagine all'API del modello.
  2. L'API del modello restituisce i dati dell'oggetto e l'interfaccia utente Web visualizza gli oggetti rilevati.
  3. L'utente interagisce con l'interfaccia utente web per visualizzare e filtrare gli oggetti rilevati.

Istruzioni

Pronto a mettere questo modello di codice da usare? I dettagli completi su come iniziare a correre e usare questa applicazione sono disponibili in README.

Fonte: https://developer.ibm.com/patterns/create-a-web-app-to-interact-with-objects-detected-using-machine-learning/

Timestamp:

Di più da Sviluppatore IBM