Lag en nettapp for visuelt å samhandle med objekter som oppdages ved hjelp av maskinlæring

Kilde node: 1849328

Oppsummering

IBM Model Asset eXchange (MAX)-modeller som er vert på Machine Learning eXchange (https://ml-exchange.org/models/) har gitt applikasjonsutviklere uten datavitenskapserfaring enkel tilgang til forhåndsbygde maskinlæringsmodeller. Dette kodemønsteret viser hvordan du lager en enkel nettapplikasjon for å visualisere tekstutgangen til en MAX-modell. Nettappen bruker Objektdetektor fra MAX og lager et enkelt nettgrensesnitt som viser avgrensende bokser rundt oppdagede objekter i et bilde og lar deg filtrere objektene basert på etiketten og sannsynlig nøyaktighet gitt av modellen.

Beskrivelse

Dette kodemønsteret bruker en av modellene fra Model Asset eXchange, en børs hvor du kan finne og eksperimentere med dyplæringsmodeller med åpen kildekode. Nærmere bestemt bruker den Objektdetektoren til å lage en nettapplikasjon som gjenkjenner objekter i et bilde og lar deg filtrere objektene basert på deres oppdagede etikett og prediksjonsnøyaktighet. Nettapplikasjonen gir et interaktivt brukergrensesnitt støttet av en lett Node.js-server som bruker Express. Serveren er vert for et nettgrensesnitt på klientsiden og videresender API-kall til modellen fra nettgrensesnittet til et REST-endepunkt for modellen. Nettgrensesnittet tar inn et bilde og sender det til modellens REST-endepunkt gjennom serveren og viser de oppdagede objektene på brukergrensesnittet. Modellens REST-endepunkt er satt opp ved hjelp av Docker-bildet som er gitt på MAX. Nettgrensesnittet viser de oppdagede objektene i et bilde ved hjelp av en avgrensningsramme og etikett og inkluderer en verktøylinje for å filtrere de oppdagede objektene basert på deres etiketter eller en terskel for prediksjonsnøyaktigheten.

Når du har fullført dette kodemønsteret, forstår du hvordan du:

  • Bygg et Docker-bilde av Object Detector MAX-modellen
  • Distribuere en dyp læringsmodell med et REST-endepunkt
  • Gjenkjenne objekter i et bilde ved hjelp av MAX-modellens REST API
  • Kjør et webapplikasjon som bruker modellens REST API

Flow

flyten

  1. Brukeren bruker web-UI for å sende et bilde til Model API.
  2. Model API returnerer objektdataene og web-UI viser de oppdagede objektene.
  3. Brukeren samhandler med web-UI for å vise og filtrere de oppdagede objektene.

Instruksjoner

Klar til å bruke dette kodemønsteret du skal bruke? Komplette detaljer om hvordan du kommer i gang med å kjøre og bruke dette programmet, finnes i README.

Kilde: https://developer.ibm.com/patterns/create-a-web-app-to-interact-with-objects-detected-using-machine-learning/

Tidstempel:

Mer fra IBM-utvikler