Opret en webapp til visuelt at interagere med objekter, der registreres ved hjælp af maskinlæring

Kildeknude: 1849328

Resumé

IBM Model Asset eXchange (MAX) modellerne, der er hostet på Machine Learning eXchange (https://ml-exchange.org/models/) har givet applikationsudviklere uden datavidenskabserfaring nem adgang til forudbyggede maskinlæringsmodeller. Dette kodemønster viser, hvordan man opretter en simpel webapplikation til at visualisere tekstoutputtet fra en MAX-model. Webappen bruger Objektdetektor fra MAX og opretter en simpel web-brugergrænseflade, der viser afgrænsningsfelter omkring registrerede objekter i et billede og lader dig filtrere objekterne baseret på deres etiket og sandsynlige nøjagtighed givet af modellen.

Beskrivelse

Dette kodemønster bruger en af ​​modellerne fra Model Asset eXchange, en udveksling, hvor du kan finde og eksperimentere med open source deep learning-modeller. Specifikt bruger den Objektdetektoren til at skabe en webapplikation, der genkender objekter i et billede og lader dig filtrere objekterne baseret på deres detekterede etiket og forudsigelsesnøjagtighed. Webapplikationen giver en interaktiv brugergrænseflade understøttet af en letvægts Node.js-server, der bruger Express. Serveren er vært for en web-UI på klientsiden og videresender API-kald til modellen fra web-UI til et REST-slutpunkt for modellen. Web-brugergrænsefladen tager et billede ind og sender det til modellens REST-endepunkt gennem serveren og viser de detekterede objekter på brugergrænsefladen. Modellens REST-endepunkt er konfigureret ved hjælp af Docker-billedet, der findes på MAX. Web-brugergrænsefladen viser de detekterede objekter i et billede ved hjælp af en afgrænsningsramme og etiket og inkluderer en værktøjslinje til at filtrere de detekterede objekter baseret på deres etiketter eller en tærskel for forudsigelsesnøjagtigheden.

Når du har gennemført dette kodemønster, forstår du, hvordan du:

  • Byg et Docker-billede af Object Detector MAX-modellen
  • Implementer en dyb læringsmodel med et REST-slutpunkt
  • Genkend objekter i et billede ved hjælp af MAX-modellens REST API
  • Kør en webapplikation, der bruger modellens REST API

Flow

flow

  1. Brugeren bruger web-UI til at sende et billede til Model API.
  2. Model API returnerer objektdataene, og web-UI viser de registrerede objekter.
  3. Brugeren interagerer med web-UI for at se og filtrere de registrerede objekter.

Instruktioner

Klar til at tage dette kodemønster i brug? Fuldstændige detaljer om, hvordan du kommer i gang med at køre og bruge denne applikation er i README.

Kilde: https://developer.ibm.com/patterns/create-a-web-app-to-interact-with-objects-detected-using-machine-learning/

Tidsstempel:

Mere fra IBM-udvikler