Utwórz aplikację internetową, aby wizualnie wchodzić w interakcje z obiektami wykrytymi za pomocą uczenia maszynowego

Węzeł źródłowy: 1849328

Podsumowanie

Modele IBM Model Asset eXchange (MAX) hostowane w usłudze Machine Learning eXchange (https://ml-exchange.org/models/) zapewniły twórcom aplikacji bez doświadczenia w dziedzinie analityki danych łatwy dostęp do gotowych modeli uczenia maszynowego. Ten wzorzec kodu pokazuje, jak utworzyć prostą aplikację internetową do wizualizacji wyników tekstowych modelu MAX. Aplikacja internetowa korzysta z Wykrywacz obiektów z MAX i tworzy prosty internetowy interfejs użytkownika, który wyświetla ramki ograniczające wokół wykrytych obiektów na obrazie i umożliwia filtrowanie obiektów na podstawie ich etykiety i prawdopodobnej dokładności określonej przez model.

Opis

Ten wzorzec kodu wykorzystuje jeden z modeli z Model Asset eXchange — giełdy, na której można znaleźć modele głębokiego uczenia się typu open source i eksperymentować z nimi. W szczególności wykorzystuje wykrywacz obiektów do tworzenia aplikacji internetowej, która rozpoznaje obiekty na obrazie i umożliwia filtrowanie obiektów na podstawie wykrytej etykiety i dokładności przewidywania. Aplikacja internetowa zapewnia interaktywny interfejs użytkownika wspierany przez lekki serwer Node.js korzystający z Express. Serwer obsługuje internetowy interfejs użytkownika po stronie klienta i przekazuje wywołania API do modelu z internetowego interfejsu użytkownika do punktu końcowego REST modelu. Internetowy interfejs użytkownika pobiera obraz i wysyła go do punktu końcowego REST modelu za pośrednictwem serwera i wyświetla wykryte obiekty w interfejsie użytkownika. Punkt końcowy REST modelu jest konfigurowany przy użyciu obrazu platformy Docker udostępnionego w systemie MAX. Interfejs sieciowy wyświetla wykryte obiekty na obrazie za pomocą ramki ograniczającej i etykiety oraz zawiera pasek narzędzi do filtrowania wykrytych obiektów na podstawie ich etykiet lub progu dokładności przewidywania.

Po zakończeniu tego wzorca kodu zrozumiesz, jak:

  • Zbuduj obraz Dockera modelu Object Detector MAX
  • Wdróż model uczenia głębokiego z punktem końcowym REST
  • Rozpoznawaj obiekty na obrazie za pomocą interfejsu API REST modelu MAX
  • Uruchom aplikację internetową korzystającą z interfejsu API REST modelu

Przepływ

pływ

  1. Użytkownik używa internetowego interfejsu użytkownika do wysyłania obrazu do interfejsu Model API.
  2. Model API zwraca dane obiektu, a internetowy interfejs użytkownika wyświetla wykryte obiekty.
  3. Użytkownik wchodzi w interakcję z interfejsem internetowym, aby przeglądać i filtrować wykryte obiekty.

Instrukcje

Gotowy do użycia tego wzorca kodu? Pełne szczegóły dotyczące rozpoczęcia uruchamiania i korzystania z tej aplikacji znajdują się w README.

Źródło: https://developer.ibm.com/patterns/create-a-web-app-to-interact-with-objects-detected-using-machine-learning/

Znak czasu:

Więcej z Programista IBM