Califique los datos de transmisión con un modelo de aprendizaje automático

Nodo de origen: 747582

Esto es parte de Ruta de aprendizaje: Empiece a utilizar IBM Streams.

Resumen

En este patrón de código de desarrollador, transmitiremos datos de compras en línea y usaremos los datos para rastrear los productos que cada cliente ha agregado al carrito. Construiremos un modelo de agrupamiento de k-means con scikit-learn para agrupar a los clientes de acuerdo con el contenido de sus carritos de compras. La asignación de grupo se puede utilizar para predecir productos adicionales que se recomendarán.

Descripción

Nuestra aplicación se creará utilizando IBM Streams en IBM Cloud Pak® for Data. IBM Streams proporciona un IDE integrado, denominado Streams Flows, que le permite crear visualmente una aplicación de streaming. La plataforma IBM Cloud Pak for Data proporciona soporte adicional, como la integración con múltiples fuentes de datos, análisis integrado, Jupyter Notebooks y aprendizaje automático.

Para construir e implementar nuestro modelo de aprendizaje automático, usaremos un Jupyter Notebook en IBM Watson® Studio y una instancia de Watson Machine Learning. En nuestros ejemplos, ambos se ejecutan en IBM Cloud Pak for Data.

Usando el editor Streams Flows, crearemos una aplicación de transmisión con los siguientes operadores:

  • Un operador de origen que genera datos de flujo de clics de muestra
  • Un operador de filtro que mantiene solo los eventos "agregar al carrito"
  • Un operador de código donde usamos código Python para organizar los elementos del carrito de compras en una matriz de entrada para puntuar
  • Un operador de implementación de WML para asignar al cliente a un clúster
  • Un operador de depuración para demostrar los resultados

Flujo

flow

  1. El usuario crea e implementa un modelo de aprendizaje automático.
  2. El usuario crea y ejecuta una aplicación IBM Streams.
  3. La interfaz de usuario de Streams Flow muestra la transmisión, el filtrado y la puntuación en acción.

Instrucciones

¿Preparado para comenzar? los README explica los pasos para:

  1. Verifique el acceso a su instancia de IBM Streams en Cloud Pak for Data.
  2. Crea un nuevo proyecto en Cloud Pak for Data.
  3. Construye y almacena un modelo.
  4. Asocie el espacio de implementación con el proyecto.
  5. Implementar el modelo.
  6. Cree y ejecute una aplicación Streams Flow.

¡Felicidades! Este patrón de código envuelve el Empiece con la serie IBM Streams. Además de explicar IBM Streams, hemos mostrado cómo:

  • Cree su primera aplicación IBM Streams sin escribir código
  • Cree una aplicación de transmisión Apache Kafka
  • Cree una aplicación de transmisión con una API de Python
  • Califique los datos de transmisión con un modelo de aprendizaje automático

Ahora debería tener un conocimiento fundamental de IBM Streams y algunas de sus características. Si desea obtener más información, eche un vistazo a la Introducción a la analítica de streaming con IBM Streams serie de videos

Fuente: https://developer.ibm.com/patterns/score-streaming-data-with-a-machine-learning-model/

Sello de tiempo:

Mas de Desarrollador de IBM