Daten von Apache Kafka aufnehmen

Quellknoten: 747576

Dies ist Teil der Lernpfad: Erste Schritte mit IBM Streams.

Zusammenfassung

In diesem Entwicklercodemuster führen wir Sie durch die Grundlagen der Erstellung einer Streaming-Anwendung auf Basis von Apache Kafka, einer der beliebtesten Open-Source-Plattformen für verteiltes Event-Streaming, die zum Erstellen von Echtzeit-Datenpipelines und Streaming-Apps verwendet wird. Die Anwendung wird mit IBM Streams auf IBM Cloud Pak® for Data erstellt.

Beschreibung

In diesem Muster führen wir Sie durch die Grundlagen der Erstellung einer Streaming-Anwendung mit Apache Kafka. Unsere App wird mit IBM Streams auf IBM Cloud Pak for Data erstellt. IBM Streams bietet eine integrierte IDE (Streams Flows), mit der Sie visuell eine Streaming-App erstellen können. Die IBM Cloud Pak for Data-Plattform bietet zusätzliche Unterstützung, beispielsweise die Integration mit mehreren Datenquellen, integrierte Analysen, Jupyter Notebooks und maschinelles Lernen.

Für unseren Apache Kafka-Dienst werden wir IBM Event Streams in IBM Cloud verwenden, einen Nachrichtenbus mit hohem Durchsatz, der auf der Kafka-Plattform basiert. In den folgenden Beispielen zeigen wir es sowohl als Quelle als auch als Ziel von Clickstream-Daten – Daten, die aus Benutzerklicks beim Durchsuchen von Online-Shopping-Websites erfasst werden.

Flow

flow

  1. Der Benutzer erstellt eine Streaming-App in IBM Streams.
  2. Die Streaming-App nutzt den Kafka-Dienst über IBM Event Streams zum Senden/Empfangen von Nachrichten.
  3. Das Jupyter-Notebook wird aus der IBM Streams-App generiert.
  4. Der Benutzer führt die Streaming-App im Jupyter-Notebook aus.
  5. Das Jupyter-Notebook greift über IBM Event Streams auf den Kafka-Dienst zu, um Nachrichten zu senden/empfangen.

Anweisungen

Bereit anzufangen? Der README erklärt die Schritte, um:

  1. Klonen Sie das Repo
  2. Stellen Sie Event Streams in der IBM Cloud bereit
  3. Erstellen Sie eine Beispiel-Python-App für die Kafka-Konsole
  4. Fügen Sie den IBM Streams-Dienst zu Cloud Pak for Data hinzu
  5. Erstellen Sie ein neues Projekt in Cloud Pak for Data
  6. Erstellen Sie einen Streams-Flow in Cloud Pak for Data
  7. Erstellen Sie einen Streams-Flow mit Kafka als Quelle
  8. Verwenden Sie die Streams-Flow-Option, um ein Notizbuch zu erstellen
  9. Führen Sie das generierte Streams Flow-Notizbuch aus

Dieses Muster ist Teil des Lernpfad: Erste Schritte mit IBM Streams. Um die Serie fortzusetzen und mehr über IBM Streams zu erfahren, sehen Sie sich ein Codemuster mit dem Titel an Erstellen Sie eine Streaming-App mit einer Python-API.

Quelle: https://developer.ibm.com/patterns/add-event-streams-and-a-db-in-python-to-clickstream/

Zeitstempel:

Mehr von IBM Entwickler