Получение данных из Apache Kafka

Исходный узел: 747576

Это часть Путь обучения: начать работу с IBM Streams.

Обзор

В этом шаблоне кода разработчика мы познакомим вас с основами создания потокового приложения на базе Apache Kafka, одной из самых популярных распределенных платформ потоковой передачи событий с открытым исходным кодом, используемых для создания конвейера данных в реальном времени и потоковых приложений. Приложение будет создано с использованием IBM Streams в IBM Cloud Pak® for Data.

Описание

В этом шаблоне мы познакомим вас с основами создания потокового приложения на базе Apache Kafka. Наше приложение будет создано с использованием IBM Streams в IBM Cloud Pak for Data. IBM Streams предоставляет встроенную среду IDE (Streams Flows), которая позволяет визуально создавать потоковые приложения. Платформа IBM Cloud Pak for Data обеспечивает дополнительную поддержку, такую ​​как интеграция с несколькими источниками данных, встроенная аналитика, Jupyter Notebooks и машинное обучение.

Для нашей службы Apache Kafka мы будем использовать IBM Event Streams в IBM Cloud, которая представляет собой шину сообщений с высокой пропускной способностью, построенную на платформе Kafka. В следующих примерах мы покажем его и как источник, и как цель данных о потоках кликов - данные, полученные в результате кликов пользователей, когда они просматривали веб-сайты онлайн-покупок.

Поток

flow

  1. Пользователь создает потоковое приложение в IBM Streams.
  2. Приложение Streaming использует службу Kafka через IBM Event Streams для отправки / получения сообщений.
  3. Блокнот Jupyter создается из приложения IBM Streams.
  4. Пользователь запускает потоковое приложение в блокноте Jupyter.
  5. Блокнот Jupyter обращается к сервису Kafka через IBM Event Streams для отправки / получения сообщений.

инструкции

Готовы начать? В README объясняет шаги, чтобы:

  1. Клон репо
  2. Предоставление потоков событий в IBM Cloud
  3. Создать образец приложения Python для консоли Kafka
  4. Добавить сервис IBM Streams в Cloud Pak for Data
  5. Создайте новый проект в Cloud Pak for Data
  6. Создайте поток потоков в Cloud Pak для данных
  7. Создайте поток потоков с Kafka в качестве источника
  8. Используйте параметр Streams Flow для создания записной книжки
  9. Запустите созданную записную книжку Streams Flow

Эта модель является частью Путь обучения: начать работу с IBM Streams. Чтобы продолжить серию и узнать больше об IBM Streams, ознакомьтесь с шаблоном кода под названием Создайте потоковое приложение с помощью Python API.

Источник: https://developer.ibm.com/patterns/add-event-streams-and-a-db-in-python-to-clickstream/

Отметка времени:

Больше от Разработчик IBM