Єдиний безкоштовний курс, який вам потрібен, щоб стати професійним інженером даних - KDnuggets

Єдиний безкоштовний курс, який вам потрібен, щоб стати професійним інженером даних – KDnuggets

Вихідний вузол: 3084924

Єдиний безкоштовний курс, який вам потрібен, щоб стати професійним інженером даних
Зображення автора
 

Існує багато курсів і ресурсів з машинного навчання та науки про дані, але дуже мало з інженерії даних. Це викликає деякі запитання. Це складна сфера? Він пропонує низьку зарплату? Хіба це не вважається таким же захоплюючим, як інші технічні ролі? Однак реальність така, що багато компаній активно шукають талантів у розробці даних і пропонують значні зарплати, іноді понад 200,000 XNUMX доларів США. Інженери з даних відіграють вирішальну роль як архітектори платформ даних, проектуючи та створюючи базові системи, які дозволяють науковцям із обробки даних та експертам з машинного навчання ефективно функціонувати.

Вирішуючи цю галузеву прогалину, DataTalkClub запровадив трансформаційний і безкоштовний навчальний табір, “Data Engineering Zoomcamp“. Цей курс розроблений, щоб розширити можливості початківців або професіоналів, які хочуть змінити кар’єру, з основними навичками та практичним досвідом у розробці даних.

Це 6-тижневий навчальний табір де ви навчатиметеся через численні курси, матеріали для читання, семінари та проекти. Наприкінці кожного модуля ви отримаєте домашнє завдання, щоб відпрацювати те, що ви навчилися.

  1. Тиждень 1: Вступ до GCP, Docker, Postgres, Terraform і налаштування середовища.
  2. Тиждень 2: Оркестровка робочого процесу за допомогою Mage. 
  3. Тиждень 3: Сховище даних за допомогою BigQuery та машинне навчання за допомогою BigQuery. 
  4. Тиждень 4: Інженер-аналітик з dbt, Google Data Studio та Metabase.
  5. Тиждень 5: Пакетна обробка за допомогою Spark.
  6. Тиждень 6: Стрімінг з Кафкою. 

 

Єдиний безкоштовний курс, який вам потрібен, щоб стати професійним інженером даних
Зображення з DataTalksClub/data-engineering-zoomcamp

Програма містить 6 модулів, 2 семінари та проект, який охоплює все необхідне для того, щоб стати професійним інженером даних.

Модуль 1: Освоєння контейнеризації та інфраструктури як коду

У цьому модулі ви дізнаєтеся про Docker і Postgres, починаючи з основ і переходячи до детальних посібників зі створення конвеєрів даних, запуску Postgres з Docker тощо. 

Модуль також охоплює основні інструменти, як-от pgAdmin, Docker-compose та теми для оновлення SQL, із додатковим вмістом про мережу Docker і спеціальними інструкціями для користувачів підсистеми Windows Linux. Зрештою, курс знайомить вас із GCP і Terraform, надаючи цілісне розуміння контейнеризації та інфраструктури як коду, необхідного для сучасних хмарних середовищ.

Модуль 2: Методи оркестровки робочого процесу

Модуль пропонує поглиблене вивчення Mage, інноваційної гібридної системи з відкритим вихідним кодом для перетворення та інтеграції даних. Цей модуль починається з основ оркестровки робочого процесу, переходить до практичних вправ із Mage, включаючи його налаштування через Docker і створення конвеєрів ETL від API до Postgres і Google Cloud Storage (GCS), а потім до BigQuery. 

Поєднання відео, ресурсів і практичних завдань у модулі забезпечує комплексний досвід навчання, озброюючи учнів навичками керування складними робочими процесами даних за допомогою Mage.

Семінар 1: Стратегії прийому даних

На першому семінарі ви навчитеся створювати ефективні конвеєри прийому даних. Семінар зосереджений на основних навичках, таких як вилучення даних з API і файлів, нормалізація та завантаження даних, а також методи інкрементального завантаження. Після завершення цього семінару ви зможете створювати ефективні конвеєри даних, як старший інженер даних.

Модуль 3: Сховища даних

Модуль є поглибленим дослідженням зберігання та аналізу даних, зосередженим на сховищах даних за допомогою BigQuery. Він охоплює ключові поняття, такі як розділення та кластеризація, а також занурюється в найкращі практики BigQuery. Модуль переходить до розширених тем, зокрема інтеграції машинного навчання (ML) із BigQuery, висвітлюючи використання SQL для ML і надаючи ресурси щодо налаштування гіперпараметрів, попередньої обробки функцій і розгортання моделі. 

Модуль 4: Аналітична техніка

Інженерний модуль аналітики зосереджений на створенні проекту за допомогою dbt (Data Build Tool) із наявним сховищем даних, BigQuery або PostgreSQL. 

Модуль охоплює налаштування dbt як у хмарному, так і в локальному середовищах, представлення концепцій аналітичної інженерії, ETL проти ELT та моделювання даних. Він також охоплює розширені функції dbt, такі як інкрементні моделі, теги, хуки та знімки. 

Зрештою, модуль знайомить із технікою візуалізації трансформованих даних за допомогою таких інструментів, як Google Data Studio та Metabase, а також надає ресурси для усунення несправностей та ефективного завантаження даних.

Модуль 5: Вміння пакетної обробки

Цей модуль охоплює пакетну обробку за допомогою Apache Spark, починаючи зі знайомства з пакетною обробкою та Spark, а також інструкцій із встановлення для Windows, Linux і MacOS. 

Він включає вивчення Spark SQL і DataFrames, підготовку даних, виконання операцій SQL і розуміння внутрішніх функцій Spark. Нарешті, він завершується запуском Spark у хмарі та інтеграцією Spark із BigQuery.

Модуль 6: Мистецтво потокової передачі даних за допомогою Kafka

Модуль починається зі вступу до концепцій потокової обробки, після чого йде поглиблене вивчення Kafka, включаючи її основи, інтеграцію з Confluent Cloud і практичні програми, що включають виробників і споживачів. 

Модуль також охоплює конфігурацію та потоки Kafka, розглядаючи такі теми, як об’єднання потоків, тестування, вікна та використання Kafka ksqldb & Connect. Крім того, він зосереджується на середовищах Python і JVM, включаючи Faust для потокової обробки Python, Pyspark – Structured Streaming і приклади Scala для Kafka Streams. 

Семінар 2: Потокова обробка за допомогою SQL

Ви навчитеся обробляти потокові дані та керувати ними за допомогою RisingWave, який надає економічно ефективне рішення з досвідом у стилі PostgreSQL для розширення можливостей ваших програм обробки потоків.

Проект: Програма реальної обробки даних

Метою цього проекту є реалізація всіх концепцій, які ми вивчали в цьому курсі, для створення наскрізного конвеєра даних. Ви створите інформаційну панель, що складається з двох плиток, вибравши набір даних, побудувавши конвеєр для обробки даних і зберігаючи їх в озері даних, побудувавши конвеєр для передачі оброблених даних із озера даних у сховище даних, перетворивши дані в сховищі даних і підготовка їх для інформаційної панелі, і, нарешті, створення інформаційної панелі для візуального представлення даних.

Деталі когорти 2024 року

Передумови

  • Базові навички програмування та командного рядка
  • Основа в SQL
  • Python: корисно, але не обов’язково

Досвідчені інструктори ведуть вашу подорож

  • Анкуш Ханна
  • Вікторія Перес Мола
  • Олексій Григорєв
  • Метт Палмер
  • Луїс Олівейра
  • Майкл Шумейкер

Приєднуйтесь до нашої когорти 2024 року та почніть навчатися з чудовою спільнотою розробників даних. Завдяки навчанню під керівництвом експертів, практичному досвіду та навчальній програмі, адаптованій до потреб галузі, цей навчальний табір не лише озброїть вас необхідними навичками, але й позиціонує вас на передньому краї прибуткової та затребуваної кар’єри. Зареєструйтесь сьогодні та втіліть свої мрії в реальність!
 
 

Абід Алі Аван (@1abidaliawan) є сертифікованим фахівцем із дослідження даних, який любить створювати моделі машинного навчання. Зараз він зосереджується на створенні контенту та написанні технічних блогів про технології машинного навчання та науки про дані. Абід має ступінь магістра з управління технологіями та ступінь бакалавра в галузі телекомунікаційної інженерії. Його бачення полягає в тому, щоб створити продукт AI з використанням нейронної мережі графа для студентів, які борються з психічними захворюваннями.

Часова мітка:

Більше від KDnuggets