Zaawansowane przetwarzanie strumieni danych w Apache Flink
Czas trwania szkolenia:3 dni (24h)
Kod kursu:BIGDATA/FLINK
Poziom zaawansowania:
O szkoleniu Zaawansowane przetwarzanie strumieni danych w Apache Flink
W cenie otrzymasz:
- Materiały szkoleniowe
- Certyfikat ukończenia szkolenia
- W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Dla kogo?
- Analityków i programistów, którzy znają podstawy Big Data oraz przetwarzania strumieni danych i chcą zapoznać się z platformą Apache Flink oferującą w tym zakresie największe możliwości w porównaniu do alternatywnych rozwiązań
Wymagania
- Dobra znajomość: języka SQL, relacyjnego modelu danych
- Podstawowa znajomość obiektowych języków programowania Java oraz Scala, opcjonalnie (jako uzupełnienie) Python
- Znajomość zagadnień Big Data, platformy Hadoop oraz powiązanych z nią narzędzi
- Rekomendujemy wcześniejszy udział w szkoleniach: "Big Data i platforma Hadoop - wprowadzenie (BIGDATA/BASE)", "Przetwarzanie strumieni danych w środowiskach Big Data (BIGDATA/STREAM)"
Zalety
- Kompleksowe wprowadzenie do platformy Apache Flink
- Przedstawienie praktycznych przykładów oraz praktyk związanych z analizą strumieni danych w środowiskach Big Data
- Szczegółowe zapoznanie się z kluczowymi rodzajami API dostarczanymi przez Apache Flink
- Uporządkowanie i usystematyzowanie wiedzy na temat przetwarzania strumieni danych
- Jest to unikalne szkolenie na rynku, które zagłębia się w zaawansowane aspekty przetwarzania strumieniowego w Apache Flink. Dostarcza wiedzy, która wychodzi poza podstawy, umożliwiając uczestnikom pełne zrozumienie technologii
Cele szkolenia
- Zapoznanie z platformą Apache Flink i jej możliwościami w zakresie przetwarzania strumieni danych
- Wykorzystanie zaawansowanych mechanizmów oferowanych przez Apache Flink
Program
Wprowadzenie do systemów przetwarzania strumieni danych (SP)
- Wprowadzenie do świata systemów SP
- Podstawy SP
- Obsługa czasu w SP
- Dualizm strumieni i tabel, SQL
- Punkty kontrolne i punkty zachowania
- Complex Event Processing (CEP)
Flink - wprowadzenie
- Flink - historia, cechy, architektura
- Podstawy implementacji aplikacji
- Typy źródeł i tryby przetwarzania
- Warsztat
DataStream API - podstawy
- Typy danych
- Typy strumieni
- Postać programu
- Podstawy przetwarzania strumieni danych
- Transformacje
- Złożone interfejsy operatorów
- Warsztat
DataStream API - elementy zaawansowane - część 1
- Wprowadzenie - okna, obsługa czasu
- Etykiety czasowe i ich przypisywanie do zdarzeń
- Okna i operacje z nimi związane
- Łączenie strumieni
- Warsztat
DataStream API - elementy zaawansowane - część 2
- Wyzwalacze - wprowadzenie
- Wyzwalacze wbudowane
- Obsługa zdarzeń nieuporządkowanych
- Obsługa zdarzeń spóźnionych
- Zaawansowana obsługa okien
- Warsztat
DataStream API - obsługa stanu przetwarzania
- Wprowadzenie
- Punkty kontrolne - wprowadzenie
- Własne operatory i ich stan
- Warsztat
SQL i Table API - podstawy
- Wprowadzenie
- Struktura programu
- Narzędzia do prototypowania
- Katalogi, bazy danych, tabele i ich typy
- Semantyka Table API
- Obsługa znaczników czasu i watermark
- Table API - przegląd metod
- Integracja SQL i Table API
- Warsztat
Complex Event Processing (CEP)
- Wprowadzenie
- CEP w DataStream API
- SQL API - wyrażenie MATCH_RECOGNIZE
- Warsztat
Przetwarzanie danych wsadowych
- Strumienie skończone i nieskończone
- Statyczne zbiory danych
- Warsztat