Trwają zapisy do grupy

Szkolenie: Zaawansowane przetwarzanie strumieni danych w Apache Flink

Szkolenie obejmuje praktyczne wykorzystanie platformy Apache Flink do zaawansowanego przetwarzania strumieni danych w środowiskach Big Data z wykorzystaniem języków Java, Scala i SQL, a także platformy Google Cloud Platform (GCP).

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:3 dni (24h)

Poziom zaawansowania:

Kod kursu:BIGDATA/FLINK

javabig-datasqlgcp

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

9 grudnia
Trwają zapisy na szkolenieOferta specjalna

Trener:

Krzysztof Jankiewicz

Cena:

2805 2040 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

3 marca
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

2805 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

2 czerwca
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

2805 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

1 września
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

2805 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Zaawansowane przetwarzanie strumieni danych w Apache Flink

Cele szkolenia

  • Zapoznanie z platformą Apache Flink i jej możliwościami w zakresie przetwarzania strumieni danych

  • Wykorzystanie zaawansowanych mechanizmów oferowanych przez Apache Flink


Dla kogo?

  • Analityków i programistów, którzy znają podstawy Big Data oraz przetwarzania strumieni danych i chcą zapoznać się z platformą Apache Flink oferującą w tym zakresie największe możliwości w porównaniu do alternatywnych rozwiązań


Zalety

  • Kompleksowe wprowadzenie do platformy Apache Flink

  • Przedstawienie praktycznych przykładów oraz praktyk związanych z analizą strumieni danych w środowiskach Big Data

  • Szczegółowe zapoznanie się z kluczowymi rodzajami API dostarczanymi przez Apache Flink

  • Uporządkowanie i usystematyzowanie wiedzy na temat przetwarzania strumieni danych

  • Jest to unikalne szkolenie na rynku, które zagłębia się w zaawansowane aspekty przetwarzania strumieniowego w Apache Flink. Dostarcza wiedzy, która wychodzi poza podstawy, umożliwiając uczestnikom pełne zrozumienie technologii


Wymagania

  • Dobra znajomość: języka SQL, relacyjnego modelu danych

  • Podstawowa znajomość obiektowych języków programowania Java oraz Scala, opcjonalnie (jako uzupełnienie) Python

  • Znajomość zagadnień Big Data, platformy Hadoop oraz powiązanych z nią narzędzi

  • Rekomendujemy wcześniejszy udział w szkoleniach: "Big Data i platforma Hadoop - wprowadzenie (BIGDATA/BASE)", "Przetwarzanie strumieni danych w środowiskach Big Data (BIGDATA/STREAM)"


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Wprowadzenie do systemów przetwarzania strumieni danych (SP)

  • Wprowadzenie do świata systemów SP

  • Podstawy SP

  • Obsługa czasu w SP

  • Dualizm strumieni i tabel, SQL

  • Punkty kontrolne i punkty zachowania

  • Complex Event Processing (CEP)

Flink - wprowadzenie

  • Flink - historia, cechy, architektura

  • Podstawy implementacji aplikacji

  • Typy źródeł i tryby przetwarzania

  • Warsztat

DataStream API - podstawy

  • Typy danych

  • Typy strumieni

  • Postać programu

  • Podstawy przetwarzania strumieni danych

  • Transformacje

  • Złożone interfejsy operatorów

  • Warsztat

DataStream API - elementy zaawansowane - część 1

  • Wprowadzenie - okna, obsługa czasu

  • Etykiety czasowe i ich przypisywanie do zdarzeń

  • Okna i operacje z nimi związane

  • Łączenie strumieni

  • Warsztat

DataStream API - elementy zaawansowane - część 2

  • Wyzwalacze - wprowadzenie

  • Wyzwalacze wbudowane

  • Obsługa zdarzeń nieuporządkowanych

  • Obsługa zdarzeń spóźnionych

  • Zaawansowana obsługa okien

  • Warsztat

DataStream API - obsługa stanu przetwarzania

  • Wprowadzenie

  • Punkty kontrolne - wprowadzenie

  • Własne operatory i ich stan

  • Warsztat

SQL i Table API - podstawy

  • Wprowadzenie

  • Struktura programu

  • Narzędzia do prototypowania

  • Katalogi, bazy danych, tabele i ich typy

  • Semantyka Table API

  • Obsługa znaczników czasu i watermark

  • Table API - przegląd metod

  • Integracja SQL i Table API

  • Warsztat

Complex Event Processing (CEP)

  • Wprowadzenie

  • CEP w DataStream API

  • SQL API - wyrażenie MATCH_RECOGNIZE

  • Warsztat

Przetwarzanie danych wsadowych

  • Strumienie skończone i nieskończone

  • Statyczne zbiory danych

  • Warsztat

Autorem szkolenia jest Krzysztof Jankiewicz

Konsultant IT i wykładowca akademicki. Specjalista w zakresie ogólnie rozumianego przetwarzania danych. Począwszy od relacyjnych systemów baz danych, poprzez architekturę, utrzymanie i wykorzystywanie hurtowni danych, bazy danych NoSQL, systemy danych przestrzennych, po narzędzia i platformy Big Data. Od samego początku pracy zawodowej stara się jako konsultant znajdować czas na kontakty przemysłem, gdzie swoją wiedzę może konfrontować i rozwijać w oparciu o rzeczywiste przypadki. Począwszy od…