Szkolenie: Przetwarzanie strumieni danych w środowiskach Big Data
Szkolenie z przetwarzania strumieni danych Big Data uczy analizy i implementacji rozwiązań w czasie rzeczywistym z wykorzystaniem narzędzi takich jak Kafka, Spark Structured Streaming i Flink, przygotowując do pracy z nowoczesnymi architekturami danych
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:3 dni (24h)
Kod kursu:BIGDATA/STREAM
Przetwarzanie strumieni danych w środowiskach Big Data
Cele szkolenia
Szkolenie przygotowuje do samodzielnego projektowania i wdrażania procesów przetwarzania strumieni danych w środowiskach Big Data
Szkolenie uczy wykorzystywania narzędzi takich jak Kafka, Spark Structured Streaming i Flink do analizy i przetwarzania danych w czasie rzeczywistym
Szkolenie omawia kluczowe mechanizmy, architektury oraz dobre praktyki związane z przetwarzaniem strumieniowym, umożliwiając efektywne rozwiązywanie problemów biznesowych
Dla kogo?
Programiści i inżynierowie danych rozpoczynający pracę z przetwarzaniem strumieniowym w środowiskach Big Data
Twórcy rozwiązań Big Data posiadający podstawową znajomość Javy, Pythona oraz narzędzi Hadoop i Spark
Specjaliści IT odpowiedzialni za wdrażanie i utrzymanie systemów analizy danych w czasie rzeczywistym
Efekty kształcenia
Uczestnik analizuje architektury przetwarzania strumieni danych w środowiskach Big Data
Uczestnik projektuje procesy przetwarzania danych w czasie rzeczywistym
Uczestnik wdraża rozwiązania z użyciem narzędzi Kafka, Spark i Flink
Uczestnik rozróżnia mechanizmy okien, wyzwalaczy i obsługi zdarzeń opóźnionych
Uczestnik monitoruje i diagnozuje procesy strumieniowe pod kątem awarii
Uczestnik ocenia wydajność i niezawodność systemów strumieniowych
Wymagania
Praktyczna znajomość programowania obiektowego Java
Podstawowa znajomość języka Python
Znajomość platformy Hadoop i jej podstawowych narzędzi - rekomendujemy wcześniejszy udział w szkoleniu Big Data i platforma Hadoop - wprowadzenie
Znajomość platformy Spark w zakresie DataFrame API - rekomendujemy wcześniejszy udział w szkoleniu Apache Spark z wykorzystaniem języka Python
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie do przetwarzania strumieni danych
Cele
Przetwarzanie wsadowe, mikrowsadowe i strumieniowe
Przetwarzanie stanowe i bezstanowe
Znacznik czasowe
Okna
Typy dostępnych operacji
Porządek danych, dane opóźnione, dane spóźnione
Obsługa awarii
Complex Event Processing
API wysokopoziomowe
Kafka jako broker wiadomości
Wprowadzenie do systemów wymiany wiadomości
Czym jest Kafka
Architektura
Temat (topic)
Konsumenci
Administracja
API producentów i konsumentów
Spark Structured Streaming
Wprowadzenie
Podstawy - struktura i logika programu
Typy obsługi tabel wynikowych
Obsługa znaczników czasowych
Szczegóły API (źródła, transformacje, ujścia, uruchamianie)
Obsługa zdarzeń opóźnionych
Kafka Streams
Wprowadzenie
Podstawowe pojęcia
Strumienie a tabele
Obsługa znaczników czasowych
Kluczowe operacje
Zapytania interaktywne
Przykładowa prosta aplikacja
Kafka Streams DSL - szczegóły API
Przykładowa złożona aplikacja
Wprowadzenie do Apache Flink
Wprowadzenie
Architektura
Uruchomienie klastra
Podstawy - struktura i logika programu
Podstawy DataStream API
Flink w akcji
Obsługa znaczników czasowych
Okna
Wyzwalacze
Konektory
Podsumowanie
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi
