Trwają zapisy do grupy

Szkolenie: Elastic Stack - Wykorzystanie do analizy logów i metryk

Podczas tego szkolenia uczestnicy nauczą się wykorzystywać ekosystem Elastic Stack do analizy metryk oraz logów aplikacyjnych

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:2 dni (16h)

Poziom zaawansowania:

Kod kursu:ELASTICSTACK/LOGSANDMETRICS

elasticsearchsearchkibana

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

16 grudnia
Termin gwarantowanyTrwają zapisy na szkolenieOferta specjalna

Trener:

Mariusz Górski

Cena:

2365 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

17 kwietnia
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

2365 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Elastic Stack - Wykorzystanie do analizy logów i metryk

Cele szkolenia

  • Rozszerzenie wiedzy z zakresu Elastic Stack o zagadnienia związane z analizą szeregów czasowych (logi aplikacyjne, metryki)


Dla kogo?

  • Osób posiadających podstawową wiedzę z zakresu Elastic Stack

  • Osób pragnących rozszerzać swoją wiedzę na temat Elastic Stack pod kątem budowania wydajnych systemów analizy szeregów czasowych (logi, metryki)

  • Specjalistów DevOps

  • Specjalistów SRE

  • Administratorów


Zalety

  • Warsztatowy charakter zajęć

  • Poznanie najważniejszych aspektów i komponentów Elastic Stack

  • Zdobycie umiejętności pozwalających na wdrażanie rozwiązań wprowadzających/rozszerzających możliwości monitorowania i rozwiązywania problemów w Twoich aplikacjach i infrastrukturze

  • Poznanie dobrych i złych praktyk implementacji systemu agregacji metryk i logów oraz sposobów radzenia sobie z jego zarządzaniem i ciągłą poprawą

  • Otrzymanie gotowych, działających przykładów, umożliwiających odtworzenie wszystkich fragmentów szkolenia we własnym tempie


Wymagania

  • Udział w szkoleniu "Elastic Stack - Wprowadzenie do ekosystemu" lub podstawowa wiedza z zakresu Elasticsearch

  • Znajomość zapytań REST i formatu JSON

  • Umiejętność poruszania się w linii poleceń systemu Linux


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Architektura klastra Elasticsearch

  • Role węzłów

  • Budowa klastra

  • Dodawanie węzłów

  • Apache Lucene

  • Replikacja danych

  • Architektura Hot-Warm-Cold

Indeksowanie danych

  • Architektura indeksu

  • Modelowanie danych

  • Struktura dokumentu

  • Typy pól

  • Mapping API

  • Dynamiczny vs statyczny mapping

  • Replikacja

  • Routing

  • Indeksowanie przy dużym obciążeniu

  • Transformacja danych za pomocą Ingestion Pipelines

  • Indeksowanie danych za pomocą narzędzia Filebeat (Pliki -> Elasticsearch)

  • Indekowanie danych za pomocą narzędzia Logstash (Kafka -> Elasticsearch)

  • Indeksowanie danych za pomocą narzędzia Metricbeat (Metricbeat -> Kafka -> Elasticsearch)

Wyszukiwanie danych

  • Architektura indeksu

  • Query DSL

  • Zapytania typu term

  • Wyszukiwanie pełnotekstowe (full-text)

  • Caching zapytań (sekcja filter)

  • Agregacje

  • Wyszukiwanie przy dużym obciążeniu

  • Routing

Zarządzanie dużymi zbiorami danych (szeregi czasowe)

  • Index Templates

  • Index Aliases

  • ILM - Index Lifecycle Management

Analiza danych w Kibanie

  • Przeglądanie danych (zakładka Discover)

  • Wizualizacje (zakładka Visualize)

  • Dashboardy (zakładka Dashboards)

Podsumowanie

Szkolenie poprowadzi Mariusz Górski

Inżynier danych, entuzjasta technologii Open Source (darmowe, jego ulubione) oraz chmury publicznej. Fan dzielenia się wiedzą. Lubi eksperymentować, psuć i naprawiać (niekoniecznie w takiej kolejności). Zawodowo (ale i prywatnie) pracuje z technologiami klasy Big Data od trzech lat (stan na grudzień 2019 r.), wdrażając je zarówno od strony infrastrukturalnej jak i aplikacyjnej. Ma na koncie projekty z wykorzystaniem narzędzi Apache (Airflow, Kafka, Spark), Elastic Stack, Amazon Web Services oraz…