Szkolenie: Produkcyjne wdrażanie potoków przetwarzania AI/machine learning na Kubernetes
Szkolenie uczy wdrażania produkcyjnych potoków AI i machine learning na Kubernetes, obejmuje konteneryzację, orkiestrację zadań, zarządzanie danymi oraz automatyzację wdrożeń, przygotowując do pracy z nowoczesną infrastrukturą ML/AI
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:4 dni (32h)
Kod kursu:ML/KUBERNETES
Produkcyjne wdrażanie potoków przetwarzania AI/machine learning na Kubernetes
Cele szkolenia
Szkolenie przygotowuje do samodzielnego wdrażania skalowalnych potoków przetwarzania AI/ML na platformie Kubernetes, począwszy od refaktoryzacji kodu po automatyzację wdrożeń
Szkolenie uczy konteneryzacji aplikacji machine learning z wykorzystaniem Docker oraz integracji z narzędziami do orkiestracji zadań
Szkolenie pokazuje, jak zarządzać danymi i konfiguracją w środowisku Kubernetes, w tym obsługę wolumenów i magazynów obiektowych
Szkolenie rozwija umiejętność projektowania modularnych potoków ML/AI oraz ich automatyzacji i monitorowania w środowisku produkcyjnym
Dla kogo?
Data Scientist oraz inżynier ML z minimum 2-letnim doświadczeniem programistycznym, chcący wdrażać skalowalne potoki ML/AI
Programista Python zainteresowany automatyzacją i produkcyjnym wdrażaniem rozwiązań AI/ML
Specjalista DevOps lub administrator systemów pragnący poszerzyć kompetencje o wdrożenia ML/AI na Kubernetes
Efekty kształcenia
Uczestnik projektuje i wdraża potoki ML/AI na Kubernetes
Uczestnik konteneryzuje aplikacje ML z użyciem Docker
Uczestnik integruje zadania ML z orkiestracją Airflow
Uczestnik zarządza danymi i konfiguracją w Kubernetes
Uczestnik automatyzuje procesy wdrożeniowe CI/CD
Uczestnik monitoruje i rozwiązuje problemy zadań ML w chmurze
Wymagania
Szkolenie nie jest kierowane dla osób początkujących - wymagane co najmniej 2 letnie doświadczenie programistyczne
Podstawowa znajomość koncepcji machine learning
Dobra znajomość języka programowania Python
Dobra znajomość środowiska Linux, w szczególności pracy linii poleceń
Znajomość składni YAML
Znajomość podstawowych koncepcji Kubernetes będzie atutem, ale nie jest wymagana
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie i konfiguracja
Przegląd kursu i jego celów
Wprowadzenie do istniejącego notebooka Jupyter i jego komponentów
Konfiguracja środowiska
Od Notebook'a do Skryptu
Przekształcenie notebooka Jupyter w skrypt Python
Testowanie i walidacja przekształconego skryptu
Wprowadzenie do Docker
Podstawy Docker: obrazy, kontenery i rejestry
Tworzenie Dockerfile dla skryptu ML
Budowanie i testowanie obrazów Docker
Uruchamianie skryptu ML wewnątrz kontenera Docker
Wprowadzenie do Kubernetes
Podstawy Kubernetes: architektura i komponenty
Obiekty w Kubernetes: Namespace, Pod, Deployment, Job, Cron Job, ConfigMaps, Secrets
Uruchamianie skryptu ML na Kubernetesie za pomocą zasobu Job
Uruchamianie zaplanowanego skryptu ML za pomocą Cron Job
Zarządzanie danymi w Kubernetes
Wolumeny Kubernetes
Magazynowanie obiektowe MinIO/S3
Obsługa configuracji haseł i sekretów w Kubernetes
Integracja skryptu ML z MinIO/S3 do zapisywania i pobierania danych
Orkiestracja potoków przetwarzania ML na Kubernetesie z użyciem Airflow
Wprowadzenie do Apache Airflow: koncepcje i architektura
Konfiguracja Apache Airflow na Kubernetesie
Przekształcanie skryptu ML w modułowe komponenty
Tworzenie DAG Airflow z modularnego skryptu
Skalowanie i równoległość zadań ML w Airflow
Wprowadzenie do KubernetesPodOperator
Monitorowanie i rozwiązywanie problemów z zadaniami Airflow na Kubernetesie
Automatyzacja (CI/CD)
Automatyzacja budowania obrazów Dockerowych
Ciągłe wdrażanie potoków przetwarzania ML/AI na Kubernetes
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi
