Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji
Szkolenie "Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji" koncentruje się na optymalizacji modeli głębokiego uczenia zarówno w fazie treningu, jak i inferencji. Uczestnicy szkolenia zapoznają się z technikami optymalizacji, takimi jak kwantyzacja, pruning, mixed-precision training oraz narzędziami do kompresji modeli i wdrażania na urządzeniach brzegowych. Szczególną uwagę poświęcono optymalizacji dużych modeli językowych (LLMs) oraz modeli wizji komputerowej, z wykorzystaniem technologii ONNX, TensorRT, Triton oraz narzędzi do optymalizacji potoków danych.
2150 PLN+23% VAT (2644 PLN brutto / 1 os.)Czas trwania szkolenia:2 dni (16h)
Kod kursu:DL/OPT
Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji
Cele szkolenia
Zrozumienie potrzeby optymalizacji modeli głębokiego uczenia w różnych środowiskach
Nabycie umiejętności stosowania technik takich jak kwantyzacja, pruning oraz mixed-precision training
Poznanie technologii optymalizacyjnych, takich jak ONNX, TensorRT i Triton do przyspieszania inferencji
Zastosowanie metod optymalizacji do dużych modeli językowych (LLMs) oraz modeli wizji komputerowej
Optymalizacja modeli do wdrażania na urządzeniach brzegowych z ograniczonymi zasobami obliczeniowymi
Dla kogo?
Doświadczonych data scientistów i inżynierów uczenia maszynowego, którzy chcieliby poznać metody optymalizacji modeli
Osób pracujących z modelami uczenia głębokiego, którzy chcą poprawić wydajność swoich modeli
Specjalistów, którzy zajmują się wdrażaniem modeli głębokiego uczenia w środowiskach o ograniczonych zasobach
Zalety
Szkolenie "Optymalizacja modeli uczenia głębokiego w procesie treningu i inferencji" oferuje praktyczne podejście do optymalizacji modeli w Pythonie z użyciem narzędzi i frameworków, takich jak PyTorch, TensorFlow, ONNX, TensorRT i Triton
Uczestnicy szkolenia nauczą się optymalizować modele pod kątem redukcji kosztów, jak również wdrożeń na urządzeniach brzegowych
Specjalny moduł poświęcony jest optymalizacji szeroko stosowanych dużych modeli językowych (LLMs) oraz modeli wizji komputerowej
Wymagania
Dobra znajomość języka Python, a w szczególności umiejętność korzystania z zewnętrznych bibliotek
Znajomość podstaw uczenia maszynowego i głębokiego
Doświadczenie w pracy z Pythonem i bibliotekami do głębokiego uczenia (PyTorch, TensorFlow)
Wiedza na temat działania sieci neuronowych oraz procesów treningu modeli
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program
Wprowadzenie do optymalizacji modeli
Przegląd potrzeb optymalizacyjnych
Optymalizacja w różnych środowiskach
Optymalizacja potoków danych
Optymalizacja wczytywania danych i augmentacji
Metodologia i narzędzia do optymalizacji potoków
Techniki optymalizacji procesu treningowego
Trening z mieszanymi precyzjami
Akumulacja gradientów
Trening rozproszony
Metody optymalizacji w bibliotece PyTorch
Technologie optymalizujące inferencję modeli
ONNX
NVIDIA TensorRT
NVIDIA Triton
Kompresja modeli po procesie treningowym
Kwantyzacja
Pruning
Formaty modeli
Optymalizacja dużych modeli językowych (LLMs)
Wprowadzenie do optymalizacji LLM
Kwantyzacja
Przycinanie (pruning)
Efektywne dostrajanie parametrów
Nowoczesne techniki wdrażania LLM
Optymalizacja modeli wizji komputerowej
Przykładowe biblioteki w Python
Przyspieszanie procesu inferencji na przykładzie modeli detekcji
Optymalizacja modeli dla urządzeń brzegowych (edge devices)
Problem optymalizacji na urządzeniach edge
Technologie do wdrażania modeli na urządzeniach brzegowych