Szkolenie: Zwiększanie wydajności sieci neuronowych
Szkolenie z wydajności sieci neuronowych uczy optymalizacji modeli deep learning, takich jak kwantyzacja, pruning, uczenie ciągłe i transfer learning, przygotowując do wdrażania nowoczesnych rozwiązań AI w środowiskach o ograniczonych zasobach
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:3 dni (24h)
Kod kursu:DL/ZWS
Zwiększanie wydajności sieci neuronowych
Cele szkolenia
Szkolenie przygotowuje do samodzielnego wdrażania i optymalizacji sieci neuronowych pod kątem wydajności obliczeniowej
Szkolenie uczy stosowania nowoczesnych algorytmów, takich jak kwantyzacja, pruning czy uczenie ciągłe, w praktycznych projektach
Szkolenie rozwija umiejętność analizy i rozwiązywania problemów związanych z efektywnością modeli głębokiego uczenia w różnych środowiskach
Dla kogo?
Szkolenie adresowane jest do programistów i inżynierów AI z doświadczeniem w głębokim uczeniu, wdrażających modele w środowiskach o ograniczonych zasobach
Przeznaczone dla specjalistów zajmujących się optymalizacją i implementacją sieci neuronowych na urządzeniach mobilnych, mikrokontrolerach lub w aplikacjach edge computing
Efekty kształcenia
Uczestnik analizuje i optymalizuje architektury sieci neuronowych pod kątem wydajności
Uczestnik wdraża techniki kwantyzacji i pruning w istniejących modelach
Uczestnik projektuje rozwiązania z wykorzystaniem uczenia ciągłego i transfer learning
Uczestnik rozpoznaje i rozwiązuje problemy związane z domain shift i niepełnymi danymi
Uczestnik stosuje mechanizmy early-exit i obliczenia warunkowe w praktyce
Uczestnik ocenia efektywność wdrożonych optymalizacji w środowiskach o ograniczonych zasobach
Wymagania
Od uczestników szkolenia wymagana jest znajomość podstaw działania sieci neuronowych oraz znajomość narzędzi do ich implementacji w języku Python (np. PyTorch)
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie do zagadnienia efektywnych obliczeń w sieciach neuronowych
Podstawowe metody optymalizacji działania sieci neuronowych
Kwantyzacja wag
Pruning
Bezstratne uczenie maszynowe
Mechanizmy early-exit
Obliczenia warunkowe w sieciach neuronowych
Uczenie ciągłe
Problem katastroficznego zapominania
Scenariusze uczenia ciągłego: task-incremental, domain-incremental, class-incremental
Metody regularyzacyjne
Metody wykorzystujące powtarzanie danych (replay)
Uczenie na podstawie niepełnych danych
Działanie sieci neuronowych przy braku/niepełnych danych
Few-shot learning
Transfer learning
Uczenie sieci neuronowych w przypadku domain shift
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi
