Zwiększanie wydajności sieci neuronowych

3350 PLN+23% VAT (4120 PLN brutto / 1 os.)

Czas trwania szkolenia:3 dni (24h)

Kod kursu:DL/ZWS

Poziom zaawansowania:
neural-networks

Dostępne terminy

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

13 lutego
Trwają zapisy na szkolenie
-

Cena:

3350 PLN netto+23% VAT

Lokalizacja:

Lokalizacja:

ZdalneWarszawaŁódźPoznańKrakówWrocławGdańskKatowiceBydgoszczGdynia

Termin:

19 czerwca
Trwają zapisy na szkolenie
-

Cena:

3350 PLN netto+23% VAT

Lokalizacja:

Lokalizacja:

ZdalneWarszawaŁódźPoznańKrakówWrocławGdańskKatowiceBydgoszczGdynia

Nie odpowiada Ci żaden z dostępnych terminów?

Zapytaj o szkolenie

O szkoleniu Zwiększanie wydajności sieci neuronowych

W cenie otrzymasz:

  • Materiały szkoleniowe
  • Certyfikat ukończenia szkolenia
  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Dla kogo?

  • Szkolenie adresowane jest do osób zajmujących się na co dzień głębokim uczeniem, które chcą być na bieżąco z najnowszymi trendami
  • W szczególności szkolenie przeznaczone jest dla programistów implementujących sieci neuronowe w środowiskach z ograniczonymi zasobami obliczeniowymi, takimi jak mikrokontrolery albo urządzenia mobilne

Wymagania

  • Od uczestników szkolenia wymagana jest znajomość podstaw działania sieci neuronowych oraz znajomość narzędzi do ich implementacji w języku Python (np. PyTorch)

Zalety

  • Zajęcia prowadzone przez specjalistów zajmujących się na co dzień badaniami nad efektywnością sieci neuronowych
  • Możliwość poznania najnowszych trendów w uczeniu maszynowym
  • Praktyczne zadania pozwalające dokładnie zrozumieć przekazywaną teorię

Cele szkolenia

  • Poznanie algorytmów umożliwiających zwiększenie wydajności sieci neuronowych
  • Zdobycie umiejętności praktycznego zastosowania omawianych algorytmów

Program

Wprowadzenie do zagadnienia efektywnych obliczeń w sieciach neuronowych

Podstawowe metody optymalizacji działania sieci neuronowych

  • Kwantyzacja wag
  • Pruning

Bezstratne uczenie maszynowe

  • Mechanizmy early-exit
  • Obliczenia warunkowe w sieciach neuronowych

Uczenie ciągłe

  • Problem katastroficznego zapominania
  • Scenariusze uczenia ciągłego: task-incremental, domain-incremental, class-incremental
  • Metody regularyzacyjne
  • Metody wykorzystujące powtarzanie danych (replay)

Uczenie na podstawie niepełnych danych

  • Działanie sieci neuronowych przy braku/niepełnych danych
  • Few-shot learning

Transfer learning

Uczenie sieci neuronowych w przypadku domain shift

Podobne szkolenia