Trwają zapisy do grupy

Nienadzorowana reprezentacja, autoenkodery i modele generatywne

Jednym z ważniejszych zadań Deep Learningu jest budowa reprezentacji danych. Ponieważ często mamy do dyspozycji dużą liczbę niepoetykietowanych danych (wysokie koszty), w ostatnim czasie widzimy coraz większe zainteresowanie konstrukcją nienadzorowanych reprezentacji za pomocą metod kontrastywnych (contrastive learning). Drugim istotnym narzędziem do konstrukcji reprezentacji są modele bazujące na strukturze AutoEnkodera. Pozwalają one w szczególności uzupełniać brakujące części zdjęć (missing imputation), kompresować dane, usuwać szum (denoising AutoEncoder) lub też wyszukiwać odstające obserwacje (outliers). Rozszerzenie AutoEnkodera do modeli generatywnych jak VAE (variational AutoEncoder) pozwala nam na generowanie danych, interpolację między danymi czy ich manipulację. Inne ważne modele generatywne to GANy, które pozwalają na generowanie fotorealistycznych zdjęć czy ich modyfikowanie (text-to-speech, image impainting, etc) czy modele pozwalające na estymację gęstości (modele flowowe). W ramach szkolenia omówiona zostanie tematyka budowy nienadzorowanych reprezentacji danych oraz modele generatywne, przechodząc od tych posiadających strukturę AutoEnkodera, po GANy oraz modele gęstościowe.

2950 PLN+23% VAT (3628 PLN brutto / 1 os.)

Czas trwania szkolenia:3 dni (24h)

Poziom zaawansowania:

Kod kursu:DL/NRAMG

neural-networks

Dostępne terminy

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

2 października
Trwają zapisy na szkolenie

Trener:

Trener Sages

Cena:

2950 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

3 lutego
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

2950 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

5 maja
Trwają zapisy na szkolenie

Trener:

Trener-Sages

Cena:

2950 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Dostępne terminy

Interesują Cię inne terminy?

Nienadzorowana reprezentacja, autoenkodery i modele generatywne

Cele szkolenia

  • Poznanie najnowocześniejszych algorytmów tworzenia reprezentacji korzystających z danych bez etykiet
  • Zapoznanie się z architekturami dedykowanymi do uczenia bez nadzoru lub z częściowym nadzorem, takimi jak AutoEnkoder, GAN lub modele gęstościowe
  • Zdobycie umiejętności praktycznego zastosowania omawianych algorytmów

Dla kogo?

  • Szkolenie adresowane jest do osób zajmujących się na co dzień głębokim uczeniem, które chcą być na bieżąco z najnowszymi trendami
  • W szczególności szkolenie przeznaczone jest dla osób zajmujących się modelami generatywnymi lub uczeniem nienadzorowanym

Zalety

  • Zajęcia prowadzone przez specjalistów, którzy na co dzień zajmują się tematyką reprezentacji w sieciach neuronowych oraz modelami generatywnymi
  • Możliwość zapoznania się z zagadnieniami związanymi z uczeniem bez nadzoru, takimi jak uczenie kontrastowe, AutoEnkodery czy modele generatywne
  • Praktyczne zadania pozwalające dokładnie zrozumieć przekazywaną teorię

Wymagania

  • Od uczestników szkolenia wymagana jest znajomość podstaw działania sieci neuronowych oraz znajomość narzędzi do ich implementacji w języku Python (np. PyTorch)

W cenie otrzymasz:

  • Materiały szkoleniowe
  • Certyfikat ukończenia szkolenia
  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program

Pobierz program w PDF

Wstęp do reprezentacji danych w modelach uczenia maszynowego

  • Reprezentacje nadzorowane
  • Reprezentacje nienadzorowane oraz ich zalety

Metody budowania reprezentacji nienadzorowanych

  • Metody kontrastywne (contrastive learning)
  • Budowanie reprezentacji za pomocą AutoEnkoderów

Różne warianty AutoEnkodera oraz ich zastosowania

  • Denoising AutoEncoder i usuwanie szumu w danych
  • Imputacja oraz kompresja danych z wykorzystaniem AutoEnkoderów
  • Detekcja odstających obserwacji
  • Wasserstein AutoEncoder
  • Rozszerzenie AutoEnkodera do modeli generatywnych (VAE)
  • Generowanie danych, interpolacja między danymi i manipulacja danymi z wykorzystaniem AutoEnkoderów

Modele typu GAN

  • Uczenie przeciwstawne
  • Generowanie fotorealistycznych zdjęć z użyciem GANów
  • Modyfikowanie danych: text-to-speech oraz image impainting

Modele gęstościowe

  • Podstawy działania modeli gęstościowych
  • GLOW
  • FFJORD

Podobne szkolenia