Machine Learning and Deep Learning

LICZBA DNI: 5 (40h)

KOD KURSU: ML/DL

POZIOM SZKOLENIA:

# neural-networks

# cnn

# rnn

# lstm

# gru

Najbliższy termin:

1 marca 2021

5995 PLN netto + 23% VAT

  • stacjonarne
  • zdalne

STACJONARNE

W CENIE

  • 5 dni pracy z trenerem
  • Materiały szkoleniowe
  • Lunch
  • Certyfikat ukończenia szkolenia

ZDALNE

W CENIE

  • 5 dni pracy z trenerem na żywo online
  • Materiały szkoleniowe
  • Certyfikat ukończenia szkolenia

Czy wiesz, że możesz uzyskać nawet do 100% dofinansowania na szkolenie? Dowiedz się jak »

Oferta dla firm

Dostosuj zakres, czas i miejsce szkolenia do potrzeb Twojego zespołu. Uzyskaj indywidualną wycenę szkolenia dla grupy.

Weź udział w szkoleniu

Termin

Lokalizacja

Cena / os

1

marca

Warszawa,

Gdańsk,

Zdalne,

5995 PLN netto
+ 23% VAT

10

maja

Kraków,

Poznań,

Warszawa,

Zdalne,

5995 PLN netto
+ 23% VAT

5

lipca

Gdańsk,

Łódź,

Zdalne,

5995 PLN netto
+ 23% VAT

2

sierpnia

Wrocław,

Warszawa,

Zdalne,

5995 PLN netto
+ 23% VAT

27

września

Warszawa,

Kraków,

Poznań,

Zdalne,

5995 PLN netto
+ 23% VAT

Termin

1

marca

Lokalizacja

Warszawa,

Gdańsk,

Zdalne,

Cena / os

5995 PLNnetto
+ 23% VAT

Termin

10

maja

Lokalizacja

Kraków,

Poznań,

Warszawa,

Zdalne,

Cena / os

5995 PLNnetto
+ 23% VAT

Termin

5

lipca

Lokalizacja

Gdańsk,

Łódź,

Zdalne,

Cena / os

5995 PLNnetto
+ 23% VAT

Termin

2

sierpnia

Lokalizacja

Wrocław,

Warszawa,

Zdalne,

Cena / os

5995 PLNnetto
+ 23% VAT

Termin

27

września

Lokalizacja

Warszawa,

Kraków,

Poznań,

Zdalne,

Cena / os

5995 PLNnetto
+ 23% VAT

Powiadom
o kolejnych terminach

O szkoleniu

DLA KOGO?

Szkolenie adresowane jest dla analityków danych i programistów chcących zapoznać się z głębokimi sieciami neuronowymi

WYMAGANIA

Podstawowa umiejętność programowania w języku Python

Dodatkowo zakładana jest znajomość podstawowych pojęć z rachunku prawdopodobieństwa, algebry liniowej (mnożenie macierzy) oraz analizy matematycznej (pochodne cząstkowe)

Pomocna jest również podstawowa znajomość nauczania maszynowego (na poziomie kursu PYTHON/ML)

ZALETY

Szkolenie prowadzone jest przez osoby posiadające zarówno praktyczne doświadczenie w stosowaniu głębokich sieci neuronowych w przetwarzaniu obrazu oraz języka naturalnego, jak i doskonałe przygotowanie teoretyczne zdobyte dzięki pracy naukowej oraz uczestnictwu w międzynarodowych warsztatach

Program szkolenia jest regularnie aktualizowany, czy to po najważniejszych konferencjach branżowych (NIPS, ACL, EMNLP), czy głównych konkursach (ILSVRC, MSCOCO)

Część praktyczna szkolenia przeprowadzona zostanie przy pomocy otwartej biblioteki programistycznej TensorFlow

Cele szkolenia

Zapoznanie kursantów z głębokimi sieciami neuronowymi

Zdobycie umiejętności programowania i debugowania głębokich sieci neuronowych w tym sieć splotową oraz rekurencyjną typu LSTM

Architektury sieci neuronowych omawiane na szkoleniu zaprezentowane zostaną przez pryzmat podstawowych zagadnień wizji komputerowej (klasyfikacja) i przetwarzania języka naturalnego (analiza sentymentu, tłumaczenie maszynowe)

Przedstawienie najnowszych wyników badań, oraz wytłumaczenie zostaną popularnych zastosowania deep learningu takich, jak automatyczne podpisywanie zdjęć, czy transfer stylu artystycznego pomiędzy zdjęciami

Program

  • Perceptron i perceptron wielowarstwowy (ang. Multilayer Perceptron)
  • Uczenie sieci neuronowej
  • Implementacja sieci neuronowej w Pythonie
  • Inicjalizacja parametrów sieci neuronowej
  • Normalizacja wsadowa (and. Batch Normalization)
  • Optymalizacja
    • SGD z pędem (and. SGD with Momentum)
    • Adagrad
    • Adadelta
    • RMSProp
    • Adam
  • Regularyzacja
    • L1 i L2
    • Dropout
  • Podstawowe pojęcia
  • Studium przypadku: zwycięzcy ImageNet
    • AlexNet
    • ZFNet
    • GoogLeNet
    • VGGNet
    • ResNet
  • Ciekawe zastosowania
    • „Pupy-snail”, czyli jak działa Deep Dream
    • „A Neural Algorithm of Artistic Style”, czyli transfer stylu pomiędzy obrazami
  • Word2Vec
    • CBOW (ang. Continuous Bag of Words)
    • Skip-gram
    • Przykład zastosowania: analiza sentymentu
  • Doc2Vec
    • Distributed Memory Model
    • Distributed Bag-of-Words
    • Przykład zastosowania: rekomendacja podobnych produktów na podstawie ich recenzji
  • Rekurencyjna sieć neuronowa (and. Recurrent Neural Network)
  • Sieci typu LSTM (ang. Long Short-Term Memory)
  • Sieci typu GRU (ang. Gated Recurrent Unit)
  • Przykład zastosowania: jak powstał film „Sunspring”, czyli generowanie ciągów znaków
  • Przykład zastosowania: automatyczne generowanie opisów zdjęć
  • Modele uwagi
    • Modele twardej uwagi (ang. hard attention models)
    • Modele płynnej uwagi (ang. soft attention models)
    • Przykład zastosowania
    • Rekursywne sieci neuronowe (ang. Recursive Neural Networks)
  • Modele pamięci
    • Neuronowe Maszyny Turinga (ang. Neural Turing Machines)
    • Dynamiczne Sieci z Pamięcią (ang. Dynamic Memory Networks)
    • Przykład zastosowania: odpowiadanie na pytania do tekstu i obrazu

POLITYKA COOKIES:

Korzystamy z plików cookies, by móc jak najlepiej dostosować stronę do Twoich potrzeb oraz wyświetlać Ci przydatne i adekwatnych dla Ciebie reklamy w serwisie i poza nim. Możesz kontrolować ustawienia ciasteczek w swoich ustawieniach swojej przeglądarki. Odwiedzając tę stronę, wyrażasz zgodę na wykorzystywanie przez nas plików cookies.