Deep learning w przetwarzaniu języka naturalnego
LICZBA DNI: 4 (32h)
KOD KURSU: DL/NLP
Weź udział w szkoleniu
Termin
Lokalizacja
Cena / os
14
czerwca
Zdalne,
Warszawa,
Termin
14
czerwca
Lokalizacja
Zdalne,
Warszawa,
Cena / os
Powiadom
o kolejnych terminach
O szkoleniu
DLA KOGO?
Szkolenie adresowane jest do wszystkich osób, które mają co najmniej podstawową wiedzę z obszaru uczenia maszynowego
Programiści, analitycy danych, programiści baz danych, statystycy, data scientists z niewielkim doświadczeniem
WYMAGANIA
Od uczestników szkolenia wymagana jest dobra (pozwalająca na swobodne pisanie nieskomplikowanego kodu) znajomość języka Python, ogólna wiedza z klasycznego uczenia maszynowego (najważniejsze algorytmy regresji i klasyfikacji, ogólne zasady pracy z algorytmami uczenia maszynowego) oraz bardzo podstawowa wiedza o sieciach neuronowych (struktura i mechanizm działania sieci typu MLP, mechanizm uczenia sieci).
ZALETY
Poznanie metod, które zrewolucjonizowały wiele obszarów biznesowych
Zaawansowane zagadnienia podane w przystępny sposób
Warsztatowy charakter zajęć
Dokładne zrozumienie algorytmów pozwalające na samodzielne wykorzystanie ich w przyszłości
Poznanie funkcjonalności biblioteki Tensorflow
Duża dawka praktycznej wiedzy i umiejętności, przydatnej podczas rozwiązywania rzeczywistych problemów
Cele szkolenia
Zdobycie specjalistycznej wiedzy o sieciach neuronowych, stosowanych w przetwarzaniu języka naturalnego (NLP)
Zdobycie umiejętności implementacji omawianych algorytmów z wykorzystaniem biblioteki Tensorflow w jezyku Python
Program
Zanurzenia słów - word embeddings
- Model word2vec
- GLOVE
- FastText
- Elmo
- Trenowanie własnych zanurzeń
Rekurencyjne sieci neuronowe (recurrent neural networks - RNNs)
- Sieć rekurencyjna prosta
- Sieć LSTM
- Sieć GRU
- Klasyfikacja tekstu przy użyciu sieci rekurencyjnych
- Wykrywanie nazw własnych przy użyciu sieci rekurencyjnych
Złożone struktury sieci w zadaniach NLP
- Wielowarstwowość
- Dwukierunkowość
- Warstwy konwolucyjne w przetwarzaniu tekstu
- Mechanizm uwagi (RNN with attention)
Generowanie tekstu przy użyciu sieci neuronowych
- Modele char-RNN oraz word-RNN
- Model seq2seq, struktury encoder-decoder
- Generowanie tekstu na podstawie obiektów wejściowych (np. opisów obrazów)
Sieć neuronowa Transformer
- Architektura sieci Transformer
- Model BERT - transfer learning w NLP
