Szkolenie: Deep learning w przetwarzaniu języka naturalnego
Szkolenie deep learning NLP to praktyczny kurs, który uczy wykorzystania nowoczesnych sieci neuronowych do rozwiązywania złożonych problemów przetwarzania języka naturalnego, w tym klasyfikacji, generowania tekstu, analizy semantycznej i transfer learning z użyciem PyTorch
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:5 dni (40h)
Kod kursu:DL/NLP
Deep learning w przetwarzaniu języka naturalnego
Cele szkolenia
Szkolenie przygotowuje do samodzielnego projektowania i implementowania rozwiązań NLP z wykorzystaniem zaawansowanych sieci neuronowych oraz biblioteki PyTorch
Szkolenie uczy stosowania nowoczesnych technik deep learning do analizy, klasyfikacji i generowania tekstu w zadaniach przetwarzania języka naturalnego
Szkolenie rozwija umiejętność wykorzystywania transfer learning oraz dużych modeli językowych w praktycznych zastosowaniach biznesowych i badawczych
Dla kogo?
Specjalistów data science oraz analityków danych posiadających podstawową wiedzę z uczenia maszynowego i programowania w Pythonie
Programistów i inżynierów zainteresowanych wdrażaniem rozwiązań NLP opartych o deep learning w projektach biznesowych lub badawczych
Osób pracujących przy analizie tekstu, automatyzacji przetwarzania języka lub rozwoju narzędzi AI, chcących poszerzyć kompetencje o nowoczesne metody
Efekty kształcenia
Uczestnik projektuje modele deep learning do zadań NLP
Uczestnik implementuje algorytmy sieci neuronowych w Pythonie z użyciem PyTorch
Uczestnik analizuje i porównuje różne architektury sieci do przetwarzania tekstu
Uczestnik wykorzystuje transfer learning i gotowe modele językowe
Uczestnik optymalizuje proces uczenia i generowania tekstu
Uczestnik rozwiązuje praktyczne problemy NLP w środowisku warsztatowym
Wymagania
Od uczestników szkolenia wymagana jest dobra (pozwalająca na swobodne pisanie nieskomplikowanego kodu) znajomość języka Python
Ogólna wiedza z klasycznego uczenia maszynowego (problemy regresji i klasyfikacji, ogólne zasady pracy z algorytmami uczenia maszynowego)
Podstawowa wiedza o sieciach neuronowych (strukura i mechanizm działania perceptronu wielowarstwowego, mechanizm uczenia sieci).
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie do biblioteki PyTorch
Implementacja perceptronu wielowarstwowego
Implementacja procesu uczenia sieci neuronowej
Zanurzenia słów - word embeddings
Model word2vec
GLOVE
FastText
Rekurencyjne sieci neuronowe (recurrent neural networks - RNNs)
Sieć rekurencyjna prosta
Sieć LSTM
Sieć GRU
Klasyfikacja tekstu przy użyciu sieci rekurencyjnych
Wykrywanie nazw własnych (NER) przy użyciu sieci rekurencyjnych
Złożone struktury sieci rekurencyjnych w zadaniach NLP: wielowarstwowość, dwukierunkowość
Generowanie tekstu przy użyciu sieci neuronowych
Model językowy
Mechanizmy generowania tekstu w oparciu o model językowy: generowanie proste, generowanie z randomizacją, beam search
Zadania NLP związane z generowaniem tekstu
Typowe problemy "sequence to sequence": tłumaczenie maszynowe, podsumowywanie tekstu, odpowiadanie na pytania
Struktura encoder-decoder
Generowanie tekstu dotyczącego obiektów wejściowych (np. opisów obrazów)
Sieć neuronowa Transformer - state of the art współczesnego NLP
Mechanizm uwagi vs mechanizm rekurencji
Mechanizm Multihead Attention
Mechanizm Positional Encoding
Architektura sieci Transformer
Praktyczne zalety i wady sieci Transformer
Transfer learning - wykorzystywanie gotowych potężnych sieci do własnych zadań NLP
Transfer wiedzy - schemat działania
Model BERT - sieć kodująca tekst do generalnego użytku
Dostępne przetrenowane sieci BERT- biblioteka HuggingFace
Zastosowanie transferu wiedzy w analizie podobieństwa tekstów
Zastosowanie sieci BERT jako model bazowy w klasycznych zadaniach: klasyfikcja tekstu, generowanie tekstu
Fine tuning - dotrenowywanie dostępnych modeli
LLMs - Large Language Models
Duże modele językowe - wprowadzenie
Możliwości i ograniczenia dużych modeli językowych
LLM w wykonywaniu zadań NLP
Problem inżynierii promptów, prompt jako hiperparametr
Kiedy używać LLM'ów, a kiedy trenować własne sieci
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

