Trwają zapisy do grupy

Szkolenie: Deep learning w przetwarzaniu języka naturalnego

Szkolenie deep learning NLP to praktyczny kurs, który uczy wykorzystania nowoczesnych sieci neuronowych do rozwiązywania złożonych problemów przetwarzania języka naturalnego, w tym klasyfikacji, generowania tekstu, analizy semantycznej i transfer learning z użyciem PyTorch

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:5 dni (40h)

Poziom zaawansowania:

Kod kursu:DL/NLP

deep-learningnlpllmmodele-jezykowe

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

30 marca
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Trener Sages

Cena:

4345 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

1 czerwca
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Trener Sages

Cena:

4345 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

31 sierpnia
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Trener Sages

Cena:

4345 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

30 listopada
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Trener Sages

Cena:

4345 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

🎁 Mikropoświadczenie w cenie

Uzyskaj renomowane cyfrowe poświadczenie umiejętności budowy modeli z wykorzystaniem sieci neuronowych

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Deep learning w przetwarzaniu języka naturalnego

Cele szkolenia

  • Szkolenie przygotowuje do samodzielnego projektowania i implementowania rozwiązań NLP z wykorzystaniem zaawansowanych sieci neuronowych oraz biblioteki PyTorch

  • Szkolenie uczy stosowania nowoczesnych technik deep learning do analizy, klasyfikacji i generowania tekstu w zadaniach przetwarzania języka naturalnego

  • Szkolenie rozwija umiejętność wykorzystywania transfer learning oraz dużych modeli językowych w praktycznych zastosowaniach biznesowych i badawczych


Dla kogo?

  • Specjalistów data science oraz analityków danych posiadających podstawową wiedzę z uczenia maszynowego i programowania w Pythonie

  • Programistów i inżynierów zainteresowanych wdrażaniem rozwiązań NLP opartych o deep learning w projektach biznesowych lub badawczych

  • Osób pracujących przy analizie tekstu, automatyzacji przetwarzania języka lub rozwoju narzędzi AI, chcących poszerzyć kompetencje o nowoczesne metody


Efekty kształcenia

  • Uczestnik projektuje modele deep learning do zadań NLP

  • Uczestnik implementuje algorytmy sieci neuronowych w Pythonie z użyciem PyTorch

  • Uczestnik analizuje i porównuje różne architektury sieci do przetwarzania tekstu

  • Uczestnik wykorzystuje transfer learning i gotowe modele językowe

  • Uczestnik optymalizuje proces uczenia i generowania tekstu

  • Uczestnik rozwiązuje praktyczne problemy NLP w środowisku warsztatowym


Wymagania

  • Od uczestników szkolenia wymagana jest dobra (pozwalająca na swobodne pisanie nieskomplikowanego kodu) znajomość języka Python

  • Ogólna wiedza z klasycznego uczenia maszynowego (problemy regresji i klasyfikacji, ogólne zasady pracy z algorytmami uczenia maszynowego)

  • Podstawowa wiedza o sieciach neuronowych (strukura i mechanizm działania perceptronu wielowarstwowego, mechanizm uczenia sieci).


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Wprowadzenie do biblioteki PyTorch

  • Implementacja perceptronu wielowarstwowego

  • Implementacja procesu uczenia sieci neuronowej

Zanurzenia słów - word embeddings

  • Model word2vec

  • GLOVE

  • FastText

Rekurencyjne sieci neuronowe (recurrent neural networks - RNNs)

  • Sieć rekurencyjna prosta

  • Sieć LSTM

  • Sieć GRU

  • Klasyfikacja tekstu przy użyciu sieci rekurencyjnych

  • Wykrywanie nazw własnych (NER) przy użyciu sieci rekurencyjnych

  • Złożone struktury sieci rekurencyjnych w zadaniach NLP: wielowarstwowość, dwukierunkowość

Generowanie tekstu przy użyciu sieci neuronowych

  • Model językowy

  • Mechanizmy generowania tekstu w oparciu o model językowy: generowanie proste, generowanie z randomizacją, beam search

Zadania NLP związane z generowaniem tekstu

  • Typowe problemy "sequence to sequence": tłumaczenie maszynowe, podsumowywanie tekstu, odpowiadanie na pytania

  • Struktura encoder-decoder

  • Generowanie tekstu dotyczącego obiektów wejściowych (np. opisów obrazów)

Sieć neuronowa Transformer - state of the art współczesnego NLP

  • Mechanizm uwagi vs mechanizm rekurencji

  • Mechanizm Multihead Attention

  • Mechanizm Positional Encoding

  • Architektura sieci Transformer

  • Praktyczne zalety i wady sieci Transformer

Transfer learning - wykorzystywanie gotowych potężnych sieci do własnych zadań NLP

  • Transfer wiedzy - schemat działania

  • Model BERT - sieć kodująca tekst do generalnego użytku

  • Dostępne przetrenowane sieci BERT- biblioteka HuggingFace

  • Zastosowanie transferu wiedzy w analizie podobieństwa tekstów

  • Zastosowanie sieci BERT jako model bazowy w klasycznych zadaniach: klasyfikcja tekstu, generowanie tekstu

  • Fine tuning - dotrenowywanie dostępnych modeli

LLMs - Large Language Models

  • Duże modele językowe - wprowadzenie

  • Możliwości i ograniczenia dużych modeli językowych

  • LLM w wykonywaniu zadań NLP

  • Problem inżynierii promptów, prompt jako hiperparametr

  • Kiedy używać LLM'ów, a kiedy trenować własne sieci

Autorem szkolenia jest Norbert Ryciak

Data Scientist w SigDelta. Od lat zajmuje się uczeniem maszynowym, a specjalizuje się w obszarze przetwarzania języka naturalnego i sztucznych sieciach neuronowych (deep learning. W 2015 roku ukończył z wyróżnieniem matematykę na Politechnice Warszawskiej o specjalizacji Statystyka Matematyczna i Analiza Danych. Kontynuował rozwój na doktoracie, w ramach którego prowadził badania nad metodami głębokiego uczenia w zastosowaniach związanych z przetwarzaniem tekstów - rozpoznawaniem wydźwięku i analizą…

Wybrane opinie

Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

4.8
Ikona podpowiedziŚrednia ocen Sages w serwisie Google Ocena pochodzi ze średniej ocen Sages w serwisie Google i nie jest weryfikowana

5.07.2024

Uczestnik szkoleniaDeep learning w przetwarzaniu języka naturalnego

Prezentowane treści zawierały najważniejsze informacje z dziedziny, przeszliśmy od podstaw do bardziej skomplikowanych elementów zwracając uwagę na ich podobieństwa i różnice. To umożliwiło ustatkowanie dotychczasowej wiedzy

Więcej opinii