Szkolenie: Fine-tuning modeli językowych
Szkolenie Fine-tuning modeli językowych uczy praktycznego dostrajania nowoczesnych modeli LLM, przygotowania danych, konfiguracji treningu oraz oceny jakości modeli z użyciem narzędzi takich jak Axolotl, Transformers i API OpenAI
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:1 dzień (8h)
Kod kursu:AI/FINE-TUNING
Fine-tuning modeli językowych
Cele szkolenia
Szkolenie przygotowuje do samodzielnego dostrajania modeli językowych na bazie istniejących architektur, z wykorzystaniem nowoczesnych narzędzi i bibliotek
Szkolenie uczy przygotowywania i przetwarzania danych treningowych do fine-tuningu modeli językowych oraz oceny jakości wytrenowanych modeli
Dla kogo?
Programistów i inżynierów danych z doświadczeniem w pracy z dużymi modelami językowymi oraz znajomością Pythona
Specjalistów AI realizujących projekty związane z przetwarzaniem języka naturalnego i automatyzacją tekstu
Efekty kształcenia
Uczestnik konfiguruje i uruchamia proces fine-tuningu modeli językowych
Uczestnik przygotowuje i przetwarza dane treningowe do dostrajania modeli
Uczestnik analizuje i porównuje metody fine-tuningu, LoRA oraz QLoRA
Uczestnik obsługuje narzędzia do trenowania modeli open-source i komercyjnych
Uczestnik ocenia jakość modeli z wykorzystaniem odpowiednich metryk
Uczestnik wdraża wytrenowane modele do środowiska produkcyjnego
Wymagania
Znajomość Pythona i umiejętność korzystania z Dużych Modeli Językowych
Dostęp do API OpenAI
Dostęp do środowiska Google Colab z GPU (wersja Pro)
Dostęp do repozytorium HuggingFace
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Wprowadzenie
Co to jest fine-tuning
Kiedy fine-tuning, a kiedy in-context learning
Omówienie sposobów dotrenowywania modeli językowych
Fine-tuning
Low Rank Adaptation (LoRA)
QLoRA
Fine-tuning modeli językowych open-source
Przygotowanie danych treningowych
Omówienie parametrów konfiguracyjnych biblioteki Axolotl
Użycie biblioteki Axolotl do trenowania modelu
Użycie biblioteki Transformers do trenowania modelu
Fine-tuning modeli OpenAI
Przygotowanie danych treningowych
Użycie API OpenAI do trenowania modelu
Dostęp do otrzymanego modelu przez API OpenAI
Ocena jakości otrzymanego modelu
Testowanie otrzymanego modelu i metryki używane do oceny jakości modelu
Użycie dużych modeli językowych do automatycznej oceny wytrenowanego modelu
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

