Trwają zapisy do grupy

Szkolenie: Fine-tuning modeli językowych

Szkolenie Fine-tuning modeli językowych uczy praktycznego dostrajania nowoczesnych modeli LLM, przygotowania danych, konfiguracji treningu oraz oceny jakości modeli z użyciem narzędzi takich jak Axolotl, Transformers i API OpenAI

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:1 dzień (8h)

Poziom zaawansowania:

Kod kursu:AI/FINE-TUNING

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

31 marca
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Marcin Wierzbiński

Cena:

1350 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

1 czerwca
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Marcin Wierzbiński

Cena:

1350 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

27 sierpnia
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Marcin Wierzbiński

Cena:

1350 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Termin:

7 grudnia
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Marcin Wierzbiński

Cena:

1350 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Fine-tuning modeli językowych

Cele szkolenia

  • Szkolenie przygotowuje do samodzielnego dostrajania modeli językowych na bazie istniejących architektur, z wykorzystaniem nowoczesnych narzędzi i bibliotek

  • Szkolenie uczy przygotowywania i przetwarzania danych treningowych do fine-tuningu modeli językowych oraz oceny jakości wytrenowanych modeli


Dla kogo?

  • Programistów i inżynierów danych z doświadczeniem w pracy z dużymi modelami językowymi oraz znajomością Pythona

  • Specjalistów AI realizujących projekty związane z przetwarzaniem języka naturalnego i automatyzacją tekstu


Efekty kształcenia

  • Uczestnik konfiguruje i uruchamia proces fine-tuningu modeli językowych

  • Uczestnik przygotowuje i przetwarza dane treningowe do dostrajania modeli

  • Uczestnik analizuje i porównuje metody fine-tuningu, LoRA oraz QLoRA

  • Uczestnik obsługuje narzędzia do trenowania modeli open-source i komercyjnych

  • Uczestnik ocenia jakość modeli z wykorzystaniem odpowiednich metryk

  • Uczestnik wdraża wytrenowane modele do środowiska produkcyjnego


Wymagania

  • Znajomość Pythona i umiejętność korzystania z Dużych Modeli Językowych

  • Dostęp do API OpenAI

  • Dostęp do środowiska Google Colab z GPU (wersja Pro)

  • Dostęp do repozytorium HuggingFace


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Wprowadzenie

  • Co to jest fine-tuning

  • Kiedy fine-tuning, a kiedy in-context learning

Omówienie sposobów dotrenowywania modeli językowych

  • Fine-tuning

  • Low Rank Adaptation (LoRA)

  • QLoRA

Fine-tuning modeli językowych open-source

  • Przygotowanie danych treningowych

  • Omówienie parametrów konfiguracyjnych biblioteki Axolotl

  • Użycie biblioteki Axolotl do trenowania modelu

  • Użycie biblioteki Transformers do trenowania modelu

Fine-tuning modeli OpenAI

  • Przygotowanie danych treningowych

  • Użycie API OpenAI do trenowania modelu

  • Dostęp do otrzymanego modelu przez API OpenAI

Ocena jakości otrzymanego modelu

  • Testowanie otrzymanego modelu i metryki używane do oceny jakości modelu

  • Użycie dużych modeli językowych do automatycznej oceny wytrenowanego modelu

Autorem szkolenia jest Bartosz Mikulski

Inżynier danych, MLOps engineer. W pracy zawodowej zajmuje się budowaniem zautomatyzowanej platformy wdrażania modeli uczenia maszynowego na produkcji. Specjalizuje się w inżynierii danych z użyciem AWS. Od 2017 roku pisze bloga o inżynierii danych, uczeniu maszynowym i sztucznej inteligencji. Napisał jeden z rozdziałów książki "97 Things Every Data Engineer Should Know". Występuje na konferencjach i meetupach w roli prelegenta gdzie dzieli się swoim doświadczeniem ze społecznością programistów.…

Wybrane opinie

Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

4.8
Ikona podpowiedziŚrednia ocen Sages w serwisie Google Ocena pochodzi ze średniej ocen Sages w serwisie Google i nie jest weryfikowana

30.01.2026

Uczestnik szkoleniaJira - organizacja i zarządzanie projektami

Adam NAJMOWICZ

Praktyczna wiedza w praktyce i swietna komunikacja z trenerem

Więcej opinii