Szkolenie: AI wspomagające Test-Driven Development (TDD)
Praktyczne warsztaty pokazujące, jak wykorzystać sztuczną inteligencję do przyspieszenia i usprawnienia procesu Test-Driven Development — od analizy istniejącego kodu, przez generowanie testów, aż po automatyzowane CI/CD
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:2 dni (16h)
Kod kursu:AI/TDD
AI wspomagające Test-Driven Development (TDD)
Cele szkolenia
Szybka orientacja w nieznanym projekcie z pomocą LLM
Kontrolowane wprowadzanie zmian bez ryzyka zepsucia istniejącego kodu
Automatyczne generowanie testów jednostkowych, integracyjnych i regresyjnych
Integracja generowanych testów z pipeline CI/CD
Dla kogo?
Programiści backend i frontend
Liderzy zespołów developmentu i QA
DevOps i inżynierowie CI/CD
Zalety
Praktyczne scenariusze „prompt-to-code” i „prompt-to-test”
Gotowe prompty i szablony do dalszego wykorzystania
Pełna ścieżka od analizy kodu, przez testy, aż po deployment
Wymagania
Znajomość Pythona lub Java (w zależności od repozytorium)
Podstawowa wiedza o TDD (Red→Green→Refactor)
Konto GitHub i lokalne środowisko developerskie
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Czym jest Test-Driven Development?
Filozofia TDD: Red → Green → Refactor
Różnice między TDD, BDD i klasycznym testowaniem
Wartość biznesowa pisania testów przed kodem
Analiza kodu zastanego i planowanie zmian z udziałem LLM
Przegląd nieznanego repozytorium przy pomocy AI
Promptowanie do analizy klas, funkcji i zależności
Wnioskowanie o możliwych refaktoryzacjach lub lukach w testach
Zachowanie kontekstu działania aplikacji + RAG
Utrzymywanie spójności kontekstu przy dużych kodach (chunking, summarization)
Mechanizmy Retrieval-Augmented Generation (RAG) w praktyce
Tworzenie lokalnej bazy wiedzy o kodzie (embedding + wektorowe wyszukiwanie)
Generowanie testów z pomocą AI
Tworzenie testów jednostkowych z poziomu funkcji/metody
Automatyczne uzupełnianie istniejących klas testowych
Testy pokrywające przypadki brzegowe i regresyjne
Best practices przy ocenie testów wygenerowanych przez LLM
Agenci AI w programowaniu
Różnice między narzędziami: Copilot, Cursor, Aider, Cody, SWE-agent
Przykład zastosowania agenta do refaktoryzacji lub migracji frameworka
Wady i zalety „delegowania” większych zadań agentom
Ewolucyjna architektura: poprawa modularności aplikacji
Wykrywanie kodu monolitycznego i silnych zależności
Podział aplikacji na moduły z pomocą AI
Dodawanie warstw testów i kontraktów między komponentami
Regresja i testy integracyjne
Tworzenie testów regresyjnych na podstawie istniejącego kodu i historii zmian
Identyfikacja punktów integracyjnych (bazy danych, API, kolejki)
Symulacja środowiska produkcyjnego do testów
CI/CD i wdrożenie: GitHub Actions, pipeline, deployment
Tworzenie workflow do automatycznego uruchamiania testów
Warunki zatwierdzania PR na podstawie wyników testów
Deployment do środowiska stagingowego z użyciem GitHub Actions
Monitorowanie pokrycia kodu i regresji
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi