Szkolenie: Bezpieczeństwo systemów AI
Szkolenie Bezpieczeństwo systemów AI uczy praktycznych i teoretycznych metod ochrony systemów sztucznej inteligencji, wykrywania zagrożeń, audytu, testowania i zabezpieczania modeli AI, w tym LLM, zgodnie z aktualnymi standardami branżowymi
- Trenerzy praktycy
- Kameralne grupy
Czas trwania szkolenia:2 dni (16h)
Kod kursu:SEC/AI
Bezpieczeństwo systemów AI
Cele szkolenia
Szkolenie przygotowuje do samodzielnego identyfikowania i analizowania zagrożeń bezpieczeństwa w systemach sztucznej inteligencji oraz wdrażania skutecznych metod ochrony modeli AI i danych
Szkolenie uczy przeprowadzania audytu oraz testowania bezpieczeństwa systemów AI, w tym wykrywania podatności i reagowania na incydenty związane z atakami na modele uczenia maszynowego
Szkolenie pokazuje, jak stosować aktualne regulacje i standardy branżowe dotyczące bezpieczeństwa AI oraz jak zapewnić zgodność wdrażanych rozwiązań z wymaganiami prawnymi i etycznymi
Dla kogo?
Specjalista ds. bezpieczeństwa IT z podstawową wiedzą o AI, odpowiedzialny za ochronę systemów informatycznych
Inżynier lub deweloper AI wdrażający i utrzymujący modele uczenia maszynowego w środowisku produkcyjnym
Architekt rozwiązań AI projektujący bezpieczne systemy wykorzystujące sztuczną inteligencję
Audytor IT realizujący kontrole bezpieczeństwa systemów opartych o AI
Menedżer projektu AI nadzorujący wdrożenia i zgodność z regulacjami
Efekty kształcenia
Uczestnik analizuje i rozpoznaje wektory ataków na systemy AI
Uczestnik wdraża techniki zabezpieczania modeli i danych AI
Uczestnik przeprowadza audyt bezpieczeństwa systemów AI
Uczestnik testuje odporność modeli na typowe ataki
Uczestnik ocenia zgodność systemów AI z regulacjami branżowymi
Uczestnik monitoruje i reaguje na incydenty bezpieczeństwa AI
Wymagania
Podstawowe zrozumienie koncepcji uczenia maszynowego
Podstawowa znajomość zagadnień z zakresu bezpieczeństwa IT
W cenie otrzymasz:
Materiały szkoleniowe
Certyfikat ukończenia szkolenia
W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki
Program szkolenia
Zasada działania systemów AI
Podstawowe koncepcje i architektura systemów AI
Kluczowe algorytmy i modele w uczeniu maszynowym
Proces uczenia modeli: od danych treningowych do wdrożenia
Zastosowanie systemów AI
Obszary, w których AI znajduje zastosowanie
Ryzyka i korzyści wynikające z implementacji AI
Przegląd typowych przypadków użycia
Wprowadzenie do bezpieczeństwa systemów AI
Dlaczego bezpieczeństwo systemów AI jest kluczowe?
Definicje i obszary bezpieczeństwa sztucznej inteligencji
Specyficzne wyzwania bezpieczeństwa w systemach AI
Różnice między tradycyjnym bezpieczeństwem IT a bezpieczeństwem AI
Ataki na systemy AI
Rodzaje ataków na modele uczenia maszynowego (np. evasion, poisoning, inference)
Analiza wektorów ataku i ich wpływ na integralność modeli
Studium przypadków rzeczywistych ataków na systemy AI
Bezpieczeństwo danych w systemach AI
Data Poisoning – zatruwanie danych treningowych
Membership Inference – ataki na obecność danych w zbiorze treningowym
Sensitive Information Disclosure – ujawnianie wrażliwych informacji
Prompt Leakage – ujawnienie treści promptów w systemach AI
Modelowanie zagrożeń dla danych
Ataki na integralność i poufność modeli AI (kradzież, odwracanie i manipulacja)
Transfer Learning – wykorzystanie wcześniej wytrenowanego modelu do nieautoryzowanych celów
Input Manipulation – ataki na dane wejściowe prowadzące do błędnych predykcji
Prompt Injection – wstrzykiwanie złośliwych promptów do modeli LLM
Modelowanie zagrożeń dla poufności modelu
Ataki na prywatność
Training Data Extraction – odzyskiwanie oryginalnych danych treningowych
Membership Inference – sprawdzanie, czy dane należą do zbioru treningowego
Model Theft – kradzież modelu poprzez API lub analizę parametrów
Model Inversion – odzyskiwanie oryginalnych danych treningowych
Modelowanie zagrożeń dla prywatności
Ataki na dostępność i poprawność działania systemu AI (sabotaż i degradacja)
Model Skewing – manipulowanie danymi wejściowymi, aby stopniowo zmieniać działanie modelu
Model Denial of Service (DoS) – przeciążenie modelu w celu uniemożliwienia jego działania
Supply Chain Attacks – ataki na łańcuch dostaw, np. złośliwe dane treningowe lub naruszenie kodu biblioteki
Modelowanie zagrożeń wynikajacych z łańcucha dostaw
Ataki na integrację
Output Integrity / Insecure Output Handling – manipulowanie wynikami generowanymi przez AI
Overreliance – nadmierne poleganie na wynikach AI bez ich weryfikacji
Modelowanie zagrożeń wynikajacych z intergacji z innymi systemami
Bezpieczne wdrażanie i utrzymanie infrastruktury AI
Zagrożenia związane z Unbounded Consumption – niekontrolowany dostęp i wykorzystywanie zasobów
Bezpieczna konfiguracja środowiska AI
Zarządzanie dostępem i kontrola uprawnień
Modele LLM
Specyfika modeli LLM i ich unikalne zagrożenia
Halucynacje – generowanie fałszywych informacji przez modele AI
Warsztat z próby obejścia zabezpieczen modeli LLM
Warsztat z metod weryfikacji treści w LLM
Metody zabezpieczania modeli LLM
Techniki walidacji i sanityzacji promptów
Monitorowanie i filtrowanie wyjść modelu
Audyt i testowanie systemów AI
Narzędzia i techniki testowania bezpieczeństwa modeli AI
Audyt modeli AI
Warsztat z przykładowego samodzielnego audytu systemu AI
Standardy, regulacje i etyka w systemach AI
Przegląd standardów i regulacji (np. EU AI Act, NIST, ISO)
Znaczenie etyki i odpowiedzialności przy wdrażaniu AI
Implementacja zgodności z regulacjami w organizacjach
Warsztat z analizy systemu pod kątem regulacji AI Act
Wybrane opinie
Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

