Trwają zapisy do grupy

Szkolenie: Bezpieczeństwo systemów AI

Szkolenie Bezpieczeństwo systemów AI uczy praktycznych i teoretycznych metod ochrony systemów sztucznej inteligencji, wykrywania zagrożeń, audytu, testowania i zabezpieczania modeli AI, w tym LLM, zgodnie z aktualnymi standardami branżowymi

  • Trenerzy praktycy
  • Kameralne grupy

Czas trwania szkolenia:2 dni (16h)

Poziom zaawansowania:

Kod kursu:SEC/AI

bezpieczenstwo-aimodel-securityai-riskai-security

Dostępne terminy szkolenia

  • Termin
  • Trener
  • Cena
  • Zapis
  • Lokalizacja

Termin:

12 marca
Trwają zapisy na szkolenieDostępne w BUR

Trener:

Trener-Sages

Cena:

2450 PLN netto
Ikona podpowiedziDowiedz się więcej o cenach szkoleń - zapraszamy do kontaktu
+23% VAT

Lokalizacja:

Zdalne
Zdalne
Ikona podpowiedziZapytaj o inne lokalizacje - w tym celu skorzystaj z chatu

Forma szkolenia

Interesuje Cię szkolenie stacjonarne?

Powiadom o kolejnych terminach

Interesuje Cię szkolenie w innym terminie?

Bezpieczeństwo systemów AI

Cele szkolenia

  • Szkolenie przygotowuje do samodzielnego identyfikowania i analizowania zagrożeń bezpieczeństwa w systemach sztucznej inteligencji oraz wdrażania skutecznych metod ochrony modeli AI i danych

  • Szkolenie uczy przeprowadzania audytu oraz testowania bezpieczeństwa systemów AI, w tym wykrywania podatności i reagowania na incydenty związane z atakami na modele uczenia maszynowego

  • Szkolenie pokazuje, jak stosować aktualne regulacje i standardy branżowe dotyczące bezpieczeństwa AI oraz jak zapewnić zgodność wdrażanych rozwiązań z wymaganiami prawnymi i etycznymi


Dla kogo?

  • Specjalista ds. bezpieczeństwa IT z podstawową wiedzą o AI, odpowiedzialny za ochronę systemów informatycznych

  • Inżynier lub deweloper AI wdrażający i utrzymujący modele uczenia maszynowego w środowisku produkcyjnym

  • Architekt rozwiązań AI projektujący bezpieczne systemy wykorzystujące sztuczną inteligencję

  • Audytor IT realizujący kontrole bezpieczeństwa systemów opartych o AI

  • Menedżer projektu AI nadzorujący wdrożenia i zgodność z regulacjami


Efekty kształcenia

  • Uczestnik analizuje i rozpoznaje wektory ataków na systemy AI

  • Uczestnik wdraża techniki zabezpieczania modeli i danych AI

  • Uczestnik przeprowadza audyt bezpieczeństwa systemów AI

  • Uczestnik testuje odporność modeli na typowe ataki

  • Uczestnik ocenia zgodność systemów AI z regulacjami branżowymi

  • Uczestnik monitoruje i reaguje na incydenty bezpieczeństwa AI


Wymagania

  • Podstawowe zrozumienie koncepcji uczenia maszynowego

  • Podstawowa znajomość zagadnień z zakresu bezpieczeństwa IT


W cenie otrzymasz:

  • Materiały szkoleniowe

  • Certyfikat ukończenia szkolenia

  • W przypadku szkolenia w trybie stacjonarnym zapewnimy Ci również lunch oraz sprzęt niezbędny do nauki

Program szkolenia

Pobierz program w PDF

Zasada działania systemów AI

  • Podstawowe koncepcje i architektura systemów AI

  • Kluczowe algorytmy i modele w uczeniu maszynowym

  • Proces uczenia modeli: od danych treningowych do wdrożenia

Zastosowanie systemów AI

  • Obszary, w których AI znajduje zastosowanie

  • Ryzyka i korzyści wynikające z implementacji AI

  • Przegląd typowych przypadków użycia

Wprowadzenie do bezpieczeństwa systemów AI

  • Dlaczego bezpieczeństwo systemów AI jest kluczowe?

  • Definicje i obszary bezpieczeństwa sztucznej inteligencji

  • Specyficzne wyzwania bezpieczeństwa w systemach AI

  • Różnice między tradycyjnym bezpieczeństwem IT a bezpieczeństwem AI

Ataki na systemy AI

  • Rodzaje ataków na modele uczenia maszynowego (np. evasion, poisoning, inference)

  • Analiza wektorów ataku i ich wpływ na integralność modeli

  • Studium przypadków rzeczywistych ataków na systemy AI

Bezpieczeństwo danych w systemach AI

  • Data Poisoning – zatruwanie danych treningowych

  • Membership Inference – ataki na obecność danych w zbiorze treningowym

  • Sensitive Information Disclosure – ujawnianie wrażliwych informacji

  • Prompt Leakage – ujawnienie treści promptów w systemach AI

  • Modelowanie zagrożeń dla danych

Ataki na integralność i poufność modeli AI (kradzież, odwracanie i manipulacja)

  • Transfer Learning – wykorzystanie wcześniej wytrenowanego modelu do nieautoryzowanych celów

  • Input Manipulation – ataki na dane wejściowe prowadzące do błędnych predykcji

  • Prompt Injection – wstrzykiwanie złośliwych promptów do modeli LLM

  • Modelowanie zagrożeń dla poufności modelu

Ataki na prywatność

  • Training Data Extraction – odzyskiwanie oryginalnych danych treningowych

  • Membership Inference – sprawdzanie, czy dane należą do zbioru treningowego

  • Model Theft – kradzież modelu poprzez API lub analizę parametrów

  • Model Inversion – odzyskiwanie oryginalnych danych treningowych

  • Modelowanie zagrożeń dla prywatności

Ataki na dostępność i poprawność działania systemu AI (sabotaż i degradacja)

  • Model Skewing – manipulowanie danymi wejściowymi, aby stopniowo zmieniać działanie modelu

  • Model Denial of Service (DoS) – przeciążenie modelu w celu uniemożliwienia jego działania

  • Supply Chain Attacks – ataki na łańcuch dostaw, np. złośliwe dane treningowe lub naruszenie kodu biblioteki

  • Modelowanie zagrożeń wynikajacych z łańcucha dostaw

Ataki na integrację

  • Output Integrity / Insecure Output Handling – manipulowanie wynikami generowanymi przez AI

  • Overreliance – nadmierne poleganie na wynikach AI bez ich weryfikacji

  • Modelowanie zagrożeń wynikajacych z intergacji z innymi systemami

Bezpieczne wdrażanie i utrzymanie infrastruktury AI

  • Zagrożenia związane z Unbounded Consumption – niekontrolowany dostęp i wykorzystywanie zasobów

  • Bezpieczna konfiguracja środowiska AI

  • Zarządzanie dostępem i kontrola uprawnień

Modele LLM

  • Specyfika modeli LLM i ich unikalne zagrożenia

  • Halucynacje – generowanie fałszywych informacji przez modele AI

  • Warsztat z próby obejścia zabezpieczen modeli LLM

  • Warsztat z metod weryfikacji treści w LLM

  • Metody zabezpieczania modeli LLM

  • Techniki walidacji i sanityzacji promptów

  • Monitorowanie i filtrowanie wyjść modelu

Audyt i testowanie systemów AI

  • Narzędzia i techniki testowania bezpieczeństwa modeli AI

  • Audyt modeli AI

  • Warsztat z przykładowego samodzielnego audytu systemu AI

Standardy, regulacje i etyka w systemach AI

  • Przegląd standardów i regulacji (np. EU AI Act, NIST, ISO)

  • Znaczenie etyki i odpowiedzialności przy wdrażaniu AI

  • Implementacja zgodności z regulacjami w organizacjach

  • Warsztat z analizy systemu pod kątem regulacji AI Act

Autorem szkolenia jest Adrian Sroka

Architekt bezpieczeństwa i konsultant IT. Moim celem jest uczynienie świata bezpieczniejszym poprzez tworzenie lepiej zabezpieczonych aplikacji i systemów IT. Wierzę, że skuteczne podejście do bezpieczeństwa zaczyna się od dobrze zaprojektowanego procesu developmentu. Specjalizuję się w integracji bezpieczeństwa z procesem tworzenia oprogramowania. Dzięki bogatemu doświadczeniu w budowie systemów IT skutecznie wdrażam praktyki i rozwijam społeczności związane z bezpieczeństwem w firmach.

Wybrane opinie

Przeczytaj pozytywne opinie pochodzące z ankiet satysfakcji z naszych szkoleń wypełnianych wyłącznie przez ich uczestników po realizacji usługi

4.8
Ikona podpowiedziŚrednia ocen Sages w serwisie Google Ocena pochodzi ze średniej ocen Sages w serwisie Google i nie jest weryfikowana

7.11.2025

Uczestnik szkoleniaBezpieczeństwo systemów AI

NITISH KUMAR, AXA XL

It was good session

Więcej opinii