Szkolenia z AI Security

Tempo rozwoju rozwiązań opartych na dużych modelach językowych (LLM) i sztucznej inteligencji (AI) sprawia, że coraz więcej polskich firm wdraża w swoich organizacjach produkty wykorzystujące AI, lub integruje duże modele językowe ze swoimi produktami.

Czy Twoi pracownicy wiedzą, co może pójść nie tak podczas wdrożeń systemów wykorzystujących AI?

Najbardziej znanym zagrożeniem związanym z dużymi modelami językowymi jest tzw. prompt injection, jednak czy wiesz, że duży model językowy wbudowany w Twoją aplikację może również powodować błędy takie jak XSS (Cross Site Scripting) bądź wycieki danych?

Do tego sama sama infrastruktura wykorzystywana do zarządzania dużymi modelami językowymi może powodować wycieki haseł, wycieki danych klientów i pracowników, bądź może umożliwić konkurencji i klientom darmowy dostęp do Twoich customowych modeli.

Zakres szkoleń

W ramach szkoleń dot. bezpieczeństwa sztucznej inteligencji poruszam tematy takie jak:

  • bezpieczne wdrażanie dużych modeli językowych w istniejących rozwiązaniach
  • zapobieganie prompt injection
  • zapobieganie podatnościom typu insecure output
  • zabezpieczanie infrastruktury LLMOps/MLOps
  • podatności z list OWASP Top10 for LLM i OWASP Top10 for Machine Learning
  • standardy bezpieczeństwa AI
  • modelowanie zagrożeń dla systemów wykorzystujących sztuczną inteligencję
  • testowanie chatbotów opartych na dużych modelach językowych
  • rozwiązania 3rd-party zapewniające bezpieczeństwo LLM

Kontakt

Jeśli uważasz, że takie szkolenie jest wartościowe dla Twojej organizacji, skontaktuj się ze mną na: contact@learnsec.pl