Raport BankTech | Cyberbezpieczeństwo – IBM | Czas przygotować infrastrukturę banku na niechybną zmianę
Upowszechnianie się sztucznej inteligencji, zwłaszcza w jej generatywnej formie, generuje całkiem nowe wyzwania, także w obszarze szeroko rozumianego cyberbezpieczeństwa. Jak ograniczać te ryzyka?
– W środowisku przestępczym posługiwanie się AI staje się standardem. Dlatego instytucje finansowe muszą sięgać po zaawansowane technologie AI, korzystając z odpowiednich metodologii czy frameworków w celu zabezpieczenia zasobów cyfrowych. Implementacja sztucznej inteligencji, również w formule GenAI, musi zakładać odpowiedni poziom zarządzania bezpieczeństwem. Przykładowy framework zabezpieczenia AI bazuje na trzech filarach. Pierwszy to zabezpieczenie danych, które stają się wektorem ataków. Jeśli nie zabezpieczy się należycie interakcji z systemami GenAI, stwarza to zagrożenie do pozyskania informacji przechowywanych w systemach. Czas potencjalnego ataku skraca się do 40 sekund i 5 kroków, nie wymagając praktycznie żadnej wiedzy programistycznej.
Fakt ten skwapliwie wykorzystują sprawcy w celu kradzieży danych lub manipulacji nimi dla pozyskania dostępu do wewnętrznych systemów bankowych. Szczególnie niebezpieczne jest to w systemach RAG, wspierających np. relacje między bankiem a klientem. Drugi filar implementacji GenAI to jakość i bezpieczeństwo samego modelu. Te kryteria można spełnić, korzystając z rozwiązań pochodzących od zaufanych dostawców, którzy oferują tzw. guardrails – mechanizmy ograniczające ryzyka związane z etyką, korzystaniem z danych prywatnych czy nieautoryzowanymi odpowiedziami. Sprawę komplikuje fakt, iż na rynku mamy do dyspozycji olbrzymią liczbę modeli LLM, co wobec deficytu specjalistów z obszaru bezpieczeństwa GenAI, komplikuje wdrażanie takich systemów. Trzeci filar to ochrona interakcji z modelem. Otwierając system GenAI na użytkowników, musimy być gotowi na próby tzw. jailbreaków, prób obejścia zabezpieczeń i wymuszenia niepożądanych zachowań modelu. Trzeba stworzyć odpowiedni system zarządzania informacją, odpowiedzialny za monitorowanie wejść i wyjść z modelu, by wygenerowane przezeń odpowiedzi nie zawierały poufnych danych.
Elementem spajającym powyższe jest odpowiednie zabezpieczenie infrastruktury, poczynając od prawidłowego znakowania danych pod kątem wymogów prawa, aż po wyeliminowanie podatności na standardowe wektory cyberataków, czy odpowiednią segmentację i kontrolę dostępu. Najważniejszy element to holistyczne zarządzanie sztuczną inteligencją. Dysponując takim łańcuchem, możemy bezpiecznie wdrażać systemy GenAI.
Jak powinno wyglądać przemyślane wdrażanie GenAI w organizacji, zwłaszcza takiej jak instytucja finansowa, gdzie bezpieczeństwo i compliance stanowi absolutny priorytet?
– Kluczowe jest przestrzeganie zasad bezpieczeństwa i AI governance, w tym odpowiedniego podejścia do zarządzania wdrożeniami. Niezbędna jest szczegółowa analiza ryzyka, analiza modeli, a także threat modeling, zbyt często pomijany. W sektorze finansowym szczególne znaczenie będzie mieć weryfikacja zgodności wdrażanych systemów z otoczeniem prawno-regulacyjnym, w tym spełnianiem wymaganych norm przez elementy infrastruktury IT. W ramach IBM watsonx™ dysponujemy platformą, umożliwiającą realizację wszystkich tych zadań. Obejmuje ona takie narzędzia jak watsonx.ai, watsonx.data oraz watsonx.governance. Dzięki nim jesteśmy w stanie określić, czy dany system AI spełnia wymogi regulacyjne, przypisać mu konkretne reguły działania i monitorować odstępstwa, które są automatycznie klasyfikowane jako potencjalne zagrożenia i przekazywane do zespołu bezpieczeństwa. AI security nie może być oderwane od klasycznego bezpieczeństwa. Wadliwie zaimplementowana AI, dysponująca dostępem do danych, które nie powinny być jej udostępniane, i pozbawiona nadzoru może stanowić istotny wektor ataku na infrastrukturę IT. Dlatego zespoły ds. bezpieczeństwa i komórki IT muszą ściśle współpracować i uczyć się, jak integrować nowe technologie.
W przypadku systemów AI mamy do czynienia również z wewnętrznymi wektorami ryzyka, jak halucynacje generatywnej sztucznej inteligencji. Jak chronić się przed nimi?
Przy odpowiednio zaimplementowanym nadzorze nad modelami AI, governance pozwala wykrywać i blokować halucynacje GenAI. Mówimy nie tylko o zarządzaniu danymi, ale przede wszystkim modelami, co umożliwia identyfikowanie i neutralizowanie błędnych odpowiedzi systemów. Zwróciłbym uwagę na istotny aspekt: ponad 80% dokumentów wykorzystywanych przez GenAI pochodzi z zasobów prywatnych, co czwarty zawiera dane poufne. To poważny czynnik ryzyka. Potrzeba systemowych zabezpieczeń od strony technologii, ale i higieny użytkowania GenAI w organizacji, czego nie sposób osiągnąć bez edukacji. Sztuczna inteligencja nie może mieć pełnej kontroli nad danymi, które przetwarza lub generuje; obowiązkiem użytkownika jest weryfikacja otrzymywanych wyników. Kolejny aspekt to rozwój agentowych systemów AI, stanowiących nową rzeczywistość dla zespołów zajmujących się bezpieczeństwem cybernetycznym. To systemy zdolne do samodzielnego tworzenia połączeń, mogące wykorzystywać luki w infrastrukturze, co wymaga szczególnego podejścia do implementacji agentów AI. Klasyczne podejście do bezpieczeństwa będzie musiało zostać rozszerzone: potrzebujemy nowej analizy zagrożeń, nowego podejścia do threat modeling i nowego poziomu edukacji w zakresie prywatności, udostępniania danych i korzystania z modeli AI. Governance to absolutna podstawa, zarządzanie musi być integralnym elementem każdego systemu.
Trzeba wiedzieć, z jakim przypadkiem użycia mamy do czynienia, jakie dane są przetwarzane i jak zabezpieczyć dostęp do danych, zarówno dla sztucznej inteligencji, jak i użytkowników. Należy przeprowadzić rzetelną analizę ryzyka, obejmującą cały proces i system wdrożeniowy.. Elementem, o którym warto wspomnieć, są zespoły odpowiedzialne za wdrażanie podsystemów. Red teaming sprawdza się w klasycznych systemach bezpieczeństwa, nowe technologie wymagają świeżego podejścia. Szczególnie systemy z agentami AI należy traktować inaczej niż tradycyjne środowiska. Generatywna AI to unikalne wyzwanie, które wymaga indywidualnego podejścia oraz głębokiego zrozumienia implementacyjnego. W tym zakresie IBM X-Force może wspierać wdrożenia, zarówno na poziomie implementacji, jak i weryfikacji zabezpieczeń w kontekście AI, w tym generatywnej. Kluczem jest współpraca ze sprawdzonym partnerem, sprawdzonymi technologiami i modelami. Tylko wtedy można liczyć na realne korzyści, bo niewłaściwe wdrożenie może przynieść poważne straty: wizerunkowe, prawne, a nawet finansowe, będące skutkiem wycieków danych czy braku zgodności (compliance), w tym naruszeń regulacji takich jak AI Act czy RODO.
Przykładem takiej klasy systemu, wspartym generatywną AI jest IBM Concert. Jego podstawowym zadaniem jest katalogowanie i kategoryzowanie podatności w aplikacjach a następnie poprzez generowanie akcji, automatyzacja procesów usuwania zagrożeń, poczynając od tych najbardziej niebezpiecznych, które mogą wyrządzić największe szkody.
Technologie zmieniają się szybko, szczególnego znaczenia nabierają zatem elastyczne modele ich zakupu. Czy są one dostępne dla systemów zarządzania bezpieczeństwem GenAI?
– Jesteśmy jedyną firmą na świecie, która jest w stanie dostarczyć bezpieczne narzędzia w modelu całkowicie hybrydowym. Może ono funkcjonować w chmurze, on-premise, a także jako rozwiązanie hybrydowe, integrujące się z różnymi podsystemami. Oferowane przez IBM oprogramowanie Guardium odpowiednio zabezpiecza dane, wykorzystywane przez GenAI. Pozwala to na ochronę danych używanych do uczenia modeli AI, obsługę podsystemów typu RAG, a także weryfikację, czy nie dochodzi do nieautoryzowanych modyfikacji danych, co z kolei mogłyby niekorzystnie wpłynąć na trenowanie nowego modelu lub jego jakość. Dodatkowo, Guardium pozwala zidentyfikować potencjalne wycieki danych wynikające z nieprzetestowanych, niezweryfikowanych interakcji z modelem AI, który nie ma odpowiednio skonfigurowanych zabezpieczeń ani właściwego poziomu kontroli dostępu i monitorowania danych.
Spróbujmy spojrzeć choć trochę w przyszłość. Czym powinno wyróżniać się zarządzanie bezpieczeństwem w firmie, by było otwarte również na nowe, dotychczas nieznane zagrożenia?
– Projektując system hybrydowy oparty na chmurze, warto przemyśleć bezpieczną implementację zarządzania danymi oraz kluczami bezpieczeństwa. Chodzi o stworzenie swoistej „twierdzy” w obrębie podsystemu chmurowego, która umożliwia zastosowanie zaawansowanych mechanizmów kryptograficznych. Pozwala to uniknąć sytuacji, w której dostęp do danych i kluczy szyfrujących spoczywa w ręku jednego dostawcy. Takie rozdzielenie odpowiedzialności minimalizuje ryzyko wycieku informacji. Ów aspekt kryptograficzny nabiera szczególnego znaczenia w kontekście rosnącego zagrożenia ze strony komputerów kwantowych. Organizacje takie jak ENISA czy NIST zwracają uwagę na coraz częściej podejmowane próby posługiwanie się maszynami kwantowymi w celu łamania klasycznych kluczy szyfrujących, a reakcją na to zagrożenie są rekomendacje, by wszystkie systemy dostępne po 2030 r. bazowały na tzw. kryptografii odpornej na ataki kwantowe (Quantum Safe). W architekturze hybrydowej może to być istotny element zabezpieczeń. IBM w swoim podejściu do środowisk hybrydowych umożliwia budowę „kwantowej twierdzy”, dostarczając rozwiązania, zabezpieczające dane w komunikacji między różnymi dostawcami chmurowymi, ale i chroniące lokalne podsystemy przed potencjalnymi zagrożeniami, wynikającymi z rozwoju technologii kwantowych. Wszystkie systemy sprzętowe dostępne w naszej firmie już od dłuższego czasu są wyposażone w elementy kryptograficzne zabezpieczone kluczami typu PQC. Rozpoczynając od najnowszych modeli komputerów klasy Mainframe Z17, które nota bene są podstawą budowania takiej twierdzy, poprzez serwery IBM Power, aż po systemy systemy macierzowe klasy IBM Flashsystem, gdzie komunikacja wewnętrzna jest realizowana z wykorzystaniem szyfrowania na bazie algorytmów Kyber i Dilithium. Te algorytmy zostały w zeszłym roku zatwierdzone przez NIST i są już gotowe do implementacji w systemach produkcyjnych.
Dlatego zalecamy, by przygotować swoją infrastrukturę na niechybną zmianę. Komputery kwantowe są coraz wydajniejsze i moment, w którym mogą stanowić realne zagrożenie, nieuchronnie się zbliża. już dziś trzeba rozpocząć prace przygotowawcze i stworzyć pierwsze twierdze kwantowe w ramach bankowych systemów IT Bardzo przydatne może być oprogramowanie IBM Guardium Quantum Safe, które pozwala na analizę sieci i tworzonego oprogramowania pod względem kryptograficznym, co może ułatwić implementacje nowego paradygmatu kryptograficznego.