Raport Specjalny | Bankowe Technologie – GFT | Integracja sztucznej inteligencji w bankowości od A(I) do Z(abezpieczeń)
Wyzwania regulacyjne dla rozwiązań AI
W miarę jak banki coraz intensywniej korzystają z AI, stają także przed szeregiem wyzwań regulacyjnych. Wprowadzenie przez Unię Europejską AI Act wymusza na instytucjach finansowych nowe podejście do projektowania systemów AI, które muszą być zarówno skuteczne, jak i zgodne z rygorystycznymi normami prawnymi.
– Chociaż zbudowanie ram regulacyjnych, zapewniających transparentność oprogramowania wykorzystującego AI, oraz ochrona podstawowych praw i wolności obywateli są oczywiście słusznymi ideami, to mogą także ograniczać zastosowania AI w rozwiązaniach cyberbezpieczeństwa – podkreśla Przemysław Kulesza. – Są to idee problematyczne z uwagi na to, że rozwiązania wykorzystujące deep learning i sieci neuronowe, jak np. mechanizmy automatycznego reagowania na zagrożenia, odłączające podejrzanych użytkowników od sieci, mogą być odbierane jako zbyt rygorystyczne. W wyniku takiej interpretacji działanie tych systemów, nawet jeśli byłoby zasadne, mogłoby dawać wskazania do ich klasyfikacji jako systemów wysokiego lub nawet niedopuszczalnego ryzyka w rozumieniu załącznika III do AI Act. W skrajnych przypadkach, takie systemy mogłyby zostać uznane za zbyt inwazyjne, co stanowiłoby istotne ograniczenie dla efektywności i rozwoju AI w cyberbezpieczeństwie.
Załącznikowi III do AI Act poważnie muszą przyjrzeć się także banki i dostawcy systemów do uwierzytelniania biometrycznego. Systemy rozpoznawania biometrycznego, które identyfikują osoby na podstawie unikalnych cech biologicznych, takich jak charakterystyka twarzy, tęczówka, linie papilarne czy głos, stosowane zarówno w placówkach fizycznych, jak i kanałach zdalnych (tj. infolinii, aplikacji webowej i mobilnej) mogłyby zostać uznane, w rozumieniu AI Act, za systemy wysokiego ryzyka.
Podobnie potraktowane mogą zostać także systemy stosujące biometrię behawioralną oraz technologie wykorzystujące continuous authentication (tj. uwierzytelnienie ciągłe), które analizują zachowanie użytkowników np. w czasie korzystania z bankowych systemów transakcyjnych online. Z tego względu dostawcy i importerzy tych technologii muszą ściśle współpracować z organami regulacyjnymi, nadzorem krajowym i samymi bankami. Warto, by taka współpraca była także formalnie zorganizowana, np. poprzez komitety czy grupy robocze funkcjonujące przy Związku Banków Polskich na Forum Technologii Bankowych, aby skutecznie zharmonizować działania związane z cyberbezpieczeństwem i przepisami AI Act. Takie działanie pozwoli bowiem zarówno na efektywne zarządzanie ryzykiem, jak i promowanie innowacji w sektorze bankowym.
Czy bezpieczeństwo i sprawność nie mogą iść w parze?
Firmy dążą obecnie do szybkiego wydawania nowych wersji oprogramowania korzystającego z AI. Jednak presja, by sprostać rosnącym oczekiwaniom rynku i ciągłym zmianom technologicznym, może sprawiać, że niektóre z nich nie będą przykładać należytej wagi do pełnego przetestowania tych systemów. Takie działanie zwiększa, niestety, ryzyko wystąpienia luk w zabezpieczeniach, które mogą być wykorzystane przez cyberprzestępców.
Oczywiście problem oprogramowania podatnego na cyberataki to żadna nowość. Jednym z przykładów specyficznych technik działania, są obecnie ataki na rozwiązania LLM i bazujące na słabościach wyjściowej konfiguracji aplikacji z AI. Przykładem jest chociażby prompt injection, który polega na manipulacji danych wejściowych aplikacji, co w konsekwencji może prowadzić do rezultatów nieprzewidzianych przez jej twórców, takich jak zmiana warunków jej działania. W praktyce, w kontekście bankowości elektronicznej, taki atak może oznaczać m.in. zmianę kryteriów w automatycznym procesie pożyczkowym banku, czy zmianę oceny zdolności kredytowej. Innym przykładem jest nakłonienie oprogramowania LLM do nieautoryzowanego zapisu poufnych danych na zewnętrznym serwerze przestępcy, czyli wyciek danych wrażliwych.
W przypadku aplikacji, nie tylko bankowych, bezpieczne wytwarzanie oprogramowania bazującego na AI wymaga zastosowania powtarzalnych i zaawansowanych procesów, co pozwali na zminimalizowanie ryzyka wystąpienia luk w zabezpieczeniach. W związku z czym przed wdrożeniem kodu w produkcji, jako minimum, należy uwzględnić skanowanie repozytoriów kodu źródłowego w celu identyfikacji luk bezpieczeństwa. Dodatkowo można wykorzystać automatyczne testy black box, które analizują funkcjonalność systemu bez wiedzy o jego wewnętrznej strukturze i identyfikują nieoczekiwane zachowania lub błędy. Przydatne może być także wykrywanie podatnych bibliotek, szczególnie open source, na których często opierają się projekty AI.
– Jako punkt wyjścia dla rozwiązań LLM dobrze jest użyć zaleceń projektu OWASP Large Language Models Top 10, który szeroko omawia zagrożenia, choćby takie, jak kradzież modelu, ujawnienie wejściowych informacji poufnych, czy zatrucie danych treningowych oraz zawiera zalecenia dotyczące bezpieczeństwa specjalnie dla modeli językowych bazujących na dużych zbiorach danych. W systemach bankowych korzystających z czatów i systemów decyzyjnych opartych na AI są to absolutnie podstawowe obszary, których ochrona musi mieć miejsce już w trakcie wytwarzania oprogramowania – zaznacza Przemysław Kulesza.
AI w rękach przestępców
AI jest też, niestety, wykorzystywana przez cyberprzestępców do generowania coraz bardziej przekonujących i wiarygodnych ataków phishingowych oraz zwiększania jakości ataków celowanych na osoby decyzyjne i procesy wewnętrzne w bankach. Sztuczna inteligencja umożliwia m.in. generowanie wiarygodnie wyglądających wiadomości e-mail, stron internetowych i komunikatów, które mają na celu oszukanie klientów i pracowników banków, by uzyskać poufne takie dane, jak hasła czy numery kart płatniczych. Dodatkowo pozwala ona też na inteligentne dostosowywanie szablonów i słownictwa zależnie od wieku, branży, specjalizacji, co ma na celu lepsze dopasowanie ataku do wybranej grupy docelowej.
Obecnie coraz częściej pojawiają się też informacje o próbach klonowania głosu i wizerunku osób z branży bankowej w celu tworzenia fałszywych nagrań audio lub wideo do manipulacji kadry bankowej (np. w celu przeprowadzenia niezautoryzowanych transakcji). Należy uczciwie powiedzieć, że chociaż technologia ta nie jest perfekcyjna, to tylko kwestia kilkunastu miesięcy, kiedy klonowanie głosu i wizerunku w czasie rzeczywistym nie będzie już problemem algorytmów uczenia, a wyłącznie dostępnych zasobów i siły obliczeniowej pozwalającej generować duży strumień danych audiowizualnych.
Strategie ochrony klientów w bankach
Jak banki mogą chronić swoich klientów i systemy przed nieuprawnionym dostępem? W tym obszarze kluczowe okazuje się wielostopniowe uwierzytelnianie w systemach transakcyjnych, które, choć może zmniejszać wygodę użytkowników banków, zwiększa bezpieczeństwo. To obiecujące rozwiązanie, szczególnie biorąc pod uwagę fakt, że klienci bankowości prywatnej, zwłaszcza ci, którzy korzystają z kluczy sprzętowych do uwierzytelniania siebie, pracowników banku i autoryzacji zlecanych operacji, mogą odczuć te zmiany zdecydowanie łagodniej, niż mogłoby się to wydawać.
– Osobiście mocno wierzę w ideę continuous authentication, czyli w pomysł weryfikacji klienta nie tylko przy logowaniu lub autoryzacji operacji, ale w trakcie każdej interakcji klienta z kanałami zdalnymi – mówi Przemysław Kulesza. – Ta idea jest zbieżna z wymogami silnego uwierzytelniania opisanymi przez dyrektywy Parlamentu Europejskiego, jak również podstawowymi założeniami działalności operacyjnej banków, czyli decyzjach opartych na analizie ryzyka. Rozwiązania ciągłego uwierzytelniania, wsparte decyzjami z modelu deep learning, dają realną szansę ochrony klienta dosłownie przy każdej jego czynności w kanałach cyfrowych.
To szczególnie ciekawe rozwiązanie, zwłaszcza z uwagi na to, że wprowadzenie idei ciągłego uwierzytelnienia można oprzeć na rozwiązaniach biometrii behawioralnej, które polegają nie na składowaniu charakterystycznych cech zachowania klienta, tylko na ich różnicach między klientami, co może dodatkowo zwiększyć pewność zakwalifikowania tych systemów jako rozwiązań niskiego ryzyka w rozumieniu AI Act. Podstawowe cechy, które można wziąć pod uwagę to m.in. charakterystyka ruchu myszy lub palca przemieszczającego się po ekranie telefonu (prędkość, wektor, zmienność, nacisk), sposób korzystania z klawiatury (odległości między przyciśnięciami liter i słów, długości nacisku dla poszczególnych liter) itp. Jednak niezależnie od wykorzystywanych rozwiązań jedno jest pewne – w miarę jak technologia AI ewoluuje, banki muszą nie tylko adaptować się do nowych wyzwań, ale także proaktywnie kształtować przyszłość cyberbezpieczeństwa. Pomimo trudności to właśnie zdecydowane kroki w stronę rozwijania i wdrażania nowych rozwiązań mogą znacząco podnieść poziom ochrony w cyfrowym świecie.