Raport Specjalny | Płatności Bezgotówkowe | Wyzwania cyberbezpieczeństwa w dobie sztucznej inteligencji w sektorze fintech i płatnościach elektronicznych
Dr inż. Marcin Grabarczyk
dyrektor Pionu Transferu Technologii i Rozwoju Biznesu
Michał Rotnicki
ekspert ds. transferu technologii
Piotr Bisialski
kierownik Zespołu NASK Incident Response Team
Dr inż. Mateusz Krzysztoń
kierownik Zakładu Systemów Rozproszonych
Michał Rotnicki: Współczesny użytkownik rynku płatności korzysta z całego ekosystemu narzędzi do obsługi usług cyfrowych. Nie ma problemu, aby jednocześnie posiadać w jednej kieszeni urządzenia z systemami Android i iOS. Używa on wielu narzędzi płatniczych, a jego oczekiwanie względem usług cyfrowych sprowadza się do tego, aby wszystko działo się natychmiast. Cierpliwość klientów kończy się po kilku sekundach. Jednak, obserwując krajobraz cyberzagrożeń publikowany przez ENISA, można zauważyć, że od pewnego czasu jednym z najczęstszych ataków stały się te oparte na socjotechnice. Można przyjąć, że dobrze bronimy się na poziomie technicznym, ale czy operatorzy płatności internetowych są w stanie poradzić sobie z atakami, które polegają na manipulacji klientem? I czy najmodniejsze słowo sezonu – AI – będzie sprzymierzeńcem jasnej czy ciemnej strony mocy?
Piotr Bisialski: W naszej codziennej pracy identyfikujemy różne wersje ataków, które praktycznie w całości opierają się na manipulacji i wykorzystaniu prostych narzędzi socjotechnicznych. Bardzo popularne są ataki, w których ofiara dobrowolnie udziela przestępcy zdalnego dostępu do swojego urządzenia oraz podaje dane do poprawnej autoryzacji transakcji bankowej. Przestępca posługuje się w praktyce powszechnie używanymi narzędziami, takimi jak komunikator internetowy, telefon i legalne programy do zdalnego dostępu. Do tego przestępcy są wspierani wszelkiego rodzaju usługami, gdzie w modelu SaaS, za bardzo przystępne kwoty, można swój atak wzbogacić o elementy phishingu lub innych technik, takich jak klonowanie głosu. Oznacza to, iż próg wejścia do świata cyberprzestępczości został dramatycznie obniżony.
Dr inż. Marcin Grabarczyk: Co ważne, wykrycie tego typu ataków i obrona przed nimi stanowią wyjątkowo trudne wyzwanie z perspektywy zespołów odpowiedzialnych za cyberbezpieczeństwo. Często w całym procesie kradzieży środków użytkownika nie dochodzi do żadnych podejrzanych lub nieuprawnionych działań z punktu widzenia techniki. Teoretycznie nie dochodzi do naruszenia żadnego z atrybutów bezpieczeństwa informacji, tj. poufności, integralności i dostępności.
Oznacza to, że cała machina systemów budujących cyberodporność podmiotu świadczącego usługi płatnicze może nie zauważyć zdarzenia. Parafrazując, możemy budować dowolnie grube i wysokie mury, ale finalnie okazuje się, że przez bramę do naszej twierdzy przemaszeruje sobowtór. Tymczasem prawdziwy użytkownik, znajdując się pod wpływem przestępcy, nie będzie świadomy, jak dysponuje swoim mieniem. Bardzo obawiamy się sytuacji, w której przestępcy uzyskają dostęp do narzędzi automatyzujących ataki socjotechniczne, wspieranych przez szeroko rozumiane techniki deepfake. To może być prawdziwy szok dla całej branży. AI to, niestety, potężne narzędzie w rękach przestępców.
Dr inż. Mateusz Krzysztoń: Faktycznie, rozwój AI tworzy nowe możliwości zarówno dla osób rozwijających systemy cyberbezpieczeństwa, jak i dla przestępców. Jednak nie zgodzę się, że jest to sytuacja dla nas nowa – również przed erą AI mieliśmy do czynienia z ciągłym wyścigiem między obiema grupami, które stale udoskonalały swoje narzędzia lub tworzyły nowe w celu uzyskania przewagi. Natomiast faktycznie można zauważyć pewne przyspieszenie tego wyścigu wraz z rozwojem AI. Nawiązując do przykładu Marcina z sobowtórem wkradającym się do zamku, AI pomaga nam w stawieniu czoła atakom, w których przestępca wejdzie w posiadanie standardowych danych uwierzytelniających, jak login i hasło, podszywając się pod użytkownika. Z pomocą przychodzą tu nie tylko standardowe już rozwiązania biometryczne, weryfikujące tożsamość użytkownika na podstawie np. odcisku palca czy skanu tęczówki, ale również biometria behawioralna, która pozwala na weryfikację tożsamości użytkownika na podstawie jego sposobu interakcji ze stroną internetową czy aplikacją mobilną. Z wykorzystaniem metod sztucznej inteligencji potrafimy zbudować wiarygodny wzorzec zachowania użytkownika i na jego podstawie skutecznie weryfikować tożsamość. Takie wzorce zachowania jesteśmy w stanie budować bezpośrednio na urządzeniu użytkownika, dbając w ten sposób o jego prywatność. Jednak, aby chronić nowe urządzenia użytkownika, a nie tylko dotychczas używane, potrzebujemy jego zgody.
Michał Rotnicki: Coraz bardziej rozbudowana legislacja z jednej strony porządkuje zasady przetwarzania informacji w internecie, z drugiej zaś staje się istotnym ograniczeniem dla podmiotów, które powinny dbać o bezpieczeństwo swoich klientów. Podmiot komercyjny lub naukowy, zanim zastosuje nowe techniki profilowania użytkownika, musi najpierw zmierzyć się z ograniczeniami prawnymi narzucanymi przez przepisy dotyczące przetwarzania danych biometrycznych i osobowych. Na horyzoncie pojawia się AI Act. Problem polega na tym, że tam, gdzie walczymy z przestępcami, okazuje się nagle, że mamy związane ręce. A przestępcy? Wręcz przeciwnie. Jeśli tylko uda im się pozyskać dane do uczenia modeli AI, nie będą skrępowani przepisami prawa. Można powiedzieć, że przestępcy, dążąc do maksymalizacji zysku, lekceważą literę prawa i optymalnie wykorzystują możliwości techniczne. Czy to nie wywołuje frustracji?
Dr inż. Marcin Grabarczyk: Frustracja nie jest dobrym doradcą w starciu z przestępcami. Tak jak prawodawstwo reguluje i poniekąd ogranicza nieskrępowane działania techniczne, tak jednocześnie wymaga od podmiotów świadczących usługi elektroniczne budowania coraz bardziej kompleksowych systemów cyberbezpieczeństwa. Sektor finansowy jest tu zazwyczaj prekursorem – wkrótce zaczniemy stosować regulacje DORA oraz NIS2. Nie można po prostu stwierdzić, że czegoś nie da się zrobić. To nasza odpowiedzialność społeczna, aby zapewniać bezpieczeństwo cyberprzestrzeni, tak by świadczenie usług drogą elektroniczną było racjonalnie bezpieczne i wspierało rozwój gospodarczy.
Dr inż. Mateusz Krzysztoń: Istnieje już szereg metod wykrywających sytuacje, w których operacja finansowa nie jest wykonywana przez właściwego użytkownika. Do tych metod należą wspomniana biometria behawioralna, systemy antyfraudowe czy wykrywanie sesji zdalnego pulpitu, narzędzia często wykorzystywanego przez oszustów. Potrafimy też weryfikować bezpieczeństwo urządzenia, w szczególności mobilnego, pod kątem integralności urządzenia czy obecności złośliwego oprogramowania. Co ważne, jesteśmy w stanie stosować te metody nawet przy zachowaniu pełnej prywatności danych użytkownika oraz zgodności z innymi ograniczeniami prawnymi.
Dr inż. Marcin Grabarczyk: Kluczem do sukcesu nie jest jedynie zbudowanie technologii cyberbezpieczeństwa dopasowanej do dzisiejszych ataków i zagrożeń, lecz także patrzenie w kierunku zbliżających się wyzwań. Już dziś trzeba być gotowym na ataki przyszłości. Szczególną siłę widzę w połączeniu potencjału intelektualnego zespołów analityków cyberbezpieczeństwa, naukowców rozwijających techniki sztucznej inteligencji oraz profesjonalnych zespołów programistycznych, które potrafią wdrożyć sztuczną inteligencję do ochrony usług elektronicznych. Ciekawym przykładem jest ewolucja produktów z rodziny BotSense. Od 2018 r. nadążamy za zmieniającym się wektorem ataków, nie tracąc jednocześnie charakteru naszych produktów, czyli lekkości i neutralności wobec chronionych systemów. Można powiedzieć, że niektóre rodzaje ataków związanych z użytkownikami zniknęły z cyberprzestrzeni. Jednocześnie dzięki współpracy z zespołami naukowymi rozwijamy nowe funkcjonalności, np. bezsygnaturowe wykrywanie złośliwych aplikacji mobilnych.
Dr inż. Mateusz Krzysztoń: Czyli można powiedzieć, że rozważając zastosowanie technologii cyberbezpieczeństwa, warto nie tylko uwzględnić ich obecną skuteczność, ale także zastanowić się, jakim potencjałem intelektualnym dysponuje producent i czy jest on gotowy do podjęcia niekończącego się wyścigu z przestępcami?
Dr inż. Marcin Grabarczyk: Zgadza się, ważne jest, aby oceniać zarówno skuteczność technologii, jak i potencjał intelektualny producenta. Tylko w ten sposób możemy zapewnić odpowiednią ochronę w obliczu rosnących zagrożeń.