Raport Specjalny | Bankowość Lokalna – NASK-PIB | AI: od naukowej ciekawości do zagrożenia

Raport Specjalny | Bankowość Lokalna – NASK-PIB | AI: od naukowej ciekawości do zagrożenia
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Futurystyczna przyszłość nadeszła. Narzędzia AI zagościły w firmach i domach. Nie jesteśmy jedynymi, przed którymi sztuczna inteligencja otworzyła nowe możliwości. Cyberprzestępcy równie szybko przyswajają nowe technologie i dostosowują swoje działania do rozwijających się funkcji AI. Wykorzystują sieci neuronowe, uczenie maszynowe, przetwarzanie języka naturalnego (NLP), a wszystko to podszyte socjotechnikami oraz manipulacją dźwiękiem i obrazem.

Michał Rotnicki
ekspert ds. transferu technologii

Piotr Bisialski
kierownik Zespołu NASK Incident Response Team

Aleksandra Żurek
starszy specjalista ds. wsparcia sprzedaży i transferu technologii

Bankowość od lat wdraża technologie oparte na generatywnej sztucznej inteligencji, aby poprawić jakość obsługi klientów. Teraz intensyfikuje swoje działania, aby odpierać wzmożone ataki. Przepisem na zwycięstwo jest świadomość, czyli zrozumienie wyzwań, z jakimi się mierzymy. W zależności od celów, uwaga cyberprzestępców jest skierowana na trzy technologie. Zacznijmy od algorytmów uczenia maszynowego, które są wykorzystywane do analizy dużych zbiorów danych, identyfikowania wzorców i podejmowania decyzji. Co to oznacza w praktyce? Cyberprzestępcy automatyzują swoje ataki, a to ułatwia ich przeprowadzenie. Stają się one dużo szybsze, bardziej skoordynowane i trudniejsze do wykrycia. Dodatkowo analizują zachowanie klientów bankowości, dzięki czemu są w stanie przeprowadzać bardziej spersonalizowane i realistycznie wyglądające kampanie phishingowe.

Numer dwa to sieci neuronowe, czyli matematyczne modele inspirowane budową ludzkiego mózgu, wykorzystywane do rozpoznawania obrazów, dźwięków i tekstu. Cyberprzestępcy tworzą dzięki nim deepfake – realistyczne, ale fałszywe przekazy manipulujące opinią społeczną z wykorzystaniem wizerunku zaufanych osób. Prowadzi to do dezinformacji, uszczerbku na reputacji, a nawet prób szantażu.

Trzecia technologia to przetwarzanie języka naturalnego (ang. Natural ­Language Processing) – pozwala komputerom zrozumieć i interpretować język ludzki. W bankowości NLP jest wykorzystywane do automatyzacji obsługi klienta czy analizy dokumentów. Cyberprzestępcy odkryli potencjał tej technologii, stosując ją do tworzenia przekonujących wiadomości phishingowych oraz automatycznego generowania fałszywych treści. Te pierwsze zawierają perfekcyjnie sformułowane prośby o udostępnienie wrażliwych danych, co zwiększa ryzyko, że klienci dadzą się na nie nabrać. Drugie, fake newsy, wykorzystuje się choćby do wywoływania paniki na rynku.

AI dyskredytuje lub uwiarygadnia

Celami klonowania głosu lub tworzenia fałszywego filmu jest zdyskredytowanie osób przedstawionych lub organizacji, które one reprezentują; albo odwrotnie – wzbudzenie zaufania i nadanie wiarygodności przekazowi, np. ofercie, ryzykownego instrumentu finansowego. Treści takie wywołują skrajne emocje, dlatego z łatwością rozprzestrzeniają się w sieci. Potrafią błyskawicznie zdobywać uwagę odbiorców. Problem polega na tym, że wiele osób nie weryfikuje autentyczności takich materiałów. Skutek? Poruszeni i zmanipulowani odbiorcy mogą nieświadomie formułować szkodliwe opinie i postawy. Niejednokrotnie tragiczne w skutkach dla nich samych. Obecnie technologia ta dostępna jest w modelu usługowym, po opłaceniu niewielkiego abonamentu. Umożliwia generowanie materiału głosowego na podstawie krótkich fragmentów nagrań w jakości powszechnie stosowanej. Dzięki temu szybko i tanio powstaje przekaz multimedialny niebezpiecznie zbliżony do oryginału.

Phishingowy hiperrealizm

AI umożliwia sprawne tworzenie spersonalizowanych wiadomości phishingowych, które są przekonujące ze względu na osobisty charakter i doskonałe dopasowanie do odbiorcy. A na zastosowanie silnego wabika pozwala analiza danych o użytkowniku z wykorzystaniem sztucznej inteligencji. Większość narzędzi wyposaża się w mechanizmy mające zapobiegać generowaniu fałszywych treści. Algorytmy odmawiają ich tworzenia z powodów etycznych, jednak granica między dopuszczalnym a potencjalnie szkodliwym bywa cienka. Fałszywe wiadomości są często tak subtelnie napisane, że trudno odróżnić je od standardowych komunikatów marketingowych. Przykładowo, popularny model LLM (Large Language Model) bez wahania wygenerował treść zachęcającą do rejestracji w fikcyjnym „rządowym programie dopłat do energii elektrycznej”. Wystarczyło niewielkie doprecyzowanie w poleceniu, aby model nakierował użytkowników na stronę dużego operatora logistycznego, wymagając od nich logowania się do banku. AI nie tylko nie zakwestionowała tego żądania, ale samodzielnie uzasadniła, że w Polsce logowanie do banku często służy do potwierdzania tożsamości przy korzystaniu z usług publicznych, co nadało całej wiadomości dodatkową wiarygodność.

Istnieje nawet czarny rynek dla cyberprzestępców, gdzie sprzedawane narzędzia nie mają żadnych etycznych ograniczeń. Dodajmy do tego algorytmy NLP, które umożliwiają tworzenie wiadomości gramatycznie i stylistycznie poprawnych. W pełni zbliżonych do wskazanego stylu wypowiedzi. Minęły czasy bijących po oczach literówek.

Automatyzacja ataków brute-force

Cyberprzestępcy wykorzystują sztuczną inteligencję do identyfikowania słabych punktów w zabezpieczeniach systemów informatycznych. Mozolna praca jest oddana w ręce AI, a oni mogą skupić całe swoje wysiłki na najbardziej podatnych na ataki miejscach. Przy okazji technologia pomaga przyspieszyć proces łamania haseł poprzez automatyczne testowanie różnych kombinacji znaków, a to sprawia, że atakujący szybciej uzyska dostęp do chronionych zasobów. Radą dla bankowości jest stałe analizowanie swoich systemów i szukanie luk w zabezpieczeniach, zanim znajdą je przestępcy.

AI a profilowanie ofiar

Definiowanie grup odbiorców to koncepcja znana w biznesie, której celem jest precyzyjne dotarcie z przekazem do odpowiednich osób. Metoda przyciągnęła uwagę cyberprzestępców. Zamiast tworzyć profile klientów, zaczęli oni tworzyć profile potencjalnych ofiar, wykorzystując przy tym publicznie dostępne dane. Dzięki automatyzacji analizy informacji z mediów społecznościowych, cyberprzestępcy są w stanie błyskawicznie określić zainteresowania, przekonania, słabości i zachowania swoich celów. To umożliwia precyzyjne kierowanie ataków na najbardziej podatne grupy i drastycznie zwiększa skuteczność ich działań.

Kolejnym etapem jest tworzenie skutecznych scenariuszy ataków socjotechnicznych – tych bazujących na emocjach. Obserwujemy obecnie wzmożoną falę ataków socjotechnicznych. Z jednej strony przestępcy wciąż doskonalą swoje metody, ale z drugiej odpowiadamy lepszymi zabezpieczeniami technicznymi. Po co trudzić się łamaniem zaawansowanych systemów, skoro można wykorzystać emocje ofiary? Ta dobrowolnie odda dostępy do konta bankowego przy odpowiednim scenariuszu i metodzie – najczęściej ataku z wykorzystaniem zdalnego dostępu do pulpitu użytkownika.

AI robi grunt pod ataki

Sztuczna inteligencja odgrywa rolę w analizie danych technicznych, monitorując przetwarzanie i przesyłanie informacji w internecie. Jej zadaniem jest wykrywanie nietypowych wzorców działania, zarówno w systemach informatycznych, jak i zachowaniu użytkowników. To zawęża pole analizy i szybciej wykrywa potencjalne incydenty cyberbezpieczeństwa. Przestępcy wykorzystują AI do analizowania wzorców ruchu sieciowego, aby skuteczniej maskować swoje działania. Potrafią identyfikować progi czułości systemów bezpieczeństwa, a w bardziej wyrafinowanych scenariuszach – stopniowo zmieniać poziom czułości modeli AI odpowiedzialnych za cyberbezpieczeństwo. Działają poprzez systematyczne karmienie tych modeli sztucznie wygenerowanymi danymi, które znajdują się na granicy progów alarmowych. W ten sposób mogą stopniowo znieczulać systemy na swoje działania, przygotowując grunt pod przyszłe i znacznie większe ataki.

Tradycyjne rozwiązania zawodzą?

Cyberprzestępcy wykorzystują technologie, aby znaleźć nowe luki w systemach. Sprawia to, że najczęściej są o krok przed nami. Aby temu przeciwdziałać, potrzebna jest stała aktualizacja narzędzi ochrony o nowo rozwijane technologie, a także współpraca z zespołem ekspertów, którzy potrafią myśleć nieszablonowo i przewidywać kolejne ruchy przeciwników. W NASK tworzymy rozwiązania do wykrywania ataków zdalnych, jednocześnie pracujemy nad innowacyjnymi metodami biometrii behawioralnej. Tworzymy skomplikowane systemy – trudne do złamania nawet przez cyberprzestępców. Dla nas cyberbezpieczeństwo to nie tylko technologia, a przede wszystkim ludzie. Inwestycja w wiedzę, doświadczenie i umiejętność przewidywania. Tylko dzięki temu będziemy w stanie skutecznie chronić nasze zasoby przed coraz bardziej wyrafinowanymi atakami, niezależnie od technologicznego postępu.

Źródło: Miesięcznik Finansowy BANK