AI narzędziem ataku i obrony w sektorze finansowym

Rozwiązania AI mogą służyć wsparciem na każdym etapie działań antyfraudowych. W przeciwieństwie do klasycznych schematów korzystających z uczenia maszynowego, sztuczna inteligencja jest w stanie analizować olbrzymie ilości danych i samodzielnie wykrywać podejrzane powiązania, również te na pierwszy rzut oka bardzo odległe, których nie dałoby się wychwycić z użyciem dotychczasowych technologii.
Oznacza to dobudowanie kolejnego poziomu architektury IT instytucji finansowych, bazującego już na AI. Takie podejście staje się niezbędne, biorąc pod uwagę, iż sprawcy również korzystają z nowych schematów cyberataków, przykładem może być coraz częstsze atakowanie dostawców IT instytucji finansowych równolegle z bezpośrednimi incydentami DDoS wymierzonych bezpośrednio w samą instytucję finansową.
W tym samym czasie przestępcy usiłują się dostać do zasobów cyfrowych pracowników banku, na przykład administratorów stron www.
Pozorne zakłócenia w łączności telefonicznej z tymi osobami są w istocie efektem działań hakerskich, jednak by połączyć te fakty ze sobą, przydatne są rozwiązania bazujące na AI.
AI, zagrożenie czy szansa rozwojowa?
W dyskusji nie mogło zabraknąć pytania, czy AI stanowi w większym stopniu szansę, czy może wyzwanie dla cyberbezpieczeństwa sektora finansowego.
Przedstawiciel GFT odwołał się tu do rezultatów ankiety przygotowanej przez firmę programistyczną Splunk, z którego wynika, iż opinie w tej sprawie rozkładają się niemal po równo – 42% respondentów twierdziło, iż sztuczna inteligencja pomoże legalnie działającym firmom, według 45% wesprze raczej przestępców, a 12% było niezdecydowanych.
Bartłomiej Skowronek zwrócił uwagę na pewną bezwładność decyzyjną legalnie działających podmiotów, podyktowaną zarówno otoczeniem regulacyujnym, jak i wewnętrznymi procedurami, do których cyberoszuści nie muszą się stosować. Z kolei przewagą instytucji finansowych jest olbrzymie doświadczenie w zarządzaniu ryzykiem.
– Myślę, że finalnie te proporcje się odwrócą i AI będzie w naszych rękach potężniejszym narzędziem aniżeli w rękach cyberprzestępców – dodał reprezentant GFT.
Cele ataków
Biorąc pod uwagę nowe możliwości, jakie stwarza AI, należy się zastanowić, czy głównym celem ataków nadal pozostaną klienci banków, a może sprawcy zdecydują się infekować bezpośrednio infrastrukturę instytucji finansowych?
Zdaniem reprezentanta GFT będziemy mieć do czynienia z połączonymi incydentami, zwłaszcza, że koszt deepfake będzie sukcesywnie malał. Dlatego zamiast popularnego przed laty nigeryjskiego oszustwa coraz częściej mamy do czynienia z wiarygodnym podszywaniem się pod osoby bliskie lub bankowców, co ma skłonić ofiarę do dokonania przelewu.
Atakom takim towarzyszyć mogą próby masowych połączeń z call center banku, aby uniemożliwić skontaktowanie się klientów z instytucją bankową. Dlatego tak ważne jest, by w optymalny sposób wykorzystać możliwości, jakie stwarza technologia.
Podczas firechatu pojawił się również, istotny w związku z posługiwaniem się AI przez banki, wątek uświadamiania klientów odnośnie wykorzystania AI w celu zapewnienie cyberbezpieczeństwa w bankowości. Wiąże się z tym potrzeba wyjaśnialności modeli, tak, by pracownicy banku mogli przewidzieć, jakie kroki podejmie on w określonej sytuacji.
Może to ustrzec instytucje finansową przed negatywnymi konsekwencjami błędów popełnianych przez AI, np. gdyby algorytm chciał bezpodstawnie zablokować konto klienta, dopatrując się anomalii, która w istocie nie miała miejsca.
