AI wzmacnia systemy bezpieczeństwa banków

AI wzmacnia systemy bezpieczeństwa banków
Przemysław Kulesza,
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
O tym jak przestępcy wykorzystują GenAI do ataków na banki i ich klientów rozmawialiśmy z Przemysławem Kuleszą, Head of Global Security Practice/Senior Cybersecurity Manager w GFT, który był jednym z uczestników Forum Bezpieczeństwa Banków.

Jak przyznaje Przemysław Kulesza najnowsze generacje sztucznej inteligencji pozwalają na tworzenie obrazu i skanowanie głosu w czasie niemalże rzeczywistym co oznacza, że osoba atakowana może zobaczyć na ekranie swojego urządzenia nie tylko własnego wnuczka, ale także swojego przełożonego i być przekonanym, że rozmawia z prawdziwą osobą.

„Jest już wiele przykładów decydentów w firmach finansowych, którzy akceptowali płatności właśnie po rozmowie ze swoim prezesem czy dyrektorem finansowym gdzie rzeczywiście obraz i głos były generowane przez modele sztucznej inteligencji”- powiedział nam ekspert GFT.

AI po złej i dobrej stronie

Na nasze pytanie jak się bronić przez AI, która znajduje się po „złej stronie” Przemysław Kulesza stwierdził, że sztuczna inteligencja może także działać w obronie banków i ich klientów.

Jednak jak zaznaczył: „AI to jest pociąg, który bardzo szybko jedzie,  do którego  możemy wsiąść albo nie wsiąść. Jeśli nie wsiądziemy i będziemy tylko postrzegać GenAI jako zagrożenie to wtedy ten pociąg pojedzie bez nas – będziemy cały czas malkontentami mówiącymi o zagrożeniach. Jeśli wsiądziemy do tego pociągu to możemy zastanowić się jak użyć modeli AI do wzmocnienia systemów bezpieczeństwa w kontekście bankowości” – mówił gość studia Bank.pl.

W tym kontekście wskazał m.in. na nowoczesne metody uwierzytelniania transakcji, także na rozwiązania z użyciem algorytmów, które usuwają „szum informacyjny” czyli zmniejszają liczbę alertów.

Na naszą uwagę, że za atakami hakerskimi z wykorzystaniem AI stoją czasem wrogo nastawione państwa, które dysponują ogromnymi środkami finansowymi przyznał, że również przestępcy posiadają dostęp do dużych mocy obliczeniowych, do zasobów energii po to żeby zasilać algorytmy.

Stwierdził, że musimy przygotować się na czasy, w których ze względu na generatywną sztuczną inteligencję różne organy państwa będą miały pełne ręce roboty żeby odróżnić prawdziwe przekazy od fałszywych.

Legislacja nie nadąża za rozwojem technologii

Na naszą wzmiankę, że pojawiają pomysły stworzenia stanowiska komisarza unijnego, który będzie odpowiadał za cyberbezpieczeństwo w krajach Unii Europejskiej Przemysław Kulesza uznał to za krok we właściwym kierunku z zastrzeżeniem, że nie będzie tak dużej jak do tej pory inercji pomiędzy wprowadzaniem nowoczesnych technologii, a pojawianiem się adekwatnych przepisów.

Jego zdaniem stanowisko takiego komisarza powinno być „zwinne”, bo jak zaznaczył, przepisy uchwalone rok czy dwa po czasie, będą martwe w związku z tempem rozwijania się nowych technologii.

Mówiąc o tym co firma GFT i banki w Polsce robią w dziedzinie cyberbezpieczeństwa wskazał na testowanie chatbotów i ich relacji z klientami.

Zachowania chatbotów są obserwowane pod kątem tego czy nie mają halucynacji, bada się również zadowolenie klientów z tego typu kontaktów.

Nasz rozmówca zwrócił uwagę na problem jakim może być podatność botów na przekroczenie ograniczeń nałożonych na nie przez bank. Chodzi o to czy w przypadku ataku zewnętrznego bot nie zaczyna proponować klientowi szkodliwych dla niego działań, np. ryzykowanych inwestycji.

Źródło: BANK.pl