Jak sektor bankowy może odpowiedzieć na nową generację oszustw, związaną z coraz częstszym wykorzystywaniem AI i nowoczesnych technologii

Jak sektor bankowy może odpowiedzieć na nową generację oszustw, związaną z coraz częstszym wykorzystywaniem AI i nowoczesnych technologii
Prezentowane opinie (zebrane w kwietniu 2026 r.) stanowią odzwierciedlenie prywatnych poglądów i nie wyrażają stanowiska żadnej z instytucji, z którymi ich autorzy są związani zawodowo.

Waldemar Szczepański
Zastępca Dyrektora Biura Zarządzania IT Banku Pocztowego

Oszustwo na wnuczka ma kilkanaście lat. Ale wyobraźmy sobie, że telefon od wnuka brzmi dokładnie jak on, bo głos został sklonowany przez sztuczną inteligencję na podstawie klipu z social mediów. Albo że dzwoni infolinia banku, numer zgadza się co do cyfry, a po drugiej stronie prowadzi rozmowę nie człowiek, lecz model językowy, który w czasie rzeczywistym reaguje na każdą odpowiedź i wyłudza kod BLIK lub hasło SMS. To nie scenariusz przyszłości. To metody, które działają już dziś.

Nowa generacja oszustw nie atakuje systemów bankowych. Atakuje decyzje ludzi. Dlatego odpowiedź sektora musi wykraczać poza zabezpieczenia techniczne i sięgać do momentu, w którym klient podnosi słuchawkę.

Banki mają konkretne narzędzia. Weryfikacja zwrotna w aplikacji mobilnej pozwala klientowi sprawdzić w sekundę, czy połączenie faktycznie pochodzi z banku, eliminując spoofing numerów infolinii. Systemy behawioralne wykrywają anomalie transakcyjne, takie jak nieplanowana wypłata gotówki przez osobę starszą, i dają chwilę na refleksję, zanim pieniądze zmienią właściciela. Współpraca z operatorami telekomunikacyjnymi umożliwia flagowanie sklonowanych numerów, zanim dotrą do odbiorcy.

Żadna z tych odpowiedzi nie zadziała bez jednego: klient musi wiedzieć, że bank nigdy, w żadnych okolicznościach, nie prosi o przelew ani kod przez telefon. To nie jest punkt regulaminu. To powinien być fundament relacji.

Karol Tajduś
Dyrektor Departamentu Transformacji AI, Bank Pekao S.A.

Oszuści korzystają dziś z tych samych technologii co banki, czyli generatywnej sztucznej inteligencji, deepfake’ów głosowych i wideo, syntetycznych tożsamości. To wyścig zbrojeń, w którym sektor bankowy musi być o krok do przodu.

Odpowiedź na tę nową generację zagrożeń wymaga działania na trzech poziomach. Po pierwsze, walczymy AI z AI — wykorzystujemy modele uczenia maszynowego do wykrywania anomalii w transakcjach, analizy wzorców behawioralnych klientów i identyfikacji prób socjotechnicznych w czasie rzeczywistym. Klasyczne reguły antyfraudowe nie wystarczą, gdy oszust potrafi wygenerować przekonujący deepfake głosu osoby autoryzującej przelew.

Po drugie, kluczowa jest współpraca sektorowa. Żaden bank nie wygra z fraudem w pojedynkę. Potrzebujemy wymiany informacji o zagrożeniach między instytucjami – szybciej i w bardziej ustrukturyzowany sposób, z zachowaniem wymogów prywatności.

Po trzecie, edukacja – zarówno klientów, jak i pracowników. Najsłabszym ogniwem pozostaje człowiek. Inwestujemy w to, żeby nasi pracownicy potrafili rozpoznawać nowe scenariusze ataków, a klienci rozumieli, że bank nigdy nie poprosi ich o podanie danych w sposób, który powinien wzbudzić podejrzliwość.

Paradoksalnie sztuczna inteligencja jest dziś jednocześnie największym zagrożeniem i najskuteczniejszą bronią w walce z oszustwami. Bank, który nie inwestuje w AI w obszarze bezpieczeństwa, przegra ten wyścig.

Michał Pyszyński
Dyrektor Departamentu Bezpieczeństwa, Bank BPS

Rosnące wykorzystanie sztucznej inteligencji przez przestępców wymusza na bankach zmianę paradygmatu bezpieczeństwa. Nowa generacja oszustw, oparta m.in. na technologii deepfake, automatyzacji oraz personalizacji ataków, wymaga wdrażania coraz bardziej zaawansowanych narzędzi analitycznych. Kluczową rolę odgrywają zaawansowane systemy antyfraudowe wspierane przez ML i AI. Systemy te analizują nie tylko dane transakcyjne, ale również zachowania klientów. Profilowanie wzorców zachowań (sposób logowania, tempo działania, charakterystyka wykonywanych operacji) w połączeniu z analizą danych urządzeń (lokalizacja, adres IP, fingerprint) pozwala ocenić, czy dana operacja jest faktycznie realizowana przez klienta oraz wykryć anomalie wskazujące na presję lub manipulację.

Niezbędne jest również wdrażanie rozwiązań sektorowych umożliwiających wymianę informacji pomiędzy instytucjami finansowymi. Dotyczy  to w szczególności danych o rachunkach słupów, mułach finansowych, kampaniach scamowych i blacklistach. Istotnym wyzwaniem pozostaje edukacja klientów, zwiększająca odporność na oszustwa przy wykorzystaniu socjotechniki. Fundamentem skutecznej ochrony jest także ścisła współpraca z organami ścigania oraz intensywna wymiana wiedzy i doświadczeń pomiędzy instytucjami finansowymi.

Tak skoordynowane działania wsparte najnowszą technologią ML czy AI, pozwolą skutecznie ograniczyć skalę nowych zagrożeń.

Michał Mazur
Ekspert ds. cyberbezpieczeństwa, Erste Bank Polska

Oszuści wykorzystujący nowe zdobycze technologii przy tworzeniu scenariuszy przestępczych to na pewno wyzwanie dla całego sektora finansowego. Warto zwrócić uwagę, że już teraz metody przestępców często łączą w sobie różne modus operandi, które wzajemnie się przenikają i mogą być przez to trudniejsze do detekcji. Aby zapewnić najwyższy poziom ochrony dla klientów, banki powinny dalej rozwijać systemy oraz narzędzia bezpieczeństwa – te niewidoczne i te, z których klienci mogą świadomie korzystać. Istotne jest także maksymalne uszczelnienie procesów identyfikacji klientów, bo tutaj np. sztuczna inteligencja może być wykorzystywana nieodpowiednio, szczególnie w procesach zdalnych. Ważne jest postawienie na narzędzia pozwalające wykrywać wszelkie anomalie w zachowaniach klientów podczas zakupów czy realizacji transakcji w bankowości internetowej. Chodzi też o to, aby systemy bezpieczeństwa reagowały w czasie rzeczywistym.

Banki już teraz mocno ze sobą współpracują przy zwalczaniu cyberprzestępczości i fraudów. Wymiana wiedzy, najlepszych praktyk, wspólne kampanie edukacyjne, to tylko przykłady płaszczyzn tej współpracy. Warto do niej zapraszać organizacje spoza sektora, np. operatorów telekomunikacyjnych. Nie można też zapominać o ciągłej i efektywnej edukacji klientów banków. Nawet najlepsze systemy bezpieczeństwa nie pomogą, jeśli klienci nie będą świadomi ryzyk i nie będą potrafili rozpoznawać przestępczych scenariuszy. Walka z cyberprzestępcami cały czas będzie dużym wyzwaniem dla całego sektora finansowego.

Adrian Sejdak
Zastępca dyrektora generalnego Raiffeisen Bank International AG (Spółka Akcyjna) Oddział w Polsce

Sztuczna inteligencja i nowe technologie istotnie zmieniają charakter zagrożeń w sektorze bankowym, prowadząc do powstania bardziej zaawansowanych i trudniejszych do wykrycia form przestępstw, w tym oszustw. Przy odpowiedzi na ten trend kluczową rolę odgrywa nie tylko technologia, ale również odpowiednie ramy regulacyjne i nadzorcze, które porządkują sposób jej bezpiecznego wykorzystania.

Banki powinny integrować zaawansowaną analitykę danych i modele uczenia maszynowego z wymogami regulacyjnymi, takimi jak zarządzanie ryzykiem modeli, transparentność użytych algorytmów oraz ochrona danych. Istotnym punktem odniesienia staje się unijny AI Act, który wprowadza podejście oparte na ocenie ryzyka systemów sztucznej inteligencji, a także regulacja DORA, wzmacniająca odporność operacyjną i cyberbezpieczeństwo instytucji finansowych.

Dzisiaj konieczna jest ścisła współpraca banków z regulatorami i innymi uczestnikami rynku, nie tylko finansowego. Wymiana informacji o nowych schematach oszustw, spójne standardy raportowania oraz edukacja klientów i pracowników tworzą fundament skutecznej i trwałej ochrony sektora bankowego przed nową generacją zagrożeń opartych na sztucznej inteligencji.

Źródło: Miesięcznik Finansowy BANK