Forum Bezpieczeństwa Banków 2026: AI tworzy nowy rozdział cyberprzestępczości

Forum Bezpieczeństwa Banków 2026: AI tworzy nowy rozdział cyberprzestępczości
Rozwój sztucznej inteligencji (AI) w ostatnich latach znacząco wpłynął na ewolucję cyberprzestępczości, w szczególności w obszarze oszustw opartych na socjotechnice. Ich istota – manipulacja emocjami, zaufaniem i zachowaniem człowieka – pozostaje niezmienna. Zmienia się natomiast skuteczność, skala oraz poziom realizmu ataków. AI działa tu jako „akcelerator”, który przekształca znane schematy w znacznie bardziej zaawansowane i trudniejsze do wykrycia operacje.

Jednym z kluczowych efektów zastosowania AI jest automatyzacja procesów, które wcześniej wymagały pracy człowieka. Generowanie wiadomości phishingowych, prowadzenie rozmów czy testowanie skuteczności komunikatów może dziś odbywać się w sposób zautomatyzowany.

Modele językowe umożliwiają tworzenie przekonujących wiadomości w wielu językach, dopasowanych stylistycznie do odbiorcy. Co istotne, automatyzacja nie oznacza już spadku jakości – wręcz przeciwnie, pozwala łączyć skalę z wysokim poziomem personalizacji.

Dobrym przykładem jest fala masowych oszustw inwestycyjnych, w których przestępcy wykorzystują AI do generowania całych „ekosystemów” – od reklam, przez strony internetowe, po komunikację z ofiarą. Znane są przykłady krajów, w których regulatorzy musieli zamykać tysiące fałszywych stron rocznie, co pokazuje skalę uprzemysłowienia tego typu działań.

Pozytywna weryfikacja „twarzą w twarz”

AI umożliwia analizę dużych zbiorów danych – w tym informacji dostępnych publicznie – w celu budowania profilu potencjalnej ofiary. Na tej podstawie tworzone są komunikaty, które odnoszą się do konkretnych faktów z życia odbiorcy. Efektem jest rozwój spear phishingu (ramka 1) na niespotykaną wcześniej skalę.

Ataki nie są już „masowe i ogólne”, lecz masowe i jednocześnie spersonalizowane. W praktyce oznacza to np. wiadomości od „przełożonego”, które zawierają odniesienia do realnych projektów czy sytuacji w firmie. AI pozwala generować takie komunikaty dynamicznie, w odpowiedzi na zachowanie ofiary.

Najbardziej przełomową zmianą jest rozwój technologii deepfake (ramka 2) oraz syntezy głosu. Umożliwiają one tworzenie realistycznych nagrań audio i wideo, które mogą być wykorzystane w atakach socjotechnicznych.

Jednym z najbardziej spektakularnych przypadków był incydent, w którym pracownik działu finansowego uczestniczył w wideokonferencji z rzekomym zarządem firmy. W rzeczywistości wszyscy uczestnicy byli wygenerowani przez AI. W wyniku rozmowy wykonano przelew opiewający na dziesiątki milionów dolarów. Przypadek ten pokazuje, że nawet weryfikacja „twarzą w twarz” przestaje być wystarczającym zabezpieczeniem.

Podobne techniki wykorzystywane są w atakach typu vishing. Przestępcy potrafią sklonować głos członka rodziny i wykorzystać go w rozmowie telefonicznej, symulując sytuację zagrożenia (np. porwanie). Połączenie realizmu głosu z presją emocjonalną znacząco zwiększa skuteczność takich ataków.

Jedną z najniebezpieczniejszych rzeczy jest to, że AI umożliwia prowadzenie ataków w wielu kanałach jednocześnie – e-mail, telefon, komunikatory, a nawet wideokonferencje. Co istotne, wszystkie elementy są ze sobą spójne. W klasycznym scenariuszu Business Email Compromise ofiara otrzymywała wiadomość e-mail z poleceniem wykonania przelewu. Obecnie scenariusz może obejmować:

  • e-mail inicjujący kontakt,
  • rozmowę telefoniczną z wykorzystaniem klonowanego głosu,
  • spotkanie online z wykorzystaniem deepfake video.

Taka wielowarstwowa narracja znacząco utrudnia wykrycie oszustwa, ponieważ każdy element potwierdza wiarygodność pozostałych.

„Inteligentne” scenariusze manipulacji

Dotychczas największą „wadą” tradycyjnych oszustw internetowych były błędy językowe lub niespójności, które mogły wzbudzać podejrzenia. AI eliminuje te słabości. Wiadomości są poprawne językowo, dopasowane kulturowo i logicznie spójne. Co więcej, mogą być generowane w czasie rzeczywistym w odpowiedzi na pytania ofiary. Chatboty oparte na AI potrafią prowadzić rozmowę w sposób naturalny, rozwiewając wątpliwości i wzmacniając wiarygodność ataku.

Sztuczna inteligncja szczególnie dobrze sprawdza się w atakach wymagających długotrwałej interakcji, takich jak oszustwa „romance scam” (ramka 3) czy podszywanie się pod znajomych. Przestępcy mogą tworzyć realistyczne profile, generować zdjęcia i prowadzić rozmowy przez wiele tygodni.

Dzięki AI cały proces może być częściowo zautomatyzowany – system analizuje reakcje ofiary i dostosowuje komunikację. Powstają w ten sposób „inteligentne” scenariusze manipulacji, przypominające zaawansowane procesy sprzedażowe.

Dla banków i instytucji finansowych rozwój sztucznej inteligencji w obszarze cyberprzestępczości oznacza istotne wyzwanie. Ataki stają się trudniejsze do wykrycia, bardziej przekonujące i coraz częściej omijają tradycyjne mechanizmy bezpieczeństwa.

Kluczowe znaczenie zyskują:

  • analiza behawioralna użytkowników,
  • wykrywanie anomalii w czasie rzeczywistym,
  • wykorzystanie AI po stronie obrony.

Równocześnie rośnie znaczenie edukacji klientów. Nawet najbardziej zaawansowane systemy nie wyeliminują ryzyka, jeśli użytkownik zostanie skutecznie zmanipulowany.

Nie ewolucja, lecz jakościowy skok

Sztuczna inteligencja nie zmienia fundamentów socjotechniki, ale radykalnie zwiększa jej skuteczność. Automatyzacja, personalizacja, realistyczne treści oraz wielokanałowość sprawiają, że współczesne oszustwa przypominają zaawansowane operacje komunikacyjne.

Pojawiające się coraz częściej przykłady zaawansowanych ataków – od deepfake’owych wideokonferencji, przez klonowanie głosu, po przemysłowe skale scamów inwestycyjnych – pokazują, że mamy do czynienia nie z ewolucją, lecz jakościowym skokiem.

W konsekwencji walka z cyberprzestępczością wymaga dziś nie tylko technologii, ale również zmiany podejścia – traktowania bezpieczeństwa jako elementu doświadczenia użytkownika oraz stałego podnoszenia świadomości w zakresie nowych zagrożeń.

Forum Bezpieczeństwa Banków 2026

W obliczu rosnącej skali i zaawansowania zagrożeń opartych na sztucznej inteligencji szczególnego znaczenia nabiera współpraca sektora finansowego oraz wymiana wiedzy i doświadczeń.

Tematy te będą szeroko omawiane i dyskutowane podczas Forum Bezpieczeństwa Banków 2026, które odbędzie się 6 maja 2026 r. w hotelu Novotel Warszawa Centrum.

Wydarzenie zgromadzi ekspertów z obszaru cyberbezpieczeństwa, bankowości oraz nowych technologii, którzy wspólnie będą analizować najnowsze trendy w cyberprzestępczości, w tym rolę AI w atakach socjotechnicznych, a także skuteczne strategie obrony.

To ważna przestrzeń do dyskusji o tym, jak budować odporność organizacji i zwiększać świadomość użytkowników w dynamicznie zmieniającym się środowisku zagrożeń.

Ramka 1

Spear phishing

Atak adresowany do konkretnych osób. Aby się powiódł, przestępcy starają się zdobyć jak najwięcej informacji o swoich ofiarach. Służbowy adres e-mail nietrudno ustalić, ponieważ adresy danego podmiotu mają zazwyczaj określoną strukturę, więc znając format e-maila i mając dostęp do publicznych informacji o imionach i nazwiskach pracowników, z łatwością można taki adres odtworzyć. Oprócz adresów do kontaktu przestępcy szukają też w sieci np. nazwisk i imion przełożonych, współpracowników, dokładnie analizują miejsce ofiary w strukturze urzędu, w tym obowiązki, jakie wiążą się z zajmowanym stanowiskiem. Taka wiedza pozwala im tworzyć bardziej wiarygodne wiadomości.

Przykładem ataku spear phishingowego może być:

  • e-mail od przełożonego, w którym oszust prosi o pilny przelew na nowe konto bankowe;
  • e-mail z działu technicznego z informacją o potrzebie aktualizacji hasła i kliknięcia w przesłany link;
  • zaproszenie na szkolenie z działu HR z załącznikiem zainfekowanym złośliwym oprogramowaniem;
  • wiadomość od współpracownika z prośbą o przesłanie poufnych informacji.

Źródło: kompetencjecyfrowe.gov.pl

Ramka 2

Deepfakes

Zlepek słów „deep learning” i „fake” – obrazy, filmy lub pliki audio, które zostały zmontowane lub wygenerowane za pomocą sztucznej inteligencji, narzędzi opartych na AI lub oprogramowania do edycji audio i wideo. Mogą przedstawiać prawdziwe lub fikcyjne osoby i są uważane za formę mediów syntetycznych, czyli mediów zazwyczaj tworzonych przez systemy sztucznej inteligencji poprzez łączenie różnych elementów multimedialnych w nowy artefakt medialny.

Źródło: Wikipedia.org

Ramka 3

Romance scam

Oszustwo matrymonialne; oszust najczęściej kradnie czyjąś tożsamość, tworzy fałszywe konto i umieszcza na nim cudze zdjęcia – przyciąga potencjalną ofiarę, rozkochuje ją w sobie, a następnie dopuszcza się przestępstwa. Może udawać żołnierza wysłanego na misję lub lekarkę pomagającą w odległym zakątku świata. Chętnie nawiązuje kontakt na czacie, telefoniczny czy mailowy, ale unika spotkania online z włączoną kamerą.

Źródło: Ministerstwo Cyfryzacji

Źródło: BANK.pl