Raport Specjalny | IT@BANK 2024 – Red Hat | Polacy stracili niemal 330 mln zł przez oszustwa finansowe | Czy AI powstrzyma przestępców?

Raport Specjalny | IT@BANK 2024 – Red Hat | Polacy stracili niemal 330 mln zł przez oszustwa finansowe | Czy AI powstrzyma przestępców?
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Narodowy Bank Polski odnotował w roku 2023 ponad 326 tys. oszustw z wykorzystaniem kart płatniczych oraz poleceń przelewu. Łączna wartość tych transakcji wyniosła 327 mln zł. Z roku na rok zwiększa się gama zagrożeń, na jakie narażone są banki i ich klienci, a ofiarami oszustów padają zarówno konsumenci, jak i firmy. W tym tunelu jest jednak światełko – to sztuczna inteligencja, która może pomóc instytucjom finansowym w ograniczaniu ryzyka oraz w walce z przestępcami.

Lubomir Stojek, Red Hat w Polsce
Lubomir Stojek
country manager Red Hat w Polsce

Red Hat Logo

W wielu obszarach banki już teraz szeroko wykorzystują algorytmy AI i uczenia maszynowego. Z ich pomocą automatyzują i usprawniają procesy personalizacji ofert, analizy dokumentów, oceny ryzyka kredytowego czy obsługi klienta z użyciem interaktywnych chatbotów. Z badania KPMG wynika, że nawet 76% instytucji finansowych na świecie zamierza wykorzystać rozwiązania bazujące na AI również do wykrywania oszustw i zapobiegania im.

Ilu przestępców, tyle metod

Form przestępstw, z jakimi mierzą się instytucje finansowe i ich klienci, jest wiele. Kradzież tożsamości i zaciąganie kredytu w imieniu danej osoby, wyłudzanie danych od klientów poprzez phishing, nieautoryzowane użycie kart kredytowych, przejmowanie bankowych rachunków na podstawie wcześniej skradzionych danych czy fałszowanie dokumentów – to tylko niektóre z taktyk, jakie stosują oszuści.

Najczęściej konsumenci i firmy padające ofiarą przywłaszczenia ich środków dowiadują się o kradzieży dopiero po fakcie, gdy pieniądze znikają z ich kont bankowych. Instytucje finansowe nie mają bowiem możliwości weryfikacji każdej pojedynczej transakcji i przelewu środków. Ogromny potencjał w tym obszarze wykazuje jednak generatywna sztuczna inteligencja.

Dzięki zdolności do błyskawicznej analizy ogromnych ilości danych finansowych modele GenAI mogą być wykorzystywane do identyfikowania anomalii w transakcjach płatniczych. Umożliwiają monitoring zachowania klientów w czasie rzeczywistym oraz analizę płatności pod kątem występowania schematów typowych dla danego użytkownika. Rozwiązania GenAI mogą także sprawdzać treść powiadomień i wiadomości wysyłanych w imieniu banku, zanim dotrą one do odbiorcy, a także weryfikować prawdziwość użytych dokumentów tożsamości. To wszystko pozwala wykrywać potencjalnie nieuczciwe działania oraz blokować je, zanim dojdzie do kradzieży.

AI samo się nie wyszkoli

Aby sztuczna inteligencja działała precyzyjnie, musi być zasilana ogromną ilością danych. Modele uczenia maszynowego, stworzone na podstawie historycznych informacji dotyczących oszustw finansowych, mogą z dużą dokładnością przewidywać ponowne ich wystąpienie. Jednak poziom ich precyzji może być mniejszy w obszarze prób prognozowania nowych rodzajów zagrożeń. Dlatego ważne jest, aby zbiór danych, na których trenowany jest algorytm AI, był możliwie największy i najbardziej aktualny.

Jeśli brakuje rzeczywistych informacji dobrym podejściem jest użycie tzw. danych syntetycznych. Są one tworzone za pomocą symulacji komputerowych i pozwalają uzyskać wysokiej jakości zasoby do szkolenia algorytmów AI. Gdy zostaną wykorzystane do uczenia sztucznej inteligencji możliwe jest uruchamianie milionów potencjalnych scenariuszy przestępstw finansowych, a rozwijany system identyfikacji oszustw staje się bardziej precyzyjny i efektywny.

Symulacje dla bankowości w praktyce

W generowaniu danych syntetycznych dla branży finansowej przydatny jest tzw. model generatywnych sieci przeciwstawnych (Generative Adversarial Networks, GAN). Wykorzystuje on dwie sieci neuronowe: jedna wytwarza dane bazujące na konkretnych wzorcach, a druga porównuje je z danymi rzeczywistymi, szukając zafałszowań. Przypomina to grę w kotka i myszkę, w której jedna sieć próbuje przekonać drugą, że tworzone przez nią zasoby są autentyczne. Wygenerowane w ten sposób przez model AI dane są na bieżąco wykorzystywane do jego trenowania i ciągłego doskonalenia.

Drugi sposób tworzenia danych to model bazujący na agentach (Agent Based Model, ABM). W jego ramach uruchamia się wykorzystującą konkretne reguły symulację relacji między określonymi profilami użytkowników. Powstające w trakcie tej interakcji dane są następnie analizowane, a na ich podstawie wyciągane są wnioski i przewidywania na temat konkretnych grup oraz społeczności. Model ABM można wykorzystać np. do symulowania rozmowy między klientem a pracownikiem banku i w ten sposób wytrenować AI w zakresie schematów prawidłowego zachowania oraz odstępstw od normy.

Jeśli modele AI to tylko własne

Badanie agencji McKinsey wskazuje, że decydując się na wdrożenie sztucznej inteligencji ponad połowa firm na świecie (53%) korzysta z gotowych, ogólnodostępnych modeli językowych lub narzędzi, nie modyfikując ich w żadnym stopniu. Takie podejście wybiera aż 63% firm z branży prawniczej oraz co drugie przedsiębiorstwo z sektora finansów. To poważny błąd, który może prowadzić do niedokładnych, a w najgorszym razie fałszywych wyników.

Dlatego tak istotne jest, żeby oprócz wykorzystania danych prywatnych lub syntetycznych firmy z branży finansowej tworzyły również własne modele AI, spełniające wymagania transparentności oraz zgodności z przepisami, które ich dotyczą. W Red Hat nazywamy to podejście „sztuczną inteligencją specyficzną dla domeny”. Gdy bazująca na AI aplikacja jest szkolona na prywatnych, ukierunkowanych danych oraz jest dostosowywana do standardów i praktyk danego sektora przemysłu, ma większą zdolność do dostarczania naprawdę unikalnych i zróżnicowanych, a przede wszystkim opartych na faktach prognoz i rekomendacji.

Rozwiązaniem, które może pomóc firmom w płynniejszym opracowywaniu, testowaniu i uruchamianiu generatywnych modeli AI (GenAI) na potrzeby korporacyjnych aplikacji jest system Red Hat Enterprise Linux (RHEL) AI. Platforma ta czyni sztuczną inteligencję bardziej dostępną, wydajniejszą i elastyczną, oferując przedsiębiorstwom wsparcie w różnych obszarach, w tym w łatwiejszym dostosowywaniu modeli GenAI do wymagań biznesowych. Dzięki temu eksperci z różnych dziedzin, a także programiści mogą w przygotowywanych modelach wykorzystać swoje unikalne umiejętności i wiedzę, nawet bez rozległych umiejętności w zakresie nauki o danych.

Sztuczna inteligencja to przyszłość, ale nie bez barier

Raport KPMG wskazuje, że w ciągu zaledwie trzech miesięcy 2023 r. znacząco wzrósł odsetek podmiotów z branży finansowej, które wdrożyły rozwiązania GenAI – z 5% w marcu do 49% w czerwcu. Prawie co piąta firma zgłosiła również, że już czerpie korzyści z tej technologii. Podobne tendencje wzrostowe można zauważyć w działach finansowych przedsiębiorstw działających w innych sektorach gospodarki. Z analiz agencji badawczej Gartner wynika, że w 2024 r. piony finansowe w niemal trzech na pięć firm na świecie (58%) już wykorzystują sztuczną inteligencję w swoich działaniach. W ub.r. deklarowało to znacznie mniej badanych, bo tylko 37% przedsiębiorstw.

Tak dynamiczny rozwój nie znaczy jednak, że firmy nie dostrzegają wyzwań związanych z GenAI. Badani przez Gartnera zwracają uwagę na niską dostępność przydatnych danych i lukę kompetencyjną. Z kolei prawie siedmiu na dziesięciu respondentów (69%) w raporcie KPMG jako najważniejszy problem wskazuje ochronę prywatności informacji, a 46% transparentność danych. Zastosowanie danych syntetycznych w podmiotach finansowych stanowi odpowiedź na te wyzwania, ponieważ dostarcza modelom AI wysokiej jakości zanonimizowane informacje, na których mogą się szkolić. Analitycy Gartnera szacują, że do końca 2024 r. 60% wszystkich danych treningowych dla sztucznej inteligencji będzie wygenerowanych w sposób syntetyczny.

Zasady wdrażania AIWykorzystanie nawet najlepszych danych może jednak pójść na marne, jeśli rozwiązania bazujące na sztucznej inteligencji będą wprowadzane w firmie wyłącznie jako reakcja na trend technologiczny, a nie część przemyślanej strategii przedsiębiorstwa. Sposób wykorzystania AI w projektach powinien być zaplanowany i zawierać wymierne wskaźniki sukcesu. Wdrażanie sztucznej inteligencji tylko dlatego, że „taką mamy modę”, bez jasnego kierunku, może prowadzić do marnowania zasobów i tworzenia chaosu organizacyjnego.

Opracowując strategię AI, warto prezentować umiarkowany optymizm w odniesieniu do przewidywanych rezultatów. Sztuczna inteligencja może usprawnić wiele procesów, ale nie rozwiąże każdego problemu. Tym bardziej bez odpowiedniego przygotowania do jej wdrożenia. Ważne jest sprawdzenie, czy sprzęt, dane, personel i procedury w firmie są przygotowane, zaplanowanie szkoleń, stworzenie mapy potrzeb, na które AI ma odpowiedzieć. Bez doświadczonego i wykwalifikowanego zespołu, jasnej strategii działania oraz odpowiedniej infrastruktury technologicznej nawet najbardziej zaawansowane rozwiązanie AI będzie przynosiło straty finansowe. Nie wspominając o szkodach wizerunkowych dla instytucji finansowej w sytuacji, gdy źle zaprojektowane narzędzie zostanie oddane do użytku konsumentom.


Źródła danych:

  • Narodowy Bank Polski: „Informacja o transakcjach oszukańczych dokonywanych przy użyciu bezgotówkowych instrumentów płatniczych”.
  • Raport KPMG: „The generative AI advantage in financial services”.
  • Raport McKinsey: „The state of AI in early 2024: Gen AI adoption spikes and starts to generate value”.
  • Gartner: „Gartner Survey Shows 58% of Finance Functions Using AI in 2024”.
  • Gartner: „Gartner Identifies Top Trends Shaping the Future of Data Science and Machine Learning”.
Źródło: Miesięcznik Finansowy BANK