Raport Specjalny | IT@BANK 2024 | Ostrożna Fascynacja | GenAI w polskich bankach
Jan Bolanowski
W listopadzie mijają dwa lata od momentu uruchomienia ChatGPT, czyli od chwili, gdy generatywna sztuczna inteligencja trafiła pod strzechy. W ciągu pięciu dni nowa technologia zdobyła pierwszy milion użytkowników, a po dwóch miesiącach korzystało z niej już 100 mln osób na całym świecie. Od tego czasu dyskusje o AI nie ustają, a w biznesie pojawia się coraz więcej wdrożeń rozwiązań bazujących na dużych modelach językowych. Trend ten nie ominął polskich banków, choć ze względu na specyfikę sektora tempo implementacji nowej technologii nie należy do najszybszych.
– Większość banków znajduje się obecnie na etapie rozważań lub pierwszych testów rozwiązań typu „Company ChatGPT”, czyli funkcjonalności ChatGPT ograniczonej zgodnie z wewnętrznymi regulacjami banku – ocenia Karol Stępień, CEO 10Clouds Financial Institutions.
– Mimo rosnącej fascynacji sektor bankowy podchodzi do GenAI z dużą ostrożnością. Wynika to nie z braku innowacyjności, lecz z analizy ryzyk. Tempo rozwoju generatywnej sztucznej inteligencji jest bardzo szybkie, a nowe modele pojawiają się tak często, że trudno jest je odpowiednio przetestować oraz ocenić ich długoterminowy wpływ na działalność banku – wyjaśnia Andrzej Gałkowski, Head of AI w KPMG w Polsce. – Pierwsze doświadczenia z GenAI miały również wpływ na obecne podejście banków. Na początku popularyzacji tej technologii oczekiwania były często zbyt wysokie, co prowadziło do rozczarowań. Rzeczywistość nie sprostała obietnicom, a niektóre deklaracje dostawców technologii okazały się zbyt optymistyczne w odniesieniu do faktycznych możliwości modeli.
Nie można jednak zapominać, że rozwiązania AI bazujące na uczeniu maszynowym i deep learning są wykorzystywane w bankowości od wielu lat. Główne zastosowania obejmują zarządzanie ryzykiem, analizę danych, tworzenie modeli predykcyjnych i przewidywanie na ich podstawie prawdopodobnych scenariuszy zdarzeń. Rozwiązania AI są często w taki sposób wbudowane w systemy, że pracownicy i klienci banków nie dostrzegają ich aktywnej obecności. Technologie w zakresie cyberbezpieczeństwa, detekcji fraudów, narzędzia do identyfikacji anomalii, automatyzacja procesów back office, narzędzia wspierające scoring czy chatboty zapewniają istotne wsparcie w codziennej działalności, mimo że funkcjonują zazwyczaj w tle.
Sztuczna inteligencja w polskich bankach
Praktycznych przykładów zastosowania sztucznej inteligencji w polskich bankach jest wiele.
– Jednym z naszych kluczowych rozwiązań jest voicebot InfoNina, który obsługuje rozmowy przychodzące i skutecznie pomaga klientom w codziennych sprawach. InfoNina, podobnie jak nasze chatboty i boty do rozmów wychodzących, bazuje na zaawansowanej architekturze NLU, dzięki której osiąga ok. 95% skuteczności w rozpoznawaniu intencji klientów – a ten wskaźnik wciąż rośnie – zapewnia Łukasz Samborski, pełnomocnik zarządu Alior Banku ds. AI.
Alior Bank rozwija też platformę do bieżącej analizy AI rozmów z klientami, wdraża asystentów AI dla pracowników oraz wprowadza generatywną sztuczną inteligencję do obsługi wewnętrznej bazy wiedzy AliorPedia.
– Obecnie wdrożyliśmy i pracujemy nad szerokim zakresem rozwiązań AI, w tym jako pierwszy bank w Polsce wprowadziliśmy BaseModel.ai, autorską technologię AI opracowaną przez firmę Synerise, która pozwala na przekształcanie surowych danych behawioralnych w uniwersalne profile klientów – mówi Anna Stepanów, odpowiadająca w BNP Paribas Banku Polska za produkt Sztuczna Inteligencja i Analityka.
Dodatkowo wewnętrzny chatbot GENiusz, oparty na dużych modelach językowych i architekturze RAG ma wspierać pracowników w szybkim i precyzyjnym uzyskiwaniu informacji z wewnętrznej bazy wiedzy.
Santander Bank Polska wykorzystuje machine learning do modelowania wielu procesów z obszarów CRM, ryzyka, AML czy fraudów.
PKO Bank Polski wykorzystuje AI m.in. w botach do obsługi klienta w kanale telefonicznym oraz na czacie. Oprócz obszaru botów, rozwiązania klasy AI wykorzystywane są w kierowaniu ofert produktowych do konkretnych grup klientów, ocenie ryzyka kredytowego czy też w obsłudze back office.
– Dobrym przykładem jest także asystent głosowy IKO w aplikacji mobilnej banku, który jest naszpikowany technologią AI. Użytkownik aplikacji może m.in. poprosić asystenta o zrealizowanie przelewu, podsumowanie wydatków w danej kategorii produktowej lub konkretnego sprzedawcy. Potrafi odpowiedzieć na często zadawane pytania przez klientów oraz przekierować na konkretne ekrany aplikacji – podkreśla Paweł Klimiuk, szef Biura Rozwoju Sztucznej Inteligencji w PKO Banku Polskim.
– Sztuczna inteligencja wspomaga nas w analizie reklamacji klientów oraz w podsumowywaniu transkrypcji rozmów telefonicznych i czatów. Systemy te potrafią skutecznie klasyfikować rozmowy, identyfikując ich główne tematy oraz analizując sentyment wypowiedzi. Przykładem takiego rozwiązania jest wdrożony w naszym Centrum Obsługi Klienta system call-steering – zaznacza Piotr Skopiński, dyrektor Departamentu Rozwoju Aplikacji w Banku Millennium.
Nowe kontra stare
Przy wykorzystywaniu sztucznej inteligencji banki stoją dziś przed dylematem, czy klasyczne technologie AI zastępować bądź uzupełniać o nowe rozwiązania GenAI. Muszą też odpowiedzieć sobie na pytanie, w których obszarach takie wdrożenie się opłaci. Obie technologie mają bowiem swoje zalety, ale i ograniczenia.
– Kluczowe jest, aby korzystać z AI tam, gdzie ta technologia jest w stanie przynieść wartość dodaną dla klientek, klientów oraz banku. Możliwości jej zastosowania jest wiele, nie oznacza to jednak, że wszędzie tam, gdzie AI można zaimplementować, rzeczywiście powinno się to zrobić – zauważa Klaudia Skulimowska, analityk Business Intelligence w Santander Banku Polska.
Generatywna sztuczna inteligencja najlepiej sprawdza się tam, gdzie potrzebna jest kreatywność i elastyczność modeli. To obszary interakcji z klientami, ale także generowanie różnego rodzaju treści, synteza informacji z dokumentów czy analiza nieustrukturyzowanych danych, takich jak komentarze. Z kolei klasyczne algorytmy uczenia maszynowego świetnie sprawdzają się w dziedzinach, gdzie dominuje analiza predykcyjna i przetwarzanie dużych wolumenów danych, np. w ocenie ryzyka kredytowego czy optymalizacji procesów operacyjnych. GenAI znajduje również zastosowanie w obszarze wsparcia tworzenia oprogramowania. Automatyczne generowanie fragmentów kodu, wspomaganie pracy zespołów deweloperskich poprzez sugerowanie rozwiązań oraz debugowanie stanowią przykłady praktycznego wykorzystania tej technologii, które w znaczny sposób przyspieszają proces rozwoju oprogramowania i poprawiają jego jakość.
– Najbardziej obiecującym obszarem zastosowania GenAI są powtarzalne, ale nie do końca jednorodne procesy (przy wysokiej unifikacji procesów chętniej sięgniemy po ich robotyzację), w których wymagana jest analiza lub generowanie unikalnych treści w języku naturalnym (np. czytanie i odpowiadanie na e-maile). GenAI to technologia najlepiej radząca sobie z językiem naturalnym. Tak więc generalną wskazówką do zastosowania GenAI będzie intensywne wytwarzanie personalizowanych dokumentów i intensywna interakcja z klientami bądź pracownikami, odbywająca się w języku naturalnym – ocenia Wojciech Bolanowski, Chief AI Officer w VeloBanku.
O ile jednak generatywna sztuczna inteligencja dobrze radzi sobie z rozumieniem języka, to liczby sprawiają jej już znacznie większe problemy. Choć i to zapewne się zmieni, i to raczej wcześniej niż później.
– Aż do połowy 2024 r. GenAI miała problemy z wiarygodnym analizowaniem danych liczbowych, co ograniczało jej potencjał w porównaniu z tradycyjnymi narzędziami opartymi na uczeniu maszynowym. Kluczowym przełomem było wprowadzenie modeli o1 firmy OpenAI we wrześniu 2024 r. Nowe modele znacznie poprawiły jakość analizy danych, co otworzyło drogę do zastosowania GenAI w scenariuszach wymagających wiarygodnych wniosków na podstawie złożonych zestawów danych. Te udoskonalenia przybliżają nas do wiarygodnych agentów AI, zdolnych do niezależnego działania i podejmowania decyzji na podstawie rzeczywistych danych – podkreśla Leszek Ortyński, Lider ds. Data Science i AI w KPMG w Polsce.
Jego zdaniem, w wielu przypadkach najlepszym podejściem może być hybryda, łącząca potencjał generatywnej AI z precyzją klasycznego uczenia maszynowego, co pozwala na maksymalne wykorzystanie możliwości obu tych technologii.
Mimo rosnącej fascynacji sektor bankowy podchodzi do GenAI z dużą ostrożnością.
Wynika to nie z braku innowacyjności, lecz z analizy ryzyk. Tempo rozwoju generatywnej sztucznej inteligencji jest bardzo szybkie, a nowe modele pojawiają się tak często, że trudno jest je odpowiednio przetestować oraz ocenić ich długoterminowy wpływ na działalność banku.
Gra warta ryzyka?
Wprowadzenie modeli generatywnej sztucznej inteligencji w sektorze finansowym wiąże się jednak z szeregiem mniej lub bardziej oczywistych wyzwań i zagrożeń. Jednym z najbardziej niepokojących i szeroko dyskutowanych jest kwestia halucynacji, czyli podawania przez sztuczną inteligencję fałszywych i zmyślonych odpowiedzi. W działalności banków jest to szczególnie duża niedogodność, naraża bowiem na szwank reputację i wiarygodność całej instytucji.
– Generalnie nie mamy jeszcze, jako sektor, wypracowanej optymalnej strategii unikania ryzyka pomyłek GenAI, najlepsze narzędzie, jakim dysponujemy, to intensywne, staranne testowanie modeli przed uruchomieniem produkcyjnym i w czasie ich działania. Do testów coraz częściej wykorzystujemy GenAI w postaci specjalnych agentów testujących – mówi Wojciech Bolanowski.
Treści generowane przez sztuczną inteligencję mogą też cechować się stronniczością. Modele uczą się na podstawie dużych zbiorów danych, które mogą zawierać ukryte uprzedzenia. A to może prowadzić do nierównego traktowania klientów lub błędnych decyzji. Często takie skrzywienia są trudne do wykrycia, ponieważ modele AI działają w sposób, który uniemożliwia proste prześledzenie ich procesu decyzyjnego lub rekomendacji. Nazywa się to problemem czarnej skrzynki i stanowi poważny kłopot w związku z wymogami przejrzystości decyzji w bankowości.
– Dla instytucji finansowych, z racji powszechności usług jakie świadczą, nie bez znaczenia powinny być również skutki społeczne wdrażania na szeroką skalę rozwiązań AI m.in. zmiany na rynku pracy czy wykluczenie cyfrowe – zaznacza Klaudia Skulimowska.
Kolejnym wyzwaniem jest kwestia przechowywania danych. Rozwiązania chmurowe wiążą się z koniecznością ich wyprowadzania poza systemy bankowe, co oznacza ryzyko dla bezpieczeństwa i poufności. Z kolei rozwiązania lokalne niosą za sobą poważne nakłady inwestycyjne. Kwestia kosztów, nie tylko finansowych, to zresztą ponadsektorowe wyzwanie związane z rozwojem GenAI.
– Modele generatywne, zwłaszcza LLM, zużywają ogromne ilości energii, co generuje znaczne koszty i stawia wyzwania środowiskowe. Wielkie centra danych LLM będą potrzebować własnych elektrowni jądrowych, co pokazuje skalę tego wyzwania – mówi Marcin Ledworowski, Data&AI Lead for Financial Services w Accenture.
Nie można też zapomnieć o wyzwaniach związanych z ogromnym tempem rozwoju tej technologii. Dla banków oznacza to mierzenie się z częstymi aktualizacjami narzędzi i wdrażaniem licznych zmian. Ponadto przepisy prawne dopiero zaczynają doganiać rozwój technologii. Europejski AI Act obowiązuje od sierpnia 2024 r. i wciąż nie jest znana praktyka jego implementacji. Ważną kwestią są też prawa autorskie do treści, utworów, obrazów wygenerowanych przez tego typu rozwiązania. Obecnie jeszcze nie ma jednomyślnej opinii w zakresie tego, do kogo należą prawa autorskie do wygenerowanych przez AI treści. Wraz z ustalaniem się praktyki stosowania regulacji europejskich należy spodziewać się wystąpienia ryzyk prawnych i zgodnościowych. Dla banków poruszających się w niezwykle uregulowanym środowisku może to stanowić największy operacyjny problem w korzystaniu z narzędzi sztucznej inteligencji.