Agent AI w banku: wydajny pracownik czy kosztowny celebryta?

Agent AI w banku: wydajny pracownik czy kosztowny celebryta?
Zdjęcia: CPBiI/Karol Zapała
Agentowa sztuczna inteligencja jest postrzegana jako kolejny etap transformacji cyfrowej gospodarki, w tym w szczególności rynku finansowego, ukierunkowana na optymalne wykorzystanie inteligentnych algorytmów zarówno w procesach back office, jak i w komunikacji z klientem. Myśląc o odpowiedzialnym wdrażaniu agentowej AI, nie wystarczy brać pod uwagę benefity płynące z wdrożenia tych rozwiązań. Należy mieć na myśli również szeroko rozumiane aspekty cyberbezpieczeństwa, compliance i optymalizacji kosztowej, by agenci AI byli faktycznie efektywnym pracownikiem, a nie kosztownym i mało wydajnym gadżetem.

Wszystkie te wątki były przedmiotem debaty eksperckiej, zorganizowanej przez redakcję „Miesięcznika Finansowego BANK”. Uczestnicy rozmowy, przedstawiciele banków, Związku Banków Polskich oraz partnera technologicznego, konsekwentnie odchodzili od wątku kolejnego kanału kontaktu z klientem i kierowali debatę w stronę tego, co dla sektora jest najważniejsze: procesów, ryzyka, ciągłości działania, kontroli jakości, odpowiedzialności za decyzje oraz bezpieczeństwa danych.

Dyskusję moderował Paweł Minkina, redaktor naczelny „Miesięcznika Finansowego BANK”, a uczestniczyli w niej: Justyna Benkowska, dyrektor Departamentu Walidacji Modeli Nest Banku; Maciej Jeruzal, dyrektor Biura Automatyzacji Procesów w Departamencie Transformacji Cyfrowej Nest Banku; Włodzimierz Kiciński, wiceprezes Związku Banków Polskich; Artur Rudziński, dyrektor Działu Ryzyka i Ciągłości Działania IT Alior Banku; Dariusz Rumpel, Expert Lead – Data Science w ING Banku Śląskim; Bartosz Sokoliński, dyrektor ds. rozwiązań AI, Departamentu Informatyki i Telekomunikacji w Banku Ochrony Środowiska oraz Joanna Wcisło, Chief Operations Officer w Santander Banku Polska. Partnera debaty, firmę ServiceNow, w dyskusji reprezentowali Adolfo Tunon, Head of Banking GTM, EMEA, Krzysztof Wilczyński, Senior Advisory Solution Consultant i Paweł Walczak, Senior Enterprise Account Executive.

Druga rewolucja: droga w jedną stronę

Wstęp do dyskusji nadał Adolfo Tunon w swej wyczerpującej, trwającej przeszło pół godziny prezentacji. Do pytania Pawła Minkiny, jak GenAI wspólnie z rozwiązaniami agentowymi mogą zmienić oblicze bankowości i gdzie zmiany te mogą być najsilniej odczuwalne, odniósł się Artur Rudziński. Ukazał on agentową AI w długiej perspektywie – nie jako nową funkcję, lecz jako kolejny przełom porównywalny z wejściem bankowości internetowej i mobilnej. – Wydaje mi się, że jesteśmy obecnie na początku drugiej rewolucji w bankowości – mówił. Ta pierwsza zaczęła się dekady temu, dziś zarówno klienci, jak i instytucje finansowe są w praktyce uzależnieni od kanałów cyfrowych. Podobnie może być w przypadku agentów AI – jeśli wejdą w masowe procesy obsługi, banki i klienci przyzwyczają się do nowego standardu, a wtedy ani organizacja nie będzie chciała wracać do wolniejszych ścieżek, ani rynek pracy nie dostarczy tylu ekspertów, by zasypać powstałą lukę. Dlatego wdrożenia agentowe to w wielu obszarach droga w jedną stronę, której kosztem jest rosnąca zależność od technologii, ale której zyskiem może być utrzymanie efektywności operacyjnej w świecie coraz większej złożoności procesów i rosnącej presji kosztowej.

Ta perspektywa niejako ukierunkowała dalszą rozmowę. Zamiast dywagacji nad możliwościami sztucznej inteligencji, uczestnicy zaczęli konsekwentnie pytać: gdzie w banku agentive AI ma sens, jak nim zarządzać, jak go kontrolować oraz co powinno pozostać w gestii człowieka.

Nie ma takiego obszaru: apetyt kontra priorytety

Joanna Wcisło od razu rozszerzyła obraz. Jej zdaniem agentowa AI nie jest domeną jednego departamentu – i nie będzie. Agenci mogą sprawdzić się w takich segmentach jak IT, cyberbezpieczeństwo, analizy danych, księgowość, operacje, sprzedaż, oddziały oraz kanały elektroniczne. Jednocześnie przedstawicielka Santander Banku Polska podkreślała kwestię, w dyskusjach o AI często pomijaną: sektor nie startuje z próżni. Banki od lat digitalizują i automatyzują procesy, korzystając z API, narzędzi low-code i rozwiązań workflow. Agentowa AI nakłada się więc na organizm już zautomatyzowany – a to oznacza, że sukces zależy nie od samego modelu, tylko od tego, czy potrafimy go wpiąć w proces i utrzymać w reżimie jakości.

Joanna Wcisło mówiła również o presji na wdrażanie AI, którą dziś widać w wielu organizacjach, często większej niż zdolność do sensownego ustalenia kolejności wdrożeń. W praktyce oznacza to konieczność policzenia skali, kosztów i realnych korzyści, zanim bank zacznie uruchamiać agentów wszędzie. To właśnie na styku entuzjazmu i bankowego pragmatyzmu pojawia się wątek governance: kto ma odpowiadać za agentów, jak ma wyglądać współpraca między IT, biznesem, ryzykiem i compliance oraz w jaki sposób mierzyć jakość odpowiedzi i działań automatu.

Zdjęcia: CPBiI/Karol Zapała

Czym agent różni się od asystenta

W pierwszej rundzie wypowiedzi dało się wyczuć ostrożność: bankowcy akcentowali, że dziś AI często jest jeszcze wsparciem, a nie autonomicznym wykonawcą procesu. Maciej Jeruzal zwracał uwagę, że rozwiązania oparte na AI pojawiają się w wielu punktach organizacji, ale ich rola bywa bardzo konkretna: przyspieszyć, uporządkować, przygotować materiał, który człowiek zatwierdzi. Przywołał on model wdrożenia, w którym automat zwiększa produktywność, ale odpowiedzialność pozostaje po stronie człowieka.

Perspektywę, co się zmienia jakościowo, domknął Krzysztof Wilczyński z ServiceNow, opisując, jak wyglądają oczekiwania rynku po fali POC, warsztatów i hackathonów. W jego ujęciu widać przesunięcie: banki i dostawcy przestają interesować się rozwiązaniami, które tylko podpowiadają. Coraz bardziej chodzi o to, by agent realnie wykonał pracę, a nie jedynie ją ułatwił. To przesunięcie jest kluczowe, bo natychmiast uruchamia temat ryzyka i odpowiedzialności. Jeśli agent pracuje, to musi istnieć system kontroli, eskalacji i rozliczalności. Innymi słowy: agent w banku zaczyna być traktowany jak element procesu operacyjnego, a nie jak funkcja w aplikacji.

Stabilizacja nie trwa tygodni

Joanna Wcisło przywołała bardzo praktyczny argument, który trafia w sedno bankowego podejścia do wdrożeń. O ile w prezentacjach technologia bywa pokazywana jako gotowa i niezawodna, o tyle w realnej organizacji kluczowe jest pytanie, czy agent mówi i robi to, co powinien: zawsze, w każdej sytuacji, także w skrajnych przypadkach. Przywoływała też przykład projektów związanych z analizą dokumentów, gdzie teoretyczny zysk czasowy (np. skrócenie analizy) nie kończy pracy wdrożeniowej. Raporty generowane przez AI trzeba dowieźć procesowo: osadzić w workflow, wytrenować, przetestować, sprawdzić jakość i dopiero wtedy wpuścić na produkcję. To wymaga ludzi – nie tylko do obsługi, ale do testowania, weryfikacji i utrzymania.

Ten wątek w subtelny sposób podważa popularną narrację, w której sztuczna inteligencja ma natychmiast zastąpić etaty. Paneliści raczej pokazywali, że agentowa AI przenosi ciężar pracy: z wykonywania powtarzalnych czynności na kontrolę jakości, monitoring oraz projektowanie procesu.

Nowe kompetencje zamiast prostych redukcji

Mówiła o tym wprost Justyna Benkowska, odwołując się do perspektywy walidacji modeli. Wskazywała, że AI otwiera bankom nowe możliwości pracy na danych tekstowych, głosowych czy wizerunkowych, ale jednocześnie rośnie wysiłek potrzebny, by zapewnić jakość i spójność. Podkreślała, że w banku nie można pozwolić na sytuację, w której automat działa raz tak, raz inaczej, akcentując wagę monitoringu i testów.

W innym miejscu debaty przedstawicielka Nest Banku dotknęła zagadnienia, które staje się dziś jednym z najbardziej newralgicznych: wyjaśnialności decyzji podejmowanych automatycznie. Jeżeli człowiek podejmuje decyzję, bank wie, kto odpowiada i dlaczego. Przy sztucznej inteligencji trzeba zadbać o to, aby instytucja potrafiła odpowiedzieć, dlaczego model zrobił to w taki sposób. Te wypowiedzi układały się w spójną diagnozę: agentowa AI może redukować liczbę etapów w niektórych procesach, ale równocześnie tworzy nowe obszary odpowiedzialności i nowe role – od walidacji po kontrolę jakości i ryzyka. I to właśnie te niewidoczne elementy często decydują, czy wdrożenie będzie bezpieczne oraz trwałe.

Maciej Jeruzal dopowiadał, że banki wciąż mają wpływ na zakres automatyzacji – i nie muszą uruchamiać AI wszędzie tylko dlatego, że jest dostępna, dodając kluczową deklarację. – AI ma nas wspierać, a nie zastępować. W tym ujęciu agentowa AI jest narzędziem, które pomaga, przyspiesza, automatyzuje, ale nie znosi odpowiedzialności człowieka i nie eliminuje potrzeby kontroli – zaznaczył.

To ważne, bo w debacie przewijał się też wątek społeczny: rosnąca automatyzacja będzie zmieniać rynek pracy. Paneliści nie budowali jednak prostych scenariuszy zwolnień. Raczej wskazywali, że realna zmiana polega na przesuwaniu kompetencji: mniej czasu na żmudne czynności, więcej na nadzór, analizę wyjątków, ocenę jakości oraz rozwój procesów.

Shadow AI: pracownicy już używają – pytanie brzmi, czy bank kontroluje

Artur Rudziński zwrócił uwagę na aspekt, który w bankowości powraca cyklicznie, ale przy GenAI nabiera nowego znaczenia: ryzyko dostawcy i uzależnienie od infrastruktury. W jego ocenie duże modele językowe w wielu przypadkach są realizowane w publicznych chmurach obliczeniowych, co automatycznie uruchamia temat vendor lock-in oraz koncentracji dostawców w jednym regionie świata. Nawet jeśli część zastosowań będzie realizowana lokalnie, to skala, szybkość rozwoju i dostępność zasobów sprawiają, że banki muszą odpowiedzieć na pytanie: jak zabezpieczyć ciągłość działania, gdy kluczowy element technologiczny jest zależny od zewnętrznego ekosystemu.

Ten wątek nie podważał roli cloudu. Przeciwnie: chodziło o to, by w przypadku agentowej AI ryzyko dostawcy nie zostało potraktowane jako detal. W banku to jest element architektury bezpieczeństwa i strategii odporności – zwłaszcza gdy agentowa warstwa zaczyna dotykać procesów masowych.

Bartosz Sokoliński wprowadził do rozmowy temat, który w wielu instytucjach jest równocześnie i powszechny, i trudny do policzenia: shadow AI, czyli korzystanie przez pracowników z narzędzi poza oficjalnym ekosystemem banku. Zwracał uwagę, że nie wszystko da się zmierzyć, bo część użycia dzieje się po cichu. Banki próbują to ograniczać procedurami, governance i edukacją – ale sam fakt istnienia shadow AI pokazuje, że potrzeba narzędzi jest realna. W tym miejscu padło zdanie, które streszcza bankową perspektywę w jednym wersie: nie wszystkie dane możemy wrzucać gdzie chcemy i karmić konkurencję technologiczną.

Paneliści byli zgodni: problemem nie jest to, czy pracownicy chcą używać AI. Oni już to robią, bo chcą pracować szybciej i łatwiej. Problemem jest to, czy bank potrafi dostarczyć bezpieczne, kontrolowane środowisko, które zaspokoi tę potrzebę bez ryzyka wycieku danych oraz naruszenia tajemnicy bankowej. Shadow AI w praktyce staje się więc argumentem za tym, by instytucja budowała własne, nadzorowane ścieżki użycia, zamiast liczyć na zakazy, które w złożonej organizacji zawsze są trudne do egzekucji.

Human-in-the-loop i czerwona linia: gdzie agent nie może zostać sam

Wątkiem, który konsekwentnie wracał w debacie, była konieczność wyznaczenia granicy automatyzacji. Krzysztof Wilczyński nazwał ją wprost czerwoną linią w kontekście human-in-the-loop: gdzie dokładnie ma wejść człowiek i dlaczego. Sztuka polega na tym, aby przerw było jak najmniej, ale aby były one umieszczone tam, gdzie wymagane jest to z uwagi na kontekst ryzyka, reputacji, jakości danych lub zgodności.

Artur Rudziński domykał tę perspektywę od strony procesu zarządzania ryzykiem. W jego ujęciu agentowa AI wymaga ciągłego monitoringu nie tylko ryzyka technologicznego, ale też operacyjnego, prawnego, reputacyjnego i związanego z jakością danych. Innymi słowy: agent nie jest raz wdrożony i gotowy. On jest stale oceniany. A to oznacza, że człowiek – jako kontroler i decydent – nie znika, tylko zmienia rolę.

Wirtualny oddział i powrót żywego człowieka jako bezpiecznika

Jednym z ciekawszych zwrotów dyskusji był wątek przyszłości kanałów obsługi: co się stanie, gdy agentowa warstwa stanie się frontem banku. Włodzimierz Kiciński przywołał przykład z Korei, gdzie uczestnicy wizyty widzieli wirtualny oddział działający na froncie, a w tle – tradycyjny, dla tych, co sobie nie radzili z obsługiwaniem urządzeń i komunikacją.

Ten obraz uruchomił bardzo ludzki wątek: nawet przy wysokiej cyfryzacji klienci często chcą mieć poczucie, że w razie problemu mogą pójść do człowieka. Artur Rudziński przywołał doświadczenia z projektu sprzed lat, kiedy tworzono rozwiązania wirtualne i zdalne interakcje wideo. W jego opowieści technologia działała, ale rzeczywistość klienta okazała się bardziej złożona. Ludzie potrzebują mieć przynajmniej tę świadomość, że w razie czego można się zwrócić o pomoc do żywego człowieka. Nie powinniśmy więc mówić o śmierci klasycznych placówek, a raczej o tym, że kanały cyfrowe i agentowe mogą stać się podstawą, ale fizyczna dostępność człowieka pozostaje ważnym elementem zaufania – nawet wtedy, gdy korzysta z niej mniejsza część klientów.

Zdjęcia: CPBiI/Karol Zapała

Agent klienta zadzwoni do banku: nowa dynamika relacji

Paweł Minkina postawił scenariusz, który w prosty sposób pokazuje, że agentowa AI nie jest wyłącznie narzędziem banku. Zapytał, czy banki nie obawiają się sytuacji, w której do instytucji zacznie dzwonić agent klienta: przejdzie procedury, wybierze najlepszą ofertę, w odpowiednim momencie zrefinansuje kredyt i przeniesie relację do konkurencji. To pytanie było zarazem techniczne i strategiczne. Techniczne – bo dotyczy autoryzacji, ochrony danych i bezpieczeństwa komunikacji. Strategiczne – bo dotyczy nowego modelu konkurencji, w którym klient jest wspierany przez własne narzędzie negocjacyjne.

W odpowiedziach wybrzmiała ostrożność i świadomość, że to już się dzieje, choć skala i forma mogą być na razie ograniczone. Dariusz Rumpel zwracał uwagę, że wszystko rozbija się o to, jakie dane i jaką tożsamość klient będzie gotów przekazać agentowi – bo jeśli klient oddaje agentowi wrażliwe elementy autoryzacji, to otwiera nowy wektor ryzyka, ale i nowy standard wygody. Debata nie rozstrzygała tego sporu, lecz pokazywała, że banki muszą przygotować się na świat, w którym po drugiej stronie coraz częściej stoi automat, a nie człowiek.

Cyberbezpieczeństwo: AI jako narzędzie obrony i pole nowego ryzyka

W rozmowie powracał też temat cyberbezpieczeństwa – nie jako osobny moduł, lecz jako obszar, w którym AI może stać się koniecznością. Artur Rudziński opisywał, że kluczowym elementem jest korelacja zdarzeń: w realnym środowisku pojawiają się setki tysięcy sygnałów dziennie i człowiek nie jest w stanie ich przerobić ręcznie. AI może pomóc w wykrywaniu powiązań, rozpoznawaniu wzorców, a także w korzystaniu z zewnętrznych baz wiedzy o incydentach.

Wiceprezes ZBP akcentował jednocześnie, że nawet jeśli systemy analizują zdarzenia w czasie rzeczywistym, to po stronie banku musi stać wysoko wykwalifikowany specjalista, który podejmie decyzję o kontrakcji. W praktyce problem nie polega tylko na wykryciu incydentu, ale na rozpoznaniu czy mamy do czynienia z próbą, rekonesansem, czy atakiem właściwym. To znów wzmacnia wniosek, który przewijał się przez całą debatę: agentowa AI nie znosi roli człowieka, tylko ją przesuwa – z wykonywania powtarzalnych czynności na rozumienie kontekstu, podejmowanie decyzji i ponoszenie odpowiedzialności.

Od prezentacji do produkcji: sensowna automatyzacja, nie hype

Z debaty wyłania się obraz transformacji, która jest równocześnie szybka i trudna do udomowienia. Szybka – bo narzędzia i modele zmieniają się w cyklach krótkich, a rynek oczekuje efektów. Trudna – bo bank musi utrzymać jakość, zgodność, bezpieczeństwo i możliwość wytłumaczenia decyzji, a to wymaga czasu, testów i governance. Wypowiedzi uczestników układały się w dość spójną mapę wdrożeń: zaczynać od procesów, które są masowe, powtarzalne i mierzalne; wprowadzać agentów jako wsparcie, które przejmuje brudną robotę, ale pozostawia człowiekowi finalną odpowiedzialność; budować system kontroli jakości i monitoringu; oraz świadomie wyznaczać czerwoną linię human-in-the-loop. Równolegle trzeba rozwiązać temat shadow AI, bo pracownicy już chcą używać narzędzi, a bank musi zdecydować, czy woli mieć to zjawisko pod kontrolą, czy poza nią.

Jeżeli więc agentowa AI ma być w banku efektywnym pracownikiem, a nie celebrytą, to – jak wynikało z głosów panelistów – nie wystarczy jej uruchomić. Trzeba ją wpiąć w proces, utrzymać w reżimie jakości i ryzyka oraz przygotować organizację na to, że technologia będzie działała w świecie, w którym po drugiej stronie klient również coraz częściej będzie wspierany przez własnego agenta. To właśnie ta symetria – agent po stronie banku i agent po stronie klienta – może okazać się najważniejszym drugim dnem nadchodzącej rewolucji.

Źródło: Miesięcznik Finansowy BANK