Fabryka AI – teraźniejszość czy przyszłość integracji z sektorem finansowym?

AI Governance w praktyce: koszty, compliance i automatyzację nadzoru nad AI przedstawił Tymoteusz Olszewski, Head of AI w Speednet.
Podał przykład możliwej praktycznej przydatności AI np. przy weryfikacji dużej liczby wniosków obcokrajowców przebywających w Polsce o pobyt czasowy. Najwięcej czasu zajmuje ich testowanie oraz analiza – w praktyce trwa to do 60 dni. Taki proces można zautomatyzować przy współudziale sztucznej inteligencji.
Jednak problemem jest nadzór nad danymi i spełnienie wymogów dotyczących bezpieczeństwa. Tymoteusz Olszewski mówił o organizacyjnym przygotowaniu instytucji do wykorzystania AI, w tym o tworzeniu w tym celu odpowiednich zespołów pracowników.
Przedstawił też związane z tym koszty. Duży udział w nich stanowią te związane z testowaniem modeli sztucznej inteligencji. Proces taki trzeba prowadzić więcej niż raz, bo systemy sztucznej inteligencji kłamią, bazują tylko na prawdopodobieństwie poprawności odpowiedzi. Jak stwierdził, można za niższą kwotę postawić kilka w pełni funkcjonalnych prototypów systemów AI, co pozwoli zmodernizować administrację AI w organizacji.
Czytaj także: BankTech 2025: suwerenna AI w bankowości to już dzień dzisiejszy
Blockchain w sektorze bankowym i finansowym
CSDonDLT. Technologia blockchain – (r)Ewolucję rynku kapitałowego omówił Rafał Wawrzyniak, CTO, dyrektor zarządzający ds. IT w KDPW.
KDPW od 2017 roku przeprowadziła szereg wdrożeń związanych z technologią blockchain np. obsługę głosowania na walnych zgromadzeniach z wykorzystaniem aplikacji eVoting. Od początku założeniem KDPW było promowanie blockchain jako technologii, która może zrewolucjonizować czy też wprowadzić ewolucję na rynku kapitałowym.
Rafał Wawrzyniak przypomniał, że UE także dostrzegła potencjał technologii blockchain, wprowadzając regulację, która pozwala na uruchamianie struktur rozproszonych, choć z pewnymi wyjątkami. Regulacja weszła w życie w 2023 roku.
W Polsce w ramach Strategii Cyfryzacji Państwa także zaproponowano rozwój tych technologii.
Ekspert przedstawił także projekt KDPW platformy blockchain zbudowanej jako komplementarna warstwa systemu rozrachunku, pozwalająca na płynne przenoszenie aktywów z tradycyjnych systemów informatycznych do warstwy blockchain i pozwalająca dzięki temu na swobodny obrót tymi aktywami w formie zapisywanych cyfrowo na rachunkach papierów wartościowych.
KDPW przygotowuje się obecnie do pilotażowego wdrożenia tego rozwiązania. Wspomniał też o możliwości wzbogacenia systemu o pieniądz cyfrowy.
AI Governance – czy zarządzanie modelami AI jest potrzebne? Od czego zacząć, by uniknąć konsekwencji niezgodności z AI Act?
Na te pytania odpowiedzieli Krzysztof Goworek z TUATARA i Jakub Sugak z firmy Ingram Micro, dystrybutora rozwiązań IBM.
Krzysztof Goworek przypomniał, że AI Act zaczął wchodzić w życie już w grudniu 2024 r., a w sierpniu 2025 roku wchodzą m.in. przepisy dotyczące modeli AI ogólnego przeznaczenia. Jest to o tyle istotne, bo to z nich banki, ale nie tylko, korzystają w coraz szerszym zakresie.
Z kolei w sierpniu 2026 r. wchodzą w życie regulacje dotyczące tych modeli, z których banki i firmy ubezpieczeniowe będą często korzystały jako z corowego modelu swojego biznesu, czyli z modeli, które są kwalifikowane jako modele wysokiego ryzyka.
Jak stwierdził Krzysztof Goworek, ograniczenia narzucane przez AI Act są rozsądne – chodzi tu o kryteria, które muszą spełniać rozwiązana AI. Wielu menedżerów w bankach uważa, że ich organizacje nie są jeszcze gotowe na bezpiecznie i zgodne z przepisami oraz przewidywalne zastosowanie najnowszych dużych modeli językowych.
Obecnie mówi się, że sztuczna inteligencja, zwłaszcza modele nowej generacji, są odpowiednikiem energii atomowej. Czyli bardzo wydajnym źródłem energii, nowoczesnym, efektywnym, czystym i bezpiecznym, ale wymagającym bardzo sprawnego zarządzania i kontroli. Mówił również o różnych systemach AI, w tym o kategorii systemów zakazanych i wysokiego ryzyka.
Przypomniał, że decyzje podejmowane przy wsparciu AI powinny być np. wyjaśnialne w stopniu, w jakim jest to tylko możliwe. To też kwestia ich odporności, bo chcemy wiedzieć czy danego modelu nie da się oszukać, podając mu nieprawdziwe dane (np. przy wniosku o kredyt). Też – czy są grupy, które w decyzjach modelu są uprzywilejowane, np. ze względu na płeć, wiek itp.
Transparentność to konieczność informowania użytkowników, że mają oni do czynienia z rozwiązaniem wykorzystującym sztuczną inteligencję. To też prywatność, czyli wiedza o tym, gdzie są przetwarzane dane klientów.
Ekspert zwrócił uwagę na potrzebę zarządzania cyklem życia AI. Trzeba też zarządzać ryzykiem i mieć odpowiednią dokumentację dotyczącą wdrożonych projektów. Przedstawił rozwiązanie, które pozwala na monitorowanie wszystkich modeli AI w organizacji. Jest to rozwiązanie wykorzystujące technologię IBM — watsonx.governance.
Jakub Sugak opisał, w jaki sposób można w praktyce przetestować to rozwiązanie w swojej organizacji.
Rok pod znakiem generatywnej sztucznej inteligencji
O trendach w bankowości – nie tylko AI, mówił Marcin Ledworowski, lider praktyki AI w sektorze finansowym w Accenture.
Wśród trendów na najbliższy rok przygotowanych przez Accenture — siedem zawiera sformułowanie „generatywna sztuczna inteligencja”.
Oczywiste jest, że GenAI zmienia relacje z banku z klientem, ale co ważniejsze zmiana tej komunikacji wynika z tego, że oprogramowanie, z którego korzystamy, lepiej go rozumie, w tym rozpoznaje też jego intencje. Robi to lepiej niż poprzednie rozwiązania, ale nie znaczy to, że nie będzie się już korzystać z rozwiązań, które są obecnie używane.
Jego zdaniem ważna jest kolaboracja, czyli nowy rodzaj współpracy ludzi z systemami AI nowej generacji. Obecnie w nowych projektach nie skupia się już tylko na promptowaniu, ale na pracy nad agentami AI i tym jak współpracują oni z ludźmi i systemami oraz dobudowuje się do nich różne interfejsy.
Ważnym aspektem jest budowanie bazy wiedzy. Chodzi o uporządkowanie danych, które są dostarczane do wszystkich takich narzędzi.
Jak stwierdził Marcin Ledworowski, choć banki wdrażają projekty AI, to jak się okazuje, klienci nadal chcą mieć dostęp do oddziałów, chcą być edukowani. Uważają, że sztuczna inteligencja jest potrzebna, ale chcą, żeby była odpowiedzialna.
Nowoczesność to też potencjał do budowy nowych dodatkowych produktów w bankowości. Wspomniał o wdrożeniu przez Accenture w jednym z banków systemu agentowego AI do obsługi reklamacji. Obsługuje on do 2 tys. kategorii. Bank dał mu 10% autonomii, ale i tak ostateczną decyzję podejmuje zawsze człowiek.
Czytaj także: Bielik to nie jedyny polski model językowy
BankTech 2025: debata o usecases praktycznych zastosowań AI w bankowości
Do debaty w tej Sesji wprowadził uczestników Jan Maria Kowalski, dyrektor Biura Rozwoju Sztucznej Inteligencji w Banku Pekao. Podzielił się praktycznymi doświadczeniami związanymi z wykorzystania sztucznej inteligencji w banku. Zwrócił uwagę, że pracownicy już dziś korzystają ze sztucznej inteligencji, choć czasem nawet nie zdają sobie z tego sprawy, czyli ta zmiana już się dokonuje w organizacjach.
Wspomniał o użytkowanym w banku systemie do analizy opinii klientów, czy systemie automatyzacji obsługi dokumentów. AI będzie też analizować i analizuje rozmowy z klientami. Także wspomaga wsparcie procesów rekrutacyjnych i bazę wiedzy, którą można łatwo i szybko przeszukać. Również wspiera cały obszar bezpieczeństwa, np. wykrywanie anomalii w transakcjach oraz fałszywych tożsamości poprzez analizę dokumentów i twarzy. Zwrócił uwagę na potrzebę zadbania o kompetencje pracowników w zakresie AI.
Jak stwierdził, już dziś sztuczna inteligencja dostarcza konkretną wartość biznesową dla Banku Pekao. Rozwiązania wykorzystujące AI przekładają się także na wyższą jakość obsługi klienta. W niektórych procesach czas obsługi klienta został np. skrócony o ponad połowę.
Debatę moderowała Katarzyna Tomczyk-Czykier, dyrektor Pionu Transformacji Cyfrowej i Innowacji w Credit Agricole Bank Polska.
Uczestniczyli w niej: Mariusz Bukowski, dyrektor Departamentu AI i Inżynierii Danych w Nest Banku; Maciej Cetler, CEO, Tameshi; Piotr Grudziński, dyrektor Departamentu Business Intelligence w Ikano Bank; Jan Maria Kowalski, dyrektor Biura Rozwoju Sztucznej Inteligencji w Banku Pekao; Marcin Ledworowski, lider praktyki AI w sektorze finansowym w Accenture i Edyta Tararuj, dyrektorka Biura Rozwoju Produktów, Departament Produktów Klienta Indywidualnego w PKO Banku Polskim.
Katarzyna Tomczyk-Czykier rozpoczynając debatę wspomniała, że Grupa Credit Agricole ma projekt AI prowadzony w całej grupie i po testach małych rozwiązań obecnie są wykorzystywani doradcy placówek bankowych oraz contact center, którzy umawiają spotkania z klientami.
Jest także testowane rozwiązanie „wirtualny asystent”, które buduje kooperację pomiędzy technologią a doradcą. Platforma ta jest przygotowana do implementacji również w innych krajach w których działa Grupa.
Jak stwierdziła Edyta Tararuj, sztuczna inteligencja jest już też wykorzystywana w PKO Banku Polskim i są to wdrożenia w miarę bezpieczne. W bankach wdrożenia AI ograniczają regulacje i bezpieczeństwo. W banku działa 17 bardzo aktywnych botów i korzysta z nich ponad 10 mln klientów. Przeprowadzanych jest 66 mln rozmów z wykorzystaniem AI. Zwraca się uwagę, żeby w rozmowach nie było czegoś takiego, że sztuczna inteligencja coś klientowi doradzi.
Jak podkreśliła, bank działa w środowisku bardzo sensytywnym pod względem reputacji i pod względem wymogów np. KNF, UOKiK. Dlatego wdrożenia AI w banku są tylko wspierające.
PKO Bank Polski może pochwalić się wdrożeniami w obszarze ryzyka — platformą zaawansowanej analityki danych. W minionym roku ponad 30 mld zł kredytów było akceptowanych z użyciem AI. Wykorzystuje się także sztuczną inteligencję przy obsłudze reklamacji. Wspomniała o wsparciu pracowników przez agentów (asystentów) AI.
Mariusz Bukowski mówił o asystencie opracowanym w Nest Banku, który otrzymał międzynarodowe wyróżnienie. To pierwszy agent w bankowości w Polsce, prawdopodobnie też jeden z pierwszych w Europie. Ma funkcjonalność chatbota np. może informować o ofercie, ale też jest możliwość np. zlecania mu przelewów w języku naturalnym. Można też umówić kontakt z doradcą. Z asystentem można kontaktować się zarówno głosowo, jak i tekstowo.
Obecnie jest to również platforma, na której sami pracownicy tworzą chatboty, które wspierają ich codzienne procesy biznesowe. Analizowane są również rozmowy z klientami, a doradcy po wykonanej rozmowie otrzymują przygotowaną przez system notatkę. Jest też w banku system do obsługi reklamacji wykorzystujący AI.
Jak podkreślił Piotr Grudziński, Ikano poszedł w stronę analizy doświadczeń klienta w kontakcie z bankiem. Bank chce tak działać, żeby klient nie musiał się z nim kontaktować, żeby wcześniej uprzedzić jego ew. pytania.
Jak stwierdził, udało się w banku uzyskać wskaźnik NPS (Net Promoter Score / Wskaźnik Rekomendacji Netto) na poziomie 70 punktów (wzrost o 10 punktów), co jest ewenementem w polskiej bankowości.
Zatrudniono AI do wykonywania pracy asystenta, pracy żmudnej, której nikt nie chce wykonywać i sprawdzać, czy kolega zza biurka obok zrobił wszystko dobrze. Wspomniał też o rozwiązaniu, dzięki któremu można w języku naturalnym odpytywać bazy danych.
Maciej Cetler stwierdził, że już większość obecnych projektów prowadzonych przez Tameshi, przechodzi z etapu koncepcyjnego na produkcyjny. Zwrócił uwagę na wykorzystanie przez AI dostępnych danych, np. okazało się, że sztuczna inteligencja gubiła się, jeśli odwoływała się do podpisanych umów, do których było zawartych także wiele aneksów. Dlatego znaczenie ma ujednolicenie danych, np. w którym łączy się wszystkie aneksy dotyczące danej umowy w całość. Dane muszą być ułożone w taki sposób, żeby stanowiły wartość dla konsultantów, jak i dla klientów.
Jeśli chodzi o projekty związane z wykorzystaniem sztucznej inteligencji, to jak podał Marcin Ledworowski w przypadku Accenture jest to VeloBank. Wyszedł on od wykorzystania AI wewnątrz organizacji, ale bardzo szybko przeszedł do wykorzystania takich produktów w kontaktach z klientami.
Ekspert wspomniał też o projekcie OCR wspieranym przez GenAI dla banku BNP Paribas, który generuje dużo lepsze wyniki, jeśli chodzi o rozpoznawanie tekstu w zeskanowanych dokumentach. Jak stwierdził, wiele banków uznało już, że pomimo braku determinizmu i pewnych problemów np. z jakością danych warto przejść do etapu „chcemy więcej”. AI stało się osobistym narzędziem, z którego nikt nie chce już zrezygnować. Wspomniał także o możliwości wykorzystania w naszym kraju dużego naszego modelu językowego — Bielika, bo np. już może on być dostępny u dużych dostawców chmurowych.
Jan Maria Kowalski zwrócił tu jednak uwagę, że właśnie zaletą Bielika jest to, że może on być uruchamiany lokalnie, a wiele organizacji nie chce, żeby dane w jakiś sposób opuszczały ich lokalne systemy IT.
W trakcie dyskusji zwrócono uwagę, że duże modele językowe idą w stronę budowy czegoś w formie marketplace, w których będzie można budować własne, mniejsze wyspecjalizowane modele. Ważna będzie wtedy możliwość porównywania ich jakości.
Także trzeba zmienić procesy, żeby dostosować do tego AI. Chodzi też możliwość wyboru, jeśli klient chce mieć kontakt jednak człowiekiem. Rozmawiano o skalowaniu w organizacjach rozwiązań wykorzystujących AI. Podkreślono potrzebę budowania świadomości dotyczącej sztucznej inteligencji zarówno wśród pracowników, jak i członków zarządów.
Testowanie rozwiązań AI jest trudne, bo jest dużo subiektywności szczególnie w obszarze językowym, komunikacyjnym. Trzeba w tym celu zatrudniać więcej humanistów niż inżynierów. Jak stwierdzono, trzeba również pamiętać, że po to wdraża się rozwiązania AI, żeby ludziom było łatwiej kontaktować się oraz pracować – i dotyczy to zarówno klientów, jak i pracowników.