Bankowość i Finanse | Debata redakcyjna – CRIF | Frontem do klienta w dobie AI
Uczestnicy debaty:
Łukasz Bezulski
Departament Wiedzy o Kliencie, Bank Millennium SA
Marek Chlebicki
dyrektor Strategii i Transformacji IT i Data, Grupa Raiffeisen Bank International AG;
Jędrzej Fryc
kierownik Zespołu Optymalizacji Cyfrowej, Bank Pekao SA;
Paweł Gula
prezes zarządu, Centrum Rozwoju Usług Zrzeszeniowych Sp. z o.o.
Piotr Łukasiński
Master Data Scientist, Santander Bank Polska SA
Krzysztof Pałuszyński
wicedyrektor Departamentu Omnichannel, mBank SA
Mariusz Piturecki
dyrektor Działu Digitalizacji i Rozwoju AI, Alior Bank SA.
Paweł Minkina
redaktor naczelny „Miesięcznik Finansowy BANK”
Przedstawiciele partnera technologicznego debaty:
Kamil Gosławski
Senior Key Account Manager, CRIF;
Bolesław Pilecki
CRIF
Dla tradycyjnych banków, poczynając od dużych instytucji funkcjonujących w globalnych grupach, aż po lokalne banki spółdzielcze, nadążanie za tak szybko zmieniającymi się potrzebami i oczekiwaniami klienta stanowi wyzwanie priorytetowe, na równi z rozbudową technologii cyfrowych i modernizacją architektury banku z uwzględnieniem wymogów bezpieczeństwa. Ta ostatnia stanowi zresztą nieodzowny warunek budowania klientocentrycznej rzeczywistości, pozwalając w pełni wykorzystać jakże bogaty potencjał danych o kliencie, przechowywanych na bankowych serwerach. Szczególną rolę odgrywają tu rozwiązania IT bazujące na sztucznej inteligencji i uczeniu maszynowym.
W jakim stopniu polska bankowość, która od lat jest postrzegana jako lider digitalizacji w skali globalnej, buduje strategie klientocentryczne z użyciem tych właśnie narzędzi? Czy doświadczenia branży e-commerce mogą być wzorcem do naśladowania dla sektora bankowego, a kiedy wchodzi w grę unikalna specyfika rynku finansowego, wymuszająca określone działania choćby poprzez regulacje? Jak zwiększyć efektywność procesów decyzyjnych w bankach, posługując się rozwiązaniami z zakresu sztucznej inteligencji i zaawansowanej analityki danych? Na te i wiele innych pytań odpowiedzi szukano podczas debaty eksperckiej „Miesięcznika Finansowego BANK”, zorganizowanej wspólnie z firmą CRIF 29 maja br. Moderatorem dyskusji był Paweł Minkina, redaktor naczelny miesięcznika.
Konsumenci chcą gotowych propozycji, nie wyboru z szerokiej oferty
Klientocentryczność jest obecna w strategiach banków już od pewnego czasu. – Cały czas dążymy do postawienia klienta na piedestale – nadmienił Mariusz Piturecki. W obecnych uwarunkowaniach, wraz z rozwojem nowych modeli sprzedażowych i wzrostem oczekiwań klientów, troska o zaspokojenie tychże nabiera jednak całkiem nowego wymiaru. Marek Chlebicki podkreślił, iż wielu klientów na co dzień utożsamia bank z jego aplikacją mobilną, nie odczuwając potrzeby odwiedzania innych kanałów, w szczególności stacjonarnych. Na rosnącą popularność kanału mobilnego zwracał też uwagę Krzysztof Pałuszyński, wskazując równocześnie na stale silną grupę osób wiernych klasycznym serwisom transakcyjnym na stronach www. W tym kontekście, jak stwierdził przedstawiciel mBanku, szczególnego znaczenia nabiera omnikanałowość, konieczne jest wszak śledzenie rozmaitych interakcji klientów z bankiem, liczonych nawet w miliardach przypadków miesięcznie. To zaś stanowiło jedno z poważniejszych wyzwań dla sektora jeszcze przed dynamicznym rozkwitem bankowości mobilnej, kiedy tych interakcji było o rząd wielkości mniej.
Wspomniał o tym Łukasz Bezulski, sugerując, iż game changerem mogą się okazać nowoczesne technologie, pozwalające na automatyzację procesów zarządzania danymi. Już dziś widać znaczącą poprawę skuteczności dzięki wykorzystaniu botów w komunikacji z klientem czy zaawansowanych algorytmów bazujących na uczeniu maszynowym podczas tworzenia nowych produktów, zauważył reprezentant Banku Millennium. – Dzisiaj technologie big data dają nieporównywalne możliwości przetwarzania danych w czasie rzeczywistym niż kilka czy kilkanaście lat temu. To jest wstęp do mówienia o sztucznej inteligencji, której siła zależy od jakości dostarczonych danych – potwierdził Krzysztof Pałuszyński. Taki właśnie system, bazujący na rozwiązaniach stosowanych w kanałach e-commerce i agregujący dane pozyskiwane ze wszystkich kanałów zdalnych, został wdrożony w mBanku.
Piotr Łukasiński wskazywał z kolei na olbrzymią rolę właściwej segmentacji użytkowników, ponieważ doświadczenie klienta z pokolenia silver z reguły będzie całkiem odmienne aniżeli obytego z mobilnymi nowinkami millennialsa. Równie ważne jest, by nie zaskakiwać klientów zmianami, ci bowiem, wbrew nierzadko spotykanej opinii, cenią sobie nade wszystko stabilne i sprawdzone rozwiązania, , a siła przyzwyczajenia odgrywa tu główną rolę – zapewniał przedstawiciel Santander Banku Polska. Podobnie zresztą wielu konsumentów chce, aby bank przedstawiał im optymalnie dopasowaną ofertę, niekoniecznie chcą sami wybierać.
Marek Chlebicki zwrócił uwagę, iż użytkownicy są skłonni udostępnić swoje dane instytucji finansowej, jeśli rozumieją powód i widzą w tym wymierną korzyść, np. ofertę dopasowaną do swojego profilu lub kontekstu. Od banków wymaga to zapewnienia wysokiej jakości danych i możliwości procesowania dużych wolumenów danych klientów w czasie rzeczywistym, do tego warto wykorzystywać zaawansowane narzędzia zarzadzania danymi i analityki w chmurze, które dają ogromnie możliwości przetwarzania, a w efekcie zwiększają trafność realizowanych procesów.
Przetwarzając czy też udostępniając dane klientów, należy rzecz jasna uwzględniać złożone otoczenie regulacyjne, na które składa się nie tylko RODO czy prawo bankowe, ale wiele przepisów już obowiązujących lub wchodzących w życie w niedługim czasie – przestrzegł Paweł Gula, przypominając o toczących się właśnie pracach nad tzw. AI Act. Pojawia się pytanie, na ile inicjatywy te stanowią faktyczną barierę dla użycia danych, a do jakiego stopnia jest to jedynie wymówka. Do tej drugiej opcji przychylał się Marek Chlebicki. W jego opinii, banki powinny skupić sie na budowie nowych architektur danych o wysokiej jakości oraz aktywnie podchodzić do zgodności regulacyjnej, budując relacje z regulatorami, a i definiując właściwe podejście do wdrażania regulacji, mając na uwadze bezpieczeństwo i dobro klientów.
Już niebawem klient porozmawia z botem prostym językiem
Nowe podejście do analizy danych pozwala też bankom na zwiększenie skuteczności dotychczas realizowanych procedur, z których wiele ma na celu ochronę samej instytucji finansowej. Kamil Gosławski zauważył, że dotychczas podstawą oceny ryzyka kredytowego była historia transakcji poszczególnych klientów, obecnie technologia pozwala na formułowanie wniosków w oparciu o znacznie szerszy zakres danych. Rzecz w tym, by tworzyć transparentne rozwiązania, na podstawie których można uargumentować każdą z podjętych decyzji, czyniąc zarazem zadość wymogom stawianym przez regulatorów. Takie podejście może z kolei opłacić się nie tylko w segmencie detalicznym.
Jędrzej Fryc zwrócił uwagę, iż klienci biznesowi, w tym również MŚP, są grupą nieporównanie silniej zdywersyfikowaną aniżeli konsumenci, do tego dochodzi zróżnicowanie oczekiwań osób, pełniących określone funkcje w strukturze przedsiębiorstwa i należących do różnych kategorii, w tym wiekowych. To zaś skłania do rozważenia, na ile przy obecnym poziomie zaawansowania rozwiązań analitycznych można sobie pozwolić na odejście od sztywnych formularzy, tak by – jak sugerował przedstawiciel Banku Pekao – klient mógł swoimi słowami napisać, czego potrzebuje, a bank właściwie odczytywał jego intencję i dostarczał rozwiązanie odpowiednie w danej sytuacji. Również i Piotr Łukasiński ocenił konwersacje z klientami i powstające w ich toku zasoby danych nieustrukturyzowanych jako nieocenione źródło wiedzy dla banku, samo zaś ich analizowanie musi cechować się większą elastycznością. Analiza takich danych pozwala na lepsze dopasowanie oferty i wyłapanie pojawiających się trendów.
– Nadchodzi cognitive era – podsumował Krzysztof Pałuszyński, wskazując iż zaawansowanie niektórych systemów do obsługi czatów pozwalałoby z powodzeniem zdać tzw. test Turinga, czyli doskonale zasymulować rozmowę z żywym człowiekiem. Takie narzędzia mogą już dziś skutecznie wspierać bankowców, jeśli nie w bezpośredniej relacji z klientem z uwagi na pewną nieprzewidywalność ich reakcji w interakcjach z żywym człowiekiem, to z pewnością w obszarze back office.
Tak poważna zmiana paradygmatu oznaczać będzie zarazem spore wyzwanie dla instytucji finansowych, gdyż, jak wspomniał Marek Chlebicki, istniejące obecnie w sektorze infrastruktura i technologie bazodanowe budowane były przez ostatnie dekady dla zupełnie innych niż dziś przypadków użycia. Konieczne są zwiększone inwestycje w modernizacje architektury danych w bankach w celu budowy wysokojakościowych źródeł danych, będących podstawą do zaawansowanej analityki. Zarówno budowa nowej generacji produktów, zmiana modelu interakcji z klientami, jak i podejścia do przetwarzania danych skutkować będzie rewolucją nie tylko w systemach, ale przede wszystkim w sposobie myślenia samych bankowców. Najpewniej niezbędne będzie pewne przesunięcie kompetencji, przynajmniej jeśli chodzi o relacje pomiędzy pionami IT i biznesowymi, które – jak podkreślał Kamil Gosławski – nie zawsze rozumieją się wzajemnie.
Algorytmy mogą dużo pomóc, ale zbyt wcześnie, by decydowały
Czy zatem możliwe jest przeniesienie wprost modeli ze świata e-commerce do bankowości? Uczestnicy debaty zwracali uwagę, iż te dwa segmenty dzieli przede wszystkim odmienne otoczenie prawno-regulacyjne. Celem tak wyśrubowanych standardów jest m.in. ochrona nieświadomego uczestnika rynku, jakim jest konsument, oraz jego zasobów, zarówno w postaci pieniędzy, jak i danych zgromadzonych w bankach. Mariusz Piturecki przypomniał, iż niezbędne jest pogodzenie elastyczności działania z troską o wysoki poziom bezpieczeństwa, również jeśli chodzi o tak niezbędne działania, jak migracja do cloudu, gdzie również może dojść do wycieku danych. Podobnie i w przypadku konwersacji klienta z botem należy pamiętać, iż wszystko, co powie inteligentny system, może być później podstawą reklamacji bądź innych roszczeń, kierowanych przez konsumenta wobec instytucji finansowej. Generalnie, zdaniem przedstawiciela Alior Banku, modele budowane przez algorytmy wciąż generują zbyt wiele niewiadomych, dlatego powinny być traktowane raczej jako pomocnicze, a ich wykorzystanie jako decyzyjnych oznaczałoby wiele problemów i wątpliwości, także odnośnie zgodności z regulacjami.
Podobną opinie wyraził Marek Chlebicki, wskazując, iż modele budowane z wykorzystaniem technologii AI muszą być wytłumaczalne i interpretowalne, ostatecznie kluczową rolą człowieka w procesie analitycznym poza zapewnieniem wysokiej jakości danych jest zrozumienie rezultatu, wygenerowanego przez AI. Specyfika banku jako instytucji zaufania publicznego, dysponującej zasobami finansowymi swych klientów, jest przy tym całkiem odmienna niż sprzedawców e-commerce, którzy nie funkcjonują w tak ścisłych reżimach, dlatego – jak wskazywał Krzysztof Pałuszyński – mogą sobie pozwolić na mechanizmy skuteczne, acz w wielu przypadkach niewyjaśnialne. Do tego dochodzi cała złożoność i nieprzewidywalność otoczenia makroekonomicznego, mająca silny wpływ na funkcjonowanie sektora bankowego.
Paweł Minkina przypomniał, iż bezpośrednio przed wybuchem pandemii nikt spośród ekspertów ekonomicznych banków nie spodziewał się inflacji wyższej niż pięcioprocentowa na przestrzeni najbliższych dwóch–trzech lat, tymczasem rzeczywistość szybko przerosła najśmielsze prognozy. – Podobnie zresztą COVID-19 zweryfikował wiele założeń, wcześniej uznawanych za pewne, choćby odnośnie spłacalności kredytów – powiedział Krzysztof Pałuszyński. – Anomalie, jakie wprowadziła w analizowanych danych pandemia, muszą być brane pod uwagę przy trenowaniu nowych modeli – dodał Piotr Łukasiński.. Jak podkreślił moderator, jest to całkiem inny poziom niepewności aniżeli nieodpowiedni dobór butów zakupionych online. Banki muszą zatem cechować się najwyższym poziomem elastyczności, by móc reagować na tyleż gwałtowne, co doniosłe w skutkach zmiany. Wsparciem w realizacji takiej strategii mogą być, wspomniane przez Marka Chlebickiego, modele oparte na zaawansowanej analityce, które jednak powinny być budowane i utrzymywane blisko biznesu, z silnym właścicielstwem produktu modelowania i w sposób zwinny organizacji, zapewniając tym samym szybką reakcję na istotne zmiany otoczenia.
Każdy bankowiec musi rozumieć IT i data science
Warunkiem zwiększenia elastyczności banków jest również demokratyzacja danych. Przedstawiciel mBanku sugerował, by otworzyć dostęp do odpowiednich narzędzi i zasobów zespołom systemowym, pracującym nad produktami i usługami w różnych komórkach instytucji finansowej. – Wdrożenie nawet najlepszego na świecie systemu w olbrzymiej instytucji nie będzie miał takich efektów, jeżeli trzy osoby z niego będą korzystały. Chodzi o to, żeby z tego rozwiązania korzystało wiele osób, wówczas jego wartość dla organizacji jest olbrzymia – dodał Krzysztof Pałuszyński. Oznacza to również, iż biznes musi się nauczyć mówić językiem data science, podobnie jak wcześniej musiał opanować komunikację ze światem informatyki, zadeklarował Mariusz Piturecki. Tym bardziej że dzięki technologiom low code tworzenie oprogramowania przestaje już być domeną doświadczonych informatyków. – To są kierunki, które pomagają nam iść w stronę technologii i ją rozumieć, zarówno od strony data science, jak również IT – wskazał reprezentant Alior Banku.
O możliwości budowy prostych, niehermetycznych interfejsów dla użytkownika z pionu biznesowego mówił też Kamil Gosławski. – Wydaje się, że jesteśmy w takim momencie, że technologia upraszcza wszystkie działania, które do tej pory były postrzegane jako trudne, czyli budowanie modeli bądź przetwarzanie danych – stwierdził Łukasz Bezulski. Rzecz w tym, że nowe obowiązki w zakresie tworzenia produktów mogą być nie do opanowania przez jednego menedżera, który do niedawna ogarniał kwestie organizacyjne, regulacyjne i technologiczne. Jędrzej Fryc zaznaczył, iż konieczne staje się przeniesienie określonych kompetencji, jak to zrobiono w Banku Pekao, wydzielając z zespołu produktowego oddzielną jednostkę odpowiedzialną za procesy, aplikacje i wykorzystanie nowych technologii. – Bez silnego, kompetentnego technologicznie i świadomego biznesu nie da się budować skutecznych rozwiązań – dodał Marek Chlebicki.
Piotr Łukasiński przypomniał, iż sektor finansowy od samego początku inwestował i eksperymentował z innowacjami technologicznymi, by wspomnieć choćby bankomaty, bankowość elektroniczną czy aplikacje mobilne. Podobnie obecnie banki inwestują w sztuczną inteligencję. Także i dziś wymiana doświadczeń między działem data science, IT i biznesem w Santander Banku Polska realizowana jest w duchu agile. Nieco większym wyzwaniem jest współpraca lokalnych instytucji finansowych w ramach grupy. Paweł Gula przypomniał, iż każdy ze zrzeszonych banków pozostaje niezależny. Oba zrzeszenia dostarczają wspólnych narzędzi IT, jednak nie zawsze spotyka się to z należytym wykorzystaniem przez instytucje członkowskie, choć w ostatnim czasie tendencje integracyjne, także w tym obszarze, są coraz silniejsze.
W toku dyskusji nie mogło zabraknąć odniesienia do rywalizacji pomiędzy bankami a fintechami. Uczestnicy wskazywali, że trendy deregulacyjne, których symbolem stał się Uber, w przypadku polskiego rynku finansowego nie sprawdziły się, co jednoznacznie potwierdziła wysoka pozycja banków w czasie pandemii COVID-19. To m.in. efekt wysokiego poziomu zaawansowania technologicznego rodzimej bankowości, z czym wiąże się lepsze doświadczenie klienta aniżeli w wielu krajach zachodnioeuropejskich. Pomimo tak silnej pozycji banków, należy się spodziewać rosnącego znaczenia superaplikacji. Piotr Łukasiński nie wykluczył, iż w dającej się przewidzieć przyszłości pojawią się osobiści elektroniczni asystenci, przejmujący odpowiedzialność za komunikację między dostawcami usług, w tym finansowych, a konsumentami. Bolesław Pilecki przypomniał, iż w tym kierunku zmierza, przewidziana w koncepcji otwartej bankowości, instytucja tzw. digital wallet, która dałaby nowe możliwości dostawcom typu third party.