EBA o Big Data i Machine Learning w sektorze bankowym. Report on Big Data and Advanced Analytics
Możliwość przewidywania pewnych zdarzeń to w dzisiejszych bardzo dynamicznych czasach niezwykle cenna umiejętność. Dostęp do znacznych zbiorów danych (Big Data) ułatwia zrozumienie różnych zjawisk czy tworzenie efektywnych rekomendacji. Wykorzystanie uczenia maszynowego połączonego z Big Data jest szczególnie istotne w działalności sektora finansowego, który uczy się jak przetwarzać dane o klientach i lepiej zarządzać ryzykiem, czy też bardziej skutecznie doradzać przy wyborze produktów finansowych.
Tematyce wykorzystania zaawansowanej analityki oraz Big Data poświęcony jest najnowszy raport Europejskiego Urzędu Nadzoru Bankowego (EBA) – Report on Big Data and Advanced Analytics, który stanowi bardzo rozbudowane kompendium tego zagadnienia w sektorze bankowym.
Nie ma wątpliwości, że nowe narzędzia oparte o duże zbiory danych przyczyniają się do zmiany w modelach biznesowych i procesach, np. oceny zdolności kredytowej, szacowania ryzyka czy nawet sprzedażowych wielu instytucji, zarówno „zastanych”, jak i nowych graczy.
Żeby jednak mówić/pisać o efektywnych rozwiązaniach opartych o uczenie maszynowe czy sztuczną inteligencję potrzebne jest odpowiednie źródło „pokarmu”, czyli właśnie dane.
Na marginesie warto zwrócić uwagę, że istotne znaczenie dla rozwoju sztucznej inteligencji i uczenia maszynowego z użyciem Big Data ma Rozporządzenie 2018/1807 w sprawie swobodnego przepływu danych nieosobowych w Unii Europejskiej.
Podstawą jest tradycyjna bankowość
A właściwie dane zbierane w trakcie świadczenia usług bankowych. Jak wskazują autorzy raportu rzadkością jest wykorzystanie danych z serwisów społecznościowych, co mogą m.in. wykorzystywać niektóre Big Techy. Co ciekawe, wcale nie chodzi o obawę o ochronę danych osobowych, a o dokładność i niezawodność tego typu danych.
Dużym wyzwaniem w tym kontekście są nie zawsze precyzyjne i prosektorowe przepisy o ochronie danych osobowych.
Krajobraz Big Data i Machine Learningu (ML) w sektorze
Jeżeli chodzi o poziom cyfrowej transformacji, której elementem jest wdrażanie i wykorzystywanie zaawansowanej analityki, to zasadniczo jesteśmy dopiero na początku drogi, choć niektóre instytucje wyraźnie znajdują się już na czele – w większości są to podmioty nowe, które nie mają tzw. starych problemów.
Te stare problemy to przede wszystkim infrastruktura IT, która jest trudna do wymiany na nowszą (szybszą), a która nierzadko ogranicza również wdrażanie nowych rozwiązań, w tym oprogramowania.
Pewne wyzwania wiążą się również z (nie)możliwością swobodnego wykorzystania chmury obliczeniowej, która znacznie zmniejsza koszty operacyjne instytucji.
Sam zakup nowych narzędzi nie jest też wystarczający do zastosowania zaawansowanych narzędzi analitycznych. Wymaga to zmian organizacyjnych, zatrudnienia odpowiedniego personelu czy wdrożenie nowych zasad zarządzania ryzykami.
Autorzy raportu wskazują, że wdrożenie rozwiązań opartych o Big Data zajmuje instytucjom od 2 do nawet 12 miesięcy.
W tym miejscu warto zwrócić uwagę na raport Banku Rozliczeń Międzynarodowych „How do machine learning and non-traditional data affect credit scoring? New evidence from a Chinese fintech firm”, który pokazuje przewagę Machine Learning (ML) przy ocenie zdolności kredytowej.
Wiele wyzwań
EBA zidentyfikowała kilka podstawowych „problemów” związanych z wykorzystaniem BD/ML w sektorze bankowym:
− wiele instytucji jest dopiero na wczesnym etapie wdrażania ML, a stosowane rozwiązania zazwyczaj opierają się o bardzo proste modele, które nie są zbyt dokładne, i w praktyce – efektywne;
− stosowanie rozwiązań (w raporcie autorzy odnoszą się do istotnych procesów, co ja rozumiem jako takich, które wykorzystują dane wrażliwe) on-site lub w chmurze prywatnej/hybrydowej zamiast chmury publicznej, co wpływa m.in. na większe koszty i mniejszą efektywność;
− implementacja nowych rozwiązań BD/ML na bazie istniejących systemów − legacy Systems może być bardzo dużym wyzwaniem i główną przeszkodą dla instytucji finansowych;
− ograniczenie tzw. „data feed” do ustrukturyzowanych danych pochodzących głównie z systemów bankowych zamiast wykorzystania „innych” danych, np. z mediów społecznościowych i innych nieustrukturyzowanych danych – tutaj autorzy raportu zwracają uwagę, że jakość danych świadczy o jakości usługi;
− brak wiedzy na temat ML/BD, a także doświadczenia instytucji w tym zakresie może ograniczać ich dalszy rozwój, co jest też powiązane z brakami kadrowymi.
A co z udziałem człowieka, „explainability” i ochroną danych osobowych?
W chwili obecnej to podstawa, co znajduje odzwierciedlenie w przepisach – np. art. 105a ust. 1a Prawa bankowego, jako że algorytmy mogą być jeszcze zawodne i prawo do interwencji ludzkiej powinno być zagwarantowane.
Dużą wagę należy także przykładać do „wyjaśnialności” (explainability), czyli możliwości wyjaśnienia w jaki sposób działa algorytm, i w jaki sposób „rozumował” przy podejmowaniu konkretnej decyzji. Jest to zresztą jeden z warunków zaliczenia sztucznej inteligencji jako spełniającej będącej Trustworthy.
Ochrona danych osobowych to oczywiście priorytet, czego emanacją jest m.in. Rozporządzenie 2016/679 − inna sprawa czy jest ono dostosowane do zmieniającego się otoczenia.
Żeby jednak mówić o „dobrym” wykorzystaniu BD/ML…
… musimy zapewnić, że działalność instytucji opiera się na czterech filarach:
Efektywne zarządzanie danymi;
Odpowiednia infrastruktura techniczna;
Rozwiązania organizacyjne;
Prawidłowa metodologia.
Dopiero ich połączenie może wspomóc prawdziwą cyfrową transformację, która będzie bezpieczna zarówno dla instytucji, jak i jej klientów.
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.