Raport Financial Conduct Authority i Instytutu Turinga w sprawie sztucznej inteligencji w sektorze finansowym

Raport Financial Conduct Authority i Instytutu Turinga w sprawie sztucznej inteligencji w sektorze finansowym
Fot. stock. adobe. com / peshkov
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Parę dni temu pisałem na temat najnowszych wytycznych BaFin w kontekście wykorzystania algorytmów w sektorze finansowym, a dzisiaj mam kolejny ciekawy dokument, który został opublikowany na początku lipca. Mowa tutaj o wspólnym raporcie Financial Conduct Authority (odpowiednik KNF w Wielkiej Brytanii) oraz Instytutu Alana Turinga o wdzięcznej nazwie "AI in Financial Services", pisze Michał Nowakowski.

Jest on bardzo wartościowym wkładem w dyskusję nad przyszłością regulacji sztucznej inteligencji, w tym pokazuje, jakie są korzyści, ale i zagrożenia związane z postępującą algorytmizacją.

Na duży plus zasługuje także próba wyjaśnienia, na czym ma polegać przejrzystość AI w kontekście sektora. Przyjrzyjmy się bliżej dokumentowi.

Wpływ AI na relacje z klientami, społeczeństwo, gospodarkę

Zacznijmy od wskazania, na jakie wyzwania wskazują autorzy raportu. Mamy więc:

1.      Znaczenie (istotne) jakości danych dla prawidłowego działania algorytmów, ale także trudności w identyfikacji i rozwiązywaniu problemów związanych z jakością danych;

2.      Modele AI mogą znacznie różnić się od klasycznych modeli, co powoduje, że stają się one mniej intuicyjne;

3.      Implementacja AI wymagać może istotnych zmian infrastrukturalnych oraz procesowych, a także zwiększenia zależności od dostawców zewnętrznych;

4.      Wykorzystanie AI wiąże się ze znacznie większymi ryzykami niż ma to miejsce w przypadku tradycyjnego modelu biznesowego.

Ważne jest przy tym także to, że szersze wykorzystanie algorytmów może rodzić wiele wątpliwości w obszarze jakości i efektywności systemów AI czy w zakresie prawidłowego nadzoru nad ich działaniem.

Autorzy raportu wskazują także, że wiele wątpliwości budzą obecnie wymogi prawne i regulacyjne dla AI (czy to tradycyjne podejście prawa jest wystarczające?), ale również kwestie związane z wyjaśnialnością decyzji – np. przy podejmowaniu decyzji biznesowych; trudno wskazać, że „algorytm tak powiedział”. AI może mieć też duży wpływ na relacje z klientami oraz społeczeństwo oraz gospodarkę i to nie tylko w skali mikro.

Źródło: MN

Czytaj także: Wytyczne BaFin dla sektora finansowego w sprawie AI, to dobry przykład i dobre praktyki

Aspekt prawno-regulacyjnego compliance

W raporcie znajdziemy dość szczegółową analizę poszczególnych wyzwań. Przykładowo w kontekście zarządzania danymi mamy wskazanie na główne, ale nie jedyne, obszary wymagające szczególnej uwagi. Należą do nich:

1.      Dokładność danych;

2.      Aktualność;

3.      Walidacja – czy określony zestaw danych zawiera wartości niezbędne do oceny i uzyskania określonego celu?

4.      Kompletność oraz

5.      Reprezentatywność danych.

Autorzy raportu, ale i wiele instytucji oraz organizacji wskazuje, że to jedno (jeżeli nie największe) z wyzwań dla wykorzystania AI, w szczególności jeżeli myślimy o sektorze regulowanym.

Dużo uwagi zwraca się także na aspekt prawno-regulacyjnego compliance. W dokumencie znajdziemy wyraźne stwierdzenie, że korzystając z AI należy zapewnić wysoki poziom zgodności z wszystkimi wymogami, choć jednocześnie należy mieć świadomość, że otoczenie to ewoluuje i konieczne jest monitorowanie wszelkich zmian, aby zawsze być na czasie.

Złe dane mogą skutkować niespełnieniem określonych wymogów regulacyjnych, np. w obszarze wymogów ostrożnościowych

Ryzyko braku zgodności może być bowiem boleśniejsze, bowiem wykorzystanie modeli może rodzić ryzyka stronniczości czy dyskryminacji, a w efekcie istotnie nadszarpnąć reputację podmiotu.

To na co warto zwrócić uwagę to chociażby wspomniane już trudności w zakresie zarządzania danymi, co może przełożyć się na wyzwania w obszarze compliance. Innymi słowy – złe dane mogą skutkować niespełnieniem określonych wymogów regulacyjnych, np. w obszarze wymogów ostrożnościowych. Jednocześnie bardziej zaawansowane algorytmy mogą być trudno do śledzenia i nadzorowania, a także usuwania ewentualnych błędów – np. w kontekście wyjaśnialności i przejrzystości.

Jakie to ma znaczenie? Ano takie, że w dzisiejszych czasach trzeba postarać się o zasoby (również ludzkie), które zapewnią zrozumienie nowego sposobu prowadzenia działalności, a także efektywny nadzór.

Nie byłbym sobą, gdybym nie poruszył tematu etyki AI

Źródło: MN

Jest to temat, któremu poświęcono także część raportu. Autorzy wskazują na pięć kluczowych zasad, które powinny spełniać rozwiązania (czy też same organizacje) w kontekście algorytmizacji:

1.      Uczciwość – rozumiana m.in. jako zapewnienie odpowiednich danych do trenowania i użytkowania systemów, w tym unikanie wszelkich form dyskryminacji;

2.      Równowaga rozumiana, jako poszanowanie praw jednostki oraz innych praw podstawowych;

3.      Bezpieczeństwo;

4.      Odpowiedzialność, którą należy realizować w dwóch aspektach:

a.      tzw. Answerability – możliwość wskazania kto, gdzie i kiedy odpowiada za AI oraz

b.      Audytowalność – czyli de facto możliwość prześledzenia działania algorytmu;

5.      Przejrzystość, która często jest wskazywana jako największe wyzwanie.

Czytaj także: Czego pragną klienci i jak banki mogą to odkryć – czyli świat ukrytej informacji cyfrowej

Zajmiemy się dzisiaj tym ostatnim punktem: przejrzystość

Czym w ogóle jest przejrzystość? Nie jest to pojęcie jasne i autorzy raportu mają tego świadomość. Wskazują, że w tym kontekście należy odpowiedzieć sobie na trzy pytania:

1.      Jakie informacje są istotne?

2.      Kto ma być odbiorcą informacji oraz

3.      Dlaczego ci odbiorcy mogą być zainteresowani tymi informacjami.

Źródło: MN

Jest to szczególnie istotne zagadnienie, bowiem już dzisiaj wiele aktów prawnych, w tym RODO czy Prawa bankowego, wymagają od instytucji finansowych przekazywania określonych informacji użytkownikom, np. w kontekście oceny zdolności kredytowej.

Prawda jest też taka, że przejrzystość wyznacza nam tak naprawdę kierunek wszystkich pozostałych wymogów prawnych i regulacyjnych. Skoro na końcu jest użytkownik (lub organ regulacyjny czy nawet sąd), to wszystkie rozwiązania organizacyjno-techniczne orbitują wokół konieczności zapewnienie dostępu do danych oraz możliwości korekty ewentualnych zagrożeń.

Przejrzystość wyznacza nam tak naprawdę kierunek wszystkich pozostałych wymogów prawnych i regulacyjnych

I jest to istotne na każdym etapie tworzenia i użytkowania systemów AI.

I na koniec 10 ważnych obszarów AI

Choć to nie są wszystkie aspekty zawarte w raporcie. AI może przynieść wiele dobrego, ale też może nam zaszkodzić. Autorzy raportu wskazali na następujące obszary, które z jednej strony niosą ze sobą te korzyści, a z drugiej są dla nas zagrożeniem związanym z użytkowaniem automatyzacji:

1.      Ochrona konsumentów;

2.      Dostęp do finansów (financial inclusion);

3.      Odmowa dostępu do usług i produktów;

4.      tzw. Mismatch pomiędzy oczekiwaniami klientów a produktem lub usługą;

5.      Efektywność inwestycji;

6.      Wzmocnienie pozycji konsumenta;

7.      Obszar przestępstw finansowych;

8.      Konkurencja;

9.      Stabilność sektora oraz oczywiście

10.  Cyberbezpieczeństwo.

Dzisiaj zakończymy na tym naszą analizę. Ja z pewnością wrócę jeszcze do zagadnienia przejrzystości, bo to palący problem, który bez dalszego guidance ze strony regulatorów może być w przyszłości istotnym wyzwaniem zarówno dla instytucji finansowych, jak i samego regulatora.

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany. Źródło: NGL Advisory

Źródło: aleBank.pl