Raport Financial Conduct Authority i Instytutu Turinga w sprawie sztucznej inteligencji w sektorze finansowym
Jest on bardzo wartościowym wkładem w dyskusję nad przyszłością regulacji sztucznej inteligencji, w tym pokazuje, jakie są korzyści, ale i zagrożenia związane z postępującą algorytmizacją.
Na duży plus zasługuje także próba wyjaśnienia, na czym ma polegać przejrzystość AI w kontekście sektora. Przyjrzyjmy się bliżej dokumentowi.
Wpływ AI na relacje z klientami, społeczeństwo, gospodarkę
Zacznijmy od wskazania, na jakie wyzwania wskazują autorzy raportu. Mamy więc:
1. Znaczenie (istotne) jakości danych dla prawidłowego działania algorytmów, ale także trudności w identyfikacji i rozwiązywaniu problemów związanych z jakością danych;
2. Modele AI mogą znacznie różnić się od klasycznych modeli, co powoduje, że stają się one mniej intuicyjne;
3. Implementacja AI wymagać może istotnych zmian infrastrukturalnych oraz procesowych, a także zwiększenia zależności od dostawców zewnętrznych;
4. Wykorzystanie AI wiąże się ze znacznie większymi ryzykami niż ma to miejsce w przypadku tradycyjnego modelu biznesowego.
Ważne jest przy tym także to, że szersze wykorzystanie algorytmów może rodzić wiele wątpliwości w obszarze jakości i efektywności systemów AI czy w zakresie prawidłowego nadzoru nad ich działaniem.
Autorzy raportu wskazują także, że wiele wątpliwości budzą obecnie wymogi prawne i regulacyjne dla AI (czy to tradycyjne podejście prawa jest wystarczające?), ale również kwestie związane z wyjaśnialnością decyzji – np. przy podejmowaniu decyzji biznesowych; trudno wskazać, że „algorytm tak powiedział”. AI może mieć też duży wpływ na relacje z klientami oraz społeczeństwo oraz gospodarkę i to nie tylko w skali mikro.
Czytaj także: Wytyczne BaFin dla sektora finansowego w sprawie AI, to dobry przykład i dobre praktyki
Aspekt prawno-regulacyjnego compliance
W raporcie znajdziemy dość szczegółową analizę poszczególnych wyzwań. Przykładowo w kontekście zarządzania danymi mamy wskazanie na główne, ale nie jedyne, obszary wymagające szczególnej uwagi. Należą do nich:
1. Dokładność danych;
2. Aktualność;
3. Walidacja – czy określony zestaw danych zawiera wartości niezbędne do oceny i uzyskania określonego celu?
4. Kompletność oraz
5. Reprezentatywność danych.
Autorzy raportu, ale i wiele instytucji oraz organizacji wskazuje, że to jedno (jeżeli nie największe) z wyzwań dla wykorzystania AI, w szczególności jeżeli myślimy o sektorze regulowanym.
Dużo uwagi zwraca się także na aspekt prawno-regulacyjnego compliance. W dokumencie znajdziemy wyraźne stwierdzenie, że korzystając z AI należy zapewnić wysoki poziom zgodności z wszystkimi wymogami, choć jednocześnie należy mieć świadomość, że otoczenie to ewoluuje i konieczne jest monitorowanie wszelkich zmian, aby zawsze być na czasie.
Złe dane mogą skutkować niespełnieniem określonych wymogów regulacyjnych, np. w obszarze wymogów ostrożnościowych
Ryzyko braku zgodności może być bowiem boleśniejsze, bowiem wykorzystanie modeli może rodzić ryzyka stronniczości czy dyskryminacji, a w efekcie istotnie nadszarpnąć reputację podmiotu.
To na co warto zwrócić uwagę to chociażby wspomniane już trudności w zakresie zarządzania danymi, co może przełożyć się na wyzwania w obszarze compliance. Innymi słowy – złe dane mogą skutkować niespełnieniem określonych wymogów regulacyjnych, np. w obszarze wymogów ostrożnościowych. Jednocześnie bardziej zaawansowane algorytmy mogą być trudno do śledzenia i nadzorowania, a także usuwania ewentualnych błędów – np. w kontekście wyjaśnialności i przejrzystości.
Jakie to ma znaczenie? Ano takie, że w dzisiejszych czasach trzeba postarać się o zasoby (również ludzkie), które zapewnią zrozumienie nowego sposobu prowadzenia działalności, a także efektywny nadzór.
Nie byłbym sobą, gdybym nie poruszył tematu etyki AI
Jest to temat, któremu poświęcono także część raportu. Autorzy wskazują na pięć kluczowych zasad, które powinny spełniać rozwiązania (czy też same organizacje) w kontekście algorytmizacji:
1. Uczciwość – rozumiana m.in. jako zapewnienie odpowiednich danych do trenowania i użytkowania systemów, w tym unikanie wszelkich form dyskryminacji;
2. Równowaga rozumiana, jako poszanowanie praw jednostki oraz innych praw podstawowych;
3. Bezpieczeństwo;
4. Odpowiedzialność, którą należy realizować w dwóch aspektach:
a. tzw. Answerability – możliwość wskazania kto, gdzie i kiedy odpowiada za AI oraz
b. Audytowalność – czyli de facto możliwość prześledzenia działania algorytmu;
5. Przejrzystość, która często jest wskazywana jako największe wyzwanie.
Czytaj także: Czego pragną klienci i jak banki mogą to odkryć – czyli świat ukrytej informacji cyfrowej
Zajmiemy się dzisiaj tym ostatnim punktem: przejrzystość
Czym w ogóle jest przejrzystość? Nie jest to pojęcie jasne i autorzy raportu mają tego świadomość. Wskazują, że w tym kontekście należy odpowiedzieć sobie na trzy pytania:
1. Jakie informacje są istotne?
2. Kto ma być odbiorcą informacji oraz
3. Dlaczego ci odbiorcy mogą być zainteresowani tymi informacjami.
Jest to szczególnie istotne zagadnienie, bowiem już dzisiaj wiele aktów prawnych, w tym RODO czy Prawa bankowego, wymagają od instytucji finansowych przekazywania określonych informacji użytkownikom, np. w kontekście oceny zdolności kredytowej.
Prawda jest też taka, że przejrzystość wyznacza nam tak naprawdę kierunek wszystkich pozostałych wymogów prawnych i regulacyjnych. Skoro na końcu jest użytkownik (lub organ regulacyjny czy nawet sąd), to wszystkie rozwiązania organizacyjno-techniczne orbitują wokół konieczności zapewnienie dostępu do danych oraz możliwości korekty ewentualnych zagrożeń.
Przejrzystość wyznacza nam tak naprawdę kierunek wszystkich pozostałych wymogów prawnych i regulacyjnych
I jest to istotne na każdym etapie tworzenia i użytkowania systemów AI.
I na koniec 10 ważnych obszarów AI
Choć to nie są wszystkie aspekty zawarte w raporcie. AI może przynieść wiele dobrego, ale też może nam zaszkodzić. Autorzy raportu wskazali na następujące obszary, które z jednej strony niosą ze sobą te korzyści, a z drugiej są dla nas zagrożeniem związanym z użytkowaniem automatyzacji:
1. Ochrona konsumentów;
2. Dostęp do finansów (financial inclusion);
3. Odmowa dostępu do usług i produktów;
4. tzw. Mismatch pomiędzy oczekiwaniami klientów a produktem lub usługą;
5. Efektywność inwestycji;
6. Wzmocnienie pozycji konsumenta;
7. Obszar przestępstw finansowych;
8. Konkurencja;
9. Stabilność sektora oraz oczywiście
10. Cyberbezpieczeństwo.
Dzisiaj zakończymy na tym naszą analizę. Ja z pewnością wrócę jeszcze do zagadnienia przejrzystości, bo to palący problem, który bez dalszego guidance ze strony regulatorów może być w przyszłości istotnym wyzwaniem zarówno dla instytucji finansowych, jak i samego regulatora.