Eksperci o regulacjach AI i etyce sztucznej inteligencji w sektorze bankowym

Eksperci o regulacjach AI i etyce sztucznej inteligencji w sektorze bankowym
Fot. stock.adobe.com / tanaonte
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Kolejny webinar realizowany w ramach Programu Analityczno-Badawczego WIB poświęcony był kwestii regulacji i etyki sztucznej inteligencji (AI) w sektorze bankowym. W imieniu zespołu autorskiego wyniki badania przedstawili prof. UW dr hab. Krzysztof Koźmiński oraz Jan Czarnocki. Dodatkowymi wnioskami nt. roli sztucznej inteligencji w zarządzaniu procesami gospodarczymi podzielił się ze słuchaczami prof. Włodzimierz Szpringer.

W trakcie dyskusji poruszono kluczowe kwestie związane z regulacjami dotyczącymi sztucznej inteligencji  w sektorze bankowym.

Prelegenci skupili się na analizie aktualnych przepisów oraz na potrzebie wprowadzenia bardziej precyzyjnych regulacji dotyczących etyki i bezpieczeństwa stosowania AI w bankowości.

Rola „soft law” w regulacji AI

Pierwszym zagadnieniem omówionym przez uczestników była rola tzw. soft law – norm prawnych niewiążących formalnie, ale mających wpływ na praktykę regulacyjną.

Uczestnicy podkreślili, że wiele państw Unii Europejskiej, w tym Polska, bazuje na zaleceniach, kodeksach etycznych i dobrych praktykach. Kluczowe znaczenie mają w tym kontekście rekomendacje organów nadzorczych oraz samoregulacje sektora finansowego.

„Soft law odgrywa istotną rolę w kreowaniu standardów, ale jego stosowanie nie zawsze zapewnia odpowiednią skuteczność regulacyjną. Z tego względu wśród respondentów badania dominowało przekonanie, że twarde prawo byłoby lepsze w obszarze etyki AI, gdyż minimalizowałoby ryzyko prawne” – zauważył prof. Krzysztof  Koźmiński.

Jak podkreślił przy tym prof. Włodzimierz Szpringer: „Istnieją sprzeczne postulaty w kwestii, kiedy regulować. Czy należy to czynić bardzo wcześnie, aby zapobiegać oszustwom i manipulacji, promować etykę i zaufanie, chronić konkurencję i konsumenta, czy dopiero wtedy, gdy technologia dojrzeje, aby nie hamować rozwoju rynku i innowacyjnych modeli biznesowych”.

Czytaj także: Prezes UODO zgłasza uwagi do projektu ustawy regulującej nadzór nad AI w Polsce

Podsumowanie regulacji dotyczących AI przyjętych w krajach UE

Dyskutanci przeanalizowali sytuację regulacyjną AI w bankowości w wybranych krajach, w tym w Chorwacji, Węgrzech, Holandii, Finlandii, Rumunii, Hiszpanii oraz Wielkiej Brytanii.

Jak podkreślił prof. Krzysztof Koźmiński: „We wszystkich ankietowanych krajach aktualnie brak jest prawnej definicji AI – trwają prace, prowadzony jest dialog z interesariuszami rynku.

Monitoruje się stan prawny w innych krajach i czeka się na lidera, który zainicjuje debatę w tym zakresie”.  

Respondent z Irlandii potwierdził, że aktualnie nie ma szczegółowych krajowych przepisów, które stanowiłyby ramy prawne dla etyki mechanizmów AI.

Prof. Krzysztof Koźmiński: „Irlandzkie regulacje bazują na stanowisku neutralnym technologicznie, co oznacza, że niezależnie od używanej technologii, firmy muszą przestrzegać obiektywnie obowiązujących przepisów prawa – np. mechanizmy AI nie mogą bazować na danych, które mają charakter dyskryminujący”.

W Niemczech federalny organ nadzoru finansowego BaFin zaleca stosowanie zasady proporcjonalności w implementacji algorytmów AI.

„Nie każda instytucja finansowa musi stosować te same środki ostrożności – ważne jest dostosowanie regulacji do ryzyka” – podkreślił Jan Czarnocki. Dodatkowo, jakiekolwiek praktyczne zasady etyczne zostaną przyjęte – muszą być one technologicznie neutralne.

Bank Francji kładzie nacisk na ochronę prywatności klientów, eliminację dyskryminacji oraz przeciwdziałanie dezinformacji i manipulacji finansowej. Priorytetem jest zapewnienie równowagi między innowacją a ochroną konsumentów.

W Hiszpanii przyjęto natomiast Kartę Praw Podstawowych dotyczącą AI, która obejmuje transparentność, nadzór człowieka nad AI oraz inkluzywność technologii dla klientów bankowych – w tym identyfikację potencjalnych uprzedzeń w algorytmach decyzyjnych.

Hiszpańskie Stowarzyszenie Bankowe podkreśla rolę AI w optymalizacji procesów bankowych, w szczególności: usprawnienia obsługi klienta poprzez automatyzację i personalizację usług bankowych oraz poprawę wewnętrznych procedur i bezpieczeństwa dzięki wykorzystaniu AI jako narzędzia wykrywania zagrożeń i oszustw.

Warte odnotowania jest także stanowisko Banku Anglii i PCA, które podkreślają znaczenie jakości danych i algorytmów w relacji bank-klient oraz promują piaskownice regulacyjne pozwalające na testowanie nowych technologii w kontrolowanych warunkach.

Czytaj także: Era AI: jak sztuczna inteligencja zmienia bankowość?

Wyzwania etyczne i technologiczne związane z AI

Dyskutanci podkreślili kluczowe wyzwania związane z wdrażaniem AI w bankowości. Należą do nich m.in:

  • Brak precyzyjnych regulacji – AI w bankowości jest wciąż na wczesnym etapie regulacyjnym, co prowadzi do niepewności zarówno wśród regulatorów, jak i instytucji finansowych.

„Wielu regulatorów czeka na działania Unii Europejskiej (AI Act), zamiast podejmować krajowe inicjatywy, które mogłyby sprzeczne z regulacją unijną” – zwrócił uwagę prof. Krzysztof Koźmiński. Jednocześnie, defragmentacja regulacji utrudnia uzyskanie ich spójnej wykładni oraz ustalenia w sposób pewny, jakie są prawa i obowiązki banków stosujących rozwiązania oparte o AI;

  • Ryzyko dyskryminacji i uprzedzeń algorytmicznych – problem związany z jakością danych wykorzystywanych do trenowania AI, co może skutkować nieświadomą dyskryminacją klientów.

„Algorytmy muszą być regularnie audytowane, aby unikać błędów prowadzących do nierównego traktowania” – podkreślił Jan Czarnocki;

  • Przejrzystość i wytłumaczalność decyzji AI – konieczność zapewnienia klientom dostępu do informacji o powodach decyzji podjętych przez AI, np. w przypadku odmowy przyznania kredytu. Jak wskazują eksperci – konsumenci powinni mieć prawo do wyjaśnienia decyzji podejmowanych przez AI i możliwość odwołania się od nich.

„AI Act zawiera ścieżkę zadośćuczynienia dla osób poszkodowanych przez systemy algorytmiczne. Akt tworzy istotne nowe wymogi w zakresie przejrzystości, obejmujące ujawnianie chatbotów i publiczne raportowanie na temat systemów AI wysokiego ryzyka oraz wywołujących ryzyko systemowe” – zaznaczył prof. Włodzimierz Szpringer;

  • Odpowiedzialność i nadzór człowieka – zapewnienie, że kluczowe decyzje są monitorowane przez ludzi i że istnieją procedury odwoławcze dla klientów.

Rekomendacje dotyczące przyszłych regulacji AI w sektorze bankowym

Podsumowując, uczestnicy zwrócili uwagę na konieczność podjęcia działań w zakresie regulacji AI w sektorze bankowym. Wskazali na potrzebę stworzenia:

  • jednolitych ram prawnych na poziomie UE, zapewniających przejrzystość i jednolite standardy. Regulacje muszą być spójne i dostosowane do potrzeb sektora bankowego;
  • mechanizmów audytu algorytmicznego, umożliwiających kontrolę procesów decyzyjnych AI;
  • zaangażowania człowieka w decyzje AI w krytycznych obszarach oraz jasne określenie wewnętrznej odpowiedzialności banków za algorytmy AI;
  • lepszej edukacji klientów, tak aby byli świadomi funkcjonowania AI w bankowości i mieli możliwość skutecznego dochodzenia swoich praw. Banki powinny inwestować w edukację klientów na temat ich praw w kontekście AI;
  • kodyfikacji standardów etycznych, aby instytucje bankowe działały zgodnie z jasno określonymi zasadami.

Uczestnicy dyskusji podkreślili, że uregulowanie etyki AI w bankowości to dynamicznie rozwijający się obszar, który wymaga dalszego monitorowania i dostosowywania przepisów do zmieniającej się rzeczywistości technologicznej i rynkowej.

Zapis webinarium oraz omawiany raport badawczy są już dostępne na stronie Programu Analityczno-Badawczego: www.pabwib.pl.

Źródło: BANK.pl