Eksperci o regulacjach AI i etyce sztucznej inteligencji w sektorze bankowym

W trakcie dyskusji poruszono kluczowe kwestie związane z regulacjami dotyczącymi sztucznej inteligencji w sektorze bankowym.
Prelegenci skupili się na analizie aktualnych przepisów oraz na potrzebie wprowadzenia bardziej precyzyjnych regulacji dotyczących etyki i bezpieczeństwa stosowania AI w bankowości.
Rola „soft law” w regulacji AI
Pierwszym zagadnieniem omówionym przez uczestników była rola tzw. soft law – norm prawnych niewiążących formalnie, ale mających wpływ na praktykę regulacyjną.
Uczestnicy podkreślili, że wiele państw Unii Europejskiej, w tym Polska, bazuje na zaleceniach, kodeksach etycznych i dobrych praktykach. Kluczowe znaczenie mają w tym kontekście rekomendacje organów nadzorczych oraz samoregulacje sektora finansowego.
„Soft law odgrywa istotną rolę w kreowaniu standardów, ale jego stosowanie nie zawsze zapewnia odpowiednią skuteczność regulacyjną. Z tego względu wśród respondentów badania dominowało przekonanie, że twarde prawo byłoby lepsze w obszarze etyki AI, gdyż minimalizowałoby ryzyko prawne” – zauważył prof. Krzysztof Koźmiński.
Jak podkreślił przy tym prof. Włodzimierz Szpringer: „Istnieją sprzeczne postulaty w kwestii, kiedy regulować. Czy należy to czynić bardzo wcześnie, aby zapobiegać oszustwom i manipulacji, promować etykę i zaufanie, chronić konkurencję i konsumenta, czy dopiero wtedy, gdy technologia dojrzeje, aby nie hamować rozwoju rynku i innowacyjnych modeli biznesowych”.
Czytaj także: Prezes UODO zgłasza uwagi do projektu ustawy regulującej nadzór nad AI w Polsce
Podsumowanie regulacji dotyczących AI przyjętych w krajach UE
Dyskutanci przeanalizowali sytuację regulacyjną AI w bankowości w wybranych krajach, w tym w Chorwacji, Węgrzech, Holandii, Finlandii, Rumunii, Hiszpanii oraz Wielkiej Brytanii.
Jak podkreślił prof. Krzysztof Koźmiński: „We wszystkich ankietowanych krajach aktualnie brak jest prawnej definicji AI – trwają prace, prowadzony jest dialog z interesariuszami rynku.
Monitoruje się stan prawny w innych krajach i czeka się na lidera, który zainicjuje debatę w tym zakresie”.
Respondent z Irlandii potwierdził, że aktualnie nie ma szczegółowych krajowych przepisów, które stanowiłyby ramy prawne dla etyki mechanizmów AI.
Prof. Krzysztof Koźmiński: „Irlandzkie regulacje bazują na stanowisku neutralnym technologicznie, co oznacza, że niezależnie od używanej technologii, firmy muszą przestrzegać obiektywnie obowiązujących przepisów prawa – np. mechanizmy AI nie mogą bazować na danych, które mają charakter dyskryminujący”.
W Niemczech federalny organ nadzoru finansowego BaFin zaleca stosowanie zasady proporcjonalności w implementacji algorytmów AI.
„Nie każda instytucja finansowa musi stosować te same środki ostrożności – ważne jest dostosowanie regulacji do ryzyka” – podkreślił Jan Czarnocki. Dodatkowo, jakiekolwiek praktyczne zasady etyczne zostaną przyjęte – muszą być one technologicznie neutralne.
Bank Francji kładzie nacisk na ochronę prywatności klientów, eliminację dyskryminacji oraz przeciwdziałanie dezinformacji i manipulacji finansowej. Priorytetem jest zapewnienie równowagi między innowacją a ochroną konsumentów.
W Hiszpanii przyjęto natomiast Kartę Praw Podstawowych dotyczącą AI, która obejmuje transparentność, nadzór człowieka nad AI oraz inkluzywność technologii dla klientów bankowych – w tym identyfikację potencjalnych uprzedzeń w algorytmach decyzyjnych.
Hiszpańskie Stowarzyszenie Bankowe podkreśla rolę AI w optymalizacji procesów bankowych, w szczególności: usprawnienia obsługi klienta poprzez automatyzację i personalizację usług bankowych oraz poprawę wewnętrznych procedur i bezpieczeństwa dzięki wykorzystaniu AI jako narzędzia wykrywania zagrożeń i oszustw.
Warte odnotowania jest także stanowisko Banku Anglii i PCA, które podkreślają znaczenie jakości danych i algorytmów w relacji bank-klient oraz promują piaskownice regulacyjne pozwalające na testowanie nowych technologii w kontrolowanych warunkach.
Czytaj także: Era AI: jak sztuczna inteligencja zmienia bankowość?
Wyzwania etyczne i technologiczne związane z AI
Dyskutanci podkreślili kluczowe wyzwania związane z wdrażaniem AI w bankowości. Należą do nich m.in:
- Brak precyzyjnych regulacji – AI w bankowości jest wciąż na wczesnym etapie regulacyjnym, co prowadzi do niepewności zarówno wśród regulatorów, jak i instytucji finansowych.
„Wielu regulatorów czeka na działania Unii Europejskiej (AI Act), zamiast podejmować krajowe inicjatywy, które mogłyby sprzeczne z regulacją unijną” – zwrócił uwagę prof. Krzysztof Koźmiński. Jednocześnie, defragmentacja regulacji utrudnia uzyskanie ich spójnej wykładni oraz ustalenia w sposób pewny, jakie są prawa i obowiązki banków stosujących rozwiązania oparte o AI;
- Ryzyko dyskryminacji i uprzedzeń algorytmicznych – problem związany z jakością danych wykorzystywanych do trenowania AI, co może skutkować nieświadomą dyskryminacją klientów.
„Algorytmy muszą być regularnie audytowane, aby unikać błędów prowadzących do nierównego traktowania” – podkreślił Jan Czarnocki;
- Przejrzystość i wytłumaczalność decyzji AI – konieczność zapewnienia klientom dostępu do informacji o powodach decyzji podjętych przez AI, np. w przypadku odmowy przyznania kredytu. Jak wskazują eksperci – konsumenci powinni mieć prawo do wyjaśnienia decyzji podejmowanych przez AI i możliwość odwołania się od nich.
„AI Act zawiera ścieżkę zadośćuczynienia dla osób poszkodowanych przez systemy algorytmiczne. Akt tworzy istotne nowe wymogi w zakresie przejrzystości, obejmujące ujawnianie chatbotów i publiczne raportowanie na temat systemów AI wysokiego ryzyka oraz wywołujących ryzyko systemowe” – zaznaczył prof. Włodzimierz Szpringer;
- Odpowiedzialność i nadzór człowieka – zapewnienie, że kluczowe decyzje są monitorowane przez ludzi i że istnieją procedury odwoławcze dla klientów.
Rekomendacje dotyczące przyszłych regulacji AI w sektorze bankowym
Podsumowując, uczestnicy zwrócili uwagę na konieczność podjęcia działań w zakresie regulacji AI w sektorze bankowym. Wskazali na potrzebę stworzenia:
- jednolitych ram prawnych na poziomie UE, zapewniających przejrzystość i jednolite standardy. Regulacje muszą być spójne i dostosowane do potrzeb sektora bankowego;
- mechanizmów audytu algorytmicznego, umożliwiających kontrolę procesów decyzyjnych AI;
- zaangażowania człowieka w decyzje AI w krytycznych obszarach oraz jasne określenie wewnętrznej odpowiedzialności banków za algorytmy AI;
- lepszej edukacji klientów, tak aby byli świadomi funkcjonowania AI w bankowości i mieli możliwość skutecznego dochodzenia swoich praw. Banki powinny inwestować w edukację klientów na temat ich praw w kontekście AI;
- kodyfikacji standardów etycznych, aby instytucje bankowe działały zgodnie z jasno określonymi zasadami.
Uczestnicy dyskusji podkreślili, że uregulowanie etyki AI w bankowości to dynamicznie rozwijający się obszar, który wymaga dalszego monitorowania i dostosowywania przepisów do zmieniającej się rzeczywistości technologicznej i rynkowej.
Zapis webinarium oraz omawiany raport badawczy są już dostępne na stronie Programu Analityczno-Badawczego: www.pabwib.pl.
Lista webinarów PABWIB w I połowie 2025 r. oraz formularz zapisów: https://konferencje.bank.pl/konferencje/webinaria-pab-wib/