Co trzeba zrobić, by nie ulec halucynacjom AI

Co trzeba zrobić, by nie ulec halucynacjom AI
Fot. stock.adobe.com / Ayan
Sztuczna inteligencja zdobywa szturmem kolejne obszary działalności gospodarczej. Szczególnie duże nadzieje na zwiększenie efektywności wiąże z nią sektor finansowy. Wdrażanie AI wymaga wysokich kompetencji technicznych, ale też respektowania zasad etycznych, całościowego podejścia do oceny jej skutków, nadzoru oraz raportowania. Raport „AI w usługach płatniczych. Automatyzacja, personalizacja i wyzwania regulacyjne w świetle ‹AI Act›” poświęcony jest prezentacji najlepszych praktyk pełnego, systemowego podejścia do stosowania sztucznej inteligencji.

Autorzy raportu opracowanego na zlecenie Warszawskiego Instytutu Bankowości, dr hab. Dariusz Szostek, profesor Wydziału Prawa i Administracji Uniwersytetu Śląskiego oraz dr nauk prawnych inż. Rafał Prabucki, adiunkt na tym uniwersytecie, poddali całościowej analizie zastosowania systemów sztucznej inteligencji w sektorze usług płatniczych. Ich funkcjonowanie postrzegają w kontekście wymogów wynikających z unijnego rozporządzenia AI Act oraz związanych z nim regulacji. Wydali rekomendacje sugerujące, jak osiągnąć zgodność regulacyjną, jak nadzorować systemy AI i jak o tym raportować.

Wyzwania nie tylko prawne

Zastosowanie AI w usługach płatniczych jest coraz szersze. Dzięki sztucznej inteligencji możliwa jest automatyzacja, personalizacja, poprawa obsługi klienta i zarządzania ryzykiem. Autorzy poddali analizie rzeczywiste wdrożenia sztucznej inteligenci w bankowości i fintechach. Przedstawili studia przypadków incydentów oraz narzędzi ataku. Określili, jakie bieżące zagrożenia pojawiają się przy wdrażaniu AI, ale też gdzie ukryte są ryzyka systemowe, algorytmiczne i cybernetyczne.

Najważniejszym dokumentem, który reguluje zasady wdrażania, wykorzystania i używania sztucznej inteligencji w Unii Europejskiej jest „AI Act”. Jej stosowanie w instytucjach finansowych kwalifikowane jest przez prawo do tzw. systemów wysokiego ryzyka, a przez to wymaga szczególnej zgodności regulacyjnej, objęte jest zatem obowiązkami raportowania i nadzoru. „AI Act” ma decydujący wpływ na projektowanie, wdrażanie, monitoring i audyt systemów. Raport dokonuje oceny tego wpływu.

„AI Act” wymaga zgodności modeli sztucznej inteligencji z prawem, standardami technicznymi i etycznymi. Autorzy dokonali przeglądu standardów raportowania wprowadzonych przez rozporządzenie oraz metod nadzoru. Dobre praktyki wykorzystania sztucznej inteligencji zawarte są także w międzynarodowych normach ISO/IEC 42001, ISO/IEC 27001 i ISO/IEC 23894. Autorzy zbadali dojrzałość systemów AI w instytucjach finansowych autorską metodą wynikającą z podejścia na bazie ryzyka. Raport – jak podkreślają to autorzy – ma charakter interdyscyplinarny. Do analizy systemów sztucznej inteligencji wykorzystuje różne perspektywy – prawną, techniczną oraz etyczną.

AI składa spektakularne obietnice. Poprawę efektywności operacyjnej, lepszego zarządzania ryzykiem, automatyzacji procesów, podniesienia jakości obsługi klienta. To tylko niektóre z nich. Równocześnie im bardziej jest obecna w biznesie i w naszym życiu codziennym, tym bardziej rośnie świadomość wyzwań, jakie niesie ze sobą jej wdrożenie i używanie. Są to nie tylko wyzwania techniczne, ale również prawne i etyczne.

Do systemów AI outsourcujemy naszą sprawczość. Mają coraz większy wpływ na podejmowanie decyzji. W procesach decyzyjnych nie tylko wspomagają, ale często zastępują człowieka. Dostarczają – bez udziału naszej świadomości i wiedzy – dane i podsuwają na talerzu rozwiązania analityczne i prognostyczne. Czy możemy mieć zaufanie do efektów pracy modeli? Możemy – pod warunkiem, że ich działanie jest przedmiotem szczególnej kontroli i nadzoru.

Plusy i minusy

Sektor płatniczy kroczy na czele technologicznej rewolucji i pełnymi garściami korzysta z dobrodziejstw sztucznej inteligencji. Usługi płatnicze w dużej części przeniesione zostały do sfery cyfrowej, ale to oznacza równocześnie, że każda awaria systemowa, błąd w konfiguracji, utrata łączności czy atak DDoS mogą prowadzić do destabilizacji całego systemu i wstrzymania operacji. Tego nie chcemy.

AI równocześnie daje do ręki przestępcom nowe możliwości prowadzenia zaawansowanych ataków na systemy płatnicze, a przede wszystkim ich użytkowników. Błędy lub awarie w algorytmach mogą skutkować nieprawidłowymi rekomendacjami i decyzjami, choćby przy udzielaniu kredytów, wykrywaniu oszustw czy zarządzaniu ryzykiem. Może to wpłynąć nie tylko na stabilność techniczną, ale i na utratę zaufania klientów. Aby zachować stabilność usług płatniczych w erze AI, konieczna jest wyjątkowa troska o techniczne bezpieczeństwa ...

Artykuł jest płatny. Aby uzyskać dostęp można:

  • zalogować się na swoje konto, jeśli wcześniej dokonano zakupu (w tym prenumeraty),
  • wykupić dostęp do pojedynczego artykułu: SMS, cena 5 zł netto (6,15 zł brutto) - kup artykuł
  • wykupić dostęp do całego wydania pisma, w którym jest ten artykuł: SMS, cena 19 zł netto (23,37 zł brutto) - kup całe wydanie,
  • zaprenumerować pismo, aby uzyskać dostęp do wydań bieżących i wszystkich archiwalnych: wejdź na BANK.pl/sklep.

Uwaga:

  • zalogowanym użytkownikom, podczas wpisywania kodu, zakup zostanie przypisany i zapamiętany do wykorzystania w przyszłości,
  • wpisanie kodu bez zalogowania spowoduje przyznanie uprawnień dostępu do artykułu/wydania na 24 godziny (lub krócej w przypadku wyczyszczenia plików Cookies).

Komunikat dla uczestników Programu Wiedza online:

  • bezpłatny dostęp do artykułu wymaga zalogowania się na konto typu BANKOWIEC, STUDENT lub NAUCZYCIEL AKADEMICKI

Źródło: Miesięcznik Finansowy BANK