Raport EIOPA: sześć zasad, na których powinno opierać się dobre wykorzystanie AI w sektorze ubezpieczeniowym

Raport EIOPA: sześć zasad, na których powinno opierać się dobre wykorzystanie AI w sektorze ubezpieczeniowym
Fot. stock.aobe,com / VideoFlow
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Przyznam, że ten dokument umknął mojej uwadze, ale jest to świetne opracowanie zasad stosowania sztucznej inteligencji w sektorze ubezpieczeniowym. Mowa tutaj o najnowszym raporcie EIOPA (Europejski Urząd Nadzoru Ubezpieczeń i Pracowniczych Programów Emerytalnych) pt. Artificial Intelligence Governance Principles: Towards Ethical and Trustworthy Artificial Intelligence in the European Insurance Sector.

Choć dotyczy on bezpośrednio sektora ubezpieczeniowego, to z powodzeniem można te zasady przenieść także na pozostałe sektory finansowe.

Nie jest to kalka rozwiązań wskazanych w zasadach wytyczonych przez Komisję (UE) w sprawie sztucznej inteligencji godnej zaufania, a zasady te skupiają się również na technologicznym aspekcie funkcjonowania algorytmów

Warto przypomnieć, że w ostatnim czasie zarówno BaFin, jak i FCA opublikowały swoje wytyczne dla sektora finansowego. Choć nie są to jeszcze twarde wymogi ‒ na te jeszcze czekamy ‒ to widać wyraźnie, że postępująca algorytmizacja nie jest obojętna nadzorcom i można spodziewać się kolejnych wytycznych, mam nadzieję, że również na naszym krajowym polu. Tyle tytułem wstępu. Przejdźmy do dokumentu.

Sześć podstawowych zasad ws. AI

EIOPA zaproponowała 6 podstawowych zasad, na których powinno opierać się dobre wykorzystanie AI. Te zasady to:

– zasada proporcjonalności, którą należy rozumieć nie tylko jako stosowanie proporcjonalnych rozwiązań, ale także przeprowadzanie uprzedniej analizy kosztów, ryzyk i benefitów związanych ze wdrożeniem systemu AI;

– zasada uczciwości i niedyskryminacji;

– zasada wyjaśnialności i przejrzystości;

– zasada nadzoru człowieka;

– zasada zarządzania danymi – dość dokładnie opisana chociażby w projektowanym rozporządzeniu w sprawie AI;

– zasada odporności i stabilności/jakości rozwiązań.

Już na pierwszy rzut oka widać, że nie jest to kalka rozwiązań wskazanych w zasadach wytyczonych przez Komisję (UE) w sprawie sztucznej inteligencji godnej zaufania, a zasady te skupiają się również na technologicznym aspekcie funkcjonowania algorytmów. To dobry sygnał.

Czytaj także: Wytyczne BaFin dla sektora finansowego w sprawie AI, to dobry przykład i dobre praktyki

Sześć obszarów dla AI w ubezpieczeniach

Dalej znajdziemy zestawienie bardzo ciekawych opcji, w których #ai może znaleźć zastosowanie w sektorze ubezpieczeniowym. Zostały one podzielone na 6 obszarów, do których należy:

sfera produktowa,

underwriting,

kwotowanie, sprzedaż i dystrybucja,

obsługa klientów,

zapobieganie stratom i

zarządzanie skargami. Warto spojrzeć, żeby znaleźć inspirację.

To, na co ja zwróciłem szczególną uwagę, to etyka, a ściślej pojęcie „digital ethics”. Tej poświęcono sporo w dokumencie i to dobry znak, bo znaczy, że kwestie etycznego działania #ai są istotne dla regulatorów. Ważne jest, aby pamiętać, że EIOPA bardzo poważnie podchodzi do kwestii ethics by design and default, a więc zapewnienia zgodności zarówno z miękkimi, jak i twardymi wymogami na każdym etapie tworzenia nowych rozwiązań.

Niezwykle pomocnym narzędziem, które znajdziemy w raporcie, jest tzw. AI Use Case Impact Assessment. Przeprowadzenie takiej analizy ma nie tylko odpowiedzieć na pytanie czy wdrażać dany system, ale także jakie rozwiązania (i w jakim stopniu) zastosować w odniesieniu do danego systemu. Dotyczy to także wymagań w zakresie compliance.

Pojęciu „digital ethics” (…) poświęcono sporo w dokumencie i to dobry znak, bo znaczy, że kwestie etycznego działania #ai są istotne dla regulatorów

W ramach tego assessmentu powinniśmy wziąć pod uwagę nie tylko wpływ na ubezpieczyciela, ale także ‒ a może przede wszystkim ‒ klientów. Nie możemy także zapominać o takich aspektach wykorzystania AI jak złożoność, ilość danych czy dostosowanie systemu do rozwiązań organizacyjnych i technologicznych (infrastrukturalnych).

Czytaj także: Sztuczna inteligencja może być wynalazcą i właścicielem patentu?

Przekazywanie informacji dot. systemów AI przez ubezpieczycieli

Dalej eksperci EIOPA przechodzą przez kolejne zasady, które pozwolą na osiągnięcie statusu „trustworthy AI”. Ja jednak skupię się na wyjaśnialności i przejrzystości.

Jest tutaj wyraźnie podkreślone, że firmy ubezpieczeniowe powinny dostosować swoje rozwiązania w zakresie udzielania informacji w odniesieniu do konkretnych rozwiązań AI. Mamy nawet bardzo pomocną tabelkę, która wskazuje jakie informacje powinniśmy przekazywać w odniesieniu do poszczególnych zainteresowanych, tj. klientów, audytorów i nadzorców oraz zarządów, które przecież odpowiadają także za wdrożenie i działanie systemów AI.

Jednocześnie mamy zachętę do stosowania „explainable AI models”, np. drzewka decyzyjne, w szczególności w przypadku, gdy ryzyko jest spore (dla odbiorcy i samej firmy), ale nie wyklucza to stosowania mniej wyjaśnialnych modeli, przy czym w takiej sytuacji powinniśmy zastosować np. modele hybrydowe.

Firmy ubezpieczeniowe powinny dostosować swoje rozwiązania w zakresie udzielania informacji w odniesieniu do konkretnych rozwiązań AI

EIOPA wskazuje tutaj: “in certain cases, they may combine model explainability with other governance measures insofar as they ensure the accountability of firms, including enabling access to adequate redress mechanisms”. Ufff.

Czytaj także: Odpowiedzialność za produkty i usługi o charakterze cyfrowym, rekomendacje Komisji Europejskiej

Co do samego wyjaśnienia, np. dla klienta, to musi to być jasny i przejrzysty przekaz, również na etapie przed zastosowaniem AI, co oznacza konieczność zakomunikowania, że wykorzystujemy AI oraz jakie ograniczenia czy wyzwania to może generować.

Ciekawe rekomendacje mamy też w kontekście tzw. human-oversight, bowiem eksperci EIOPA pokusili się o wskazanie oczekiwań względem konkretnych funkcji i obszarów w kontekście stosowania AI.

Przykładowo w odniesieniu do funkcji legal i compliance mamy: “The responsible legal department / compliance officer should monitor the catalogue of deployed tools and ensure that they meet the standard of regulatory changes. Policies should be updated and communicated to comply with the regulatory framework”.

Mamy także sugestię w zakresie wyznaczania AI officera czy komitetów etycznych/sztucznej inteligencji czy danych. Jest to jedno z ciekawszych podejść do kwestii organizacji i zasobów ludzkich w kontekście wykorzystania AI, które pokazuje, że przestaje to być science-fiction. Brawo EIOPA.

Dzisiaj tutaj urwę. W przyszłości postaram się przybliżyć pozostałe zasady odnoszące się m.in. do odporności technicznej. A już dzisiaj zachęcam do zapoznania się z dokumentem i dyskusji.

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany. Źródło: NGL Advisory
Źródło: aleBank.pl