Komisja Europejska o rozliczalności i odpowiedzialności sztucznej inteligencji

Komisja Europejska o rozliczalności i odpowiedzialności sztucznej inteligencji
Fot. stock.adobe.com / Andrey-Popov
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
W jednym z artykułów rozpocząłem analizę listy przygotowanej przez ekspertów Komisji Europejskiej, która ma pozwolić na ocenę rozwiązań opartych o sztuczną inteligencję pod kątem ich zgodności z fundamentalnymi zasadami tzw. Trustworthy AI. Teraz odniosę się nie tylko do wytycznych w sprawie AI godnej zaufania, ale tam, gdzie to możliwe ‒ też do krajowych (szczątkowych) komunikatów w tym zakresie. Ostatni punkt listy to rozliczalność czy odpowiedzialność AI, która ma znaczenie przede wszystkim w kontekście oceny winy czy zgodności rozwiązań opartych o sztuczną inteligencję z prawami podstawowymi ‒ pisze w komentarzu Michał Nowakowski.

#MichałNowakowski: Firma operująca na #AI powinna zapewnić, że wszelkie negatywne skutki dla działania algorytmu powinny być identyfikowane, oceniane, dokumentowane i minimalizowane #Cyberbezpieczeństwo #Odpowiedzialność @FinregtechPL @uknf

Eksperci Komisji Europejskiej wskazują, że zasada accountability sprowadza się do nałożenia obowiązku do ustanowienia takich mechanizmów, które zapewniają odpowiedzialność za tworzenie, implementację czy wykorzystanie systemów sztucznej inteligencji.

Jeżeli spojrzymy na inny dokument Komisji, w którym zaproponowano rozwiązania prawne dla tzw. hi-risk AI, to mamy jasność, że w ostatecznym rozrachunku chodzi o to, aby w przypadku powstania szkody, możliwe było przypisanie winy konkretnej osobie (skoro wiemy, że AI nie odpowiada prawnie), a także, aby możliwe było zmiarkowanie tej szkody.

Czytaj także: Czy sztuczna inteligencja będzie zawierała umowy, zgodnie z prawem?

Jeżeli przejdziemy na grunt pierwotnych wytycznych w sprawie Trustworthy AI, to dowiemy się, że w zakresie accountability mieści się także możliwość kontrolowania, minimalizacja i zgłaszanie negatywnych skutków, kompromisy i dochodzenie roszczeń.

Wiele nic nie mówiących stwierdzeń, ale de facto chodzi o to, aby brać odpowiedzialność za działanie systemów i tworzyć je w sposób bezpieczny. Jest to więc pochodna pozostałych zasad, na których powinny być oparte te rozwiązania.

Audytowalność

To często trudny temat przy omawianiu rozwiązań opartych o AI. Jak wspominałem już, może się okazać, że konieczne będzie dokonanie audytu (a w pewnych przypadkach może to być konieczne w regularnych interwałach czasowych) rozwiązań, np. przy stosowaniu zautomatyzowanych narzędzi wykorzystujących dane osobowe, w tym w kontekście zakazu dyskryminacji. Musimy więc pamiętać też o wymogach RODO.  

Czytaj także: Dlaczego sztuczna inteligencja znajdzie istotne zastosowanie w bankowości?

Już na pierwszy rzut oka widać, że chodzi tutaj w znacznej mierze o przejrzystość stosowanych rozwiązań, w tym dostępność danych pozwalających na ocenę.

Ważne jest przy tym to, że musi tutaj być zapewniona możliwość przeprowadzenia niezależnego audytu, a więc musi być to stosunkowo łatwe – o ile można tak napisać w kontekście zaawansowanych algorytmów.

Eksperci Komisji Europejskiej zaznaczają przy tym, że nie chodzi tutaj wcale o udostępnienie unikalnego know-how, w tym w szczególności materiałów stanowiących własność intelektualną (np. patenty).

Czytaj także: Jest konkretna propozycja unijnej regulacji dot. odpowiedzialności sztucznej inteligencji

Patrząc bardziej szczegółowo mamy w zasadzie dwa podstawowe wymogi w tym zakresie:

1. Konieczność stworzenie takich rozwiązań, które pozwalają prześledzić (traceability) cały proces tworzenia rozwiązań, w tym etapu uczenia oraz jego uruchomienia i wykorzystania produkcyjnego (w tym dotarcia do danych dot. wyników działania, trafności i różnych KPI, które mogą być przydatne);

2. Takiego ułożenia procesów i systemów, aby niezależny audytor mógł dokonać tej oceny.

Projekt stanowiska UKNF w sprawie robo-advisory wprost zakłada, że rozwiązania oparte o AI powinny podlegać regularnym przeglądom w obszarze zarówno technicznym, jak i merytorycznym. Częstotliwość powinna być większa na początku wdrażania robo-advisory.

Zarządzanie ryzykiem

To drugi element accountability. W liście ekspertów Komisji Europejskiej wymóg ten mamy opisany dość krótko. Ekspertom chodzi tutaj o: „the ability to report on actions or decisions that contribute to the AI system’s outcome, and to respond to the consequences of such an outcome”.

Jeżeli jednak spojrzymy np. na projekt stanowiska UKNF w sprawie robo-advisory, to znajdziemy nieco więcej wskazówek. Eksperci UKNF wskazują, że ważnym aspektem wdrażania takiej usługi jest prawidłowe zarządzanie ryzykiem technologicznym, w tym przeciwdziałanie nieautoryzowanemu dostępowi czy innym zagrożeniom dla efektywnego i poprawnego działania algorytmów.

Czytaj także: Jak robo-doradztwo widzi UKNF? Konsultacje już się rozpoczęły

Wracając jednak do dokumentu Komisji (UE), mamy wyraźne podkreślenie, że firma operująca na AI powinna zapewnić, że wszelkie negatywne skutki dla działania algorytmu powinny być identyfikowane, oceniane, dokumentowane i minimalizowane. Oczywiście z zachowaniem zasady proporcjonalności.

Czytaj także: EBA o przyznawaniu kredytów z udziałem robota, wykorzystującego ML

Co ciekawe, mamy tutaj odniesienia do wielu kwestii dotyczących trudno mierzalnych norm etycznych czy praw podstawowych. Może to być więc nie lada wyzwanie, bowiem ocena taka może być bardzo subiektywna.

W każdym razie eksperci Komisji (UE) chcą, aby w organizacji funkcjonował odpowiedni system zarządzania ryzykiem (AI), który obejmuje także odpowiednie szkolenia, w tym w zakresie odpowiedzialności prawnej, utworzenie tzw. ethics review board czy wdrożenie odpowiednich systemów raportowania, w tym przez podmioty zewnętrzne ‒ w zakresie wykrytych nieprawidłowości.

Duża rola będzie tutaj nie tylko komórek ds. zarządzania zgodnością, ale również compliance, co akcentuje także wspomniane przeze mnie stanowisko w sprawie robo-advisory.

Czytaj także: Chatbot może przynieść miliony dolarów oszczędności. Ale trzeba uważać, żeby nie zamienił się w rasistę

Polityka sztucznej inteligencji dla Polski

Mowa o tej obecnie obowiązującej („Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019 – 2027. Godna zaufania sztuczna inteligencja, autonomia i konkurencja” Ministerstwo Cyfryzacji – przyp. Red.), bo w III kwartale br. ma się pojawić nowa.

Tutaj też znajdziemy pewne wskazówki. Eksperci wskazują m.in. że w ramach organizacji powinny funkcjonować takie ramy zarządcze, które zapewniają rozliczalność etycznych aspektów AI, np. poprzez wyznaczenie osób odpowiedzialnych za ten obszar.

No i ważny jest nadzór prawny, który tutaj ma być kluczowy. Pracy dla prawników pewnie nie zabraknie.

Tyle w skrócie…

O kwestii odpowiedzialności odszkodowawczej czy osobowości prawnej pisałem już wielokrotnie, więc nie będę powielał wątku. Te wszystkie zasady być może zostaną skodyfikowane.

Na razie mamy jednak miękkie regulacje, które dają dużą swobodę w kształtowaniu tych procedur. Wydaje się jednak, że wraz z rozwojem rozwiązań opartych o AI, coraz częściej będziemy słyszeli o politykach czy procedurach specyficznych dla sztucznej inteligencji.

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.
Źródło: FinregtechPl