Kto odpowie za błędy sztucznej inteligencji: producent czy operator?

Kto odpowie za błędy sztucznej inteligencji: producent czy operator?
Fot. Stock.Adobe.com/phonlamaiphoto
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Raport "Liability for Artificial Intelligence and other emerging digital technologies" Komisji UE nt. odpowiedzialności sztucznej inteligencji (AI) oraz innych rozwijających się technologii przybliża nas do uregulowania kwestii prawnych związanych z wykorzystaniem AI, co pokrywa się zresztą z podejściem zaproponowanym w Polityce Rozwoju Sztucznej Inteligencji.

#MichałNowakowski: Odpowiedzialność producenta za AI będzie trwała do momentu, w którym miał on kontrolę nad algorytmem, np. poprzez aktualizacje #SztucznaInteligencja #Cyberbezpieczeństwo #KomisjaEuropejska @FinregtechPL

Jakie są kolejne aspekty prawne związane z odpowiedzialnością AI, w tym jakie podejście prezentują eksperci Komisji w kontekście przyznania osobowości prawnej AI, a także innych wyzwań prawnych w tym obszarze?

Zacznijmy od „smutnej” wiadomości (choć ja akurat zgadzam się z konkluzjami grupy) – na tym etapie rozwoju AI nie ma potrzeby przyznawania jej osobowości prawnej.

Ba, można nawet stwierdzić, że próba utworzenia (przypisania) takiej osobowości AI mogłaby być szkodliwa dla dalszego rozwoju sztucznej inteligencji.

Jakie argumenty?

W 2017 r. pojawiła się koncepcja przyznania tzw. elektronicznej osobowości prawnej sztucznej inteligencji (wyrażona w tym raporcie Komisji). Nie była ona przesadnie rozbudowana i zakładała, że w określonych przypadkach AI (tutaj akurat roboty) mogłoby odpowiadać (naprawiać szkodę) za swoje błędy (co oznaczałoby, że może mieć pewną autonomiczność i swobodę podejmowania decyzji).

Koncepcja nie przyjęła się jednak i raport to potwierdza.

Autorzy raportu wskazują, że nawet w przypadku osób fizycznych mamy różne „stadia” osobowości prawnej (mowa tutaj oczywiście o osobach niepełnoletnich) i nie zawsze jej posiadanie sprowadza się do „osobistej” (osobowej) odpowiedzialności za wyrządzoną szkodę. Analogiczny przykład można wskazać przy okazji osób prawnych, które de facto nie ponoszą odpowiedzialności.

W raporcie poruszono potencjalną możliwość zastosowania „protezy”, czyli przyznania takiej osobowości prawnej, która ograniczałaby się do odpowiedzialności za zobowiązania przy braku praw. Jak słusznie jednak zauważono, aby mówić o odpowiedzialności cywilnej musimy mieć również prawo własności (aktywa), aby taką szkodę naprawić.

I to bardzo słuszna uwaga, bo jeżeli wypracowane przez AI aktywa miałyby stać się własnością „operatora”, to w dalszym ciągu mielibyśmy problem z wyegzekwowaniem odszkodowania.

Co to oznacza? To, że eksperci komisji są zdania, że na obecnym etapie rozwoju nie ma ani potrzeby, ani podstaw do nadawania AI osobowości prawnej (i to pokrywa się z opiniami wyrażonymi w Polityce Rozwoju Sztucznej Inteligencji).

Jest to konsekwencją tego, że odpowiedzialność osobowa (korporacja i/lub osoba fizyczna) jest tutaj raczej łatwa do przypisania (programista, operator etc.).

Innym wyzwaniem byłoby wspomniane już zapewnienie odpowiedniego „portfela” na spłatę odszkodowań przez AI.

Jeżeli przyrównamy to do odpowiedzialności spółki z ograniczoną odpowiedzialnością, to co będzie stało na przeszkodzie, żeby wyposażyć AI w minimalny „kapitał zakładowy” w wysokości 5 000 zł?

Odpowie więc producent czy operator?

I tak, i nie. W raporcie wskazano, że pełna odpowiedzialność za działalność AI powinna być „przypisywana”, jeżeli szkoda powstała w przestrzeni publicznej i osobie, która kontroluje ryzyko związane z działalnością AI (i która czerpie z tego określone korzyści).

To co jednak może być trudne do osiągnięcia, to określenie kiedy (np. w przypadku jakiej szkody) taka pełna odpowiedzialność powstaje. Pewnie najbardziej sensownym (realnym?) rozwiązaniem byłoby użycie określonych wskaźników ilościowych, ale sprawa nie jest wcale oczywista.

Z tego względu taki podział na obszar publiczny i niepubliczny może być wyzwaniem dla prawodawców. Nie zmienia to jednak faktu, że głównym „podejrzanym” będzie operator (używający AI i czerpiący z tego korzyści), a nie producent.

A może jednak?

Producent (twórca algorytmu lub – jak mniemam – narzędzia, które je wykorzystuje) również będzie ponosił odpowiedzialność za swoje dzieło.

Taka odpowiedzialność pojawi się bowiem w przypadku, gdy algorytm był wadliwy. Tutaj duże znaczenie będzie miał sposób implementacji Dyrektywy 2019/771 w sprawie niektórych aspektów sprzedaży towarów (w tym cyfrowych).

Samo określenie wadliwości może być prawdziwym wyzwaniem, szczególnie przy bardziej rozbudowanych algorytmach. Istotne będzie tutaj osiągnięcie celu algorytmu, ale przecież AI mogło działać poprawnie, a wpływ zewnętrznych czynników mógł zadecydować o niewykonaniu zadania.

Dlatego też to na producencie będzie spoczywał obowiązek wykazania, że stworzona przez niego sztuczna inteligencja działała poprawnie i zgodnie z dobrymi praktykami (w tym trustoworthy AI).

Nie będzie jednak tak, że producent nie będzie mógł się ekskulpować. Odpowiedzialność będzie bowiem trwała do momentu, w którym miał on kontrolę nad algorytmem, np. poprzez odpowiednie aktualizacje czy ulepszenia, tak jak ma to miejsce w aplikacjach mobilnych czy samochodach autonomicznych.

Jest to więc nieco szersza odpowiedzialność niż gdybyśmy sprzedawali wyłącznie licencję na oprogramowanie. I to jest sensowne podejście, bo może skłaniać do tworzenia (bardziej) bezpiecznych rozwiązań.

Jeszcze kilka słów o odpowiedzialności „solidarnej”

W raporcie wskazano, że jeżeli dwie lub więcej osób „kontroluje” dane urządzenie czy oprogramowanie (w raporcie posłużono się commercial and technological unit, więc jest to raczej luźnie tłumaczenie) i udowodnienie, który z elementów wywołał szkodę nie jest możliwe, to te osoby odpowiadają solidarnie za wyrządzoną szkodę.

Aby określić, czy taka sytuacja w ogóle zachodzi, autorzy raportu dali wskazówki. Taka sytuacja zajdzie więc, jeżeli mamy:

Wspólną akcję marketingową;

Odpowiedni poziom technologicznej zależności i operacyjności;

Odpowiedni poziom „specyficzności” lub „wyłączoności” lub ich kombinację.

 

 

 

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315,

Counsel w Citi Handlowy, założyciel www.finregtech.pl

Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: FinregtechPl