Czy można przypisać odpowiedzialność karną algorytmowi? AI w e-handlu

Czy można przypisać odpowiedzialność karną algorytmowi? AI w e-handlu
Fot. Stock.Adobe.com/peshkov
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Parlament Europejski opublikował niedawno bardzo ciekawy dokument "The ethics of artificial intelligence: Issues and initatives". Jest to pozycja ciekawa m.in. ze względu na praktyczne podejście do tematu wykorzystania AI w różnych obszarach naszego życia.

#MichałNowakowski: Sztuczna inteligencja, zaawansowana, może działać jak trader, który jest podatny na pokusy, a nawet bardziej, bo dysponuje większym zakresem informacji, i ma ściśle określony cel #AI #HandelAlgorytmiczny #OdpowiedzialnośćAI @FinregtechPL

Choć sektorowi finansowemu poświęcono niewiele (zaledwie dwie strony) i nie wszystkie realne wyzwania związane ze sztuczną inteligencją zostały przedstawione, to postanowiłem przyjrzeć się tym przykładom i spróbować znaleźć rozwiązanie wskazanych tam dylematów.

Handel algorytmiczny

To jeden z tych przykładów, kiedy sztuczna inteligencja może przynieść korzyści, ale również zaszkodzić. Jest to związane z dużo szybszym podejmowaniem decyzji przez algorytm niż może to mieć miejsce w przypadku udziału człowieka.

O ile nie da się przewidzieć wszystkich sytuacji, w których algorytm zawiedzie, np. na skutek odcięcia dopływu danych, to sytuacja komplikuje się w przypadku, gdy mamy udział osoby trzeciej lub niewłaściwe postępowanie algorytmu i trudności w zidentyfikowaniu, gdzie mamy błąd.

Autorzy dokumentu wskazują, że autonomiczne systemy handlu algorytmicznego mogą „dokonywać” przestępstw finansowych jak np. manipulacji.

Czytaj także: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?

Z dostępnych danych wynika (choć ja osobiście tych danych nie widziałem), że sztuczna inteligencja może nauczyć się „sztuczek” tradingowych, które mogą wiązać się z ryzykiem naruszenia przepisów o obrocie instrumentami finansowym.

Innym przykładem może być rozpowszechnianie nieprawdziwych informacji w celu wpłynięcia na kurs akcji, co również ma znamiona manipulacji (art. 5 dyrektywy MADII).

Prawda jest taka, że sztuczna inteligencja, o ile jest wystarczająco zaawansowana może działać jak trader, który również jest podatny na różne pokusy, a nawet bardziej, bo dysponuje większym zakresem informacji, a także ma ściśle określony cel, który powinna zrealizować.

Wplecenie w działanie algorytmu aspektów etycznych może być bardzo trudne, chociażby ze względu na trudności w skwantyfikowaniu i opisaniu wszystkich tego typu zachowań.

Odpowiedzialność za AI

Zasadniczymi problemami jakie pojawiają się w tym kontekście to m.in. przypisanie odpowiedzialności cywilnej:

‒ twórcy oprogramowania;

 ‒ sprzedającemu takie rozwiązanie;

 ‒ firmie inwestycyjnej (agentowi).

Przypisanie odpowiedzialności karnej algorytmowi (?) może być szczególnie trudne w przypadku, gdy przy manipulacji musi wykazać zamiar.

Kolejny problem to ‒ jak udowodnić działanie algorytmu w sposób sprzeczny z prawem i zasadami etyki;

‒ czy mamy do czynienia z winą.

W tym miejscu warto zaznaczyć, że choć handel algorytmiczny to nie robo-advisory, to wytyczne w tym zakresie byłyby bardzo pomocne.

Czytaj także: Kto odpowie za błędy sztucznej inteligencji: producent czy operator?

Pierwsze zagadnienie jest stosunkowo proste do rozstrzygnięcia. Zakładając, że w przypadku algorytmów bazujemy na zasadach odpowiedzialności za produkt niebezpieczny (a taką koncepcję zakładają raporty Komisji oraz podejście krajowe), to co do zasady za działalnie sztucznej inteligencji zajmującej się handlem algorytmicznym będzie odpowiadał producent (oczywiście przy spełnieniu dodatkowych warunków). W praktyce nie jest to jednak tak oczywiste.

Jeżeli przyjrzymy się art. 449(3) par. 2 Kodeksu cywilnego to okaże się, że producent nie odpowiada również wtedy, gdy właściwości niebezpieczne produktu ujawniły się po wprowadzeniu go do obrotu chyba, że wynikały one z przyczyny tkwiącej poprzednio w produkcie.

Nie odpowiada on także wtedy, gdy nie można było przewidzieć niebezpiecznych właściwości produktu, uwzględniając stan nauki i techniki w chwili wprowadzenia produktu do obrotu, albo gdy właściwości te wynikały z zastosowania przepisów prawa.

Tutaj pojawia się pytanie: na ile taki algorytm jest autonomiczny i rzeczywiście uczy się oraz podejmuje decyzje całkowicie samodzielnie i na ile określenie określonego celu jest „za wszelką cenę”, a na ile zostało ograniczone stosownymi ramami etycznymi i prawnymi (i na ile to możliwe). I na ile odpowiada za to programista.

Można tutaj oczywiście podpierać się zestawami danych, na których swoje działanie opiera algorytm, ale to nie zawsze będzie miarodajne. I jeszcze jedno pytanie: jak ograniczyć dostęp do danych, które powstają real-time, np. jeżeli algorytm dostrzeże, że ktoś, kto dokonał manipulacji i na tym zyskał ‒ to czy nie wykorzysta podobnej informacji w przyszłości?

Podobne wątpliwości powstają w przypadku, na ile jest możliwa ocena, czy te nowe „fraudalentne” właściwości algorytmu nie powstały później, co z resztą pokrywa się z punktem 3. Szczególne trudności pojawią się w przypadku rozwiązań typu „black box”.

A czy można przypisać odpowiedzialność karną algorytmowi? Oczywiście nie. Przynajmniej na razie. Ocena czy taką odpowiedzialność można przypisać konkretnej osobie będzie też wypadkową odpowiedzi na wyżej postawione pytania i nie jest jednoznaczna. Pytania ‒ czy ktoś kto korzysta z takiej AI działa intencjonalnie, czy bada (monitoruje) jak działa algorytm etc. Nie są to kwestie do rozstrzygnięcia na zupełnie abstrakcyjnym przykładzie.

Czytaj także: Czy sztuczna inteligencja zapłaci nam odszkodowanie?

Podobnie z oceną czy mamy tutaj do czynienia z winą ‒ umyślną/nieumyślną. Przecież algorytm realizuje tylko określony cel. A że czasem zrealizuje go niezgodnie z prawem czy etyką…

Czyli jednak nie tak prosto…

I to trochę tłumaczy pewną niechęć do wdrażania innowacyjnych rozwiązań opartych o AI. To wszystko pewne domysły, bo nie mamy jasnych wytycznych, co do odpowiedzialności i tego jak podejść do transparentności algorytmów, czy w ogóle to dobry i realny kierunek?

Dopóki będą istniały tak duże wątpliwości może okazać się, że wdrożenie AI-revolution może nie być możliwe. Jest to jednak temat, któremu warto się przyglądać.

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.

Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: FinregtechPl