Czy sztuczna inteligencja będzie zawierała umowy, zgodnie z prawem?
Dzisiaj postanowiłem zmierzyć się z tym, co można zrobić, aby sztuczna inteligencja mogła zawierać kontrakty i czy w naszym porządku prawnym jest to w ogóle możliwe, np. w celu „odczłowieczenia” uciążliwych procesów związanych z podpisywaniem umów. Przejdźmy więc do konkretów, przynajmniej części.
I od razu moja odpowiedź ‒ może ktoś się nie zgodzi. W obecnym kształcie nie jest to chyba do końca możliwe, jeżeli czytamy przepisy bardzo literalnie. Problem polega bowiem na oświadczenia woli.
Zgodnie z art. 60 Kodeksu cywilnego, wola osoby dokonującej czynności prawnej może być wyrażona przez każde zachowanie się tej osoby, które ujawnia jej wolę w sposób dostateczny, w tym również przez ujawnienie tej woli w postaci elektronicznej ‒ tutaj dla określonych czynności prawnych mamy art. 78(1) Kodeksu cywilnego.
Mamy tutaj osobę, a sztuczna inteligencja osobą nie jest, a więc nie ma zdolności do czynności prawnych (nawet ograniczonej) i przez to nie może składać oświadczeń woli skutecznych dla określonej czynności, np. zawarcia umowy sprzedaży czy o świadczenie usług.
I nie ma co tutaj dyskutować nad tym, czy AI powinno mieć jakąś formę osobowości ‒ bo na razie nie ma takiej woli zarówno na poziomie UE, jak i Polski.
AI mogłoby to robić szybciej
Nie myślę tutaj o dość ryzykownych rozwiązaniach jak Digital Autonomous Organizations (DAO), które w zamyśle mają być całkowicie niezależnym organizacjami (spółkami), rządzącymi się kodem.
Chodzi mi raczej o sytuacje, w których AI powierzamy dokonanie podstawowej weryfikacji naszego kontrahenta, z uwzględnieniem określonych zasad oceny, np. ryzyka i zawarcia umowy albo w swoim własnym imieniu, albo naszym.
W tym wszystkim chodzi jedno o to, aby oświadczenie woli, np. ofertę made-to-measure – w rozumieniu art. 66 Kodeksu cywilnego, składała sztuczna inteligencja, czyli algorytm spełniający warunki testu Turinga i będący wystarczająco autonomiczny, żeby „samemu” podjąć taką decyzję.
Pozwoliłoby to na automatyzacje wielu frustrujących procesów np. związanych z KYC, które mogłyby być wykonywane szybciej i chyba lepiej, bo jak pokazują różne dane, AI jest po prostu od nas lepsze w niektórych czynnościach.
Musielibyśmy tutaj jednak pamiętać o wszystkich tych zasadach, które określa koncepcja tzw. Trustworthy AI.
Na myśl przychodzi mi tylko jeszcze jedna kwestia. Czy AI będzie równorzędnym partnerem, czy też regularnie, jako ludzie, będziemy powoływali się na art. 5 Kodeksu cywilnego?
Czyli się nie da?
W takim ujęciu jak wskazałem powyżej i bez przyznania chociażby ograniczonej zdolności do czynności prawnych (art. 15 i art. 17) – raczej nie. Poza już wskazanym przeze mnie art. 60 i jego „osobowym” charakterem.
Pojawiają się też inne wyzwania, jak te związane z identyfikacją AI ‒ sztuczna inteligencja nie posługuje się przecież żadnym dowodem tożsamości, a prawdziwie cyfrowego eID nadal nie mamy. Jeżeli sztuczna inteligencja nie miałaby osobowości, to jakie jej elementy byłyby atrybutami tożsamości?
Może certyfikaty zbudowane w oparciu o Rozporządzenie 910/2014 (eIDAS)? Przy czym, jeżeli mówimy o identyfikacji elektronicznej, to definicja z ww. rozporządzenia nie pozostawia złudzeń – jest to proces używania danych w postaci elektronicznej identyfikujących osobę, unikalnie reprezentujących osobę fizyczną lub prawną lub osobę fizyczną reprezentującą osobę prawną.
Czyli albo zmiana rozporządzenia, albo osobowość prawna dla AI.
Mamy też inne wyzwania
Jeżeli chcielibyśmy dokonać czynności prawnej, a tzw. AI miałoby to zrobić, w formie elektronicznej, to mamy z kolei art. 78(1) Kodeksu cywilnego, który stanowi, że do zachowania elektronicznej formy czynności prawnej wystarcza złożenie oświadczenia woli w postaci elektronicznej i opatrzenie go kwalifikowanym podpisem elektronicznym.
Świetnie, tylko czy „podpisującym” w rozumieniu Rozporządzenia eIDAS mogłoby być AI? Definicyjnie? Niestety nie, bo podpisującym jest osoba fizyczna, która składa podpis elektroniczny.
No więc klops, bo nie bardzo mamy możliwość przeskoczyć te bariery bez wprowadzenia istotnych zmian do naszego porządku prawnego i to jak widać – zarówno na poziomie UE, jak i krajowym.
A mamy jeszcze…
Kwestię odpowiedzialności, ale tę jeszcze jako tako da się „załatwić”. Zakładając, że stosujemy reżim z art. 449(1) Kodeksu cywilnego czyli odpowiedzialność za produkt niebezpieczny lub inną odpowiedzialność deliktową (rzecz, pies), to czysto teoretycznie można by było tutaj tę kwestię odhaczyć.
Jeżeli jednak przyjmujemy, że AI samo odpowiada za siebie, to sprawa nam się jednak komplikuje, bo ram prawnych dla takiej odpowiedzialności nie ma i nie będzie, dopóki AI będzie „czymś” ‒ a nie „kimś”.
A, byłbym zapomniał. Przy okazji propozycji Komisji (UE) dot. odpowiedzialności AI eksperci wskazali „(…) all physical or virtual activities, devices or processes that are driven by AI systems may technically be the direct or indirect cause of harm or damage, yet are always the result of someone building, deploying or interfering with the systems (…)”.
Można sobie jednak wyobrazić pewne rozwiązania
I mam na to jakiś pomysł, choć pewnie cywiliści mnie zjedzą. Niemniej jednak w jednym z kolejnych artykułów postaram się przybliżyć moje przemyślenia. A może już teraz ktoś ma jakiś pomysł?
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.