AI W FINANSACH 2021: Czy unijne regulacje zagrażają innowacjom?
Karol Jerzy Mórawski: Jakie wyzwania natury prawnej generuje dynamiczny rozwój sztucznej inteligencji, i na ile systemy prawne państw europejskich są gotowe na ich rozwiązywanie?
Arwid Mednis: Rozwiązania z zakresu sztucznej inteligencji już generują sporo ciekawych zagadnień prawnych. Jednym z najszerzej dyskutowanych jest kwestia odpowiedzialności za szkody wynikające z działań systemów AI, np. użytych w pojazdach autonomicznych czy innych urządzeniach, w których zastosowano uczenie maszynowe.
Równie ważna jest kwestia wyjaśnialności działania algorytmów, czyli problem potocznie nazywany black box. Pojawiają się już wprawdzie technologie umożliwiające odczytanie jak działa dany system AI, ale problem nadal istnieje.
Pod względem liczby zastosowań i patentów oraz zaawansowania badań związanych ze sztuczną inteligencją Unia Europejska zajmuje miejsce za USA i Chinami, a depczą nam po piętach Indie
To nie jest tak, że nie mamy żadnych reguł prawnych odnoszących się do AI. Weźmy przykład algorytmów profilujących klientów, użytkowników internetu lub inne osoby pod kątem ich potencjalnych zachowań zakupowych, zdolności kredytowej, itp.
Jeśli chodzi o kwestię wyjaśnialności działania modelu służącego do profilowania osób fizycznych to mamy przecież RODO, które wymaga zachowania pewnego zakresu przejrzystości działania algorytmu wobec osoby profilowanej. Mamy też w RODO zasadę minimalizacji danych, a więc obowiązek przetwarzania tylko tych danych osobowych, które są niezbędne do określonego celu.
Tu pojawia się kwestia, jak wykazać, że w uczeniu maszynowym zastosowano tylko dane niezbędne? Teoretycznie, spory na tym tle powinien badać Prezes Urzędu Ochrony Danych Osobowych, ale szczerze mówiąc nie słyszałem o sprawach tego typu rozpatrywanych przez Urząd.
Z regulowaniem zagadnień technologicznych powinniśmy być ostrożni, bo już od dawna słychać głosy, że przeregulowanie zagraża innowacji. Dziś, według różnych rankingów, pod względem liczby zastosowań i patentów oraz zaawansowania badań związanych ze sztuczną inteligencją Unia Europejska zajmuje miejsce za USA i Chinami, a depczą nam po piętach Indie.
Jednym z powodów takiego stanu rzeczy ma być nadmierna regulacja różnych aspektów wykorzystywania nowych technologii.
Jednak, czy tego chcemy czy nie, Unia przywiązuje dużą wagę do utrzymania wysokich standardów ochrony praw i wolności obywateli.
Co w tym kontekście może zmienić zapowiadane przez UE, nowe rozporządzenie w sprawie sztucznej inteligencji?
Zaproponowany w kwietniu br. przez Komisję Europejską projekt rozporządzenia o sztucznej inteligencji nie będzie regulował AI w sposób kompleksowy. Sama Komisja wskazuje, że propozycja dotyczy tylko tych zagadnień, które jej zdaniem trzeba uregulować prawnie, ponieważ niosą ze sobą ryzyko dla praw i wolności.
Projekt rozporządzenia jest obecnie dyskutowany, zgłoszono do niego dużo uwag, więc nie wiadomo kiedy i w jakim kształcie rozporządzenie zostanie przyjęte
Projekt jest wynikiem konsultacji i analizy ryzyka, wskazującej, które aspekty AI wymagają interwencji prawodawcy. W samym projekcie również zastosowano podejście oparte na analizie ryzyka i wyróżniono zastosowania AI, które stwarzają ryzyko: niedopuszczalne, wysokie, niskie lub minimalne.
Wskazano zakazane praktyki w zakresie zastosowania AI (chodzi m. in. takie, które prowadzą do manipulowania ludźmi podprogowo lub w inny sposób poza ich świadomością).
Jeśli chodzi o systemy wysokiego ryzyka to muszą one spełniać określone wymogi. Komisja kładzie również duży nacisk na transparentność działania AI.
Z drugiej strony, projekt zawiera normy sprzyjające innowacyjności w zakresie sztucznej inteligencji, a także inne, których omówienie wymagałoby więcej miejsca.
Projekt rozporządzenia jest obecnie dyskutowany, zgłoszono do niego dużo uwag, więc nie wiadomo kiedy i w jakim kształcie rozporządzenie zostanie przyjęte.
Instytucje finansowe zmagają się z sukcesywnym wzrostem obowiązków w zakresie raportowania. Czy i w jakim stopniu AI może ograniczyć zaangażowanie pracowników w te procesy, uwalniając ich do wykonywania bardziej efektywnych działań biznesowych, a z drugiej strony ograniczyć koszty backoffice?
Takie rozwiązania już się testuje i wprowadza. Przykładem może być duża międzynarodowa firma, która w ubiegłym roku zgłosiła się do naszej kancelarii. Zamierza wprowadzić rozwiązania polegające na automatyzacji takich procesów jak: księgowość, sprawozdawczość, HR, itd.
System na podstawie dotychczas stworzonych dokumentów miał się nauczyć określonych czynności. W pierwszej kolejności miały to być czynności proste typu wypełnianie formularzy, sporządzanie prostych umów, itp., odciążające pracowników, którzy dzięki temu mogliby zając się innymi sprawami firmy.
Myślę, że tego typu automatyzacja wspomagana przez AI, również w zakresie raportowania, to przyszłość wielu firm.
Od pewnego czasu mówi się o zjawisku RegTech, jako swoistej analogii do Fintech. Jaki będzie wpływ sztucznej inteligencji na rozwój tego segmentu rynku?
Niektórzy twierdzą, że „RegTech” wyrasta z „Fintechu”, ale moim zdaniem to jednak trochę co innego. O FinTechu mówimy w kontekście rozwoju technologii używanych w usługach finansowych.
Sektor finansowy pod względem ilości regulacji i stopnia ich komplikacji konkuruje jedynie z rynkiem łączności elektronicznej, na którym mamy do czynienia z podobną intensywnością działań prawodawcy
RegTech pokrywa w większym stopniu aspekt regulacyjny. Rynek finansowy jest mocno regulowany, stąd idea, aby obniżyć koszty zgodności z regulacjami m. in. poprzez automatyzację sprawozdawczości.
Rynek finansowy jest regulowany w wysokim stopniu, niektórzy mówią wręcz o nadregulacji. Zajmując się w mojej praktyce kilkoma rynkami regulowanymi, mogę stwierdzić, że sektor finansowy pod względem ilości regulacji i stopnia ich komplikacji konkuruje jedynie z rynkiem łączności elektronicznej, na którym mamy do czynienia z podobną intensywnością działań prawodawcy.
Wydaje mi się, że wiele działań podmiotów regulowanych da się zautomatyzować, szczególnie te, które polegają na sprawozdawczości do organu regulacyjnego. Przykład firmy, który podałem, też do tego zmierza, chociaż chodzi akurat o firmę spoza sektora finansowego.
Ważna jest jednak dbałość o jakość rozwiązań AI, o obowiązek ich testowania, wyjaśnialności, a do tego np. możliwość certyfikowania jakości tych rozwiązań.