O sztucznej inteligencji, definicjach i przyszłości biznesu AI
Rozstrzygnięcie kwestii definicji wydaje się kluczowe dla dalszego rozwoju legislacji i regulacji w obszarze „sztucznej inteligencji”, bowiem stanowi punkt wyjścia do zdefiniowania dodatkowych wymogów i ograniczeń związanych z określonymi rozwiązaniami wykorzystującymi np. uczenie maszynowe czy głębokie, ale także coraz bardziej popularne systemy generatywne, jak ChatGPT czy systemy ogólnego przeznaczenia.
Innymi słowy, brak uporządkowania (w sensie prawnym) podstawowych pojęć będzie skutkowało:
brakiem konkretnych (i niezbędnych) wymogów dla tych rozwiązań, które wpływają na człowieka i jego otoczenie, zarówno pozytywnie, jak i negatywnie;
spowolnieniem innowacji ze względu na niepewność prawną co do statusu określonych rozwiązań i „byciu w pogotowiu” co do wprowadzenia (lub nie) ewentualnych zmian o charakterze legislacyjnym;
trudnościami w wyegzekwowaniu odpowiedzialności dostawców oraz użytkowników systemów sztucznej inteligencji, co jest ściśle powiązane z brakiem specyficznych przepisów odnoszących się do odpowiedzialności za takie systemy – dzisiaj na poziomie UE projektowane są przepisy, które mają tę kwestię uporządkować (m.in. dyrektywa w sprawie odpowiedzialności pozakontraktowej), jednak bez punktu odniesienia jakim jest sama definicja odnośnych systemów będzie to co najmniej utrudnione; nie pomaga tutaj także brak definicji „oprogramowania”, która mogłaby stanowić swoistą protezę do czasu wypracowania finalnej definicji systemów AI;
brakiem kontroli nad wykorzystaniem systemów sztucznej inteligencji przez chociażby sektor publiczny, co może stanowić duże pole do nadużyć – uwaga ma zastosowanie także do sektora prywatnego.
Projekt rozporządzenia w sprawie sztucznej inteligencji („AIA”), który został zaprezentowany w kwietniu 2021 r. przez Komisję Europejską zawiera propozycję, zgodnie z którą systemem sztucznej inteligencji jest oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść wymienionych w załączniku I, które może – dla danego zestawu celów określonych przez człowieka – generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.
Wśród technik i podejść projekt wskazuje m.in. uczenie maszynowe i głębokie, przetwarzanie języka naturalnego, metody oparte na wiedzy i logice, ale także tradycyjne metody statystyczne. Choć definicja nie jest doskonała i podlega ewolucji w toku procesu legislacyjnego (obecnie mamy już chyba 9 lub 10 propozycję), to wydaje się, że przynajmniej w zakresie jej fundamentów możemy uznać ją za kierunkowo poprawną i użyteczną na potrzeby dalszych prac.
Czytaj także: O zarządzaniu ryzykiem przy tworzeniu fintechu opartego o sztuczną inteligencję i dane
Chaos definicji w UE?
Niestety, obecnie instytucje unijne zaczynają wprowadzać „zamęt”, próbując zdefiniować już nie tylko same systemy sztucznej inteligencji, ale np. systemy ogólnego przeznaczenia czy systemy powiązane z kategoryzacją biometryczną.
Jeżeli w AIA wyjdziemy poza słowniczek zawierający podstawowe definicje, to okaże się, że problemów do rozstrzygnięcia (doprecyzowania lub w ogóle ukształtowania) jest znacznie więcej.
Unia Europejska dodając coraz to nowe definicje sama kręci na siebie bat, bo jak myśleć tutaj o kolejnych definicjach, jeżeli nie ma konsensusu co do podstawowego – tytułowego – pojęcia?
Amerykańska AI Bill of Rights
Jednocześnie jednak warto zwrócić uwagę na nieco inne podejście zaprezentowane przez prawodawcę w USA, gdzie w AI Bill of Rights akcent położony jest nie tyle na definiowanie samych systemów sztucznej inteligencji, co zautomatyzowanych systemów (podobnie jest w przypadku Algorithmic Accountability Act), które w akcie rozumie się jako każdy system, oprogramowanie lub proces, który wykorzystuje obliczenia jako całość lub część systemu w celu przedstawienia wyników, podejmowania lub wspomagania decyzji, informowania o realizacji polityki, gromadzenia danych lub obserwacji lub innej interakcji z osobami lub społecznościami.
Systemy zautomatyzowane obejmują, ale nie ograniczają się do systemów wywodzących się z uczenia maszynowego, statystyki lub innych technik przetwarzania danych lub sztucznej inteligencji i nie obejmują pasywnej infrastruktury komputerowej.
Definicja ta – przynajmniej w niektórych aspektach – zbliżona jest do koncepcji zautomatyzowanego przetwarzania, o którym mowa w art. 22 ust. 1 Rozporządzenia 2016/679 („RODO”). Zresztą w kontekście zależności pomiędzy systemami AI a RODO pojawia się wiele wyzwań, na które wskazuje m.in. francuski odpowiednik Urzędu Ochrony Danych Osobowych w swoich wytycznych, a dodatkowo mamy tutaj wiele zagadnień związanych z tzw. etyką danych, która wzmacnia tylko te zależności.
Odpowiedzialność za systemy sztucznej inteligencji
Istotą powyższych definicji jest przede wszystkim wykorzystywanie technik i podejść zapewniających pewien stopień autonomiczności, przynajmniej w obszarze „nabywania wiedzy” przez takie systemy oraz wpływ i rola człowieka przy projektowaniu, ale i stosowaniu tego typu rozwiązań.
Szczególnie ten ostatni aspekt ma istotne znaczenie, bowiem dzisiaj nie podlega wątpliwości, że odpowiedzialność za systemy sztucznej inteligencji spoczywa na człowieku, m.in. twórcy, ale i operatorze takiego systemu.
Obecnie na poziomie Unii Europejskiej tworzone są przepisy, które mają tę kwestię uporządkować, choć ich ostateczny kształt nie jest jeszcze przesądzony, a dyskusja nad właściwym kierunkiem nadal trwa. Wiele również wskazuje, w tym opinie eksperckie czy rezolucje Parlamentu Europejskiego, że nikt nie myśli o nadawaniu #ai osobowości prawnej. W końcu to tylko narzędzie tworzone i wykorzystywane przez człowieka, a nic nie uzasadniania odmiennego podejścia. No może poza marketingowym chwytem.
Nie jest przedmiotem dzisiejszych rozważań zagłębianie się w istotę stosowanych technik i podejść na potrzeby systemów sztucznej inteligencji, jednak warto podkreślić, że niezależnie czy mówimy o uczeniu maszynowym czy głębokim, czy przetwarzaniu języku naturalnego i podejściach opartych na logice i wiedzy, „elementem” spajającym będzie człowiek, który ma jedynie większy lub mniejszy wpływ na to jak działa dany system, określa jego cel czy zakres dostępnych dla modelu danych.
Jest to o tyle istotne zagadnienie, że jego przyjęcie pozwala skupić się na realnych problemach związanych z AI, jak odpowiedzialność za samochody półautonomiczne, kwestie manipulacji z udziałem algorytmów czy zastosowania odpowiednich zasad z zakresu zarządzania danymi w kontekście przeciwdziałania stronniczości algorytmicznej i będącej jej rezultatem – dyskryminacji.
Etyka nowych technologii
W praktyce mogą oczywiście pojawić się kwestie związane z bardziej „futurystyczną” wizją sztucznej inteligencji, np. w kontekście humanoidalnych robotów czy augumentacji (to drugie jest akurat całkiem ciekawym i potrzebnym rozwiązaniem, np. w obszarze #healthcare), której poświęcę odrębny felieton, lecz dzisiaj kluczowe wydaje się skupienie na tych (realnych) zagadnieniach, które akcentowane są m.in. w propozycjach aktów prawnych na poziomie Unii Europejskiej odnoszących się do takich zagadnień jak dostęp do danych i udostępnianie danych czy moderacji treści oraz innych aspektów związanych z wykorzystaniem algorytmów i modeli sztucznej inteligencji.
Warto przy tym odnotować, że również na poziomie organizacji międzynarodowych podejmuje się próby – co najmniej – nakreślenia etycznych ram dla AI, co ma stanowić swoiste uzupełnienie dla tworzonych norm prawnych. Osobiście uważam, że etyka nowych technologii będzie stanowiła o istotne przewadze konkurencyjnej. Może nie dziś, może nie za 5 lat, ale w dłuższej perspektywie – na 100%.
Czytaj także: Jak zbudować fintech oparty o AI i dane
Kontrowersje wokół prawnych regulacji systemów AI
Istotne jest tutaj zastrzeżenie, że chociaż tematyka stosowania systemów sztucznej inteligencji jest bardzo żywiołowa, to jednak tworzenie ram prawnych dla tego stosunkowo nowego obszaru nie jest zadaniem łatwym, co widać w przeciągających się procesach uzgodnieniowych. Tematyka ta budzi też spore kontrowersje, np. w kontekście zakresu praktyk zakazanych, zakresu obowiązków dostawców i operatorów czy nawet środków wspierających innowacyjność, jak piaskownice regulacyjne dla AI (warto spojrzeć tutaj chociażby na art. 53 AIA).
Dość często wskazuje się na to, że choć nowe akty prawne mają szczytny cel jakim jest zwiększenie bezpieczeństwa człowieka i poszanowanie praw podstawowych, to jednocześnie – m.in. poprzez koszt wdrożenia wymogów prawnych – mogą one przyczynić się do obniżenia konkurencyjności i innowacyjności gospodarki UE i jej państw członkowskich.
I jest w tym trochę racji. Z drugiej strony ochrona praw podstawowych – czy po prostu człowieka – jest (powinna być) kluczowa dla wszystkich. Jeżeli uda się nam (tzn. prawodawcom) w sposób rozważny podejść zarówno do definicji systemów sztucznej inteligencji, tj. przestaniemy reagować w nerwowy sposób na każdą nowinkę i nadmiernie ekscytować się różnymi rozwiązaniami, próbując je na kolanie uregulować, a skupimy się na rozwiązywania realnych problemów (z pewnym wyprzedzeniem), to być może nowe wymogi w zakresie niektórych systemów #ai nie będą tak dotkliwe i nie doprowadzą do exodusu – unijnych przedsiębiorstw tworzących lub udostępniających – do USA czy innych bardziej przyjaznych jurysdykcji. To zresztą ciekawy wątek, bo to oznaczałoby de facto pozbawienie się konkretnego rynku i jest raczej mało prawdopodobne.
Przestałem ostatnio z wypiekami na twarzy śledzić kolejne propozycje i podchodzę do nich już w sposób metodyczny – ot, trzeba odnotować zmianę. Nie wiemy kiedy UE „dogada się” w tej sprawie, więc przynajmniej z perspektywy stricte prawnej każda kolejna propozycja jest bardziej ciekawostką niż wyznacznikiem przyszłości. Niemniej jednak, pewne fundamenty pozostaną raczej niezmienne i z tego względu już dzisiaj warto zastanowić się – czy jesteśmy gotowi na to, co nas czeka w najbliższych latach.
Dr Michał Nowakowski,
prezes Zarządu Polskiej Organizacji Niebankowych Instytucji Płatności (PONIP).
Poglądy i opinie wyrażone w niniejszym artykule stanowią wyłącznie osobiste poglądy autora i nie mogą być utożsamiane z poglądami lub opiniami instytucji, z którą autor jest lub był związany.