Prawa podstawowe a sztuczna inteligencja, dlaczego powinniśmy o nie walczyć?

Prawa podstawowe a sztuczna inteligencja, dlaczego powinniśmy o nie walczyć?
Fot. stock.adobe.com /sdecoret
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Projekt rozporządzenia Unii Europejskiej w sprawie sztucznej inteligencji poza tym, że zawiera sporo odesłań do wartości (bliskich Unii) czy ochrony praw podstawowych, jest też w wielu miejscach niezwykle - na pozór - restrykcyjny, chociażby w odniesieniu do systemów wysokiego ryzyka, ale także praktyk zakazanych. Z czysto biznesowego punktu widzenia można więc dojść do przekonania, że projekt zahamuje innowacje, co zresztą, także i w moich felietonach, pojawia się dość często. I rzeczywiście tak może być. Pytanie czy to źle? ‒ pisze Michał Nowakowski, FinregtechPl.

No właśnie. Kluczowe jest przede wszystkim zrozumienie, czym jest sztuczna inteligencja ‒ po prostu bardziej lub mniej rozbudowanym algorytmem opartym o określone zależności, dane i metody ich analizy, który jest tworzony przez CZŁOWIEKA.

Parlament Europejski, jak i w sumie Komisja (UE) odmawiają AI przyznawania osobowości prawnej twierdząc – słusznie – że jednak za algorytmem stoi zawsze człowiek. Nawet najbardziej rozbudowane algorytmy, w tym te uczące się, w dalszym ciągu są naszym wytworem, na co zresztą wskazuje sama nazwa sztucznej inteligencji.

Autonomiczne czy bardziej częściowo autonomiczne algorytmy nadal są zależne od twórcy lub użytkownika

W istocie. Człowiek decyduje o tym w jaki sposób ma działać algorytm, jaki cel mu przyświeca oraz na jakich danych będzie bazował przy podejmowaniu decyzji – na to wskazuje chociażby „modelowa cecha” sztucznej inteligencji godnej zaufania (od człowieka, dla człowieka).

Autonomiczne czy bardziej częściowo autonomiczne algorytmy nadal są zależne od twórcy lub użytkownika. W każdym momencie możemy je wyłączyć, przekierować czy poprawić, aby działały ZGODNIE Z NASZYMI OCZEKIWANIAMI. Czasem zajmie to nam więcej czasu lub nie będziemy wiedzieli, jak to zrobić (co może prowadzić do poważnych komplikacji), ale to będzie wyłącznie nasz autonomia i sfera decyzyjna, a nie maszyny. Zawsze.

Czytaj także: Kongres Gospodarki Elektronicznej, jak AI wpłynie na funkcjonowanie gospodarki?

Zasady etyki w obszarze nowych technologii

W jednym z dokumentów Parlamentu Europejskiego pojawiła się propozycja, żeby definiować AI jako jakieś rozwiązanie technologiczne, które przejawia „zachowania” symulujące inteligencję, m.in. poprzez zbieranie i przetwarzanie danych, analizę oraz interpretację otoczenia i podejmowanie decyzji z pewną dozą autonomii, a wszystko po to, aby osiągnąć określony cel.

Ten cel zawsze będzie jasno określony na etapie tworzenia algorytmu – i o ile wiem nie ma na tą chwilę przewidywań, że w najbliższym czasie AI stanie się autonomiczne, choć tego wykluczyć nie można. To, czym są algorytmy świetnie zobrazował J. J. Bryson:

„(…) actual algorithms are abstractions, that only means algorithms in themselves are not AI. (…) an algorithm is just a list of instructions to be followed, like a recipe baking’[1]”.

Wcale nie powoduje to, że powinniśmy przestać rozmawiać o ewentualnym rozwoju AI, bo nigdy nie wiemy, co nas czeka. Pewnie o wielu innowacjach też nie wiemy. Chodzi bardziej o to, że algorytm – sztuczna inteligencja – jest tworem sztucznym zależnym od człowieka i będącym jego wytworem. I dlatego tak dużo mówimy o prawach podstawowych i wartościach w kontekście sztucznej inteligencji.

Skoro człowiek odpowiada za tworzenie algorytmu i następnie wykorzystuje go do „niecnych” celów, to musi ponieść odpowiedzialność

No właśnie, dlaczego tak jest? W jednym z ostatnich artykułów pisałem o roli etyki w obszarze nowych technologii. Zarówno wspomniana etyka, jak i twarde (oraz miękkie) prawo są nam potrzebne, aby chronić nas samych – ludzi. Skoro człowiek odpowiada za tworzenie algorytmu i następnie wykorzystuje go do „niecnych” celów, to musi ponieść odpowiedzialność.

Dlatego nie rozmawiamy – na razie – o osobowości prawnej algorytmów, bo po pierwsze rodzi to istotne wyzwania w sferze stosunków prywatnoprawnych, ale i publicznoprawnych, a po drugie nie zawsze sama zapłata (odszkodowanie) spełni swoją funkcję. Poza tym czy „nauczy” ona algorytm niepodejmowania podobnych działań w przyszłości?

Czytaj także: Projekt rozporządzenia UE w sprawie #artificialintelligence w pigułce; jak sztuczna inteligencja zmieni oblicze finansów

Za błędy odpowiadają ludzie, nie algorytmy

Nowe technologie są narzędziami, które pozwalają na więcej i szybciej, w tym także ‒ niestety w obszarze nadużyć (nie tylko świadomych). Często w mediach pojawiają się informacje o tym, że algorytm jest stronniczy lub podejmuje dyskryminujące decyzje. Czy to, aby na pewno, algorytm? A może niewłaściwie zaprogramowany „robot”? A może to dane są temu „winne”? A jeżeli tak, to kto za nie odpowiada? Może my wszyscy?

Prawda jest taka, że to człowiek gdzieś popełnił błąd – bądź to z nieuwagi czy nieświadomości, bądź też celowo. Musi ponieść więc odpowiedzialność – tak jak w przypadku produktów niebezpiecznych, których działania czy skutków nie jesteśmy w 100% w stanie przewidzieć. Przepisy mają dać nam możliwość dochodzenia roszczeń (cywilnych) czy odpowiedzialności (karnej i/lub administracyjnej) od tego kto zawinił.

I dlatego też postulaty czy twarde wymogi w zakresie pewnych kategorii systemów AI kierowane są nie do sztucznej inteligencji, ale człowieka. To on ma wprowadzić rozwiązania zapewniające mu kontrolę nad algorytmami. To nie AI jest godna zaufania, to człowiek za nią stojący ma być „trustworthy”.

W sferze prywatnoprawnej jest zapewne łatwiej, ale co w przypadku, gdy zaawansowane narzędzia stosowane są przez sektor publiczny? Czy zapewniona jest wtedy równowaga stron?

Na to pytanie „próbuje odpowiedzieć” propozycja Komisji. Środki ochrony – również w formie odgórnych zakazów – muszą się pojawić, aby uniknąć nie tylko nadużycia, ale też niepewności prawnej. Czy chcielibyśmy obudzić się któregoś dnia i dowiedzieć się z mediów, że w naszym mieście zainstalowano monitoring wizyjny analizujący nasze zachowania i „wyciągający” konsekwencje? Pewnie niewielu z nas – nawet zwolennikom zapewnienia bezpieczeństwa – by się to podobało. To oczywiście skrajny i przejaskrawiony przypadek, ale wcale nie niemożliwy.

Przepisy mają dać nam możliwość dochodzenia roszczeń (cywilnych) czy odpowiedzialności (karnej i/lub administracyjnej) od tego kto zawinił

Tutaj też dochodzimy do sedna. Wprowadzanie ograniczeń bazujących na prawach podstawowych ma sens i tego nie ma co kwestionować. Pytanie jest raczej o to, gdzie są granice i jak tworzyć przepisy i regulacje, aby nie nastąpiło „przegięcie” w którąś stronę.

Znalezienie balansu nie będzie z pewnością proste. Nakładanie nowych obowiązków zawsze musi następować „z wyczuciem” i poszanowaniem fundamentalnych zasad, w tym zasady proporcjonalności. Obstawiam, że przez najbliższe lata będziemy raczej eksperymentować i choć części z nas się to nie spodoba, to postęp technologiczny nie jest 0/1, a reagować trzeba.

 

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

[1] J. J. Byrson, The Artificial Intelligence of the Ethics of the Artificial Intelligence: An Introductory Overview for Law and Regulation [in:] D. Dubber, F. Pasquale (ed.), The Oxford Handbook…, ibidem, p. 6

Źródło: aleBank.pl