Czeka nas bunt sztucznej inteligencji?
Na te pytania próbowaliśmy już sobie odpowiedzieć w kilku artykułach, a dzisiaj przyszedł czas na bardzo interesujący raport Komisji (UE), który jest skierowany m.in. do Parlamentu Europejskiego.
Ten dokument to Report on the safety and liability implications of Artificial Intelligence, the Internet of Things and robotics, który świetnie obrazuje jak działa odpowiedzialność za produkt niebezpieczny w kontekście wykorzystania sztucznej inteligencji. Przejdźmy przez najważniejsze wnioski.
Czytaj także: Czy Rozporządzenie RODO uzasadnia zgodne z prawem wykorzystanie sztucznej inteligencji?
W tym miejscu warto poczynić pierwsze zastrzeżenie. Zarówno Biała Księga ws. AI, jak i omawiany raport, wskazują, że obecne ramy prawne (z pewnymi zastrzeżeniami) wpisują się w sztuczną inteligencję, choć oczywiście wymagają pewnych, niekiedy dość istotnych, dostosowań.
Bezpieczeństwo najważniejsze
Bezpieczeństwo ‒ w kontekście, rozumiane jako tworzenie systemów wykorzystujących sztuczną inteligencję, które są tak tworzone, aby na każdy etapie mogły być poddane sprawdzeniu (pod kątem zgodności) oraz biorące pod uwagę bezpieczeństwo wszystkich.
Autorzy raportu skupili się tutaj przede wszystkim na dość wiekowej dyrektywie w sprawie ogólnego bezpieczeństwa produktów, która zobowiązuje producentów do wprowadzania wyłącznie bezpiecznych produktów (dla konsumentów), co rozumieć należy m.in. przez spełnienie określonych norm bezpieczeństwa. Warto tutaj wskazać, że obecnie trwają prace nad stworzeniem międzynarodowego standardu dla AI.
Czytaj także: Kto odpowie za błędy sztucznej inteligencji: producent czy operator?
I choć autorzy wskazują, że pomimo swojego „wieku” dyrektywa znajduje zastosowanie do AI, IoT czy inteligentnych robotów, to rzeczywiście nie wszystkie aspekty związane z tymi technologami są wyraźnie w niej nakreślone.
Connectivity, czyli zależność od bezprzewodowej łączności
To niezwykle istotna kwestia również w kontekście sektora finansowego i wyrażona m.in. w ustawie o krajowym systemie cyberbezpieczeństwa i aktach delegowanych oraz wytycznych EBA w sprawie ryzyk IT i bezpieczeństwa.
Czytaj także: Są zmiany, a czasu mało. Wytyczne EBA ws. zarządzania ryzykami IT oraz bezpieczeństwa
Fakt, że określone rozwiązania korzystają chociażby z Internetu powoduje, że stają się one podatne na ataki z zewnątrz. Może to skutkować nie tylko utratą wrażliwych danych (np. objętych tajemnicą zawodową) czy stratami finansowymi, ale nawet utratą zdrowia czy życia ‒ raczej w skrajnych przypadkach i chyba jeszcze nie na tym poziomie autonomiczności AI.
Dlatego tak istotna jest zasada „security and privacy by design and default”, m.in. w kontekście Internet of Things. Innym przykładem może być utrata łączności, która również może doprowadzić do negatywnych skutków, choć częściej będzie to raczej strata finansowa.
Wyobraźmy sobie scenariusz wykorzystania robo-advisory. Brak odpowiednich zabezpieczeń może umożliwić stronie trzeciej podmienienie danych, z których dany robot korzysta, i tym samym doprowadzić do manipulacji i niekorzystnego rozporządzenia środkami klienta, jeżeli ten z tej porady skorzysta. Podobny przypadek będziemy mieli w przypadku handlu algorytmicznego.
Czytaj także: Czy można przypisać odpowiedzialność karną algorytmowi? AI w e-handlu
Tak czy inaczej, autorzy raportu wskazują, że większych zmian nie należy oczekiwać. Dość ogólnie „opisana” dyrektywa i towarzyszące jej regulacje sektorowe, wskazują na ogólny wymóg zapewnienia bezpieczeństwa – celowo nie wskazując potencjalnych ryzyk. Jest to więc akt, który przynajmniej pod tym względem jest „future-fit”.
Zarówno dyrektywa, jak i ustawa o ogólnym bezpieczeństwie produktów nakładają na producentów pewne wymagania (np. w kontekście informowania o właściwościach produktu czy zagrożeniach z nimi związanymi).
Autonomia AI ‒ największy problem
To chyba największe wyzwanie. Zakładając, że sztuczna inteligencja może być autonomiczna i wyciągać wnioski nieprzewidziane przez jej twórcę, to zwykła analiza ryzyk związanych z jej wykorzystaniem może nie wystarczyć.
W przypadku samo-uczących się rozwiązań może to być jednak niewystarczające. Pierwotnie przedstawione informacje mogą bowiem po czasie okazać się nieprawdziwe lub niewystarczające.
Bądź na bieżąco – zapisz się na nasz newsletter>>>
Autorzy raportu wskazują tutaj, że być może dobrym rozwiązaniem byłoby wyraźne określenie jak często lub kiedy ‒ producent i/lub operator AI dokonywałby analizy ryzyk i potencjalnych zagrożeń związanych z wykorzystaniem określonego rozwiązania, a także jakie obowiązki się z tym wiążą, np. aktualizacja ostrzeżeń.
W teorii wydaje się to oczywiście sensowne i potrzebne, ale w praktyce może sprawić dużo trudności, bo jak ocenić właściwy moment na aktualizację?
Wysoki poziom autonomiczności może uniemożliwiać przewidzenie kolejnych posunięć AI (nie mamy pewności czy założony cel już nie uległ dezaktualizacji). I dlatego powinien pojawić się tutaj człowiek.
Człowiek zdecydowanie niezbędny
Chodzi oczywiście o kontrolę człowieka nad wykorzystaniem sztucznej inteligencji. Autorzy raportu podkreślają, że obecne ramy prawne w tym kontekście nie są dostosowane.
I tutaj pojawia się propozycja, aby wyraźnie wskazać, że AI powinna podlegać jakiejś formie kontroli przez człowieka. Pytanie ‒ jak ta kontrola ma wyglądać?
I ostatni aspekt dotyczący autonomii, czyli wykorzystanie danych. Jak pisałem na podstawie ostatniego raportu Komisji – without Data there is no AI. Co jednak w sytuacji, gdy AI żywi się błędnymi lub zmanipulowanymi danymi i na tej podstawie podejmuje złe decyzje, choć cel realizuje i działa etycznie.
Czytaj także: Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?
Autorzy sami jeszcze nie rozstrzygnęli tej kwestii. Stawiają więc pytanie ‒ czy unijne prawo powinno zawierać wyraźne postanowienia adresujące wykorzystanie takich „faulty data”, np. poprzez wyraźny nakaz wykorzystywania „dobrych” danych. Ciekawe…