Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?

Czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych?
Fot. Stock.Adobe.com/xyz+
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Jednym z najbardziej istotnych obszarów, które zostały poruszone w Białej Księdze w sprawie sztucznej inteligencji jest problematyka spełnienia i opracowania obowiązkowych wymogów prawnych przy tworzeniu i wykorzystywaniu rozwiązań opartych o AI.

#MichałNowakowski: Przykład „fake newsów” generuje pytanie, czy sztuczna inteligencja będzie zdolna odróżnić dane prawdziwe od nieprawdziwych? #NoweTechnologie #SztucznaInteligencja #AI @FinregtechPL @uknf

Eksperci Komisji Europejskiej zaproponowali tutaj listę specyficznych wymagań w odniesieniu do tzw. high-risk AI applications (np. systemy identyfikacji czy zaawansowane roboty), czyli takiego zastosowania sztucznej inteligencji, które może wiązać się np. z ryzykiem dla człowieka − w wielu obszarach, w tym w zakresie  prywatności, ale i np. zdrowia.

Te elementy zostaną w przyszłości wprowadzone do porządku prawnego z uwzględnieniem zasady proporcjonalności oraz konieczności. Przejdźmy przez te wymogi i zastanówmy się, na ile rzeczywiście w sektorze finansowym istnieje potrzeba ich wdrażania.

Eksperci Komisji wskazują na następujące elementy, które będą świadczyć o skuteczności i legalności AI, a które wymagają (jakiegoś) doprecyzowania na poziomie prawa i/lub regulacji:

− dane służące do uczenia (training data);

− przechowywanie danych;

− transparentność;

− odporność i skuteczność;

− nadzór człowieka;

− pewne specyficzne wymagania dla niektórych technologii, jak np. Zdalna identyfikacja biometryczna.

Czytaj także: Czy Biała Księga Komisji Europejskiej ws. sztucznej inteligencji pomoże sektorowi finansowemu?

Dane, dane, dane…  bez nich nie ma AI

To temat, który przewija się w praktycznie każdym materiale dotyczącym AI, w tym odnośnie Big Data w sektorze bankowym (więcej tutaj).

Bardzo ciekawe stwierdzenie znajdziemy na stronie 19 raportu: „Without data, there is no AI”.

I trudno się z tym stwierdzeniem nie zgodzić. Jakość i efektywność rozwiązań opartych o uczenie maszynowe czy sztuczną inteligencję zależy w dużej mierze, choć nie tylko, od danych na których algorytm może się oprzeć (i nauczyć).

Jednym z postulatów zawartych w Białej Księdze jest zobowiązanie producentów do wykorzystywania odpowiednio szerokich (dużych) zestawów danych oraz wszystkich scenariuszy, mających zastosowanie do osiągnięcia określonego celu.

To także wspomniane już rozwiązania przeciwdziałające dyskryminacji. Mogłoby to zostać oparte o zobowiązanie producentów do uwzględnienia w dostarczanych algorytmowi zestawów danych możliwie najszerszego zakresu informacji odnośnie obszarów „dyskryminacyjnogennych”.

Wiele jednak zależy od tego jak podejdziemy do kwestii wykorzystania danych osobowych i nieosobowych. Moim zdaniem to jeden z tych obszarów, które najtrudniej będzie zaadresować ze względu na istotne ograniczenia w zakresie przetwarzania danych wrażliwych (vide art. 9 Rozporządzenia 2016/679).

Ostatnią propozycją jest uszczelnienie przepisów dotyczących ochrony prywatności i danych osobowych. Choć eksperci wskazują, że generalnie pokrywa to m.in. Rozporządzenie 2016/679 (RODO), to jednak nie można zapominać, że to jedynie wycinek w kontekście bezpieczeństwa danych.

Czytaj także: Będzie możliwość wykorzystania technologii blockchain do utrwalenia e-dokumentów bankowych

Przechowywanie danych

To dość trudny do zaadresowania obszar. Chodzi mniej więcej o to, aby dokumentować procesy projektowania rozwiązań z użyciem AI, w tym zasady dotyczące tworzenia algorytmów oraz danych wykorzystywanych do ich uczenia.

Ma to oczywiście związek z inną regułą dotyczącą ujawniania zasad jakimi posługiwał się algorytm do podjęcia określonej decyzji. To, czego oczekiwałaby Komisja Europejska, to de facto możliwość prześledzenia wstecz czym kierował się dany algorytm. Czy jest to do osiągnięcia?

W pewnych przypadkach pewnie tak, ale jeżeli mamy bardziej autonomiczne rozwiązania? To co proponują eksperci w Białej Księdze to przede wszystkim zobowiązanie producentów (i jak zakładam operatorów) do:

− prowadzenie rejestru danych, które są wykorzystywane do uczenia oraz testowania;

− w pewnych przypadkach – przechowywania konkretnych danych wykorzystywanych przez AI (zakładam, że np. wrażliwych, jak biometryczne);

− dokumentowania metodologii wykorzystywanej do stworzenia algorytmu, jak i samej metodologii, którą stosuje AI, w tym technik i procesów na których opiera swoją „bytność” algorytm.

Czytaj także: Prawo do błędu a regulacje. Transformacja cyfrowa w sektorze finansowym w praktyce

Na całe szczęście Komisja nie zapomniała o okresach retencji i ograniczeniach w zakresie infrastruktury IT oraz kosztach z tym związanych. Z tego względu takie dokumenty i informacje miałyby być przechowywane przez określony czas, tak aby zapewnić zrealizowanie celów publicznych − np. w związku z prowadzonymi postępowaniami etc.

Transparentne AI

Częściowo pokrywa się to z omawianym zagadnieniem przechowywania danych i ich utrwalania na etapie tworzenia. Generalnie chodzi tutaj jednak o informowanie użytkowników końcowych. Informowanie przede wszystkim o tym, że wchodzą w interakcję ze sztuczną inteligencją, ale również jakie związane są z tym ograniczenia: jaki cel ma sztuczna inteligencja, na ile jest skuteczna i na czym opiera swoje decyzje.

Eksperci Komisji mają jednak świadomość, że przekazywanie tych wszystkich informacji nie zawsze jest konieczne, w szczególności jeżeli jest oczywiste, że użytkownik wchodzi w taką interakcję z AI, np. „rozmawia” z robotem. Niezależnie jednak od tego, informacje przekazywane użytkownikowi powinny być jasne, zrozumiałe i dostosowane do określonego przykładu użycia.

Czytaj także: Prawo do błędu a regulacje. Transformacja cyfrowa w sektorze finansowym w praktyce

Odporność i skuteczność

To warunki, aby uznać AI za godne zaufania. Z tego względu tak istotne będzie tworzenie rozwiązań, które gwarantują najwyższy poziom bezpieczeństwa użytkownika, również w aspekcie cyberbezpieczeństwa. Tutaj chodzi jednak bardziej o stosowanie takich rozwiązań, które są adekwatne do ryzyk, a które sztuczna inteligencja może generować.

Co to oznacza? Przykładowo to, że AI powinna uczyć się na błędach i te błędy eliminować, ale także, że będzie odporna na manipulację, nie tylko technologiczną. Tutaj od razu nasuwa mi się przykład „fake newsów”.

Jeżeli jesteśmy w stanie zmanipulować znaczną część społeczeństwa, to czy sztuczna inteligencja będzie również zdolna odróżnić dane prawdziwe od nieprawdziwych? I czy wystarczy do tego odpowiedni zestaw danych?

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.

Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: FinregtechPl