Tajemnica działania AI, tajemnice handlowe platform cyfrowych i tajemnica bankowa
Zdaniem Jana Krefta porównanie GenAI do czarnej skrzynki jest trafne. Po raz pierwszy takiego porównania dokonał Frank Pasquale, amerykański prawnik zajmujący się m.in. powiązaniem procesów sztucznej inteligencji i uczenia maszynowego z prawem.
Ta koncepcja oddaje stan faktyczny. Nie jesteśmy bowiem w stanie określić dlaczego dane, które przetwarza sztuczna inteligencja dały taki, a nie inny rezultat.
Nasz rozmówca mówił o podwójnej tajemnicy, z jednej strony jest samo działanie AI, a z drugiej tajemnica handlowa takich platform jak np. YouTube czy Instagram, gdzie także nie są znane zasady przyjęte dla funkcjonowania sztucznej inteligencji na tych platformach.
Prof. Jan Kreft zauważa jednak, że są eksperci, którzy uznają, że do zrozumienia działania sztucznej nie jest konieczna wiedza o tym co się dzieje z danymi w „czarnej skrzynce”, wystarczy poznanie społecznych rezultatów stosowania AI.
Jak zauważył – nie ma takiego algorytmu społecznego, w którym nie byłyby zakodowane wartości.
Czytaj także: Raport Specjalny | Cyberbezpieczeństwo | AI nie rozwiąże za nas wszystkich problemów współczesnego świata
AI w bankach
Następnie nasza rozmowa dotyczyła stosowania AI przez banki. Można uznać, że jeśli klienci ufają bankom i wierzą, że te działają w imię dobra społecznego, to godzą się z myślą, że banki korzystają ze sztucznej inteligencji.
Na naszą uwagę, że ostatnio regulatorzy domagają się od banków wyjaśnień jak działa używana przez nie AI, np. w podejmowaniu decyzji w procesie kredytowym – nasz rozmówca stwierdził, że AI jest używana po to, aby udoskonalić niedoskonałości człowieka, takie jak np. stronniczość czy uprzedzenia.
W związku tym towarzyszy jej tzw. atrybucja wiarygodności.
„Cóż lepszego prócz AI może się instytucji finansowej takiej jak bank przydarzyć. Po pierwsze jest zbudowany na zaufaniu, pod drugie na wiarygodności, a teraz dostaje narzędzie uwiarygadniające” – powiedział.
Jednak tajemnica działania AI nakłada się na tajemnicę bankową.
„W tym przypadku mamy do czynienia ze szklanką do połowy pustą” – skonstatował prof. Jan Kreft.
Z jego słów wynika, że klient może uznać, że po drugiej stronie znajduje się nie partner godny zaufania, ale podwójny przeciwnik. Czyli dostarczyciel AI oraz bank, który korzystając z tej technologii chce ograniczyć np. swoją odpowiedzialność.
Czytaj także: Bankowość i Finanse | Technologie – Accenture | Bankowość jest optymalnie dopasowana do wykorzystania generatywnej AI
Etyka sztucznej inteligencji
W dalszej części rozmowy Jan Kreft odniósł się do halucynowania AI. Jak powiedział – słabsze odmiany AI dają ¼ odpowiedzi, które można uznać za halucynacje. Lepsze wersje GenAI mają takich odpowiedzi tylko 4%.
Jednak wielu ekspertów uznaje halucynacje jako przejaw kreatywności. Tymczasem kreatywność to wybitnie ludzka cecha – zauważa profesor Jan Kreft.
„To oznacza, że być może mamy do czynienia z pierwszym krokiem w procesie transhumanizmu AI. Być może więc pojawi się za 5-8 lat AI, która będzie działała bez interwencji człowieka” – powiedział.
Na koniec wywiadu zapytaliśmy czy są lub będą jakieś zasady, które będą regulowały działanie AI, czy można mówić o pewnej moralności, której będzie przestrzegała sztuczna inteligencja.
„Do tego momentu etyka sztucznej inteligencji to jest coś, co absolutnie raczkuje w polskiej nauce. W Europie Zachodniej nie jest o wiele lepiej” – stwierdził.
Dodał, że regulacje prawne nie nadążają za praktyką i rozwojem technologii.
Jednocześnie niepokoi go asymetria pomiędzy szybkim rozwojem AI w USA a Europą, czy też różnice w dostępie do danych w porównaniu krajów UE do Chin.
„Regulacje AI w ramach Unii Europejskiej nie doprowadzą nas do większego dobrostanu społecznego, chociaż poprawiają samopoczucie” – podsumował prof. Jan Kreft.