„Czarne łabędzie” z perspektywy algorytmów i modeli uczenia maszynowego

„Czarne łabędzie” z perspektywy algorytmów i modeli uczenia maszynowego
Michał Nowakowski. Źródło: NGL Advisory, NGL Legal
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Ostatnio poproszony zostałem o komentarz dotyczący zderzenia systemów sztucznej inteligencji z nieprzewidywalnymi (nieprzewidzianymi?) wydarzeniami, które Nicholas Taleb określił czarnymi łabędziami. To temat niezwykle ciekawy, bo w dzisiejszych czasach zdajemy się bardzo (nad)polegać na nowych technologiach, a w szczególności rozwiązaniach, które tak szumnie nazywamy sztuczną inteligencją, pisze Michał Nowakowski.

Właściwie każde przedsiębiorstwo i podmiot sektora publicznego chcą mieć AI u siebie, a co najmniej w swojej agendzie. Nie zawsze są to rozwiązania trafione, co wynika m.in. z niedostatecznego rozeznania (wobec braku AI&Data Governance, o którym pisałem) i identyfikacji problemów, które uczenie maszynowe czy głębokie mają rozwiązywać. Niektóre dane wskazują, że zaledwie 20% pilotaży AI wychodzi na produkcję, a pozostałe 80% kończy swoje istnienie na etapie walidacji lub testowania.

Czy sztuczna inteligencja dysponuje jakąś szklaną kulą czy magiczną wiedzą o przyszłości? Tych, którzy twierdzą, że tak ‒ muszę rozczarować

Szczególnym rodzajem modeli sztucznej inteligencji są modele predykcyjne, choć pewnie większość powie, że to jednak modele decyzyjne, które pozwalają nam na przewidywanie różnych zdarzeń, od zachowań konsumentów, aż do ryzyka niewypłacalności czy wystąpienia krachu finansowego. Znajdują one zastosowanie m.in. w bankowości czy e-commerce, ale także analityce finansowej czy sektorze publicznym, gdzie pozwalają przykładowo określić ryzyko wystąpienia zdarzeń o charakterze systemowym.

Takie systemy mogą generować ryzyko nadmiernego polegania (overreliance) przez człowieka na takich predykcjach. Projekt rozporządzenia w sprawie sztucznej inteligencji będzie wprost „uczulał” na te kwestie, tym bardziej, że przecież nikt nie jest nieomylny.

Czytaj także: Jakość czy ilość danych dla modeli uczenia maszynowego – co jest ważniejsze?

Prognozowanie: przez człowieka czy przez AI?

Pojawia się więc pytanie czy algorytmy i modele sztucznej inteligencji są lepsze niż ludzki analityk? I jeżeli tak, to dlaczego? A może te rozwiązania wcale nie są tak doskonałe i przywiązujemy zbyt dużą wagę do ich skuteczności i dokładności?

Wszystko oczywiście zależy od konkretnego przypadku, więc tutaj przyjmujemy pewne uogólnienia, które mogą się nie sprawdzać w niektórych sytuacjach, ale ogólny przekaz będzie raczej możliwy do szerszego zastosowania.

Zacznijmy od tego: czy sztuczna inteligencja dysponuje jakąś szklaną kulą czy magiczną wiedzą o przyszłości? Tych, którzy twierdzą, że tak ‒ muszę rozczarować. Każdy algorytm i model sztucznej inteligencji, poza tym, że bazuje na danych dostarczonych i najczęściej opracowanych przez człowieka, jest budowany-trenowany w oparciu o dane historyczne, które nie zawierają w sobie jakiejś tajemnej wiedzy na temat przyszłości. Taką nikt z nas nie dysponuje, choć niewątpliwie byłoby to dla nas znaczne ułatwienie.

Czasem zdarza się, podobnie jak niektórym analitykom z pierwszych stron gazet, że sztuczna inteligencja dokona predykcji jakiegoś zdarzenia, które jest spektakularne i w niedługim czasie nastąpi. Może to być samospełniająca się przepowiednia, albo po prostu szczęście, które może sprzyjać też każdemu z nas. Jasne, im więcej dobrej jakości danych, tym większe prawdopodobieństwo, że uda nam się dostrzec pewne zależności, które doprowadzą nas do konkretnych wniosków. Podobnie ma model sztucznej inteligencji.

Każda predykcja jest tylko prawdopodobieństwem wystąpienia jakiegoś zdarzenia, bazującym najczęściej na statystyce

Oczywiście nie możemy zapominać, że sam system SI ma nad nami przewagę, a mianowicie ma większy (lepszy i szybszy) dostęp do danych, a także moc obliczeniową, która pozwala na bardziej efektywne i dynamiczne procesowanie informacji oraz dostrzeganie pewnych zależności, które mogą nam umykać. W tym zakresie nie mamy szans konkurować z maszynami.

Mamy jednak też intuicję, która – o dziwo – całkiem dobrze się sprawdza, a także unikalne doświadczenia, które nie zawsze są kwantyfikowalne i do przełożenia na kod. Tutaj mamy więc pewną przewagę. Nie daje to jednak unikalnej pozycji, która pozwala nam przewidywać przyszłość. Dopóki dane, którymi się karmimy – także w kontekście SI – są danymi historycznymi, to każda predykcja jest tylko prawdopodobieństwem wystąpienia jakiegoś zdarzenia, bazującym najczęściej na statystyce.

Czytaj także: Jak skutecznie wdrażać nową technologię w doradztwie inwestycyjnym?

Przeszłość decyduje

Niestety. W tym sensie i analityk, i model sztucznej inteligencji są równi, a nawet nieograniczony dostęp do dobrych jakościowo danych tego nie zmieni. Jesteśmy więźniami przeszłości, a systemy SI pozwalają nam jedynie na szybsze dostrzeganie pewnych korelacji i być może bardziej dokładne wyciąganie z nich wniosków. Brutalna prawda, ale prawda.

Uważajmy na analityków, niezależnie od tego czy są ludźmi, czy maszynami

Z tego względu każdy rezultat działania systemu (możemy tutaj sobie oczywiście określić odpowiednie wskaźniki „ważności”) powinien być filtrowany przez człowieka, a decyzja czy zastosować się do rekomendacji, czy też samej oceny ryzyka, powinna pozostawać w gestii kogoś, kto model nadzoruje lub korzysta z takiego systemu, również użytkownika końcowego.

Nikt nie jest nieomylny i raczej się to nie zmieni do czasu, aż nie wymyślimy, jak przenosić się w przyszłość i wracać do teraźniejszości, choć i wtedy pojawia się pytanie czy wyeliminuje nam to tzw. czarne łabędzie, bo w końcu w takiej – futurystycznej – sytuacji wpływalibyśmy na przyszłość, która mogłaby wyglądać już zupełnie inaczej.

I tyle z mojej strony. Główny przekaz dzisiejszego felietonu to – uważajmy na analityków, niezależnie od tego czy są ludźmi, czy maszynami. Nie znaczy to, że predykcji nie potrzebujemy. Wręcz przeciwnie. Świat podlega statystyce i tego nie zmienimy.

Nie eliminuje to jednak nieprzewidywalnych zdarzeń. Pytanie ‒ czy w ogóle jesteśmy w stanie się przed nimi bronić, czy też powinniśmy poddać się dynamice otoczenia. Każdy musi odpowiedzieć sobie sam.

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: aleBank.pl