Bankowość i Finanse | Wywiad Miesiąca | Zbyt wielka, byśmy mogli ją zatrzymać

Bankowość i Finanse | Wywiad Miesiąca | Zbyt wielka, byśmy mogli ją zatrzymać
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Musimy zaakceptować jeden fakt: postęp sztucznej inteligencji jest tak duży, że nie sposób go zatrzymać. Po prostu jest już za późno. Nie możemy powiedzieć „zatrzymajmy rozwój” lub „zmniejszmy tempo, w jakim robimy rzeczy, ponieważ nie rozumiemy tego, co się dzieje”. To nie jest już realna opcja – wskazuje José Parra-Moyano, profesor strategii cyfrowej International Institute for Management Development (IMD) w Lozannie. Rozmawiał z nim Maksymilian Stefański.

Nasz rozmówca: Jest profesorem strategii cyfrowej w International Institute for Management Development (IMD) w szwajcarskiej Lozannie. Jego badania, które koncentrują się na tym, jak organizacje mogą wykorzystywać technologie cyfrowe do tworzenia wartości, były publikowane w najlepszych czasopismach akademickich. Jest pasjonatem i wielokrotnie nagradzanym nauczycielem, który założył własny startup, znalazł się na liście Forbes 30 Under 30 i został mianowany Global Shaper przez Światowe Forum Ekonomiczne.

Collins (wydawca słownika języka angielskiego – przyp. red.) wybrał niedawno AI najważniejszym słowem 2023 r. i trudno nie zgodzić się, że ten rok był czasem dynamicznego rozwoju sztucznej inteligencji. Sama technologia nie została jednak stworzona w ciągu ostatnich 12 miesięcy, ale jest rozwijana już od wielu lat – dlaczego zatem zasady „wyścigu AI” uległy tak diametralnej zmianie w ciągu ostatniego roku?

– Aby zrozumieć to, co wydarzyło się w tym roku, musimy cofnąć się nieco wcześniej, do roku 2017, kiedy to opublikowano przełomowy artykuł – „Attention Is All You Need” (Cornell University, 2017, https://arxiv.org/abs/1706.03762). To wówczas większość badaczy zajmujących się sztuczną inteligencją zaprzestała indywidualnej pracy nad rozwojem własnych modeli AI i zaczęła wspólnie zajmować się tym, co właśnie zostało opublikowane. To sprawiło, że w zasadzie wszystkie siły światowego mózgu zbiegły się i podążyły w jednym kierunku, zamiast podążać różnymi ścieżkami. Znacząco przyspieszyło to rozwój sztucznej inteligencji i doprowadziło do stworzenia dużych modeli językowych, które dziś widzimy np. jako ChatGPT.

Wzrost zainteresowania i ekscytacja sztuczną inteligencją w ciągu ostatnich 12 miesięcy wynika również z faktu, że po raz pierwszy w historii jesteśmy w stanie wchodzić z nią w interakcję, mając wrażenie, że w rzeczywistości wchodzimy w interakcję z człowiekiem. To rewolucja w dziedzinie User Experience (UX). Przede wszystkim zmieniło się podejście do AI. Nastąpił szybki rozwój techniczny w zakresie dużych modeli językowych, generatywnej sztucznej inteligencji, ale jest to również przełom w zakresie doświadczenia użytkownika, który sprawia, że wchodzimy w interakcję z systemem tak, jakbyśmy wchodzili w interakcję z naszymi ukochanymi na WhatsApp.

Ten szybki, dynamiczny rozwój może przynieść nowe możliwości i z tego niewątpliwie należy się cieszyć, ale być może jako społeczeństwo, sektor publiczny i prywatny nie jesteśmy jeszcze przygotowani na nadejście AI. Czy rozwój sztucznej inteligencji nie jest zbyt szybki jak na nasze możliwości?

– Jest to osiągnięcie imponujące technologicznie i bardzo szybkie, ale musimy zaakceptować jeden fakt: postęp sztucznej inteligencji jest tak duży, że nie sposób go zatrzymać. Na to po prostu jest już za późno. Nie możemy powiedzieć „zatrzymajmy rozwój” lub „zmniejszmy tempo, w jakim robimy rzeczy, ponieważ nie rozumiemy tego, co się dzieje”. To nie jest już realna opcja, ponieważ świat jest zbyt złożony, funkcjonuje zbyt wielu graczy, a my mamy problem ze skoordynowaniem wysiłków.

Zrozumienie tego jest szczególnie ważne, ponieważ to, co może pójść źle, nie jest aż tak oczywiste. Nie możemy przy tym zapominać o innych obszarach w przeszłości, w których sprawy mogły pójść bardzo źle, gdybyśmy nie mieli pełnej, kontrolowanej koordynacji działań. Przykładem może być chociaż bomba atomowa. Było jasne, co się stanie, jeśli coś pójdzie nie tak. Nie było aż tak wielu graczy i doskonale znane było ryzyko, więc decyzje mogły być czarno-białe. Zatem teraz albo w jakiś sposób skoordynujemy działania, bądź ustalimy jakieś zasady gry, albo wszystko będzie skończone.

W przypadku sztucznej inteligencji rzeczy, które mogą pójść nie tak, nie są jeszcze znane. Co gorsza, prawdopodobnie nie możemy ich jeszcze przewidzieć. Są wszakże procesy, interakcje między ludźmi, które zmienią się ze względu na istnienie AI. Obecnie jednak nie jesteśmy w stanie nawet przewidzieć, które interakcje ulegną zmianie, czyli nie jest jasne, co może pójść nie tak. Dlatego też na tym etapie szerokie planowanie działań jest niemal niemożliwe. Powinniśmy się cieszyć, ponieważ sztuczna inteligencja daje wiele możliwości tworzenia nowych wartości, choćby w opiece zdrowotnej; możliwości identyfikowania problemów, utrzymania ruchu w przemyśle itp. Z drugiej strony, nie możemy jeszcze przewidzieć, co może i prawdopodobnie pójdzie źle, powinniśmy zatem bardzo uważnie obserwować to, co dzieje się w społeczeństwie i gdy tylko zidentyfikujemy problemy, powinniśmy przynajmniej zabrać głos.

Dane, na których opiera się sztuczna inteligencja, także mogą zmienić dynamikę rozwoju gospodarczego. W jednym ze swoich artykułów stwierdził pan, że mogą być one postrzegane jako „nowy czynnik produkcji”. W jaki sposób zmieniają one kontekst globalnej konkurencji?

– Sztuczna inteligencja jest wykorzystywana do tworzenia wartości, ale by mogła działać, wymaga danych. Dlatego też w zdecydowanie najlepszej pozycji są ci, którzy posiadają unikalne dane, które na dodatek są reprezentatywne dla świata. Konkurencja nie powinna teraz koncentrować się na modelu, ponieważ i tak wiele z nich to modele open-source. Organizacje powinny raczej skupiać się na tych danych, którymi nie dysponują żadne inne instytucje. A także na tym, co jeszcze ważniejsze – do czego można te dane wykorzystać? Jakie ukryte informacje można pozyskać podczas analizy lub jaką sztuczną inteligencję możemy wytrenować dzięki tym informacjom. Konkurencja będzie nadal polegać na kapitale i przyciąganiu nowych talentów, ale będzie teraz także coraz bardziej koncentrować się wokół danych.

Kieruj się problemem, a nie wyobraźnią. Porozmawiaj ze swoimi pracownikami, zapytaj, jakie mają bo­lączki? Co ich trapi? Co rujnuje twoje wyniki? Co nie pozwala ci sprzedawać więcej? Na co narzekają klienci? Dlaczego utalento­wana kadra nas opuszcza? Istotne, żeby były to bardzo konkret­ne problemy, które pozwolą ocenić, czym powinieneś się zająć. Ostatecznie to systemy AI będą rozwiązaniem tych problemów.

Firmy już dziś muszą zacząć myśleć o tym, w jaki sposób będą generować więcej danych o swoich procesach. Oznacza to masową cyfryzację wszystkiego. Weźmy choćby hardware – firmy produkujące ciężkie maszyny, a wiele z nich już to robi, muszą na nowo zdefiniować swoje produkty, ponieważ dzięki danym dowiedzą się, w jaki sposób są one używane, jak są niewłaściwie wykorzystywane itp. Umożliwi im to szkolenie systemów baz danych, sztucznej inteligencji lub algorytmów, które zapewnią im przewagę konkurencyjną. Mówiąc bardziej bezpośrednio – sztuczna inteligencja zmieni krajobraz konkurencji, ponieważ teraz ci, którzy mają dużo danych, będą mogli skuteczniej konkurować.

Z drugiej strony gromadzenie i posiadanie większej ilości danych wiąże się również z większym ryzykiem dla firm związanym z regulacjami lub cyberbezpieczeństwem. Czy istnieje sposób na znalezienie równowagi między potrzebą rozwoju sztucznej inteligencji a zachowaniem polityki bezpieczeństwa danych i prywatności?

– W momencie, w którym zaczynasz przechowywać dane, naturalnie tworzysz lukę w zabezpieczeniach – zarówno dla siebie, jak i dla swoich klientów. Musisz wykorzystać te dane, aby stworzyć wartość, ale jednocześnie stajesz się bardziej narażony na atak, ponieważ dane są dziś niezwykle cenne. To tak, jakbyś nieustannie dosypywał złote monety do garnka – naturalne jest, że gdy będzie on już odpowiednio duży i wystarczająco napełniony, cyberprzestępcy zaczną być zainteresowani atakiem.

Ta sytuacja dotyczy też twoich klientów. Wykorzystujesz dane, które współtworzysz wraz z nimi do tego, aby szkolić sztuczną inteligencję, by dzięki niej lepiej im służyć. Gdzie zatem te dane będą przechowywane – u klientów czy w twojej firmie? Naturalną drogą do równoważenia ryzyka i potencjału może być uczenie federacyjne (z ang. federated learning). Jest to koncepcja, w której właściciele danych posiadają zarówno informacje, jak i własne rozproszone repozytoria, a następnie algorytm, lub sztuczna inteligencja, niejako podróżuje do różnych baz danych. W rezultacie ten wspomniany złoty garnek jest rozdrobniony, jeśli więc komuś uda się go obrabować – używając analogii – to będzie to tylko kilka monet, a nie cała zawartość garnka. Jest to nie tylko sposób na znalezienie równowagi pomiędzy potencjałem i ryzykiem, ale także sposób na zaoferowanie nowej przestrzeni do konkurencji dla firm, ponieważ niektóre z nich mogą zacząć myśleć o kolektywnym szkoleniu sztucznej inteligencji.

Weźmy na przykład bank i firmę telekomunikacyjną. Każda z tych instytucji posiada bardzo różne dane. Jeśli jednak zostałyby one połączone, mogą wspólnie wytrenować bardzo potężną sztuczną inteligencję, która pomoże im wygenerować pewną wartość. Problem w tym, że firmy nie mogą udostępniać sobie nawzajem danych, ponieważ tak naprawdę one należą do ich klientów. Jak zatem można to zrobić? Z odpowiedzią przychodzi uczenie federacyjne. Algorytm trafia do danych banku, jest tam trenowany, a następnie wędruje do danych firmy telekomunikacyjnej lub ubezpieczeniowej i jest tam ponownie trenowany lub dostrajany, a następnie jest gotowy do użycia. Dane nigdy nie opuściły repozytorium, ale mamy sztuczną inteligencję, która naprawdę działa. Federacyjne uczenie się, ekosystemy danych – to coś, co będziemy obserwować coraz częściej w ciągu najbliższych kilku lat. Gdybym miał dziś obstawić najważniejsze słowa na rok 2024, byłyby to ekosystemy danych.

Czy właśnie to jest największą obietnicą, jaką sztuczna inteligencja wnosi do sektora finansowego i bankowego?

– Nazwałbym to raczej największą potrzebą niż największą obietnicą. Aktualnie w sektorze pojawia się wiele fintechów, które z natury są cyfrowe, więc gromadzą znacznie więcej danych niż tradycyjne banki, ponieważ od samego rdzenia są zaprojektowane do ich generowania. W dłuższej perspektywie, jeśli zignorujemy koncentrację kapitału, to one wygrają wyścig, ponieważ mają o wiele więcej danych. Co mogą wobec tego obecnie robić tradycyjne banki? Mogą spróbować pozyskać dodatkowe dane, których fintechy nie mają, aby trenować sztuczną inteligencję lub systemy i z nimi konkurować. Czy jednak mogą to zrobić? Nie, ponieważ dane są prywatne. Jedynym zatem sposobem, w jaki mogą konkurować z podmiotami czysto cyfrowymi, jest bycie częścią cyfrowego ekosystemu, w którym to algorytm przemieszcza się między ich repozytoriami danych. Dlatego też nazwałbym to raczej wielką potrzebą niż wielką obietnicą.

Mówimy o rzeczach bardzo istotnych – jakie są zatem największe zagrożenia dla sektora finansowego związane z AI?

– W dzisiejszych czasach największym zagrożeniem jest brak możliwości przewidzenia wartości, jaką stworzysz, jeśli wejdziesz do ekosystemu. W momencie, w którym analizujesz lub trenujesz swój system nowymi danymi, nie wiesz, czy te dane okażą się wartościowe, czy też nie. Musisz naprawdę zrobić skok wiary: zainwestować w ekosystem, wytrenować sztuczną inteligencję lub algorytmy i oczekiwać, że będą się stawały coraz lepsze. Co jednak się stanie, jeśli się nie rozwiną, ponieważ dane są niskiej jakości lub nie reprezentują twoich klientów? Włożyłeś w to ogromny wysiłek, a wartość jest zerowa. W zasadzie można powiedzieć, że straciłeś swoje pieniądze. To jest największe zagrożenie, które zresztą naprawdę jest realne. Firmy powinny się tego obawiać i jest to jeden z powodów, dla których potencjał cyfrowych ekosystemów nie został jeszcze w pełni wykorzystany.

Większość nowo wdrażanych technologii nie spełnia początkowych oczekiwań, jaka zatem miałby pan radę dla firm odnośnie budowania własnych rozwiązań AI?

– Menedżerom, z którymi pracuję, zalecam, aby rozpoczynali od bardzo konkretnych problemów. Jeśli masz dobrze zidentyfikowany problem, który chcesz rozwiązać i jest to coś stosunkowo wąskiego, możesz znacznie lepiej przewidzieć, jaką wartość uzyskasz, jeśli problem ten rozwiążesz. Wówczas cała kalkulacja uzasadnienia biznesowego jest znacznie łatwiejsza i można zdecydowanie szybciej ocenić, czy naprawdę posuwamy się naprzód w tempie, w jakim powinniśmy. Moja najlepsza rada to zacząć od czegoś tak skonkretyzowanego, jak to tylko możliwe i na tym eksperymentować. Nie musi być to mały obszar, ale musi być on bardzo konkretny. Kiedy już to zrobisz i zakończysz proces tworzenia, będziesz mógł zbadać, jak ekstrapolować rozwiązanie na inne problemy. Kieruj się problemem, a nie wyobraźnią. Porozmawiaj ze swoimi pracownikami, zapytaj, jakie mają bolączki? Co ich trapi? Co rujnuje twoje wyniki? Co nie pozwala ci sprzedawać więcej? Na co narzekają klienci? Dlaczego utalentowana kadra nas opuszcza? Istotne, żeby były to bardzo konkretne problemy, które pozwolą ocenić, czym powinieneś się zająć. Ostatecznie to systemy AI będą rozwiązaniem tych problemów.

Jedną z największych obaw odnośnie przyszłości sztucznej inteligencji poruszonych podczas niedawnego szczytu AI w Bletchley Park, były regulacje. Czy po początkowej ekscytacji sztuczną inteligencją możemy spodziewać się bardziej rygorystycznych przepisów nakładanych na nią i spowalniających jej dalszy rozwój?

– Nie bardzo. Mogę to rozwinąć, ale najprostsza odpowiedź brzmi: nie. Jak powiedziałem na początku, postęp sztucznej inteligencji jest po prostu zbyt duży i zbyt szybki, by go zatrzymać. Wyobrażam sobie rozpędzonego słonia – jego nie da się już zatrzymać. Jak go spowolnić? To też jest bardzo trudne. Dobrze, jeśli będziemy mieć określone granice, które będą wyznaczały firmom drogę, mówiąc im: tu jest czerwona linia, tego nie możesz zrobić. Stwarza to dodatkowo poczucie bezpieczeństwa i zaufania tak dla inwestorów, jak i użytkowników. Większość ludzi nie ma czasu na rozmowę taką jak ta, którą my tu teraz prowadzimy. Jak właściwie działa sztuczna inteligencja? Jaka jest jej zależność od danych? Jak można z nią konkurować? Jakie są konsekwencje lub inne ryzyko? Większość ludzi, z dobrych pobudek, po prostu korzysta z tego, co jest dostępne. Ludzie zaczynają używać ChatGPT i jeżeli czują się tak, jakby rozmawiali z człowiekiem, to w końcu mu zaufają, nie wiedząc, że AI nie zawsze jest poprawna. Sztuczna inteligencja może jedynie być poprawna, bądź prawdopodobnie jest poprawna. To jest problem, dobrze zatem, że istnieją konkretne regulacje. Musimy kontynuować edukację i budować kulturę, która pozwoli nam odnieść sukces w świecie opartym na sztucznej inteligencji.

Jeśli rozwój AI jest zbyt duży, żeby go powstrzymać, to jakie będą tego konsekwencje? Czy mamy szansę zmniejszyć, czy jednak jeszcze bardziej pogłębić globalną przepaść między gospodarkami rozwiniętymi i tymi rozwijającymi się?

– Teraz, w tym momencie, jestem optymistą, wierząc, że sztuczna inteligencja oznacza przetasowanie talii. Kiedy ją przetasujesz, niektóre gospodarki, które obecnie radzą sobie lepiej, mogą mieć słabszą pozycję, a gospodarki, które radzą sobie gorzej, mogą na tym zyskać. Prawdą jest to, że po wyszkoleniu sztucznej inteligencji udostępnienie jej szerokiemu gronu populacji jest stosunkowo łatwe.

Pomyślmy o opiece zdrowotnej. Jeśli nagle zaczniemy mieć wiele algorytmów, które wykonują spersonalizowane leczenie lub do takiego leczenia zachęcają, to gdy już mamy to rozwiązanie AI, to możemy udostępnić je ludziom zarówno w Szwajcarii lub Stanach Zjednoczonych, jak i w krajach o niskich dochodach. Być może za kilka lat pacjent w państwie słabo rozwiniętym będzie miał takie samo lub bardzo podobne leczenie czy diagnostykę, jak pacjent w kraju o wysokich dochodach. W rezultacie ogólny poziom dobrobytu na świecie może dzięki sztucznej inteligencji wzrosnąć.

Jeśli miałbym być bardziej pesymistyczny, to mógłbym powiedzieć, że sztuczna inteligencja może również niszczyć miejsca pracy w tak szybkim tempie, że nie będziemy w stanie nadrobić zaległości w tworzeniu nowych stanowisk. Wówczas może i będziemy mieli fantastyczną diagnostykę, ale nie będziemy mieć pracy, która da nam środki, by za nią zapłacić.

Wierzę jednak, że w ogólnym rozrachunku technologia nam pomoże. Musimy jednak zwrócić uwagę na to, jaka będzie rola człowieka w tej gospodarce. Widzę tutaj duży potencjał w obszarze kultury, kreatywności, gdzie ludzie, przynajmniej na razie, nadal się bronią.

Skończmy bardziej ogólną refleksją: Przyszły rok w AI – możemy być bardziej optymistyczni, czy jednak musimy zacząć się martwić?

– Myślę, że będzie jeszcze ciekawiej niż w roku 2023. Założę się, że zaczniemy dostrzegać zastosowania sztucznej inteligencji w systemach, które będą nieustannie zadziwiać nasze umysły. Wiele firm zintegruje sztuczną inteligencję, wielu użytkowników i klientów zacznie jej używać do interakcji z firmami i do interakcji między sobą. Zdecydowanie będzie to więc dynamiczny rok. Jeśli jednak zapytasz mnie o kolejny – 2025 rok, to przewiduję zmianę polegającą na tym, że wiele firm zacznie być rozczarowanych, ponieważ zainwestowało zbyt wcześnie, zbyt dużo lub zbyt szybko, nie rozumiejąc tak naprawdę, co się dzieje. Niektóre firmy upadną, niektóre odniosą sukces; a te, które upadną, naturalnie rozprzestrzenią negatywny nastrój w ekosystemie. To tak, jak z każdą inną krzywą innowacji. Ale odpowiadając na twoje pytanie – rok 2024 będzie zdecydowanie ekscytujący z wieloma nowymi produktami i usługami, rok 2025 – trochę rozczarowujący, a potem znów zaczniemy to wszystko odbudowywać.

Źródło: Miesięcznik Finansowy BANK