Bankowość i Finanse | Gospodarka | A jednak – znów o AI!

Bankowość i Finanse | Gospodarka | A jednak – znów o AI!
Fot. stock.adobe.com / BPawesome
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Kandydatów na miano tematu roku jest wielu: wojna w Ukrainie, konflikt na Bliskim Wschodzie, wybory w USA (oj, jakże mocny kandydat!), coraz mocniej dające się we znaki zmiany klimatyczne, migracje czy stan światowej gospodarki. I choć każdy z nich jest niezwykle istotny, to pod względem raportów i badań żaden nawet nie zbliżył się do liczby publikacji traktujących o sztucznej inteligencji. Niech zatem, ku niewątpliwemu państwa zaskoczeniu, ten ostatni w tym roku przegląd raportów poświęcony będzie AI – znowu.

Maksymilian Stefański
Maksymilian Stefański
analityk ekonomiczny

W porównaniu do ub.r., w obecnych dyskusjach nad rozwojem sztucznej inteligencji widoczna jest jedna zasadnicza zmiana. AI dziś nie jest już żadną nowością, okres początkowego zachwytu dobiegł końca i ustępuje on miejsca pytaniu co dalej?. Jak wynika z raportu McKinsey „The Future of Technology”, niemal dwie trzecie pytanych wskazuje, że ich organizacje regularnie korzystają z generatywnej sztucznej inteligencji. „Potencjał AI nie jest już kwestionowany. Znacznie mniej pewny jest natomiast najlepszy sposób, w jaki organizacje mogą go wykorzystać” – zauważają eksperci. I dodają, iż większość firm wciąż pozostaje na wczesnym etapie swojej podróży w kierunku skalowania technologii.

Metodą prób i błędów zaczynamy powoli dostrzegać, co działa, a co nie, jeśli chodzi o wdrażanie i generowanie rzeczywistej wartości dzięki sztucznej inteligencji. „Po pierwsze, kluczowe znaczenie ma posiadanie jasnej strategii – cel biznesowy jest najważniejszy! […] Po drugie, organizacje powinny myśleć z rozmachem. Wiodące firmy to te koncentrujące się na ponownym zdefiniowaniu całych procesów z wykorzystaniem sztucznej inteligencji, a nie starające się osadzić technologię w swoich obecnych sposobach pracy” – przekonują eksperci McKinsey.

Należy przy tym zauważyć, że generatywna sztuczna inteligencja jeszcze silniej zwiększyła presję na gromadzenie, posiadanie i modelowanie danych, co zasadniczo zmieniło także podejście do cyberbezpieczeństwa. Ciemna strona sztucznej inteligencji sprawia bowiem, że ataki hakerskie stają się coraz częstsze, przede wszystkim dlatego, że wspomagane przez AI mogą być łatwo skalowane. To zderzenie z rzeczywistością pozwala wyjść z idealistycznych wyobrażeń dotyczących rewolucyjnych zastosowań technologii, po to, by skupić się na odpowiednim jej zastosowaniu, a także regulacji. W tym ostatnim aspekcie wciąż jest wiele do zrobienia.

Regulacja nieznanego

Na przestrzeni ostatnich kilkunastu miesięcy potrzebę regulacji zaczęły dostrzegać także instytucje rządowe. Zarówno w Europie, jak i w Stanach Zjednoczonych miniony rok przyniósł w tym obszarze pewien postęp. Problem w tym, iż szybko ewoluująca technologia, konkurencja w zakresie dostępu do zasobów i złożony globalny krajobraz geopolityczny znacząco utrudniają sprawną reakcję rządów. Jak zauważają autorzy raportu „Governance in the Age of Generative AI”, decydenci zmagają się ze złożonymi problemami społeczno-technicznymi i geopolitycznymi, które uniemożliwiają skuteczne i szybkie działanie.

AI to technologia ogólnego przeznaczenia, która może być stosowana w różnych kontekstach, co stanowi istotną trudność w próbie regulacji jej wszystkich zastosowań. […] Ponadto możliwości sztucznej inteligencji szybko ewoluują i łączą się z innymi technologiami, komplikując wysiłki decydentów na rzecz stworzenia przepisów, które wytrzymają próbę czasu” – wskazują analitycy Światowego Forum Ekonomicznego.

W opracowanej przez ekspertów metodologii tworzenia regulacji w pierwszym etapie konieczne jest skupienie się na trzech elementach: (1) ocenie obecnych regulacji pod kątem luk i potencjalnych konfliktów, (2) jasnym określeniu podziału odpowiedzialności, (3) ocenie zdolności istniejących organów regulacyjnych do sprostania wyzwaniom związanym z AI. Dodatkowo, jak podkreślają analitycy, kluczem do efektywnej regulacji obszaru sztucznej inteligencji musi być szeroka współpraca publiczno-prywatna.

Decydenci polityczni i organy regulacyjne nie są w stanie samodzielnie zapewnić rzetelnego zarządzania technologią AI – przemysł, społeczeństwo obywatelskie i środowisko akademickie muszą również wnieść swój wkład. Rządy powinny wykorzystywać coś więcej niż tylko regulacje, aby wzmacniać zarządzanie sztuczną inteligencją w całym społeczeństwie” – przekonują autorzy raportu.

A gdyby tak…

…w roku 2025 pękła bańka związana z AI? Przecież mimo całego swojego ogromnego potencjału, sztuczna inteligencja może generować nieprawidłowe wyniki, tworzyć szkodliwe lub obraźliwe treści i narażać organizacje na nowe luki w zabezpieczeniach. „Systemy generatywnej sztucznej inteligencji są złożone, a tworzone przez nie wyniki są niedeterministyczne. Ludzie nie są w stanie przewidzieć każdego kroku systemu od wejścia do wyjścia” – wskazują eksperci Boston Consulting Group.

W efekcie oznacza to, że niezależnie od doskonałości technologii pewien poziom ryzyka rezydualnego zawsze pozostanie i będzie mógł się zmaterializować w dowolnym momencie. Autorzy analizy „GenAI will fail. Prepare for it” jednoznacznie wskazują, że organizacje muszą być po prostu przygotowane na to, że ich systemy AI mogą zawieść. „Tradycyjne metody przewidywania i kontroli, takie jak testowanie i ewaluacja są w tym wypadku niewystarczające. W przypadku awarii AI organizacje będą potrzebować kompleksowej strategii reagowania, eskalacji problemu i umiejętności przywracania sprawności całego systemu” – zauważają eksperci BCG.

Biorąc pod uwagę pośpiech we wdrażaniu sztucznej inteligencji, wiele organizacji może nie poświęcić wystarczającej uwagi na stworzenie odpowiednich ram bezpieczeństwa dla prawidłowego funkcjonowania AI. Problemy te z pewnością nie zatrzymają rozwoju sztucznej inteligencji, ale mogą istotnie stłumić entuzjazm firm w jej wdrażaniu, przekładając się na, eufemistycznie mówiąc, znacznie bardziej krytyczne podejście inwestorów.

Nadać sztucznej inteligencji ludzką twarz

Rozprawę nad stanem AI warto zamknąć próbą, niemalże filozoficznej refleksji nad tym, czy czyniąc sztuczną inteligencję lepszą, możemy w niej zaszczepić ludzkie wartości i etyczne reguły. „Ponieważ sztuczna inteligencja integruje się z każdym aspektem naszego życia – od opieki zdrowotnej po autonomiczną jazdę – istnieje rosnąca potrzeba zapewnienia, że systemy te odzwierciedlają i podtrzymują wspólne ludzkie wartości” – wskazują eksperci Światowego Forum Ekonomicznego.

W ich najnowszym raporcie „AI Value Alignment: Guiding AI Towards Shared Human Goals” pochylającym się nad tym problemem, podkreślają jednak, że jest to wyzwanie łatwe do opisania, lecz niezmiernie trudne do wdrożenia. „To, co uznajemy za ludzkie wartości, nie jest jednolite w różnych regionach i kulturach, więc systemy sztucznej inteligencji musiałby być dostosowane do konkretnych kontekstów kulturowych, prawnych i społecznych” – zaznaczają.

Jak dodają, proces ten wymagałby przełożenia abstrakcyjnych zasad etycznych na wytyczne techniczne i zapewnienia, że systemy AI będą przejrzyste i mogą podlegać kontroli. „Proces dostosowywania wartości AI jest nierozerwalnie związany z dyskusją na temat czerwonych linii, które są etycznymi granicami, których systemy nie mogą przekraczać. Te czerwone linie stanowią wyraźne granice moralne, zapewniając, że systemy AI nie angażują się w szkodliwe lub nieetyczne zachowania” – podkreślają. Sztuczna inteligencja może być potężnym narzędziem do poprawy dobrobytu społecznego, ale tylko wtedy, gdy zostanie dostosowana do wspólnych wartości i zasad.

(A)I’ll be back

Jestem przekonany, że w Nowym Roku jeszcze nie raz będę miał okazję przytoczyć Państwu interesujące raporty i badania dotyczące AI. Mam jednak nadzieję, że sztuczna inteligencja będzie znacznie częściej służyła nam jako narzędzie w osiąganiu ambitnych celów, aniżeli stanowiła temat sam w sobie. Niezależnie od stopnia pomocy ze strony AI, realizacji tych ambitnych celów w Nowym Roku już dziś z całego serca Państwu życzę.

Warto zajrzeć

  • McKinsey & Company, „McKinsey Quarterly”: „The Future of Technology”, listopad 2024 https://www.mckinsey.com
  • Światowe Forum Ekonomiczne, „Governance in the Age of Generative AI: A 360° Approach for Resilient Policy and Regulation”, październik 2024 https://www.weforum.org
  • Boston Consulting Group, „GenAI will fail. Prepare for it”, listopad 2024 https://www.bcg.com
  • Światowe Forum Ekonomiczne, „AI Value Alignment: Guiding Artificial Intelligence Towards Shared Human Goals”, październik 2024 https://www.weforum.org
Źródło: Miesięcznik Finansowy BANK