Raport Specjalny | Cyberbezpieczeństwo | AI nie rozwiąże za nas wszystkich problemów współczesnego świata
Uchwalony niedawno AI Act w założeniu unijnego ustawodawcy ma umożliwić stawianie czoła kluczowym wzywaniom związanym z rozwojem sztucznej inteligencji. Czy takie postrzeganie nowych przepisów jest słuszne, a może zbyt wiele sobie po nich obiecujemy?
– Kwestię AI można rozpatrywać w wielu perspektywach, poczynając od geopolitycznej, a kończąc na perspektywie finalnego użytkownika. Zacznijmy od pierwszej. Najwięksi gracze, USA i Chiny, postrzegają rozwój sztucznej inteligencji jako grę o sumie zerowej. Unia Europejska ze swoimi regulacjami nieszczególnie liczy się w tej grze. Uchwalony niedawno AI Act jest uzupełnieniem wcześniejszych regulacji dla rynków cyfrowych (DMA) i usług cyfrowych (DSA), stanowią one swoisty pakiet. Dlaczego powstał właśnie teraz? Można argumentować, że to odpowiedź na zapoczątkowany kilkanaście miesięcy temu dynamiczny rozwój wielkich modeli językowych, szczególnie czatbotów. Aktywność unijnego regulatora w skali globalnej można porównać do kamienicy, w której w jednym mieszkaniu zainstalowano kamerę i ustawiono posterunek policji, by z błogim spokojem uznać, że zaprowadzono porządek, nie patrząc, co się dzieje w sąsiednich lokalach. Tymczasem tam jest spora grupa niesfornych, inteligentnych ludzi, którzy wcale nie muszą zaglądać do naszego pokoju.
W Europie działają raptem trzy firmy technologiczne notowane na liście Fortune Global 500, dla porównania firm amerykańskich jest dwanaście, japońskich osiem, a chińskich i tajwańskich po sześć. To olbrzymia dysproporcja, w tym porządku Europa liczy się tylko jako dostarczyciel oryginalnych danych. Takie państwa, jak Niemcy czy Francja są generalnie zapóźnione cyfrowo, na co wskazują inwestycje w badania i rozwój – 40 mld USD w Europie wobec 74 mld USD w Azji czy 141 mld USD w USA. Interwencja unijnego ustawodawcy jest zatem nie tylko spóźniona o 10–15 lat, jeśli chodzi o kwestię prywatności i konkurencyjności, a teraz dodatkowo wymierzona głównie w dostawców amerykańskich, zwłaszcza jeśli chodzi o DMA i DSA. W dyskusji, która się toczyła przez ostatnich kilka lat, wybijały się przede wszystkim uwagi Niemiec i Francji, najbardziej zapóźnionych i zarazem etatystycznych gospodarek, a najmniej tych, którzy są w czołówce peletonu. Dodam, że utrzymanie AI jest bardzo kosztowne, koszt obsługi i szkolenia przeciętnego chatbota drugiej czy trzeciej generacji to mniej więcej 700 tys. USD dziennie.
Z dalszej perspektywy dostrzegam centralizację podejmowania decyzji wokół tych aktów przez Komisję Europejską, co jest chyba konsekwencją porażki RODO, kiedy starania w zakresie poczucia bezpieczeństwa powierzono poszczególnym krajom członkowskim. Efekt? Na 700 interwencji prawnych do 2021 r. tylko dwie pochodziły z Irlandii, gdzie były zarejestrowane bigtechy działające w Europie. Komisja doszła do wniosku, że to po prostu nie działa. Obecnie mamy do czynienia z dalekim ograniczeniem znaczenia państw członkowskich, także Polski, ich rola będzie raczej doradcza niż sprawcza. Nie wierzę, że to będzie skuteczne, w sytuacji gdy Komisja jest jednocześnie autorką tych aktów, kluczowym podmiotem, który ma je egzekwować i sędzią we własnej sprawie.
Poza tym tendencja do centryzmu nijak ma się do logiki korzystania ze sztucznej inteligencji. Przypomnę tylko, że w tle dynamicznego rozwoju AI jest wielkie, geopolityczne starcie między Chinami i Stanami Zjednoczonymi. USA wypracowały narzędzie, które zdeklasowało Chiny. Niedawno wydawało się, że rozwój będzie zdeterminowany dostępem do wielkich baz danych, których firmy chińskie, wspierane przez państwo, mają w nadmiarze, tymczasem rozwój wielkich modeli językowych i zaszytej w nich sztucznej inteligencji wysforował USA na prowadzenie. Regulacje unijne są z punktu widzenia Stanów Zjednoczonych po prostu antykonkurencyjne.
Z drugiej strony, widzę szereg dobrych intencji związanych z tymi aktami. Chodzi też o te ryzyka, które nie zostały jeszcze zidentyfikowane i nazwane. Podam tylko jeden przykład: każdy słyszał o chińskim social credit system, mało kto natomiast wie, iż podobne rozwiązanie funkcjonuje np. w Amsterdamie. System identyfikuje młodych mieszkańców na podstawie pozostawionych przez nich śladów, a następnie analizuje, który z nich w przyszłości ma większą szansę popełnić przestępstwo. Rzecz w tym, że system ten był tak skalibrowany, że identyfikował przede wszystkim imigrantów. Widzimy więc, iż także państwa członkowskie UE flirtują z tymi systemami, zdając sobie sprawę z ich niedoskonałości.
Regulacje europejskie dla sfery IT argumentowane są potrzebą tworzenia odpowiedzialnego rynku, który uwzględniałby prawa obywatelskie bądź cyberbezpieczeństwo. Czy to niewystarczający argument, by ograniczyć tempo wyścigu technologicznego?
– Koncepcja poszukiwania równowagi pomiędzy rozwojem sztucznej inteligencji a jej skutkami społecznymi wywodzi się z kultury zachodniej. Innymi słowy trwa wyścig, bardzo wielowymiarowy, aczkolwiek nie ma co udawać, że co do celu egalitarny. AI pogłębi podziały między globalnym południem a globalną północą, a może raczej pomiędzy Zachodem z jego wartościami i refleksyjnością, niekiedy na pokaz, a brakiem tych ograniczeń, zwłaszcza po stronie państw autorytarnych, by nie rzec totalitarnych. Będziemy musieli odpowiedzieć na pytanie, jak bardzo nasza przyzwoitość nas ogranicza jako ludzi Zachodu.
W Europie działają raptem trzy firmy technologiczne notowane na liście Fortune Global 500, dla porównania firm amerykańskich jest dwanaście, japońskich osiem, a chińskich i tajwańskich po sześć. To olbrzymia dysproporcja, w tym porządku Europa liczy się tylko jako dostarczyciel oryginalnych danych. Takie państwa, jak Niemcy czy Francja są generalnie zapóźnione cyfrowo, na co wskazują inwestycje w badania i rozwój.
Jednocześnie paradoks polega na tym, że AI jest egalitarna np. z punktu widzenia rynku pracy. Jej rozwój godzi przede wszystkim w białe kołnierzyki, wynosząc w górę drabiny kompetencji najsłabszych, ale niespecjalnie wspierając najlepszych. Pracownicy najlepiej zarabiający, najwyżej w hierarchii zawodowej, będą musieli udowadniać, że są lepsi niż sztuczna inteligencja, która będzie ich spychać w dół, zarówno pod względem pozycji społecznej, jak i majętności, awansując zarazem tych słabszych. AI z punktu widzenia codziennego użytku jest zatem egalitarna, choć w ujęciu geopolitycznym taka nie jest. Niebawem będziemy musieli się do tego ustosunkować.
Pozostaje kwestia konsekwencji rozwoju AI na rynku pracy. Odwołam się do Sama Altmana, szefa Open AI, który jest wielkim zwolennikiem gwarantowanego dochodu podstawowego. Rzecz w tym, że jego wdrożenie napotyka na mnogość problemów, również natury społecznej. Przypomnę, że od dłuższego czasu nie jesteśmy gotowi na to, by wprowadzić tzw. podatek cyfrowy, a przecież trudno oczekiwać, by podmioty, które oferują AI i będą korzystały z podnoszenia efektywności przez AI, same zgodziły się ponosić taką daninę, tylko po to, żeby Europejczycy używający narzędzi sztucznej inteligencji mieli komfort ograniczenia negatywnych konsekwencji jej rozwoju.
Druga uwaga jest taka, że AI rozwija się nierówno w różnych sektorach. Najszybciej oczywiście w sektorze militarnym, szeroko pojętej branży medialnej i przemyśle pornograficznym, który był zawsze bardzo innowacyjny. Nie chcę wnikać w szczegóły, ale jeżeli będziemy się przyglądać tym sektorom, zyskamy pogląd na temat rozwoju AI, aczkolwiek ogarnąć ten rozwój jest niezwykle trudno. To są dziesiątki tysięcy artykułów naukowych, wniosków z realizowanych rokrocznie badań. Paradoks polega na tym, że najpewniej to AI najlepiej nam podpowie, jak ten świat zrozumieć.
Dochód podstawowy budzi sprzeczne odczucia pod względem etycznym. Cywilizacja judeochrześcijańska bazuje w większym lub mniejszym stopniu na kulcie pracy, lenistwo jest jednym z grzechów głównych. Czy zapewniając bezpieczeństwo finansowe obywatelom, nie naruszymy fundamentów moralnych, z których przecież korzysta cała gospodarka?
– Dochód podstawowy jest kuszący, a zarazem kompletnie nierozpoznany pod względem kosztów społecznych. Poza Finlandią, w bardzo ograniczonym zakresie, i niektórymi lokalnymi rozwiązaniami, mamy bardzo mało doświadczeń, które pozwalałyby prognozować ewentualne skutki. Nie jestem tym specjalnie zaskoczony. Problem jest złożony i polega na braku wspólnego języka, nie tylko w nauce. Dość rzadkie są przypadki, gdy specjalista IT rozmawia z antropologiem kultury, psychologiem albo socjologiem społecznym. Przypomnę tylko, że Dolina Krzemowa ma zaplecze w postaci np. Uniwersytetu Stanforda, którego budżet odpowiada budżetowi całej polskiej nauki. W kontekście rozwoju AI dekadę temu pojawiło się pojęcie solucjonizmu. Kierunek ten podpowiada nam, że rozwiązać problemy społeczne można tylko poprzez doskonalenie narzędzi IT, a jeśli jakaś aplikacja nie jest w stanie tego dokonać, to trzeba zbudować jeszcze lepszą. W tym myśleniu siłą napędową rozwoju jest efektywność, dopiero w drugiej, trzeciej odsłonie – polepszenie dobrostanu.
Stoimy w obliczu wyzwań, o których nam się nie śniło, zresztą – to trochę cyniczne – niespecjalnie jesteśmy nimi zainteresowani, nie mamy potencjału refleksji ani, jak wspomniałem, wspólnego języka. Z drugiej strony, jest środowisko Doliny Krzemowej, niezwykle innowacyjne, które jednak niespecjalnie się zastanawia nad konsekwencjami rozwoju. Tam solucjonizm wciąż dominuje, w myśl zasady: jeżeli za mało zarabiasz, zainstaluj sobie następną aplikację do zarządzania twoim portfelem. My, w Europie, bywamy zdumieni, że można tak myśleć. Odwołując się do naszej kultury judeochrześcijańskiej, próbujemy budować pomosty pomiędzy środowiskami kulturowymi, tymczasem po drugiej stronie ewidentnie może nie być takiej woli.
Na niekorzyść Europy, zwłaszcza Niemiec, przemawia także demografia. Mam na myśli szaloną dysproporcję w rozwoju i narodzinach, a ogólniej ujmując, dostępie do wiedzy najzdolniejszych matematyków. W UE wierzymy, że lepsza edukacja determinuje rozwój najtęższych matematycznych umysłów, ale to tak nie działa. To złożony, ale nadal mało doceniany problem. Generalnie ujmując, musimy pogodzić się z tym, że najbliższe dekady zmienią nasz świat, i proces ten nie będzie przebiegać pod dyktando Unii Europejskiej.
Obok państw i korporacji mamy do czynienia z cyberprzestępczością, która pod względem przychodów zajmuje trzecie miejsce, po USA i Chinach, Jakie działania należałoby podjąć, by największym beneficjentem AI nie były środowiska przestępcze?
– Świat przestępczy jest bardzo niejednorodny. Szczególnie groźna jest przestępczość upaństwowiona, która dysponuje zasobami niedostępnymi dla wielu grup. Powiedziałbym filozoficznie, iż internet nam się nie udał jako projekt, nie starczyło wyobraźni, by uzmysłowić sobie skalę problemów. Sieć jest lustrzanym odbiciem nie tylko niedoskonałości człowieka, ale i dysproporcji pomiędzy złem i dobrem, w konsekwencji straciliśmy poczucie bezpieczeństwa indywidualnego i grupowego, także związanego z dociekaniem prawdy. Moim zdaniem, szansa leży w przeniesieniu się do metaverse, którego jestem wielkim zwolennikiem. Uważam, że ten projekt został uruchomiony za szybko, jest na razie niedostępny dla przeciętnego użytkownika z punktu widzenia przede wszystkim kosztowego, jednak doświadczenie w tym środowisku jest fantastyczne i wielce obiecujące. Reasumując, nie wierzę w skuteczność prawa, jako siły, która może okiełznać zło zaszyte w praktykach i rozwiązaniach cyfrowych, bo – wracając do metafory kamienicy – nie da się dealować z chaosem we wszystkich lokalach, instalując kamerę w jednym pokoju. Wierzę natomiast w dobre intencje i skuteczność AI, która sobie może poradzić z… patologiami sztucznej inteligencji. Już dziś są dostępne rozwiązania, identyfikujące na przykład deepfake, choć nie są one powszechnie stosowane, również dlatego, że nie jesteśmy pewni, czy powinniśmy dawać korporacjom IT prawo do identyfikowania, co jest złe, a co dobre.
Paradoks polega na tym, że AI jest egalitarna np. z punktu widzenia rynku pracy. Jej rozwój godzi przede wszystkim w białe kołnierzyki, wynosząc w górę drabiny kompetencji najsłabszych, ale niespecjalnie wspierając najlepszych. Pracownicy najlepiej zarabiający, najwyżej w hierarchii zawodowej, będą musieli udowadniać, że są lepsi niż sztuczna inteligencja, która będzie ich spychać w dół.
Przypomnę, że młodzieńcza wiara w powszechne dobre intencje w cyberświecie zanikła w latach 2015–2016, m.in. przy okazji wyborów w USA. Do tego dochodzą, by posłużyć się pojęciem wprowadzonym przez Zygmunta Baumana, tzw. straty uboczne rozwoju nowych technologii. Dla przykładu – szkoleniem chatbota GPT zajmuje się z reguły słabo opłacany, młody człowiek w Kenii, na Filipinach i w Bangladeszu, który selekcjonuje dane. To jest ów koszt uboczny, który jesteśmy gotowi, jak sądzę, ponosić, chowając głowę w piasek, uznając, że im więcej takich szkoleń zostanie przeprowadzonych, tym szybciej AI będzie gotowa, by skutecznie przeciwdziałać np. cyberatakom, czy zaradzić inwazji szkodliwych treści.
Mamy też do czynienia z uwalnianiem zwykłego Kowalskiego od odpowiedzialności za podejmowane decyzje, czego efekt widać w coraz silniejszej ochronie konsumenta. Czy ceną za rozwój sztucznej inteligencji powinno być obniżanie standardów dla tej prawdziwej?
– Uważam, że asymetria zależności pomiędzy użytkownikiem a organizacją, biegłą w posługiwaniu się sztuczną inteligencją, jest nieporównywalna z żadnym dotychczasowym doświadczeniem w dziejach ludzkości. Jeszcze pół wieku temu przeciętny człowiek mógł sobie np. wyobrazić, jak działają media, dziś nie ma pojęcia o nowej logice mediów cyfrowych, nie mówiąc o AI. Retorycznie upodmiotowiony i wolny staje w obliczu nieznanego, będąc całkowicie zanurzony w świecie cyfrowym, z mnóstwem pokus. Gdy dostrzega tę asymetrię zależności, zaczyna się zastanawiać, kto może mu pomóc. Naturalnym rozwiązaniem jest poszukiwanie wsparcia ze strony państw, ewentualnie organizacji takich, jak Unia Europejska. Nauka stara się mu także pomóc, ale np. etyka algorytmiczna dopiero raczkuje jako wiedza naukowa, nie mówiąc o jej wykorzystaniu w praktyce. W Polsce ona prawie nie istnieje, czerpiemy wzorce z Zachodu, nie biorąc pod uwagę choćby różnic kulturowych i odmiennych poziomów zaufania społecznego.
Aby zaradzić wielu tym problemom, potrzeba odpowiedniej edukacji. Dziś widzę wielki popyt na edukację, ale brakuje edukatorów, dlatego uważam, że środki publiczne powinny być desygnowane w pierwszej kolejności na podstawową edukację cyfrową od piątego-szóstego roku życia, w przedszkolach, i wczesnych klasach szkół podstawowych. I nie chodzi tu wyłącznie o świadomość zagrożeń związanych z aktywnością przestępczą; równie poważnym wyzwaniem, niedocenianym przez 2/3 Polaków, jest odnalezienie się na rynku pracy, który będzie coraz silniej opanowywany przez AI.
Warto też pamiętać o właściwych proporcjach w identyfikacji zagrożeń. Deepfake stanowią ewidentny margines wszystkich przepływów treści w cyberświecie, jednak warto już teraz poznać wroga, by w przyszłości się z nim zmierzyć. Pozostaje nam zatem wiara w to, że postęp wyzwoli w nas pewne mechanizmy obronne. Moda na przyzwoitość cyfrową już przychodzi, choć trudno prognozować, jak nas zmieni. Problem polega też na tym, że ciągle żyjemy iluzjami, jakoby AI była kolejnym świętym Graalem, które rozwiąże nam problemy społeczne i ze zdumieniem stwierdzamy, że znowu się nie udało. Proponuję nie być naiwnym i dostrzec, że jest to tak naprawdę kolejne złożone doświadczenie.