Bankowość i Finanse | Technologie | Sztuczna inteligencja – czy jesteśmy na nią gotowi?
Bardzo szybki rozwój technologii wykorzystujących sztuczną inteligencję oprócz fascynacji budzi też niepokój. Jak dużym wyzwaniem dla społeczeństwa jest jej rozwój i czy jesteśmy na to przygotowani?
– Jeśli myślimy o społeczeństwie, to możemy mówić o ogromnych zaniedbaniach. Nie jesteśmy przygotowani na AI ani od strony merytorycznej, ani psychologicznej, ponieważ ludzie nadal mają błędne wyobrażenia na jej temat, choćby myśląc, że sztuczna inteligencja ich zastąpi, odbierając pracę. Często karmią się mitami z filmów i literatury science fiction i mają ograniczoną orientację, czym ona tak naprawdę jest. Potwierdzają to także nasze badania z zeszłego roku i sprzed dwóch lat. Widać wyraźnie, że zdecydowana większość Polaków ma szereg obaw oraz przekonanie, że sztuczną inteligencję trzeba stale kontrolować, sprawdzać i nadzorować. Jednocześnie na proste pytania dotyczące tego, czym jest AI, większość nie potrafi odpowiedzieć.
Nie jesteśmy również przygotowani na wyzwania związane z nierównym dostępem do tej technologii. Po pierwsze, nie powinno być tak, że tylko lepiej wykształceni lub bardziej zamożni mogą korzystać z nowych rozwiązań. Rzadko zastanawiamy się nad tym, że sztuczna inteligencja powinna być dostępna np. dla osób starszych. Nie myślimy także o infrastrukturze – choćby o zapewnieniu odpowiednio szybkiego internetu. Również w kwestii umiejętności cyfrowych sytuacja w Polsce nie wygląda najlepiej. Z raportów DESI (Digital Economy and Society Index) wynika, że Polska plasuje się poniżej średniej europejskiej w zakresie kompetencji cyfrowych – w naszym kraju 44% obywateli posiada przynajmniej podstawowe umiejętności cyfrowe, podczas gdy w UE wskaźnik ten wynosi ponad 55%. Obsługa aplikacji opartych na AI jest więc jeszcze trudniejszym wyzwaniem.
Możemy się co prawda cieszyć, że Polska zajmuje pierwsze miejsce w rankingu National Cyber Security Index, mierzącym poziom cyberbezpieczeństwa kraju, ale w wymiarze jednostkowym sytuacja wygląda mniej optymistycznie. Raport EY Future Consumer Index 2023 pokazał, że aż 80% Polaków obawia się, że ich dane zostaną przekazane osobom trzecim przez podmioty, które je gromadzą. Równocześnie jednak ponad połowa z nas dobrowolnie udostępnia je, aby uzyskać korzyści przy zakupach online. Przeciętny użytkownik bezmyślnie przesyła także różne dokumenty prywatne do aplikacji AI, takich jak ChatGPT.
Jak pokazują najnowsze badania CBOS, więcej Polaków obawia się sztucznej inteligencji, niż dostrzega jej zalety. Jesteśmy nieufni wobec AI, co wynika również z ogólnie niskiego poziomu zaufania społecznego. Skoro zaufanie społeczne jest niskie, wszelkie nowinki technologiczne napotykają na większą nieufność. W Polsce kluczowy jest lęk o dostępność miejsc pracy – uważa się, że AI może wpłynąć na obniżenie jakości życia, jeżeli wpłynie na zatrudnienie. Z drugiej strony, jesteśmy również bardzo ciekawi sztucznej inteligencji i dostrzegamy jej potencjalną rolę we wspieraniu gospodarki. Można tu mówić o ambiwalencji emocji: z jednej strony nie bardzo wiemy, czym jest AI, z drugiej – dostrzegamy jej atrakcyjność. Zachowujemy się trochę jak dziecko, które po raz pierwszy zobaczyło choinkę – podziwia ją, ale nie wie, co można dotknąć, a czego lepiej unikać.
A firmy? Są przygotowane na wykorzystanie tej nowej technologii?
– To jest trudne do oceny, bo badania w tym zakresie są często bardzo ogólne i deklaratywne, a ich wyniki zależą od przyjętej metodologii. Przykładowo, badania PKO BP pokazują, że w Polsce 16% małych firm korzysta z rozwiązań opartych na sztucznej inteligencji. Z kolei z raportu Digital Decade 2024 wynika, że w ub.r. rozwiązania AI wdrożyło jedynie 3,7% polskich przedsiębiorstw, co jest znacznie poniżej średniej UE wynoszącej 8%. Jeśli chodzi o analizę danych, to wdrożyło ją 19,3% polskich firm, podczas gdy w Unii odsetek ten wynosi 33,2%.
W tym roku w naszym kraju powstała AI Chamber (Izba AI), zrzeszająca kilkadziesiąt startupów, firm, organizacji i NGO-sów. W raporcie tej organizacji można przeczytać, że aż 90% małych i średnich przedsiębiorstw stosuje sztuczną inteligencję oraz uczenie maszynowe. Jednak wyniki te opierają się na danych zebranych od kadry zarządzającej i liderów zmian zrzeszonych w Izbie, co trudno uznać za próbę reprezentatywną.
Jeśli chodzi o rynek bankowy, miałem okazję zapoznać się z raportem dotyczącym bankowości detalicznej, który wskazuje, że tylko 6% banków jest w pełni przygotowanych na transformację opartą na sztucznej inteligencji. Mówi się dużo o czatbotach, które już funkcjonują w bankowości, ale raport pokazuje, że większość klientów jest niezadowolona z ich działania. Tutaj pozostaje jeszcze sporo do zrobienia. Obecnie AI to domena firm, które nastawione są na budowę przewagi konkurencyjnej i innowacje technologiczne, ale wiele z nich ogranicza się do obserwacji rynku i nie tworzy konkretnych planów na najbliższe lata. Wciąż brakuje im jasnej polityki, jakie narzędzia stosować i jak przeprowadzać transformacje.
Pomimo przyjęcia przez Parlament Europejski w marcu tego roku tzw. AI Act (EU Artificial Intelligence Act), firmy i ich klienci wciąż mają niewielką orientację w zakresie obowiązujących regulacji, jak przetwarzać dane i jak trenować modele AI. Regulacyjnie nie jesteśmy też przygotowani na wdrażanie istniejących rozwiązań i tych, które dopiero nadejdą, takich jak autonomiczne pojazdy czy systemy zdrowotne. Sztuczna inteligencja coraz śmielej wkracza do medycyny i już redefiniuje relacje pacjenta z lekarzem. Przybywać będzie rozwiązań monitorujących stan zdrowia przy użyciu tzw. technologii ubieralnych (wearables) jak opaski czy smartwatche. Pytanie, jak firmy mogą analizować takie dane, kto będzie miał do nich dostęp i jak będą one przetwarzane, wciąż pozostaje otwarte i niejasne.
Może brakuje nam wszystkim edukacji?
– Na pewno nasze społeczeństwo jest mocno niedoedukowane. Spójrzmy na inne kraje: w Finlandii rząd prowadzi bezpłatne kursy online dla obywateli w zakresie podstaw sztucznej inteligencji (kurs „Elements of AI”), w Indiach ministerstwo edukacji uruchomiło platformę „AI for All”, dostępną aż w 11 językach używanych w kraju. W Kanadzie działa program AI Assist, który inwestuje 100 mln USD, aby wspierać innowacyjne małe i średnie przedsiębiorstwa w tworzeniu i wdrażaniu rozwiązań opartych na generatywnej AI.
W Polsce mamy co prawda portal sztucznej inteligencji, który opisuje różne programy zwiększające kompetencje w zakresie innowacji i nowych technologii, takie jak Akademia Menadżera Innowacji, GovTech Polska czy Innovation Coach. Wydaje się jednak, że to wciąż za mało – nie są to programy masowe, a przez to nie odpowiadają na rzeczywiste zapotrzebowanie. Istnieją też takie inicjatywy, jak program „My Digital Life” realizowany przez Fundację Rozwoju Społeczeństwa Informacyjnego (FRSI) we współpracy z Microsoftem, czy platforma CampusAI, która promuje współpracę człowieka z AI (tzw. Human+AI collaboration) i planuje ekspansję na rynki zagraniczne, w tym brytyjski i hiszpański.
Zwracam też uwagę na rolę mediów, które odzwierciedlają zainteresowania elit rządzących. Temat nowych technologii niemal nie istnieje w polskiej telewizji, dlatego sam oglądam zagraniczne kanały. Na Deutsche Welle (DW) np. niemal codziennie pojawiają się programy o rozwiązaniach AI, prezentujące najnowszą wiedzę w tej dziedzinie. W naszej telewizji nie spotkałem jeszcze stałego programu, który ciekawie i na podstawie badania opisywałby trendy technologiczne związane ze sztuczną inteligencją.
Z tego, co się orientuję, obecne programy nauczania nie przewidują edukacji o AI, a nawet o higienie cyfrowej. Moim zdaniem, to nie wynika z braku uznania tej tematyki za ważną, ale z faktu, że programy szkolne są układane z dużym wyprzedzeniem i nastawione głównie na przeszłość, zamiast kształtować przyszłość. Jest też poważny problem z przygotowaniem samych nauczycieli. Warto zadać pytanie, kto będzie ich uczył i czy powstaną systemowe rozwiązania, które umożliwią stałe podnoszenie kwalifikacji nauczycieli, aby mogli przekazywać najnowszą wiedzę dzieciom i młodzieży. Na razie takiego modelu nie widzę i obawiam się, że będziemy mieli nieprzygotowaną młodzież, która pojawi się na rynku pracy bez podstawowej orientacji w zakresie sztucznej inteligencji.
Ludzie nadal mają błędne wyobrażenia na temat AI, choćby myśląc, że sztuczna inteligencja ich zastąpi, odbierając pracę. Często karmią się mitami z filmów i literatury science fiction i mają ograniczoną orientację, czym ona tak naprawdę jest. Zdecydowana większość Polaków ma szereg obaw
oraz przekonanie, że sztuczną inteligencję trzeba stale kontrolować, sprawdzać i nadzorować.
Czy zatem upowszechnienie rozwiązań wykorzystujących zaawansowaną sztuczną inteligencję grozi tym, że będziemy podatni na różne manipulacje, np. obecne w kampaniach reklamowych?
– Tak, wspomniane już badania CBOS wykazały, że 13% Polaków dostrzega problem dezinformacji, propagandy oraz możliwości podszywania się pod inne osoby za pomocą AI. Generatywna sztuczna inteligencja jest w stanie klonować głos, tworzyć zdjęcia nieistniejących osób, a nawet filmy, w których można podmienić twarz na dowolną. Dzięki temu może tworzyć bardzo perswazyjne awatary, które nawiązują z nami więzi emocjonalne. Co więcej, awatary te potrafią rozpoznawać nasze stany emocjonalne, symulować empatię i dostosowywać się do nas. W literaturze naukowej mówi się o „paradoksie emocjonalnego związku z AI” – odczuwamy przywiązanie do sztucznej inteligencji, choć wiemy, iż nie jest zdolna do rzeczywistych emocji. Jesteśmy jednak emocjonalnymi istotami, podatnymi na komplementy i przysługi, nawet gdy pochodzą od maszyny.
Badania nad interakcjami z robotami pokazują, że działa na nas tzw. reguła wzajemności. Eduardo Benitez Sandoval z University of Canterbury odkrył, że ludzie reagują na prośby robotów społecznych podobnie jak na prośby innych ludzi. Jeśli robot poczęstuje nas cukierkiem lub udzieli pomocnych informacji, chętniej wykonamy jego prośbę, np. wypełnimy długą ankietę lub wesprzemy organizację charytatywną.
Coraz trudniej oprzeć się wrażeniu, że rozmawiamy z kimś prawdziwym. AI gromadzi o nas dane – najnowsze awatary i chatboty zapamiętują nasze rozmowy i potrafią wracać do wcześniejszych tematów. Badania wskazują, że nawet w interakcji z prostym botem odnosimy się do niego jak do człowieka. Większość osób mówi do AI grzecznie, używa słów takich jak „proszę” czy „dziękuję”, a nawet pyta, czy bot ma czas. Wynika to z tego, że nie mamy osobnej kategorii ontologicznej dla sztucznych agentów; jesteśmy przyzwyczajeni do interakcji z innymi inteligentnymi istotami, co skłania nas do stosowania wobec AI tych samych norm społecznych.
Pojawia się tu mieszanka tego, co ludzkie, i tego, co sztuczne. Nasze mózgi wariują, gdy maszyna niemal idealnie komunikuje się z nami w naturalny sposób. Najnowsze wersje ChatGPT, które potrafią rozmawiać głosem i modulować jego emocjonalność, jeszcze bardziej zacierając te granice. Jeśli zaawansowane AI pojawią się w bankomatach, dystrybutorach biletów i innych urządzeniach, możemy dojść do momentu, w którym częściej będziemy rozmawiać z maszynami niż z ludźmi. W bankowości stopniowe odchodzenie od interakcji z ludźmi na rzecz maszyn trwa od lat. Holding Wells Fargo promuje chatbota opartego na modelu Google, który rocznie przeprowadza miliony transakcji, a prognozy mówią, że osiągnie ich ok. 100 mln.
Boty stają się coraz bardziej wyrafinowane i analizują nasze wzorce wydatków, poznając nasz profil, zwyczaje i potrzeby. Tego typu rozwiązania będą nam coraz bliższe, co sprawi, że zaczniemy im ufać i zapewne częściej kupować pod wpływem ich rekomendacji. Połowa respondentów niektórych badań przeprowadzonych w Polsce przyznała, że korzysta z ofert proponowanych przez AI. Rekomendacje te są często postrzegane jako trafione, bo bazują na naszych preferencjach i wcześniejszych decyzjach. Podobnie działa dobór filmów na Netflixie – wygodnie jest, gdy algorytm podpowiada nam filmy, które mogą nam się spodobać. Jednak jest też ryzyko, że zamyka nas to w pewnym świecie i wzmacnia jednostronne przekonania.
Najbardziej niepokoi mnie hiperpersonalizacja. Dostrajanie treści komunikatów do jednostkowych potrzeb, choć może zwiększać efektywność reklam, to jednak zamyka odbiorców w swego rodzaju mikrobańkach. Wydaje mi się, że część ludzi zaczyna już odczuwać duszność w świecie, w którym algorytmy precyzyjnie dopasowują wszystko do ich gustów, ograniczając tym samym kontakt z odmiennymi perspektywami.
Psycholodzy obserwują już negatywny wpływ takich technologii na ludzi? Czy boty mogą skutecznie namawiać nas choćby do nieakceptowanych społecznie zachowań?
– Ciekawe jest to, że jak wynika z badań, ludzie często dostosowują swoje opinie do poglądów awatarów w wirtualnej rzeczywistości, nawet jeśli wiedzą, że to sztuczna inteligencja. Pokazuje to, jak głęboko zakorzeniona jest w nas tendencja do ulegania wpływom społecznym, nawet w cyfrowym świecie. Ja jednak zajmuję się głównie badaniami nad fizycznie ucieleśnioną sztuczną inteligencją i z moich doświadczeń wynika, że taka podatność jest jeszcze większa. Dwa lata temu przeprowadziliśmy eksperyment, aby sprawdzić, czy ludzie są skłonni podążyć za sugestiami robota namawiającego ich do zrobienia czegoś niewłaściwego. Tym działaniem było rażenie prądem drugiego człowieka. Była to replika słynnego eksperymentu posłuszeństwa Stanleya Milgrama z lat 70. XX w., gdzie autorytet w postaci naukowca zachęcał uczestników do rażenia prądem innej osoby, gdy ta popełniała błąd w odpowiedziach (warto tutaj podkreślić, że nie był to prawdziwy prąd, a sytuacja została przez nas zaaranżowana z udziałem aktorów). Jednak my zamiast człowieka w roli autorytetu umieściliśmy humanoidalnego robota. Okazało się, że aż 90% uczestników zgodziło się na to nieetyczne działanie, kierując się sugestią maszyny.
Mamy tu do czynienia z antropomorfizacją, czyli przypisywaniem ludzkich cech sztucznym tworom, zwłaszcza robotom. Z innych naszych eksperymentów wynika np. to, że dotykanie robota o humanoidalnym ciele wywołuje u ludzi reakcje fizjologiczne podobne do tych, jakie zachodzą podczas dotykania innego człowieka. Jeśli dotyka się miejsca intymne – pobudzenie rośnie!
A co do różnic w perswazyjności – chatbot, voicebot, awatar czy robot. Sprawa jest prosta – jeśli maszyna jedynie do nas pisze, jej wpływ jest mniejszy; jeśli mówi, jej oddziaływanie wzrasta, a najbardziej wpływa na nas, gdy możemy ją zobaczyć i słyszeć jednocześnie. To tak jak w przypadku interakcji międzyludzkich – jeśli otrzymujemy e-mail, jesteśmy mniej skłonni spełnić prośbę nadawcy, niż wtedy, gdy ta sama osoba zadzwoni czy pojawi się osobiście.
Nauczymy się właściwie kontaktować ze sztuczną inteligencją?
– Myślę, że z czasem zaczniemy dostrzegać, że AI to tylko sztuczne twory, maszyny. Będziemy się uczyć, że rozwiązania oparte na AI są omylne i wiążą się z nimi pewne potencjalne zagrożenia. Z tej perspektywy nawet cieszy mnie, że taki ChatGPT czasami halucynuje, bo może to nauczy nas trochę sceptycyzmu i ostrożności oraz zrozumienia, że AI nie powinna nas wyręczać. Niestety, wciąż wiele osób bezrefleksyjnie kopiuje treści generowane przez nią – widzę to nawet w pracach moich studentów. Skrajności nigdy nie są dobre, zarówno nadmierne zaufanie, jak i przesadna nieufność. Czasem kierujemy się wskazówkami AI, myśląc, że jest to obiektywne i nieomylne urządzenie. To paradoks, bo z jednej strony obawiamy się, że sztuczna inteligencja nas kontroluje, odbiera nam podmiotowość i dehumanizuje, a z drugiej, gdy już z niej korzystamy, zapominamy o tych wątpliwościach.
Jak pokazują badania, jesteśmy często bardziej skłonni przekazać AI swoje dane osobowe niż drugiemu człowiekowi. Zapominamy, że system sztucznej inteligencji nie działa samodzielnie i do danych, które od nas zbiera, zwykle ma dostęp także biologiczny człowiek.
Najbardziej niepokoi mnie hiperpersonalizacja. Dostrajanie treści komunikatów do jednostkowych potrzeb, choć może zwiększać efektywność reklam, to jednak zamyka odbiorców w swego rodzaju mikrobańkach. Wydaje mi się, że część ludzi zaczyna już odczuwać duszność w świecie, w którym algorytmy precyzyjnie dopasowują wszystko do ich gustów, ograniczając tym samym kontakt z odmiennymi perspektywami.
A jak komunikujemy się ze sztuczną inteligencją i co wynika z badań nad tymi relacjami?
– Mówiąc ogólnie, większość badań pokazuje, że komunikujemy się z AI niemal tak, jakbyśmy rozmawiali z człowiekiem. Guzman i Lewis opublikowali w „New Media & Society” artykuł, w którym wykazali, że sposób komunikacji AI z użytkownikami wpływa na ich postrzeganie tej technologii i przywiązanie do niej. Kiedy AI używa języka i gestów naśladujących interakcje międzyludzkie, użytkownicy zaczynają przypisywać jej intencje i emocje, choć są one jedynie symulowane. To zwiększa zaangażowanie w rozmowę, ale także prowadzi do antropomorfizacji, co z kolei wiąże się z ryzykiem nadmiernego zaufania. Innymi słowy, może się spełnić scenariusz z filmu „Ona”, gdzie samotny pisarz zakochuje się w systemie operacyjnym, z którym spędza całe dnie. Z jednej strony AI może pomagać w radzeniu sobie z samotnością i wspierać rozwój umiejętności komunikacyjnych, ale istnieje też ryzyko, że zastąpi ona relacje międzyludzkie.
Ludzie stosują wobec AI podobne stereotypy, jakie funkcjonują w relacjach międzyludzkich. Badania pokazują np., że jeśli AI ma kobiece cechy, to mężczyźni komunikują się z nią w bardziej uprzejmy sposób – mówią spokojniej i grzeczniej, tak jakby rozmawiali z prawdziwą kobietą.
Badania wskazują także, że im bardziej humanoidalny jest awatar, tym silniejsze emocje wzbudza. Ciekawym zjawiskiem jest efekt doliny niesamowitości, który pojawia się, gdy awatar lub robot wygląda niemal jak człowiek, ale jednocześnie ma cechy nieludzkie. Wywołuje to w nas lęk i niepokój, szczególnie jeśli robot posiada skórę lub włosy podobne do ludzkich. Traktujemy taki obiekt jak zombie – niby żyje, ale jednak nie do końca. Wzbudza to mieszankę emocji – od fascynacji po przerażenie i jednocześnie nie wiemy, jak się wobec niego zachowywać. Czy przywitać się z nim, porozmawiać? Badania nad doliną niesamowitości są prowadzone od lat i wskazują, że zbytnie upodabnianie maszyn do ludzi niekoniecznie jest najlepszym kierunkiem rozwoju robotyki społecznej.
Czy dzieci są bezpieczne, nawiązując relacje ze sztuczną inteligencją?
– Psycholodzy wciąż badają, jak dzieci wchodzą w relacje z różnymi wirtualnymi agentami i jak się z nimi komunikują. Badania sugerują, że wychowywanie się z asystentami głosowymi może być dla dzieci niebezpieczne. Dziecko zaczyna wydawać polecenia asystentowi, co może przenieść na relacje z ludźmi wokół siebie, np. z rodzicami. Kopiuje w ten sposób styl komunikacyjny asystenta, który zawsze jest gotów odpowiedzieć, tłumaczy cierpliwie i zawsze ma czas. To może być pomocne, ale z drugiej strony może też utrudniać relacje z prawdziwymi ludźmi, którzy nie zawsze mają czas i gotowe odpowiedzi na każde pytanie.
Nasze badania pokazują, że młodsze dzieci mają większą tendencję do antropomorfizacji inteligentnych maszyn – wierzą, że maszyny mają swoje przemyślenia, że potrafią planować i wyobrażać sobie różne rzeczy. Inaczej mówiąc, dzieci przypisują maszynom takie same stany psychiczne i emocjonalne, jak ludziom. W badaniach porównywaliśmy grupy dzieci w wieku od pięciu do siedmiu lat oraz od dziewięciu do dwunastu lat. Niestety, młodsze są bardziej podatne na takie złudzenia, co może prowadzić do nawiązywania bardziej złożonych relacji z technologią. To już się dzieje. Jest np. aplikacja Replika, która pozwala dziecku stworzyć sobie przyjaciela – awatara, który jest dostępny w smartfonie i z którym można rozmawiać. Replika poznaje nas, obserwuje, analizuje nasze działania i pyta o rzeczy, które wydarzyły się wcześniej. Użytkownicy mogą prowadzić z Repliką rozmowy tekstowe, głosowe, a nawet wymieniać zdjęcia. AI dostosowuje swoją osobowość i odpowiedzi do preferencji użytkownika na podstawie dotychczasowych interakcji.
Taki towarzysz może być czasem pomocny, ale psychologowie alarmują, że w efekcie przynosi to więcej szkody niż pożytku. Z jednej strony młody człowiek ma „kolegę” czy „koleżankę”, ale z drugiej może to prowadzić do niechęci do tworzenia rzeczywistych relacji. Wielu naukowców uważa, że sztuczna inteligencja jest niezwykle przydatna, ale nie powinna ingerować w nasze relacje. Zbyt duże podobieństwo AI do człowieka może sprawić, że zacznie ona nam te relacje zastępować. Uważam, że to niepotrzebne, ale być może jest już za późno, by odwrócić niektóre procesy. Między innymi o tym będziemy rozmawiać na naszej konferencji „HumanTech Summit”, która odbędzie się 7–8 grudnia na Uniwersytecie SWPS.