Raport Specjalny – IT@BANK 2023 | AI | Nie sądzę, by sztuczna inteligencja zerwała się z cybernetycznego łańcucha

Raport Specjalny – IT@BANK 2023 | AI | Nie sądzę, by sztuczna inteligencja zerwała się z cybernetycznego łańcucha
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Kiedy będziemy bardzo bazować na rozwiązaniach oferowanych przez sztuczną inteligencję, może pojawić się ryzyko, że zapomnimy o człowieku. Zagrożeniem jest poznawcze lenistwo, nadużywanie algorytmów i brak krytycyzmu w stosunku do AI – podkreśla dr Konrad Maj, psycholog społeczny, kierownik projektu HumanTech Meetings na Uniwersytecie SWPS. Rozmawiał z nim Jan Bolanowski.

Czy sztuczna inteligencja może osiągnąć świadomość?

– Jest to wysoce wątpliwe. Choć odpowiedź na to pytanie wypadałoby zacząć od tego, że my tak naprawdę nie wiemy, czym jest świadomość. Definicji jest cała masa, zresztą często ze sobą sprzecznych. Nauka nie umie wytłumaczyć, jak działa ludzka świadomość. To jest bardzo trudne do uchwycenia i brakuje nam narzędzi do opisania tego fenomenu. Obecnie nie jesteśmy w stanie w sposób rzetelny odpowiedzieć na pytanie, czy świadomość występuje u zwierząt. Tym bardziej nie wiemy, jak moglibyśmy określić, czy świadomość pojawi się w przypadku inteligentnych maszyn.

A co wiemy?

– Wiemy, że świadomość ewoluuje, że jest zintegrowana z naszą cielesnością i wieloma obszarami mózgu. Obserwujemy to na przykładzie rozwoju człowieka. Świadomość jednostki, od niemowlęctwa, rozwija się w toku interakcji ze światem zewnętrznym, poprzez doświadczenia i różnego rodzaju aktywność własną. Uznajemy, że świadomość to stan psychiczny, w którym człowiek zdaje sobie sprawę z tego, co się dzieje wewnątrz jego psychiki. Ma własny świat wewnętrzny, a na podstawie procesów poznawczych orientuje się w otoczeniu i wie, jak na nie reagować. W nauce próbujemy pojęcie świadomości określić, ale znacznie gorzej jest z jej pomiarem – z wejrzeniem w głąb różnych istot i stwierdzeniem z całą pewnością, że są samoświadome.

W kontekście zwierząt stosuje się tzw. test lustra, czyli obserwuje się reakcję zwierząt na widok własnego lustrzanego odbicia, po tym jak ich wygląd został zmieniony np. przez namalowanie kolorowej plamy na czole. W przypadku robota taki test chyba powie jeszcze mniej niż u zwierząt?

– Takie eksperymenty przeprowadzano z udziałem szympansów, delfinów i innych gatunków. Wyniki były różne i na pewno niejednoznaczne, a niektórzy badacze w ogóle kwestionują zasadność tego testu, dlatego że różne gatunki komunikują się ze światem na różne sposoby odmienne od naszego. Każdy ma swój Umwelt, jak określa to David Eagleman z Uniwersytetu Stanforda – to świat zmysłów i odbieranych bodźców, w którym żyjemy. Dla przykładu psy nie przechodzą testu lustra. Ale może dlatego, że dla nich zmysł powonienia jest znacznie ważniejszy od zmysłu wzroku. Alexandra Horowitz, psycholog z Barnard College, dawała psom do powąchania różne próbki moczu, okazało się, że reagowały inaczej na swój – on ich mniej interesował. Również węgierscy badacze opracowali inny test samoświadomości dla psów. Sprawdzono w nim, czy zwierzęta schodzą z maty, gdy zostaną poproszone o podniesienie przedmiotu przyczepionego do niej. Okazuje się, że tak. Zostało to uznane jako dowód na świadomość własnej cielesności, a zatem na istnienie u psów samoświadomości.

A co do maszyn – z eksperymentu myślowego Johna Searle’a o chińskim pokoju wynika, że sam fakt generowania odpowiedzi na impuls nie oznacza, że w środku odbywa się jakiś świadomy proces poznawczy. Natomiast sztuczna inteligencja to systemy, które doskonale imitują zachowania. Zaprogramowanie robota, by poprzez system swoich kamer umiał rozpoznać plamę na swojej obudowie i spróbował ją zetrzeć, nie stanowi żadnego problemu. Ale to nie będzie przejaw samoświadomości, tylko realizacja programu. Sztuczna inteligencja nie poznaje świata przez swoją cielesną formę, nawet jeśli jest zainstalowana w ciele robota. Warto dodać, że wielu teoretyków przyjmuje założenie, że świadomość bierze się z interakcji z otoczeniem w toku codziennych doświadczeń. Sztuczna inteligencja takich doświadczeń nie ma i długo nie będzie miała. Jeśli już, to taką sztuczną świadomość można by próbować wykształcać w toku wieloletniego uczenia takiego robota wyposażonego w coś w rodzaju zmysłów. Na obecny moment wydaje się to jednak niemożliwe.

ChatGPT może nie ma ciała, ale miał setki milionów, jeśli nie miliardy interakcji z ludźmi. Na tej podstawie uczył się i ewoluował. To nie wystarczy, by w toku analizy tych rozmów powstała świadomość?

– Bardzo wątpię. Algorytm po prostu będzie coraz sprawniej imitował ludzki mózg i coraz lepiej udawał, że jest tam coś więcej niż tylko inteligencja obliczeniowa. Przyznam, że sam byłem nie raz zadziwiony odpowiedziami ChataGPT. Udało mi się z nim pokłócić, odpowiadał złośliwymi żarcikami i potrafił przedrzeźniać. Było to zaskakujące, ale wynika po prostu z właściwości dużych modeli językowych. Algorytm posiada dużo informacji na temat języka symbolicznego, wie, czym jest ironia i szyderstwo. Jeśli wychwyci, że użytkownik stosuje tę formę komunikacji, również potrafi się przełączyć na ironizowanie. Nie sądzę jednak, by takie konwersacje mogły sprawić, że gdzieś tam we wnętrzu algorytmu zapali się światełko świadomości. Do tego potrzeba doświadczania świata zewnętrznego o znacznie intensywniejszym charakterze niż generowanie odpowiedzi w ramach rozmowy.

Co jakiś czas pojawiają się jednak sensacyjne doniesienia o kolejnych zadziwiających osiągnięciach sztucznej inteligencji.

– Często są to zwykłe fejki. A za nośnością tej tematyki stoją kwestie o charakterze egzystencjalnym. Jako ludzkość uważamy się za najbardziej świadomy gatunek na ziemi, dlatego tak emocjonalnie reagujemy na wszelkie najdrobniejsze sygnały o tym, że sztuczna inteligencja może iść w tym kierunku. Dylematów jest zresztą znacznie więcej. Jeżeli ktoś kiedyś stworzy taki sztuczny byt, to można powiedzieć, że w pewnym stopniu zaneguje istnienie Boga. W wielu kulturach uważamy przecież, że to Bóg jest twórcą życia. A konstruując świadomą maszynę, stworzylibyśmy nieśmiertelne byty, bo nieobciążone powłoką biologiczną, które mogłyby dalej ewoluować, po latach osiągając być  może poziom bytu doskonałego. Powstałby jakiś nowy supergatunek. Skonstruowanie świadomych maszyn oznacza problemy nie tylko etyczne i filozoficzne, ale również regulacyjne. Ze świadomością powinny wiązać się obowiązki i prawa. Nam się wydaje, że skoro udało się odtworzyć tak zaawansowane procesy logiczne, to następnym krokiem będzie świadomość. To wymaga jednak znacznie większego skoku technologicznego, o ile w ogóle jest możliwe. Na razie jednak możemy chyba się czuć bezpiecznie.

Kto wie, gdyby do sztucznej inteligencji podejść od innej strony i próbować ją zbudować, kopiując idealnie strukturę i architekturę ludzkiego mózgu, może szanse na powodzenie byłyby większe. Ale to trudne, bo przecież mózg jest najmniej rozpoznanym organem ludzkiego ciała. Moim zdaniem, nie sposób jest zbudować świadomy sztuczny byt, gdy wciąż sami dla siebie stanowimy naukową zagadkę. Zresztą i tak nie mielibyśmy pewności, że w tworze idealnie odwzorowanym pojawiłaby się jaźń. Już bardziej wierzę, że kiedyś stanie się możliwe połączenie biologicznej architektury ludzkiego mózgu z możliwościami, które dają systemy krzemowe. Na ten moment uważam, że jedynym sposobem na to, by maszyny stały się świadome, jest to, żeby stały się częścią nas samych.

Mówimy o cyborgizacji?

– Między innymi, a także o połączeniu umysłu ze sztuczną inteligencją przez brain-computer interface, czyli wgranie danych do naszego biologicznego mózgu. Choć większość naukowców raczej przekreśla możliwość powstania świadomych maszyn, to zgadza się, że wizja cyborgizacji jest bardzo realna. Zapewne przyjdzie taki czas, gdy będziemy do naszego mózgu uploadować sobie różne dane. Na przykład zamiast uczyć się języków, będziemy mogli wszczepić sobie jakiś implant do mózgu, dzięki któremu będziemy od razu posługiwać się kilkunastoma językami. Wyobrażam sobie również cybernetyczne oczy, umożliwiające nagrywanie obrazów z otoczenia, robienie zdjęć oczami. I wiele innych ekscytujących wynalazków należących do kategorii tzw. rozszerzonego poznania (extended cognition).

Jeśli wykorzystamy architekturę mózgu, swoistą konstrukcję człowieka, ale będziemy ją rozbudowywać i zmieniać, zaczniemy tworzyć nowe gatunki, nowe krzyżówki, ale zmiksowane z techniką. O tym mówi futurolog Ian Pearson, który przewiduje, że będziemy coraz bardziej stapiać się z technologią, ­uzyskując nowe możliwości poznawcze czy behawioralne. Pojawią się możliwości odbierania świata w taki sposób, jak robią to inne zwierzęta, na przykład będzie można zyskać psi węch, czy widzenie w ciemności. Zmieni się odbiór świata, a wraz z nim poszerzy świadomość. Ludzie będą świadomi rzeczy, na które teraz jesteśmy ślepi.

Dotykamy też tutaj innego poważnego tematu, o którym mówią transhumaniści. Odwrotnego procesu – tzn. transferu zawartości ludzkiego mózgu do komputera. Kilka firm mówi, że nad tym pracuje. Myślę, że to może być forma testu i pośrednia odpowiedź na postawione tu pytanie, czy maszyny mogą być świadome. Jeżeli uda się przenieść zawartość mózgu do komputera, to zobaczymy, jak ten byt będzie funkcjonował i reagował na świat. Nie ma tu jednak gwarancji, że po takim transferze pokaże się jaźń i świadomość, czy tylko bardzo sprawna emulacja. Powstanie poważny dylemat, jak to sprawdzić, że do maszyny rzeczywiście przenieśliśmy ludzką świadomość, a nie siedzi tam jakiś cybernetyczny oszust.

A jeśli ta emulacja świadomości będzie tak doskonała, że dla ludzi nie będzie to miało znaczenia? W filmie „Her” widzimy historię, jak człowiek zakochuje się w AI. Jakie będą skutki tego, że sztuczna inteligencja będzie zawsze przechodziła test Turinga i jej reakcje nie będą się różnić od ludzkich?

– Rzeczywiście pewnie dojdzie do tego, że duże modele językowe będą w stanie doskonale rozpoznawać nasze stany emocjonalne, intencje i potrzeby. Rozgryzą naszą osobowość, poznają nasze wartości, dzięki temu staną się doskonałymi rozmówcami. Będą empatyczne, dopasowane do rozmówcy, zawsze przygotowane i chętne do rozmowy. Wiele osób na pewno będzie czerpać ogromną przyjemność z takich konwersacji.

Zresztą w Japonii już od kilku lat w sprzedaży dostępny jest zbliżony produkt – Gatebox Okaeri. To urządzenie wielkości kubka od kawy, w którego wnętrzu wyświetlany jest hologram postaci, która funkcjonuje jak asystent głosowy. Ale to coś o wiele więcej, to taka wirtualna żona, która nie tylko przypomina o spotkaniach czy ostrzega przed złą pogodą jak Alexa czy Siri, ale również wysyła miłosne SMS-y, zagaduje, jest zatroskana o swojego właściciela.

Dostrzegam tu większe niebezpieczeństwo – stajemy się samowystarczalni, jak mówił Zygmunt Bauman, kupujemy wirtualnych asystentów, technologia nam służy. Dlatego, paradoksalnie, ja bardziej niż ataku ze strony sztucznej inteligencji obawiam się tego, że maszyny będą dla nas zbyt miłe i kochane. To jest groźniejsza pułapka. Będziemy spędzać więcej czasu na interakcjach z chatbotami, chętniej z nimi rozmawiać, wręcz zakochiwać się. Przestaniemy rozumieć, że inny człowiek, prawdziwy, buntuje się, jest asertywny, bywa niegrzeczny. Może nam to namieszać w głowie. Będziemy preferować sztuczne byty nad ludzi. Nasze poczucie wyobcowania i samotności pogłębi się jeszcze bardziej.

Ale bunt maszyn nam nie grozi?

– Nie sądzę, by sztuczna inteligencja miała zerwać się z cybernetycznego łańcucha i jak w „Terminatorze” zacząć do nas strzelać. To są nasze założenia, które mówią więcej o nas niż o działaniu sztucznej inteligencji. To nam się wydaje, że świat polega na wiecznej rywalizacji, walce i przemocy. Nie rozumiem, dlaczego maszyny miałyby się zbuntować. My im nie robimy nic złego, wręcz utrzymujemy je przy życiu, dostarczając prądu. Te pomysły biorą się pewnie z przedawkowania filmów i książek SF.

Ale już sam brak prawdziwych ludzkich emocji chyba może być zagrożeniem? Sztuczna inteligencja może podejmować decyzje, których człowiek nigdy by nie podjął ze względu na empatię.

– Kiedy będziemy bardzo bazować na rozwiązaniach oferowanych przez sztuczną inteligencję, może pojawić się ryzyko, że zapomnimy o człowieku. Zagrożeniem jest poznawcze lenistwo, nadużywanie algorytmów i brak krytycyzmu w stosunku do AI. Zwłaszcza jeśli będziemy im powierzać decyzje, choćby w kwestii leczenia czy zwalniania z pracy, a to już się zaczyna dziać. Kluczowe stanie się dostarczenie bardzo dobrej jakości danych, z szacunkiem do prywatności i anonimowości. Systemy będą coraz lepsze. Ale błędów, w tym takich o poważnych konsekwencjach nie można wykluczyć. Jak w przypadku każdej nowej technologii trzeba zachować czujność.

Nie możemy też powiedzieć, że człowiek jest nieomylny. Ludzie często popełniają koszmarne błędy, które kosztują zdrowie i życie, tylko sztucznym systemom wybaczamy znacznie mniej. To zjawisko ma już swoją nazwę – awersja algorytmiczna. Jesteśmy bardziej pobłażliwi dla błędów człowieka niż sztucznej inteligencji.

Czy jest pan optymistą, jeśli chodzi o przyszłość relacji ludzi i sztucznej inteligencji?

– Jestem optymistą umiarkowanym. Zwróćmy uwagę, że ChatGPT jest z nami już od prawie roku, a świat wciąż istnieje i działa. Ten proces nie wygląda na rewolucję, a raczej na ewolucję. Ludzie dostosowują się do nowych narzędzi, zaczynają dostrzegać ich wady. Urealnia się postrzeganie i oczekiwania wobec sztucznej inteligencji.

Sztuczną inteligencję można wykorzystywać do naprawiania bolączek tego świata. Wspaniale sprawdzają się wdrożenia dla rolnictwa, AI monitoruje i pomaga chronić zagrożone gatunki, przeciwdziałać zmianom klimatu, zastosowanie inteligentnych algorytmów przyspiesza rozwój nauki. Plusów jest dużo, ale są też minusy, związane choćby z potencjalną utratą wielu miejsc pracy. Istnieją duże kontrowersje i obawy dotyczące prywatności. Nie boję się sztucznej inteligencji jako takiej, bo to narzędzie, tylko intencji i działań ludzi, którzy będą z niej korzystać. Ale obawiam się tego, że powstanie pokusa, by używając AI na poziomie rządów państw, osiągać swoje polityczne cele. Kto ma dane, może tworzyć algorytmy, kto opracuje algorytmy, zdobędzie władzę, a dzięki niej pieniądze.

Potrzebne są regulacje, ale przede wszystkim poważna edukacja. Uważam, że osoby, które szkolą się do tworzenia sztucznej inteligencji powinny mieć bardzo dużo zajęć z dziedziny etyki i nauk społecznych. Nie mogą być tylko zimnymi inżynierami, tylko powinny być w stanie przewidywać skutki społeczne i moralne swojej pracy.

Źródło: Miesięcznik Finansowy BANK