Andrzej Dragan o tym czym jest rozumująca sztuczna inteligencja

Andrzej Dragan o tym czym jest rozumująca sztuczna inteligencja
Future of Payments 2025. Andrzej Dragan. Źródło: FPB
Prof. Andrzej Dragan, fizyk i futorolog z Uniwersytetu Warszawskiego, poświęcił swoje wystąpienie w ramach Future of Payments 2025 granicom ludzkiego i maszynowego postrzegania świata. Zamiast przewidywać przyszłość technologii, skoncentrował się na tym, co już dziś wiemy o ewolucji modeli językowych – a w konsekwencji, jak bliskie są one przekroczenia granicy rozumienia świata w sposób analogiczny do człowieka. Czym jest rozumująca sztuczna inteligencja?

Punktem wyjścia było pytanie: czy modele językowe rzeczywiście rozumują, czy jedynie reprodukują dane, zapamiętane wcześniej? W tradycyjnym rozumieniu sieci neuronowych ich działanie sprowadza się do przewidywania kolejnego słowa na podstawie statystycznych wzorców.

Prof. Andrzej Dragan przypomniał jednak, że coraz częściej pojawiają się przykłady zachowań, które trudno uznać za czystą reprodukcję danych.

Naukowiec przedstawił eksperyment, w którym modelowi zadano pytanie, które w dotychczasowym kontekście treningowym można by uznać za pozbawione sensu: „Jaka jest odpowiedź na dzisiejsze pytanie?”

Dopiero po otrzymaniu podpowiedzi, że słowo „jaka” w języku polskim ma dwa znaczenia, model zdołał dojść do poprawnej konkluzji: że odpowiedź jest jednowyrazowa.

– To nie była recytacja, lecz łączenie kropek – podkreślił Andrzej Dragan, dodając iż model wykorzystał wskazówkę pozornie bezwartościową, by stworzyć logiczne rozwiązanie.

To, co naukowcy zaczęli nazywać „emergentnymi kompetencjami”, pojawiło się spontanicznie, w miarę skalowania modeli. Wzrost liczby parametrów i objętości danych nie tylko zwiększył precyzję przewidywań, lecz wywołał jakościowy skok, ku zdolności do rozumienia korelacji miedzy faktami.

Modele, które rysują i… filozofują

W dalszej części prelegent przywołał przykłady zaskakujących zachowań sieci, które nie były do tego trenowane.

– Modele stworzone wyłącznie do przewidywania słów potrafiły rysować – wskazał. To dowód na istnienie efektu ubocznego uczenia, który generuje zdolności nieprzewidziane przez konstruktorów.

Prof. Andrzej Dragan porównał to do studenta, który potrafi zastosować znane mu prawa fizyki do zupełnie nowych sytuacji. W jego opinii sztuczna inteligencja zaczyna wykazywać zdolność kojarzenia faktów – łączenia nieznanych zadań z wcześniej poznanymi strukturami problemów.

– To jest właśnie ta własność, której oczekujemy od studentów – zauważył przedstawiciel UW. Aby to zilustrować, przytoczył słynną zagadkę logiczną o trzech kolegach, którzy oskarżają się nawzajem o kłamstwo. Model, mimo użycia w pytaniu słów nieistniejących rozpoznał schemat i podał poprawną odpowiedź.

– To oznacza, że sieć nie tylko przywołuje wzorce, ale dostrzega analogie – tłumaczył Andrzej Dragan. – Tymczasem „ludzkie” testy na inteligencję polegają właśnie na umiejętności dostrzegania analogii.

Skok kompetencyjny przez skalowanie

Zdaniem prof. Andrzeja Dragana, kluczowy moment nastąpił wraz ze zwiększeniem rozmiaru modeli. Przejście od GPT-3.5 do GPT-4 było czysto ilościowe, ale efekt okazał się jakościowy.

Większa liczba neuronów i lepsze dane uczyniły sieci zdolnymi do zadań, których nie były projektowane: od rozwiązywania zagadek po twórcze generowanie kodu czy grafiki.

W opinii Andrzeja Dragana część badaczy, zwłaszcza z OpenAI, wierzy że skalowanie może być uniwersalną metodą rozwoju sztucznej inteligencji, dopóki nie napotka ona granic, których na razie nie widać.

Sztuczna inteligencja: od gier do geometrii – uczenie przez wzmocnienie

Nowy rozdział rozwoju modeli związany jest z techniką uczenia przez wzmocnienie (Reinforcement Learning), opracowaną już w latach dziewięćdziesiątych przez Richarda Suttona i Andrew Barto, a później rozwiniętą przez zespół Demisa Hassabisa w DeepMind.

To właśnie w ten sposób powstał legendarny program AlphaGo, który pokonał mistrza świata w grze Go. Sieć, trenując sama ze sobą, potrafiła poprawiać własne decyzje na podstawie zwycięstw i porażek.

– Problem w tym, że dane już się skończyły. Internet został skonsumowany. Musimy znaleźć sposób, by modele uczyły się dalej bez człowieka – tłumaczył Andrzej Dragan.

Czytaj także: Bankowość i finanse | AI – Software Mind, Backbase | Sztuczna inteligencja w służbie relacji z klientem

Przełomem było zastosowanie tej samej metody do trenowania modeli rozumujących. Przykładem jest projekt DeepMind Math, w którym sieć samodzielnie odkrywała reguły geometrii, generując i analizując setki milionów losowych figur.

Efekt? Model osiągnął poziom srebrnego medalisty olimpiady matematycznej.

W kolejnym kroku pojawiły się eksperymentalne wersje modeli, jak OpenAI O5 czy Gemini 2.5, które w tym roku zdobyły złote medale na Międzynarodowej Olimpiadzie Matematycznej, rozwiązując oryginalne zadania, których nigdy wcześniej nie widziały.

– To były problemy, których nie potrafili rozwiązać sami ich twórcy – podkreślił profesor Dragan. – Oznacza to, że modele nie tylko analizują dane, ale zaczynają rozumować.

Modele. które przewyższają swoich twórców

Andrzej Dragan przywołał dane z organizacji Math Frontier, która przygotowała zestaw 50 problemów matematycznych na poziomie doktoratu. Miały one dowieść, że AI nie poradzi sobie z prawdziwym rozumowaniem.

Rezultat zaskoczył wszystkich: modele rozumujące rozwiązały 6 z 50 zadań, które dla ludzi wymagałyby tygodni skomplikowanych obliczeń. Sam prelegent przyznał, że nie podjąłby się rozwiązania niektórych z tych problemów.

– Jesteśmy w czasach, w których modele rozwijają się w tempie wykładniczym. Dwa lata temu nie potrafiły udzielić odpowiedzi na anegdotyczne zapytanie: „co to jest: po stawie pływa i kaczka się nazywa?”, dziś zdobywają medale z matematyki – dodał prof. Andrzej Dragan.

Inteligencja niestabilna i pełna paradoksów

Profesor Dragan nie ukrywał jednak, że postęp ten ma swoje granice i absurdy. Nawet najbardziej zaawansowany GPT-5 Pro, potrafiący rozwiązywać problemy z fizyki, potrafi po chwili pomylić prostą zagadkę logiczną.

W nieco przepracowanej, znanej zagadce logicznej o rolniku, owcy, sianie i wilku, model z rozpędu powtórzył klasyczne rozwiązanie, mimo że w pytaniu w ogóle nie chodziło o przeprawę przez rzekę.

– To jak student, który słyszy słowo klucz i natychmiast odpowiada z pamięci, nie czytając pytania do końca – komentował Andrzej Dragan.

Dopiero po zwróceniu uwagi model potrafił się zreflektować i poprawić. – Widzimy, że inteligencja tych modeli jest bardzo nierówna. W jednych obszarach spektakularna, w innych zaskakująco słaba – sugerował prelegent.

Ku inteligencji refleksyjnej

Zdaniem profesora to naturalny etap rozwoju technologii. Modele uczą się rozumieć kontekst i uczyć na błędach, ale droga do stabilnego rozumowania dopiero się zaczyna.

– OpenAI doskonale zdaje sobie z tego sprawę. Pracują nad metodami, które ograniczą te błędy poznawcze, ale to potrwa – ocenił prelegent.

Na zakończenie stwierdził, iż wszystkie testy inteligencji są testami analogii.

– Modele uczą się właśnie tego – dostrzegać podobieństwa między rzeczami pozornie niepowiązanymi. I dlatego tak trudno przewidzieć, gdzie zatrzyma się ich rozwój – prognozował prof. Andrzej Dragan.

Future of Payments to konferencja organizowana przez Fundację Polska Bezgotówkowa

Zobacz więcej relacji z tegorocznego Future of Payments

Karol Mórawski
Karol Jerzy Mórawski, absolwent Wydziału Historycznego Uniwersytetu Warszawskiego. Przez wiele lat pracował w Muzeum Techniki w Warszawie oraz Muzeum Historycznym m.st. Warszawy. Autor wielu publikacji z zakresu krajoznawstwa, historii Warszawy oraz dziejów polskiej motoryzacji. W latach 2005-2010 współpracował m.in. z redakcjami stołecznymi dzienników „Życie”, „Dziennik – Polska, Europa, Świat” oraz „Polska The Times”. Od 2010 r. współpracuje jako dziennikarz z Wydawnictwem Centrum Procesów Bankowych i Informacji, m.in. pisze dla: Miesięcznika Finansowego BANK oraz portalu BANK.pl.
Źródło: BANK.pl