Bankowość i Finanse | Technologie | Obawy, entuzjazm czy zwyczajnie nowa norma?

Bankowość i Finanse | Technologie | Obawy, entuzjazm czy zwyczajnie nowa norma?
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Sztuczna inteligencja nie jest zła. To człowiek z natury jest zły i jeżeli będzie wykorzystywał te technologie w złym celu, to możemy mieć problem – uważa prof. dr hab. Piotr Dela. Rozmawiała z nim Zofia Ponulak.

Rozwój sztucznej inteligencji odczuwamy wszyscy bez wyjątku i nikt go nie podważa. W których obszarach nadzwyczaj szybkie tempo rozwoju narzędzi szeroko rozumianych jako AI stało się kluczowe?

– Trudne pytanie. Wydaje mi się, że większość branż będzie wykorzystywała sztuczną inteligencję. Przede wszystkim będzie ona miała zastosowanie tam, gdzie wymagane są wszelkiego rodzaju analizy związane z prognozowaniem zagrożeń, prognozowaniem rozwoju sytuacji. Spójrzmy chociażby na medycynę, gdzie sztuczną inteligencję wykorzystuje się do szybkiej diagnostyki. Wydaje się, że będzie to kluczowe narzędzie w diagnostyce chorób, a przede wszystkim chorób rzadkich, ponieważ lekarzom brakuje doświadczenia w tym obszarze. Sztuczna inteligencja, wcześniej nazywana systemami eksperckimi, będzie tutaj święciła triumfy. I na pewno powinniśmy oczekiwać w tym obszarze przełomu.

Kto tak naprawdę doświadczy tego przełomu, przecież dostęp do sztucznej inteligencji nie jest egalitarny?

– Prym będą oczywiście wiedli Amerykanie, pewnie też i Chińczycy, bo to są kraje, które dysponują największymi zasobami finansowymi na badania, ale także robią drenaż intelektualny całego świata. Zresztą obowiązujący ostatnio system nauki, ta „punktoza”, czyli publikacje pod punkty, to system stworzony pod drenaż intelektualny. Mamy do czynienia z drenażem intelektualnym świata, więc cała nauka jest dzisiaj podporządkowana komercji. Jeżeli ktoś chce się rozwijać naukowo, to musi publikować swoje wyniki badań w wysoko punktowanych czasopismach – oczywiście jest to z jednej strony rozwój nauki, rozwój świata, ale z drugiej – kraje bogate wykorzystują tą wiedzę do tego, żeby ściągać ludzi, którzy mają największe osiągnięcia w różnych obszarach naukowych. Nie wszystkie oczywiście dane mogą być publikowane, bo jeżeli są badania prowadzone w obszarze bezpieczeństwa państwa, to ci naukowcy niestety mają dosyć utrudniony rozwój, bo nie mogą publikować wszystkim swoich osiągnięć.

Sztuczna inteligencja to jest rewolucja, ale ta prawdziwa sztuczna inteligencja; jeżeli oczywiście zostanie stworzona. Dzisiaj mamy do czynienia z – ja to określam – elementami sztucznej inteligencji, czyli programami bazującymi na nauczaniu maszynowym, które próbują nas wspomagać w rozwiązywaniu problemów, które wydają się nierozwiązywalne, czyli np. fuzja termojądrowa czy podbój kosmosu, bądź wynalezienie leku na nowotwory, a już mówi się, że dzięki sztucznej inteligencji zidentyfikowano antybiotyki, które są w stanie pokonać te najbardziej odporne, antybiotykooporne bakterie.

Świat cały czas się rozwija i mamy dwie ścieżki rozwoju. Z jednej strony jest sztuczna inteligencja – coraz bardziej doskonała, z drugiej zaś rozwój komputerów kwantowych. A pojawiły się doniesienia, że niektóre firmy posiadają już stabilne komputery kwantowe. Ta rewolucja skutkowałaby złamaniem mnóstwa kolejnych barier.

Nie stanowi to dla nas zagrożenia?

– Z jednej strony pewnie tak, ale z drugiej – czy ludzkość ma możliwość zrezygnowania z rozwoju? Pewnie nie. Bo jak patrzymy na historię rozwoju ludzkości, to wiemy, że pojawiały się różnego rodzaju technologie, które były dosyć mocno krytykowane. Ludzkość zawsze się obawiała rozwoju i wykorzystania nowych technologii. A my musimy się nauczyć korzystać z nich. Z samochodu korzystamy już od ponad 120 lat, mamy różnego rodzaju przepisy i normy prawne, a mimo wszystko niektórzy ludzie nie potrafią odpowiedzialnie z niego korzystać. Ze sztuczną inteligencją będzie tak samo. Jeżeli nauczymy się z niej korzystać w sposób bezpieczny, to będzie ona przynosiła korzyści dla wszystkich, dla całej ludzkości.

Czy możemy powiedzieć, że sztuczna inteligencja zabiera Polakom pracę, przyczynia się do zwolnień? A może jest to naturalny proces – pewne zawody, stanowiska wymierają, a człowiek staje się w pewnych miejscach zbędny?

– Oczywiście sztuczna inteligencja niesie ze sobą zagrożenie, bo wyeliminuje ludzi z różnych gałęzi gospodarki. Ale czy to jest coś złego? Myślę, że nie, bo kiedyś, jak wprowadzano maszynę parową, to też była zagrożeniem dla pracowników, zwiększała bezrobocie, ale jakoś sobie z tym poradziliśmy. Dzisiaj mamy do czynienia z automatyzacją, robotyzacją.

Sądzę, że to jest naturalny proces, że postęp technologiczny jest bardzo szybki, a rynek pracy nigdy nie był, nie jest i nie będzie stabilny. Musimy umieć się dopasowywać do tego. Są różne teorie dotyczące społeczeństwa informacyjnego, gdzie informacja będzie dobrem najwyższym i duże gałęzie przemysłu będą funkcjonowały w oparciu o przetwarzanie informacji. Zwróćmy uwagę na Stany Zjednoczone, które de facto w internecie, w cyberprzestrzeni nadal dominują. Sam internet jest wymysłem amerykańskim. Wszystkie protokoły, kluczowe technologie są technologiami amerykańskimi. Ich gospodarka jest ukierunkowana na zarabianie pieniędzy właśnie w obszarze IT, czy też w obszarze dzisiaj już przetwarzania informacji. Jesteśmy targetowani w internecie, przede wszystkim w portalach społecznościowych. Jest to ogromna gałąź gospodarki, a sztuczna inteligencja jest wykorzystywana do tego, żeby koncerny zarabiały jak najwięcej pieniędzy na naszych preferencjach.

Spójrzmy chociażby na medycynę, gdzie sztuczną inteligencję wykorzystuje się do szybkiej diagnostyki. Wydaje się, że będzie to kluczowe narzędzie w diagnostyce chorób, a przede wszystkim chorób rzadkich, ponieważ lekarzom brakuje doświadczenia w tym obszarze. Sztuczna inteligencja, wcześniej nazywana systemami eksperckimi, będzie tutaj święciła triumfy. I na pewno powinniśmy oczekiwać w tym obszarze przełomu.

Automatyzacja, która wchodziła przecież kilkadziesiąt lat temu, też była przedstawiana jako coś, co zabierze nam pracę. Okazuje się, że owszem, zabiera ją, ale ludzie się przebranżawiają. Przecież usługi będą świadczone przez ludzi jeszcze przez długie, długie lata, zatem nie ma się czego obawiać. Natomiast pojawiają się doniesienia, że będzie to dotykało dziennikarzy, sektor bankowy i przemysł. Być może także sektor edukacyjny, bo pandemia pokazała, jak bardzo istotne są te narzędzia, które pozwalają prowadzić edukację zdalną.

Stale maleje liczba placówek bankowych – w I kw. 2023 r. było ich 9,8 tys. wobec 10,3 tys. w I kw. ub.r., wynika z analizy firmy Inteliace Research. Z kolei z raportu „European Retail Banking Radar”, opracowanego przez firmę Kearney, wynika, że od 2008 r. europejskie banki zamknęły 41% placówek. Czy pana zdaniem w sektorze finansowym człowiek staje się powoli coraz bardziej zastępowalny, ale nie można go całkowicie wyeliminować?

– W mojej ocenie tego kontaktu międzyludzkiego nic nie zastąpi, jeżeli nawet w sektorze bankowym sztuczna inteligencja będzie wykorzystywana, to do identyfikowania zagrożeń, trendów gospodarczych i ekonomicznych. Będzie wykorzystywana, zresztą już jest, do oceny ryzyka zdolności kredytowej etc. I choć wyrzuci jakieś suche, konkretne słupki, to jednak zawsze tą osobą, która będzie podejmowała decyzję musi być człowiek, bo nie możemy dopuścić do sytuacji, żeby kluczowe decyzje, a przecież udzielanie kredytu jest decyzją dotyczącą życia ludzkiego, jego rozwoju, rodziny, społeczeństwa, podejmował – choćby ze względów etycznych – ktoś inny.

Obawy wynikają chyba z tego, że jeszcze funkcjonujemy w takim społeczeństwie, gdzie sporo osób nie posługuje się technologią. Dla mojej 80-letniej mamy kontakt z placówką banku jest bardzo istotny, bo ona sobie nie poradzi w wirtualnej rzeczywistości, z obsługą elektroniczną. Natomiast moje pokolenie już tak, a pokolenie moich dzieci już jak najbardziej jest w stanie funkcjonować bez kontaktu z bankiem. Zresztą sami wybierają takie banki, które praktycznie chyba nie posiadają stacjonarnych placówek. Wszystko robią drogą elektroniczną z wykorzystaniem różnego rodzaju profili zaufanych. Ale to wszystko jest podyktowane rachunkiem ekonomicznym banku, w końcu to pieniądz rządzi światem i każdy zmierza w tą stronę optymalizacji, tzn. maksymalizowania zysków.

Zagrożeniem może być to, że w momencie, kiedy te systemy zawiodą albo bardzo się od nich uzależnimy, a sztuczna inteligencja zrobi nam jakiegoś psikusa, czyli wyjdzie spod naszej kontroli, jedynym rozwiązaniem, żeby sobie z nią poradzić, będzie wyłączenie sieci. Bo jeszcze nie mamy takich zautomatyzowanych procesów produkcyjnych, że sztuczna inteligencja, wykorzystując roboty, np. wykopie rudę żelaza, przewiezie ją do huty, wytopi z tego stal, zawiezie do zakładu, ten zaś wykona z niej innego robota i ten robot, wyposażony w elektronikę, będzie próbował pacyfikować ludzkość. Do tego, moim zdaniem, droga jeszcze daleka. Ta wizja terminatora jest przerażająca, myślę, że jeśli nie niemożliwa, to bardzo i to bardzo odległa.

Na pewno wcale nie odległą a doskonale widoczną kwestią są uprzedzenia algorytmów (ang. Algorithmic bias), na których bazuje sztuczna inteligencja. Może ona nieumyślnie powielać i utrwalać dyskryminację rasową czy płciową. W USA zaobserwowano uprzedzenia algorytmów odpowiedzialnych za decyzje przy ocenie zdolności kredytowej, a w medycynie niedostatecznie reprezentowane są różne typy skóry, czego konsekwencją jest problem AI z rozpoznawaniem czerniaka na innych kolorach skóry niż biały. Przykłady te pokazują, że uczenie maszynowe to bardzo wrażliwy proces i może prowadzić do dyskryminacji sztucznej inteligencji.

– To dotyczy także systemów rozpoznawania twarzy, gdzie kolor skóry ma bardzo istotny wpływ na ich skuteczność. Uczenie maszynowe to metoda, która została opracowana przez ludzi, więc ma cechy ludzkie, a zatem posiada także ludzkie wady.

Jeżeli w medycynie przyjmiemy taki rachunek ekonomiczny, czy się opłaca leczyć pacjenta, czy nie, to sztuczna inteligencja będzie wykorzystywana do określenia oczekiwanej długości przeżycia lat po zastosowaniu danej procedury medycznej. Jeżeli wartość oczekiwana będzie poniżej pewnego akceptowalnego progu, to możemy dojść do sytuacji jak w słynnym filmie „Ballada o Narayamie”, gdzie ludzie w pewnym wieku byli wywożeni na górę i zostawieni sami sobie, żeby nie stanowili obciążenia, w tym przypadku dla społeczności lokalnej, a w naszym przypadku dla systemu. Nie możemy zatracić tej cząstki naszej ludzkości. Oczywiście sztuczna inteligencja powinna nas wspomagać, podpowiadać rozwiązania, ale to my powinniśmy na końcu podejmować decyzję.

Dezinformacja i propaganda to są działania zaplanowane, rozłożone w czasie. Dezinformacja jest ukierunkowana na budowanie fałszywego obrazu rzeczywistości, z kolei propaganda na emocje, chodzi o to, by sterować emocjami i zachowaniem danej populacji w konkretnej chwili. Sztuczna inteligencja będzie do tego wykorzystywana, bo jest to dobre narzędzie do manipulowania. Daje dużo większe możliwości.

Jeżeli nauczymy sztuczną inteligencję stereotypów, którymi się posługujemy w naszym codziennym życiu, to ona będzie kierowała się tymi stereotypami i jej decyzje będą takie, a nie inne. Jest to wyzwanie etyczne dla twórców sztucznej inteligencji, aczkolwiek my też musimy sobie zdawać sprawę, że gdy wykorzystujemy ją w biznesie czy w medycynie, to w przypadku biznesu robimy to dla dobra firmy, korporacji, a w przypadku medycyny powinniśmy kierować się dobrem pacjenta lub dobrem ekonomicznym Zakładu Ubezpieczeń Społecznych, a z punktu widzenia państwa powinniśmy się kierować jego bezpieczeństwem i dobrem obywateli, dobrem społecznym.

Ale świat jest różny i na pewno znajdą się ludzie, którzy będą chcieli sztuczną inteligencję wykorzystać w zupełnie innym celu. Nie mamy dziś jeszcze możliwości identyfikowania zagrożeń związanych ze sztuczną inteligencją, bo nie wiemy, co ludzie robią. A de facto i jeden gik komputerowy może stworzyć takie narzędzia, które będą stanowiły zagrożenie dla całej ludzkości, czy też dla całych branż funkcjonujących współcześnie w sieci internetowej.

Dopytam zatem o czarną stronę sztucznej inteligencji, czyli wykorzystanie jej jako broni. Po pierwsze w obszarze dezinformacji – ponad połowa Polaków (52%) obawia się nasilenia dezinformacji, w tym fake newsów w związku z nadchodzącymi wyborami parlamentarnymi, ale tylko 39% stwierdza, że sprawdza wiarygodność informacji – wynika z badania „Postawy Polaków wobec cyberbezpieczeństwa” WIB i ZBP. W jakim stopniu rozwój różnej inteligencji i narzędzi takich, jak m.in. deep fake, przyczynia się do nasilenia niebezpieczeństwa płynącego z dezinformacji? Czy za rosnące zagrożenie w tym obszarze winna jest sztuczna inteligencja?

– Sztuczna inteligencja nie jest winna. To tak, jakbyśmy powiedzieli, że ktoś, kto wymyślił samochód, jest winien temu, że ludzie giną w wypadkach drogowych. Sztuczna inteligencja to nowa technologia, nowe narzędzie, które jest wykorzystywane przez ludzi. Wciąż jeszcze sama w sobie nie kreuje ani dezinformacji, ani propagandy. Kreują je ludzie, którzy wykorzystują te narzędzia. Z badania Unii Europejskiej z 2019 r. dotyczącego zaufania do mediów wynika, że jeszcze dużo osób ufa mediom tradycyjnym, czyli telewizji, radiu, prasie, ale młode pokolenia w coraz większym stopniu korzysta z internetu, portali społecznościowych i kieruje się tym, co przeczyta w sieci. To jest związane z edukacją, a od wielu lat systemy edukacyjne są nieadekwatne do potrzeb państwa. Kiedyś, jak uczono mnie dydaktyki, to mówiono o dwóch szkołach: herbartowskiej i deweyowskiej. Jedna była ukierunkowana na łopatologię, żeby zbudować w młodych ludziach wiedzę elementarną, a druga na rozwiązywanie problemów.

My poszliśmy w amerykańskim kierunku rozwiązywania problemów. Dzisiaj, w przypadku egzaminów ósmoklasisty czy matury stosuje się rozwiązywanie problemów pod szablony, natomiast nie ma budowania wiedzy elementarnej. Ja robię zawsze takie badania ze studentami na początku pracy z nimi, żeby wiedzieć, z kim mam do czynienia. Zadaję im kilka podstawowych pytań związanych z historią Polski i z reguły okazuje się, że ta wiedza jest bardzo płyciutka. Dlatego społeczeństwo, niestety, jest bardzo podatne na manipulacje, bo nie potrafi przeprowadzić choćby prostego rachunku ekonomicznego, ile wydawali np. pięć lat temu na podstawowe potrzeby, a ile wydają dzisiaj i ile im zostaje w kieszeni. Taka prosta matematyka. I dlatego pojawia się zagrożenie, jakim jest dezinformacja, ale i propaganda, czyli dobór sposobów prezentacji do odbiorców danych kanałów komunikacyjnych. Propaganda ukierunkowana na to, by pokazać obraz rzeczywistości sprzyjający wyłącznie jednej stronie.

Dezinformacja i propaganda to są działania zaplanowane, rozłożone w czasie. Dezinformacja jest ukierunkowana na budowanie fałszywego obrazu rzeczywistości, z kolei propaganda na emocje, chodzi o to, by sterować emocjami i zachowaniem danej populacji w konkretnej chwili. Sztuczna inteligencja będzie do tego wykorzystywana, bo jest to dobre narzędzie do manipulowania. Daje dużo większe możliwości, bo można manipulować obrazem, można manipulować dźwiękiem. A ludzie nie poszukują informacji z innych alternatywnych źródeł, bo są z natury leniwi.

Czarna strona sztucznej inteligencji to dzisiaj też nowy wymiar prowadzenia wojny. Konflikt, który się toczy w Ukrainie pokazuje, że wykorzystywanie przez Rosjan broni pancernej w takiej postaci, w jakiej do tej pory była ona używana, niewiele daje. Nie podbili Ukrainy. Ukraińcy też dysponują czołgami, ale nie mogąc nimi przejść przez pole minowe, wykorzystują drony i sztuczną inteligencję.

Czy dziś najważniejszym pytaniem i zarazem powodem do obaw nie powinno być to, kto może posiadać sztuczną inteligencję albo już dysponuje tą technologią?

– Dysponuje ten, kto ma pieniądze, czyli państwa i korporacje. Państwa mogą sobie pozwolić na to, bo mają fundusze, ludzi, czas, firmy. Zdarza się jednak, nawet dość często, że korporacje dysponują większymi zasobami niż państwa. Choćby Google czy Facebook – to są giganci, którzy mogą kreować rzeczywistość.

Nie możemy zatracić tej cząstki naszej ludzkości. Oczywiście sztuczna inteligencja powinna nas wspomagać, podpowiadać rozwiązania, ale to my powinniśmy na końcu podejmować decyzję. Jeżeli nauczymy sztuczną inteligencję stereotypów, którymi się posługujemy w naszym codziennym życiu, to ona będzie kierowała się tymi stereotypami i jej decyzje będą takie, a nie inne. Jest to wyzwanie etyczne dla twórców sztucznej inteligencji.

Spójrzmy na Stany Zjednoczone, to tam obserwowaliśmy manipulacje związaną z ruchem Black Lives Matter, czymś, co się zrodziło 10–11 lat temu. Później była sytuacja Colin Kaepernicka, który w trakcie grania hymnu nie przyłożył ręki do serca, tylko uklęknął. Następnie była śmierć George’a Floyda i wykorzystanie mediów społecznościowych do siania niepokoju. Stało się tak przede wszystkim dlatego, że społeczeństwo amerykańskie jest bardzo mocno podzielone. Chyba jeszcze bardziej niż Polacy – my u siebie dzisiaj obserwujemy wojnę plemienną. Natomiast to, co dzieje się w Stanach Zjednoczonych jest uwarunkowane ich historią. Popatrzmy na sytuację związaną z wybraniem Donalda Trumpa na prezydenta. Prawdopodobnie stało się tak dzięki Rosjanom. Są doniesienia o wykorzystaniu danych przez Cambridge Analytica. Jest śledztwo amerykańskie. Czy jednak śledczy przyznają, że Trump został wybrany w wyniku oddziaływania Rosjan? Pewnie nigdy, ale siła oddziaływania w mediach społecznościowych zaowocowała tym, że w święto Trzech Króli w 2021 r. mieliśmy do czynienia ze szturmem na Kapitol i de facto zabrakło szturmującym pół godziny, może godzinę, żeby przyjęli stosowny dokument, który skutkowałby tym, że wybory w Stanach musiałyby być powtórzone. To jest siła oddziaływania mediów wirtualnych, a jeżeli wykorzystamy do tego sztuczną inteligencję, która będzie dyskredytowała przeciwników politycznych, to będziemy mieli całą sekwencję różnych dziwnych zdarzeń.

W Polsce we wrześniu i październiku, a głównie w październiku, będziemy mieli do czynienia z różnego rodzaju kampaniami dezinformacyjnymi, z propagandą z wykorzystaniem sztucznej inteligencji – będą to jakieś dziwne nagrania, jakieś dziwne przecieki. Zawsze tak było, natomiast teraz wykorzystane zostaną nowe techniki, bo one dają nowe możliwości. To nie sztuczna inteligencja jest zła. To człowiek z natury jest zły i jeżeli będzie wykorzystywał te technologie w złym celu, to będziemy mieli problem. Władza jest niestety brutalna i ktoś, kto chce rządzić, wykorzysta wszelkie metody i narzędzia, żeby władzę przejąć, utrzymać i wzmocnić.

Źródło: Miesięcznik Finansowy BANK