Raport Cyberbezpieczeństwo | Rozwój Technologii AI | Technologie AI powinny powstawać w oparciu o nasze wartości

Raport Cyberbezpieczeństwo | Rozwój Technologii AI | Technologie AI powinny powstawać w oparciu o nasze wartości
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
O tym, jak można wykorzystać sztuczną inteligencję w obszarze bezpieczeństwa i cyberbezpieczeństwa, jak tzw. Kowalski powinien odnaleźć się w rzeczywistości, w której AI jest codziennością oraz jakie wyzwania w tym zakresie stoją przed sektorem bankowym, mówił dr Maciej Kawecki w rozmowie z Janem Bolanowskim.

Czy sztuczna inteligencja w dziedzinie bezpieczeństwa będzie raczej mieczem czy tarczą?

– I jednym, i drugim. Jeśli myślimy o bezpieczeństwie i sztucznej inteligencji, pierwszym obszarem, który powinniśmy analizować, są kwestie bezpieczeństwa państwa, czyli kontekst geopolityczny. Tu z jednej strony mamy rozbudowane systemy obronne bazujące na AI. Przykładem może być choćby stworzona przez Polaka firma Iceye, czyli największa na świecie konstelacja mikrosatelit i jej działania w Ukrainie. Zdjęcia z orbity, dzięki analizie przez sztuczną inteligencję wykorzystuje się do predykcji militarnych i z tego, co słyszałem co najmniej dwukrotnie udało się powstrzymać rosyjskie natarcie dzięki tym działaniom. Z drugiej strony Rosja również wykorzystuje AI do predykcji, których celem są działania ofensywne.

A w kontekście cyberbezpieczeństwa?

– Jest dokładnie tak samo. Przykładem zastosowania sztucznej inteligencji jako tarczy jest stworzone na Uniwersytecie Warszawskim narzędzie Samurai Labs. To algorytm, który walczy z hejtem w sieci. Nie jesteśmy już w stanie ręcznie odpowiadać na wszystkie komentarze, tymczasem w mediach społecznościowych permanentnie pojawiają się wypowiedzi o charakterze aktywnej bądź pasywnej agresji. Algorytm wychwytuje konteksty, czyli diagnozuje, które wypowiedzi spełniają definicję mowy nienawiści i wchodzi w interakcję z użytkownikiem. Informuje, że taka wypowiedź przekracza granice, obraża twórcę kanału. Badania Samurai Labs pokazują, że po kilku takich próbach hejter przestaje hejtować. Z drugiej strony, gdyby nie maszynki algorytmiczne, którymi są media społecznościowe i generowane przez nie trendy, mowa nienawiści by nie rozkwitła. Przykładem zastosowań przestępczych jest wykorzystywanie generatywnej sztucznej inteligencji do modyfikacji i modulacji głosu, by sfabrykować czyjś głos. Można do tego wykorzystywać wiele technologii – choćby polską Eleven Labs. Można do określonego użytkownika zadzwonić np. jako mama albo tata, tak jak wyświetla się numer telefonu zapisany w naszej książce kontaktów w telefonie. Usłyszy on głos swojego rodzica, który prosi, żeby wykonać przelew, bo zdarzyła się sytuacja losowa. Z takimi atakami już mieliśmy do czynienia. Sztuczna inteligencja i tutaj jest jednocześnie mieczem i tarczą.

Jak w takiej rzeczywistości mają odnaleźć się konsumenci i klienci banków? O czym powinni pamiętać i na co uważać?

– Jak mantrę powtarzałbym, że w przypadku usług bankowych, ale i wszystkich innych usług zaufania, powinniśmy zapomnieć o klikaniu w jakiekolwiek aktywne linki, nieważne czy znajdują się w zweryfikowanym adresie mailowym, na stronie internetowej, czy we wpisie w mediach społecznościowych. Przy obecnym poziomie szumu informacyjnego nie jesteśmy w stanie zweryfikować, czy dana strona internetowa w każdym detalu jest na pewno tą właściwą. Zdolności technologiczne są takie, że przestępcy mogą multiplikować strony, wiernie odzwierciedlające oryginalne strony bankowe praktycznie w nieskończoność. Nie można oczekiwać od użytkowników, że będą weryfikować, czy strona w każdym detalu domeny internetowej zgadza się z oryginalną. Jedynym pewnym rozwiązaniem jest korzystanie wyłącznie ze zweryfikowanych aplikacji mobilnych, które mamy w swoim telefonie albo manualne wpisywanie adresu strony internetowej systemu bankowego, z którego korzystamy. Druga rzecz, o której należy pamiętać, to że zarówno banki, jak i systemy publiczne nigdy nie wymagają od nas reagowania na SMS-y w postaci linków aktywnych. Mam wrażenie, że do użytkowników trzeba dziś mówić w kategoriach „nigdy” albo „zawsze”. Nigdy nie korzystaj ze stron, których adresu nie wpisałeś. Zawsze korzystaj z dwuetapowego systemu uwierzytelnienia w systemach bankowych. Nigdy nie klikaj w aktywne linki. To jest jedyna dziś skuteczna strategia komunikacyjna w tym obszarze.

A o czym w takim razie powinny pamiętać banki? Jakie przed nimi stoją wyzwania w kontekście nowych technologii?

– O tym, że nie ma czegoś takiego jak stały system zabezpieczeń. Dziś bierzemy udział w wyścigu zbrojeń, którym jest również sztuczna inteligencja, ale za chwilę – w perspektywie dziesięciu, kilkunastu lat – wejdziemy w erę komputerów kwantowych, która zrewolucjonizuje systemy zabezpieczeń. Rozwiązania chmury kwantowej staną się powszechnie dostępne, w konsekwencji obecnie istniejące systemy szyfrowania staną się łatwe do złamania. A to się wiąże z koniecznością zmiany paradygmatu myślenia o zabezpieczeniu informacji jako takiej. Ja wiem, że dzisiaj większość banków posiada zespoły post kwantowe, podobnie jak polskie cyberwojsko też posiada zespół kwantowy, który pracuje nad zabezpieczeniami post kwantowymi. Wcześniej czy później ta era nastąpi. Kwantowe uczenie maszynowe nie jest dziś fikcją, nad tymi technologiami są prowadzone prace. Choćby kryptografia kwantowa jest już wykorzystywaną technologią, która zaczyna być powszechną. Moim zdaniem obok sztucznej inteligencji to będzie drugi obszar, na który banki muszą zwracać uwagę. No i jest jeszcze trzecia kwestia związana ze sztuczną inteligencją, czyli wykorzystanie tej technologii przez banki do kastomizacji usług i do obsługi klienta. Systemy bankowe bardzo silnie opierają się na botach, chatbotach, voicebotach i gdzieś ten kontakt z fizycznym pracownikiem zaczyna być przesuwany na dalszy etap konwersacji, co – mam wrażenie – może mieć wpływ również na bezpieczeństwo i zaufanie klienta względem systemu bankowego. Istnieje taki termin „granica niesamowitości”, który odnosi się do tego, że na pewnym etapie klient nie zaufa asystentowi automatycznemu i oczekuje kontaktu z człowiekiem. Banki muszą to zbalansować i szukać złotego środka. W mojej ocenie aktualnie równowaga jest zachwiana.

Dziś bierzemy udział w wyścigu zbrojeń, którym jest również sztuczna inteligencja, ale za chwilę wejdziemy w erę komputerów kwantowych, która zrewolucjonizuje systemy zabezpieczeń. Rozwiązania chmury kwantowej staną się powszechnie dostępne, w konse­kwencji obecnie istniejące systemy szyfrowania staną się łatwe do złamania.

Po czym banki mogą poznać, że dotarły do tej granicy niesamowitości?

– To bardzo łatwo zdiagnozować. Wszędzie tam, gdzie dokonujemy symulacji człowieka granica jest zachwiana. Konwersacja z chatbotem powinna być rozmową mechaniczną, która nie zawiera żadnych cech antropomorfizacji. Tymczasem chatboty pytają, co mogą zrobić, by rozmowa była dla nas milsza, stosują daleko posunięte zwroty grzecznościowe, czy wręcz zapewniają, że rozumieją, co powiedzieliśmy. A to jest nieprawda. Chatbot nie rozumie tego, co mówi klient. To nie jest zbliżone do tego, jak mowę rozumieją ludzie. Banki stosują systemy, które są oparte o model drzewka decyzyjnego, więc tam nie ma nic z rozumnej konwersacji. Jakakolwiek próba antropomorfizacji jest moim zdaniem przekroczeniem granicy niesamowitości, o której mówię.

Czy chce pan powiedzieć, że banki się trochę zachłysnęły nową technologią?

– Wizją oszczędności, którą ta technologia daje. Contactless to dziś dominujący kierunek rozwoju banków. Klienci w placówkach nie są w stanie załatwić wielu spraw, obsługa kieruje ich do systemów telefonicznych, gdzie zanim porozmawiamy z człowiekiem, jesteśmy skazani na chatbota. Ta granica jest zdecydowanie zachwiana. Oszczędności można i należy szukać gdzie indziej. Przykładem jest programowanie, gdzie sztuczna inteligencja rewolucjonizuje pracę programistów. Podczas pisania kodu jednym z trudniejszych zagadnień jest wybór bibliotek, z których będzie się korzystać. Dzisiaj robią to za programistę algorytmy, coś co zajmowało kilka dni pracy, trwa teraz kilka minut. To wielokrotnie zwiększa wydajność działów IT.

Jak pan ocenia zaawansowanie sektora bankowego we wdrożeniach AI w porównaniu z innymi sektorami?

– Polski sektor bankowy od wielu lat wprowadza Polaków w obszar innowacji. To zasługa braku długu technologicznego. Przez długi czas nie mieliśmy bankowych systemów elektronicznych, a potem od razu budowaliśmy najnowszą bankowość od podstaw. To spowodowało, że nasze systemy bankowe są jednymi z najbardziej innowacyjnych na świecie. Różnorodne rozwiązania płatnicze z BLIKIEM na czele, czy sprawna integracja systemów między bankami sprawiają, że jesteśmy bez wątpienia liderem. Wystarczy wybrać się w podróż po Europie czy do USA, by odczuć tę różnicę. Może stąd wśród banków ta chęć wykorzystywania AI za wszelką cenę i wprowadzania licznych wdrożeń.

Nie jesteśmy w stanie regulować AI na poziomie globalnym. To jest technologia interdyscyplinarna
i interterytorialna. Zamiast regulacji, kierunkiem działania powinny być inwestycje w roz­wój technologii na terenie UE, żeby technologie AI powstawały na naszych zasadach i w oparciu o nasze wartości.

Skoro już zaczęliśmy porównania międzynarodowe, to jak będzie się kształtował globalny krajobraz sztucznej inteligencji? W UE mamy AI Act, który wprowadza regulację i próbę kontroli, a co z resztą świata?

– Nie zgadzam się z takim myśleniem, że regulacja jest rozwiązaniem jakiegokolwiek problemu w kontekście rozwoju sztucznej inteligencji. My jako Unia Europejska jesteśmy organizacją międzynarodową o charakterze regionalnym, a nie globalnym. Nie jesteśmy w stanie regulować AI na poziomie globalnym. To jest technologia interdyscyplinarna i interterytorialna. Zamiast regulacji, kierunkiem działania powinny być inwestycje w rozwój technologii na terenie UE, żeby technologie AI powstawały na naszych zasadach i w oparciu o nasze wartości. Dziś Europa sprowadza narzędzia AI tworzone w Stanach Zjednoczonych w oparciu o amerykańskie wartości i one są adaptowane do rynku europejskiego. Chodzi o to, by odwrócić ten kierunek i żeby UE stała się eksporterem technologii. Bo dziś technologie działają w modelu właścicielskim, czyli wpływ na technologię ma ten, kto ją stworzył i jest jej właścicielem. W tym kontekście musimy zmienić paradygmat myślenia. Patrząc na ostatnie wypowiedzi Emmanuela Macrona czy Ursuli von der Leyen, która powiedziała, że w UE już wystarczy regulacji i przyszedł czas na inwestycje, można oczekiwać, że coś w tym kierunku się dzieje.

Stany Zjednoczone to jednak podobna kultura do europejskiej, a czy Chiny mogą stać się liderem technologii AI i narzucić swoje zasady?

– I tak, i nie. Chiny są krajem wpatrzonym w naukę, stawiającym na matematykę i fizykę, a to te dziedziny stoją za algorytmami. Na technologie są tam przeznaczane gigantyczne pieniądze, więc nie można powiedzieć, że niebezpieczeństwa nie ma. Z drugiej strony, gdy się patrzy na narzędzia tworzone w Chinach, to one są jednak w dużym stopniu wtórne wobec amerykańskich. Liderem rozwoju sztucznej inteligencji pozostają Stany Zjednoczone, a zwłaszcza ich zachodnie wybrzeże. I to się raczej szybko nie zmieni.

Źródło: Miesięcznik Finansowy BANK