Raport Specjalny | Cyberbezpieczeństwo | Jasne i ciemne strony sztucznej inteligencji
AI oferuje szerokie możliwości poprawy bezpieczeństwa, efektywności oraz innowacyjności. Dla takiej organizacji jak bank oznacza to szansę, by stać się bardziej konkurencyjną na rynku.
– Dzięki wykorzystaniu inteligentnych reguł opartych na dużych zbiorach danych AI pozwala na szybsze i bardziej precyzyjne wykrywanie oraz reagowanie na cyberzagrożenia i nadużycia. Umożliwia też segmentację klientów poprzez poznanie ich preferencji i zachowań w celu dostosowania spersonalizowanych form komunikacji i ofert – wylicza Łukasz Ślęzak, dyrektor Departamentu Bezpieczeństwa w Banku Millennium.
Ekspert zwraca uwagę, że sztuczna inteligencja w bankowości to także wykorzystanie nowoczesnych technologii w celu poprawy doświadczenia klienta, np. chatboty, asystenci głosowi oraz optymalizacja powtarzalnych i czasochłonnych zadań w celu obniżenia kosztów, czasu realizacji i wyeliminowania ludzkich błędów.
BNP Paribas Bank Polska korzysta już z ponad 60 zastosowań AI, które znacząco wpływają na codzienną pracę i relacje z klientami. Chcąc budować zaufanie do narzędzi opartych na sztucznej inteligencji, już na etapie projektowania kładzie nacisk na ochronę prywatności i etykę rozwiązań we współpracy z Chief Data Officer oraz zespołami compliance, cyberbezpieczeństwa i ryzyka w celu zapewnienia zgodności inicjatyw ze standardami.
Ryzykowna gra
Jednak sztuczna inteligencja, jak każde nowe rozwiązanie technologiczne, niesie ze sobą ryzyka związane z bezpieczeństwem oraz natury prawnej. Z tego powodu każde wykorzystanie AI w procesach powinno zostać wykorzystane jako ich wsparcie, a wdrożenie nastąpić po dokładnej analizie ryzyka.
– Cyberprzestępcy mogą wykorzystać techniki sztucznej inteligencji, takie jak generowanie fałszywych danych czy manipulacja algorytmami uczenia maszynowego, aby unikać wykrycia i zwiększyć skuteczność ataków. Ponadto sztuczna inteligencja może być podatna na manipulacje i ataki z wstrzykiwaniem fałszywych danych, co może prowadzić do podejmowania błędnych decyzji i nieskuteczności systemów zabezpieczeń – wyjaśnia Anna Stepanów, Product Ownerka, Sztuczna Inteligencja i Analityka w BNP Paribas Banku Polska.
Łukasz Ślęzak jest zdania, że AI to nie tylko zalety. Należy wziąć pod uwagę również wyzwania i ryzyka, jakie niesie ze sobą wykorzystanie jej zarówno wewnątrz organizacji, jak i np. takie ewentualnie wykorzystane przez przestępców: zagadnienia etyczne związane m.in. z uczciwością pracowników wykorzystujących AI do tworzenia gotowych procedur, raportów, odpowiedzi do regulatorów oraz zapewnieniem prywatności danych czy też nadmierne wykorzystywanie sztucznej inteligencji w procesie zarządzania ryzykiem i podejmowania decyzji biznesowych.
Realistyczne oszustwa
Rozwój tzw. machine learningu jest mieczem obosiecznym. Łatwo dostępne narzędzia, pozwalające na efektywną syntezę olbrzymich ilości danych, zwiastują kolejny krok w niekończącej się potyczce pomiędzy oszustami a działami cyberbezpieczeństwa. Niekwestionowanymi zaletami dostępności takich rozwiązań są możliwości wykrywania, w celach prewencyjnych, wcześniej nieznanych schematów nielegalnych działań czy automatyzacja zadań, które do tej pory musiały być wykonywane manualnie. Daje to potencjał do ulepszania doświadczeń klientów w trakcie kontaktu z bankiem.
Nie można jednak zapominać o zagrożeniach, które płyną z nowej technologii. Znacząco bowiem wykraczają poza dotychczasowe, standardowe sposoby oszukiwania klientów. Prawdą jest, że machine learning może być użyte przez grupy przestępcze do usprawnienia i zautomatyzowania obecnie wykorzystywanych przez nich wektorów, ale to właśnie wprowadzenie zupełnie nowych mechanizmów stanowić będzie największe wyzwanie. Przykładem takiego zagrożenia jest generowanie głosu i obrazu w celu podszywania się pod istniejące osoby. Tzw. deepfake, czyli sztucznie wygenerowane wizerunki osób w formie filmów, wciąż jeszcze pełne są niedoskonałości i dla wprawnego oka stosunkowo łatwe do wykrycia. Jednak to tylko kwestia czasu, aby technologia stosowana do tzw. face reenactment oraz rozwój algorytmów pozwalających na modyfikację głosu jednej osoby w głos zupełnie innej (przy zachowaniu brzmienia czy nawet wady wymowy, bez względu na istniejące różnice w głosie oszusta i ofiary) osiągnęły poziom bliski perfekcji. Korzystając z tych technologii, oszuści mogą namawiać klientów do działania, wykorzystując do tego realistycznie odwzorowane znane osobistości, czy podszywać się pod klientów w celu weryfikacji w instytucjach. Omijać systemy weryfikujące, bazujące na badaniu głosu klientów. Tworzyć realistyczne wizerunki i obrazy dowodów osobistych nieistniejących osób, otwierając konta i korzystając z usług zupełnie anonimowo.
– Uczenie maszynowe, czy tzw. sztuczna inteligencja, to jednak miecz obosieczny. I właśnie ta sama technologia, która umożliwia całą gamę nowych oszustw, może być kluczem w wykrywaniu tych samych zachowań. Ucząc się odróżniać sztucznie generowaną zawartość od prawdziwej, sztuczna inteligencja może okazać się najważniejszym elementem ochrony klientów w niedalekiej przyszłości – zauważa Patrycja Molęda, Senior Specialist, Centrum Eksperckie – Przeciwdziałanie Oszustwom w ING Banku Śląskim.
Nowy rozdział
Skokowy rozwój szeroko rozumianej technologii AI (zwłaszcza silników generatywnych), duża i łatwa dostępność narzędzi opartych na sztucznej inteligencji, jak również coraz niższy koszt mocy obliczeniowych powoduje, że wszyscy otrzymaliśmy bardzo szeroki wachlarz nowych możliwości w zakresie tworzenia treści (w różnych formach), ich obróbki, oprogramowania itp. Wszystko to powoduje, że proces kreacji jest szybszy, tańszy, bardziej dostępny, ale również ma niższy próg wejścia dla potencjalnych twórców. Te nowe możliwości zaczynają również wykorzystywać przestępcy w swojej działalności, m.in. doskonaląc ataki oparte na kradzieży tożsamości czy podszywaniu się pod inne osoby, również samego klienta lub osoby z nim powiązane.
– W pewnym sensie otwiera się kolejny rozdział w walce z tego typu przestępcami. Wymaga to od całego sektora usług cyfrowych ciągłego udoskonalania narzędzi i stosowanych polityk przeciwdziałania oszustwom. Kluczowymi punktami na mapie działań każdej organizacji powinna być ciągła edukacja klientów, wdrażanie nowych narzędzi również wykorzystujących możliwości AI, ścisła wzajemna współpraca całego sektora usług cyfrowych, jak również rozpoczęcie międzynarodowej dyskusji w kwestii uregulowania i kontroli narzędzi opartych na AI – zauważa Patrycja Molęda.
Duże inwestycje w technologię AI, poczynione praktycznie przez cały rynek, zapowiadają wzrost popularności takich narzędzi i szybki ich rozwój. To jest krok, którego nie da się cofnąć, zatem musimy wspólnymi siłami zadbać o to, aby nie były one tworzone i wykorzystywane ze szkodą dla klienta. I tę dyskusję należy rozpocząć już teraz.
– Optymalne wykorzystanie szans i skuteczne stawianie czoła zagrożeniom musi zostać wybrane na podstawie specyfiki banku. W tym celu pod uwagę należy wziąć czynniki wewnętrzne (m.in. strategię biznesową, kulturę organizacyjną, dostępne zasoby, oczekiwania klientów) oraz zewnętrzne, m.in. regulacje prawne, krajobraz zagrożeń, współpraca z innymi podmiotami grupy oraz podmiotami zewnętrznymi, takimi jak organizacje branżowe i dostawcy nowoczesnych technologii – podkreśla Łukasz Ślęzak.