Sztuczna inteligencja, wróg czy sojusznik banków?

Sztuczna inteligencja, wróg czy sojusznik banków?
Piotr Szewczuk
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
W jaki sposób banki mogą chronić się przed cyberatakami, które szczególnie nasiliły się po inwazji Rosji na Ukrainę, na tak postawione pytanie odpowiedział nam Piotr Szewczuk, Associate Director, Technical Practice Specialist, w firmie Kyndryl, z którym podczas Forum Bezpieczeństwa Banków rozmawiał Robert Lidke.

Zanim uzyskaliśmy odpowiedź na nasze pytanie Piotr Szewczuk przypomniał historię swojej firmy. Kyndryl jest na rynku od półtora roku. Jednak ma dłuższą historię ponieważ został wydzielony z koncernu IBM, jako firma usługowa. W istocie więc doświadczenie Kyndryl w świadczeniu usług dla sektora finansowego sięga kliku dekad.

Ukraińska lekcja

Polskie banki po rosyjskiej inwazji na Ukrainę zaczęły się bardziej interesować rozwiązanymi pozwalającymi na rozmieszczenie ich danych w różnych częściach Europy, niekoniecznie w chmurze.

Część banków w Polsce zaczęła myśleć o decentralizacji swoich klasycznych systemów informatycznych, na rzecz tzw. mikro serwisów przenoszonych w inne rejony naszego kontynentu.

„W sumie chodzi o oderwanie danych, klasycznych aplikacji bankowych od klasycznej infrastruktury gdzie wszystko jest przechowywane w jednym Data Center, dzięki czemu w sytuacji bardzo kryzysowej klienci będą zawsze mieli dostęp do swoich danych, do swoich finansów” – powiedział Piotr Szewczuk.

Dostosować się do DORA

Pytany o to jak Kyndryl może wesprzeć banki we wdrażaniu u siebie rozwiązań wymaganych przez rozporządzenie DORA nasz gość stwierdził, że działając wg zaleceń KNF banki w Polsce są przygotowane do zachowania ciągłości działania w przestrzeni cyfrowej.

Jednak pewnym wyzwaniem będą wymagania w tym zakresie dotyczące firm – dostawców banków. Czyli takich firm jak Kyndryl. Jednak ze względu na wiele lat pracy na rzecz sektora bankowego Kyndryl jest przygotowany do spełniania nowych wymogów.

W efekcie firma będzie mogła pomagać bankom w spełnianiu wymagań DORY. Kyndryl ma w Polsce swoje dwa Data Center, które mogą być wykorzystywane przez jego lokalnych klientów.

Chat GTP i bezpieczeństwo banków

Naszego rozmówcę pytaliśmy także o to jak sztuczna inteligencja, w tym Chat GTP mogą wpłynąć na bezpieczeństwo banków i jego klientów. Piotr Szewczuk przypomniał, że organy UE już pracują na przepisami, które mają uregulować wykorzystywanie AI.

Przedstawiciel Kyndryl widzi zagrożenia w postaci wykorzystywania AI do podszywania się pod pracowników banków czy klientów banków za pomocą głosu lub obrazu. Ale są też rozwiązania dla banków, które pozwalają bronić się przed takimi manipulacjami.

W jego opinii AI to nie tylko zagrożenia. Sztuczna inteligencja może być też pomocna bankom.

Kyndryl ma np. ofertę systemów AML-owych, które wykorzystują AI do wykrywania przestępstw polegających na praniu pieniędzy.

Współpraca z firmą Veritas

Następnie nasz rozmówca opowiedział o współpracy Kyndryl z firmą Veritas. Współpraca ta dotyczy cyberbezpieczeństwa.

 „W oparciu o produkty firmy Veritas i nasze usługi oferujemy klientom kilka dedykowanych usług. Jedną z nich jest możliwość tworzenia całych systemów kopii zapasowej zarówno w infrastrukturze klienta jak i w oparciu o chmurę publiczną. Mamy rozwiązania wysokiej dostępności dla zapewnienia ciągłości pracy zarówno systemów informatycznych i dostępu do danych. Kolejna propozycja to Data Resilience, czyli  sytuacja kiedy mamy kontrolę nad naszymi danymi, odpowiednio obudowane polityki bezpieczeństwa w firmie, odpowiednie oprogramowanie Veritasa. Mamy kontrolę nad tym jak te dane są przechowywanie, co te dane zawierają – istnieje możliwość klasyfikacji ważności danych, i mamy możliwość decydowania, które dane mogą być przechowywane w chmurze, a które nie powinny tam trafić” – wyjaśniał Piotr Szewczuk.

Pytany o zagrożenia, które mogą się jeszcze pojawić w sferze cyberbezpieczeństwa dla sektora bankowego nasz gość wymienił już istniejące takie jak ransomware czy phishing.

W jego opinii sektor bankowy będzie musiał się zmierzyć z narastającą liczbą coraz bardziej wyrafinowanych ataków z wykorzystaniem AI polegających na generowaniu głosu i obrazu, co jest szczególnie niebezpieczne dla użytkowników końcowych, którzy nie będą w stanie stwierdzić czy widzą prawdziwego człowieka, którego znają, czy też spreparowaną jego kopię. Jak zauważył tego typu ataki będą trudne do wykrycia.

Źródło: BANK.pl