Nie ma cyberbezpieczeństwa bez AI

Nie ma cyberbezpieczeństwa bez AI
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
O tym, w jaki sposób sztuczna inteligencja wpłynęła na bezpieczeństwo banków i ich klientów - mówili nam podczas Forum Bezpieczeństwa Banków Łukasz Jachowicz, Cybersecurity Engineer i Natalia Zajic, Cybersecurity Consultant z firmy SAFESQR.

„Pojawienie się rozwiązań, które nazywa się sztuczną inteligencją zmieniło praktycznie wszystko. Stało się tak, ponieważ pojawiły się w ostatnim czasie narzędzia, które udostępniają każdemu domorosłemu przestępcy możliwość przeprowadzenia włamania do systemu informatycznego instytucji będącej celem ataku” – powiedział Łukasz Jachowicz.

Jak wyjaśniał – do tej pory, aby przeprowadzić włamanie np. do instytucji finansowej trzeba było wiedzieć czego się chce, jakie narzędzia należy wykorzystać i trzeba było umieć się nimi posłużyć.

„Dzisiaj cyberprzestępcy mają do dyspozycji mentora – pomocnika, który podpowiada im, co mogliby zrobić w kolejnym kroku ataku. Ten mentor za rękę prowadzi ich przez ten atak” – tłumaczył ekspert.

Zaznaczył jednak, że tak prowadzone ataki nie są zbyt wyrafinowane pod względem technologicznym, ale ze względu na łatwy dostęp do tego typu narzędzi hakerskich stają się coraz częstsze.

„Jednak te same technologie, z których korzystają włamywacze możemy wykorzystywać do obrony, żeby na przykład w większym tempie analizować dane związane z tym co się dzieje w naszych systemach informatycznych, by szybciej wyłapywać pewnego rodzaju anomalie, które w czasie ataku się pojawiają” – tłumaczył Łukasz Jachowicz.

Czytaj także: Gen AI i Deepfake, czy można się obronić?

Na celowniku przestępców bankowcy i ich klienci

Na nasze pytanie – kto w tym momencie ma przewagę, czy przestępcy, czy też atakowane instytucje – Natalia Zajic odpowiedziała:

„Moim zdaniem wygrywa niestety strona przestępcza, dlatego że przestępcy zawsze są o krok przed nami. Oni już wiedzą jak wykorzystać sztuczną inteligencję do ataku, a my jeszcze nie wiemy w jaki sposób na to wpadli i co wymyślili.

Łukasz Jachowicz podał kilka przykładów wykorzystania przez przestępców sztucznej inteligencji do prowadzenia ataków na klientów banków, którzy wierząc, że rozmawiają z rzeczywistą osobą instalują na swoich urządzeniach złośliwe oprogramowanie, albo podejmują inne niekorzystne dla siebie akcje.

„Kilka miesięcy temu był duży atak w Hongkongu, gdzie z banku wyprowadzono duże pieniądze, ponieważ rozmówca był przekonany, że rozmawia ze swoim przełożonym” – ekspert SAFESQR wskazał w ten sposób, że ofiarami cyberprzestępców mogą być także sami pracownicy banków.

Czytaj także: AI wzmacnia systemy bezpieczeństwa banków

Sztuczna inteligencja (AI) po stronie banków i ich klientów

W dalszej części rozmowy nasi rozmówcy mówili o postępującej profesjonalizacji usług hakerskich, gdzie nieposiadający wysokiej wiedzy informatycznej przestępcy mogą wypożyczać oprogramowanie hakerskie jako „software as a service”, w skrócie „SaaS” , w tym przypadku „Ransomware SaaS”

Wynagrodzeniem dla wypożyczającego takie hakerskie oprogramowanie może być np. procent od haraczu, który wypłaci potencjalna ofiara ataku za odblokowanie swoich zasobów informatycznych.

Na nasze pytanie – czy przepisy prawa nadążają za szybkim rozwojem technologii i za pogłębiającą się profesjonalizacją rynku usług hakerskich – Natalia Zajic zwróciła uwagę, że problem nie jest szybkie stanowienie przepisów, ale ich wdrażanie.

„Trzeba zrozumieć, że zagrożenie jest dość realne i nie wystarczy tylko mieć napisane polityki stosowania procedur, trzeba ich faktycznie używać, szacować ryzyko, analizować je na bieżąco i cały czas aktualizować w stosunku do tego, co się dzieje na świecie” – mówiła.

„Kłopot polega na tym, że nie zawsze jesteśmy w stanie się fizycznie obronić przed atakiem. Przestrzeganie procedur zwalnia nas wyłącznie przed odpowiedzialnością prawną, ale nie na przykład przed utratą reputacji” – zaznaczył Łukasz Jachowicz.

„Analizowałem między innymi incydent, gdzie między ujawnieniem w Internecie informacji o nowej metodzie włamania, a włamaniem do mojego klienta minęło 10 minut, i to był środek nocy.

W tej sytuacji żadne  niewspierane machine learningiem narzędzie nie było w stanie nas zabezpieczyć. Włamanie, które nastąpiło, wykorzystywało technikę znaną od paru minut i było skuteczne” – wyjaśniał ekspert.

„Przestępcy bardzo często mają zmapowane przez Internet różne potencjalne ofiary, wiedzą gdzie działa jakie oprogramowanie. W momencie, w którym pojawia się informacja o podatności w tym oprogramowaniu – piszą tylko krótki kod wykorzystujący taką podatność i uruchamiają automatyczny atak przeciwko wszystkim celom, które już wcześniej mieli zmapowane, i które korzystają właśnie z tego konkretnego oprogramowania”- dodał Łukasz Jachowicz.

Jak wskazał – właśnie w takich przypadkach atakowane podmioty może wesprzeć sztuczna inteligencja.

„Człowiek nie jest w stanie w ciągu 10 minut przeprogramować systemów obronnych w tysiącach instytucji na całym świecie. Automat jest w stanie to zrobić.

Wystarczy, że w jednym miejscu, gdzie jest zamontowana czujka analizująca i wykrywająca włamanie zostanie wykryty nowy rodzaj ataku, aby w takiej sytuacji ta informacja została rozesłana do wszystkich innych klientów korzystających z tego oprogramowania, i w efekcie pozostałe systemy zatrzymają tego typu atak.

Wcześniej byłoby to niemożliwe, czekalibyśmy np. tydzień aż producent zaktualizuje nam oprogramowanie czy firewall. Teraz to się dzieje automatycznie, praktycznie bez udziału człowieka” – podkreślił Łukasz Jachowicz.

Czytaj także: AI u wrót, czy jesteśmy gotowi?

Źródło: BANK.pl