Raport Cyberbezpieczeństwo | Zastosowanie Modeli AI | W cyberprzestrzeni trwa wyścig dobra ze złem

Raport Cyberbezpieczeństwo | Zastosowanie Modeli AI | W cyberprzestrzeni trwa wyścig dobra ze złem
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
O tym, jak rozwijają się systemy zabezpieczeń przed zagrożeniami z cyberprzestrzeni, jak wygląda uczenie maszynowe i czy systemy sztucznej inteligencji są dobrze zabezpieczone, z dr. inż. Mateuszem Krzysztoniem, kierownikiem Zakładu Systemów Rozproszonych w NASK, który prowadzi prace badawczo-rozwojowe dotyczące zastosowania lekkich modeli sztucznej inteligencji w cyberbezpieczeństwie, rozmawiał Bohdan Szafrański.

W jakim kierunku rozwijają się obecnie systemy zabezpieczeń przed zagrożeniami z cyberprzestrzeni, w szczególności jak manifestują się tu nowe technologie?

– Obecnie bardzo dużo dzieje się wokół sztucznej inteligencji. Do pewnego czasu atakujący stosowali bardzo standardowe podejścia, niewykorzystujące SI. Do wykrywania takich ataków korzystaliśmy zarówno ze standardowych metod, jak i tych wykorzystujących sztuczną inteligencję. Od pewnego czasu jednak, wraz z rozpowszechnieniem się różnych modeli generatywnej sztucznej inteligencji (GenAI), atakujący zaczęli wykorzystywać modele do automatyzacji czy zwiększania jakości ataków. Modele językowe mogą służyć do generowania treści manipulacyjnych w atakach typu scam lub phishing, natomiast techniki deepfake, czyli generowanie realistycznych, syntetycznych treści, do podszywania się pod konkretne osoby w celu wyłudzenia danych lub środków finansowych. Generowanie głosu przy użyciu tych technik pozwala atakującym na uzyskanie odpowiedniego efektu. Wykorzystanie tego typu metod powoduje, że także wachlarz metod obrony musi być szerszy, i tym się też zajmujemy w NASK. Dla przykładu Zakład Biometrii zajmuje się detekcją deepfake’ów. Jeżeli atakujący wykorzystuje GenAI do generowania obrazu twarzy czy dźwięku, to proponujemy odpowiednie techniki do wykrywania takich zdarzeń.

Często celem wspomnianych ataków jest pozyskanie danych uwierzytelniających do bankowości internetowej czy nakłonienie do wykonania określonych operacji bankowych. Jeśli atakujący pozna dane uwierzytelniające potencjalnie poszkodowanej osoby, próbuje zalogować się do jej bankowości internetowej. By wykryć taki atak, tworzymy metody wykorzystujące biometrię behawioralną do dodatkowej weryfikacji tożsamości użytkownika. Weryfikacja realizowana jest na podstawie analizy sposobu, w jaki atakujący korzysta z urządzenia i aplikacji bankowej, np. w jaki sposób wpisuje login lub hasło, porusza myszką, czy trzyma telefon. Na tej podstawie można wykryć, że pomimo znajomości loginu, hasła i kodu PIN, atakujący podszywa się pod rzeczywistego właściciela konta. Wracając do sposobów pozyskiwania danych od ofiar, czyli m.in. ataków typu phishing, atakujący coraz częściej korzystają ze sztucznej inteligencji do automatyzacji ataków, poprzez generowanie treści wiadomości na Facebooku lub w komunikatorze WhatsApp. Typowy scenariusz ataku, w którym poszkodowana została ostatnio znajoma mi osoba, polega na uzyskaniu dostępu do konta danej osoby na Facebooku i następnie wykorzystaniu SI do generowania wiadomości do jej rodziny i przyjaciół, np. z prośbą o przelew, często poprzez BLIKA, lub pomoc w jakiś inny sposób. Treści te da się niekiedy rozpoznawać na podstawie tego, że zostały wygenerowane przez sztuczną inteligencję, odpowiednie detektory już istnieją. Można też próbować określać i wykrywać styl takich treści, ponieważ wiadomości kierowane do rodziny i znajomych mają charakter silnie manipulacyjny i perswazyjny. Ich celem jest wywołanie emocjonalnej reakcji u odbiorcy, prowadzącej do podjęcia działań zgodnych z oczekiwaniami atakujących. Analizą i przeciwdziałaniem tego rodzaju zagrożeniom zajmują się również zespoły działające w NASK-u.

W przypadku korzystania z modeli sztucznej inteligencji podstawą wydaje się sam proces jej szkolenia i dane, które są do tego celu wykorzystywane. Jak radzi sobie z tym np. zespół, którym pan kieruje?

– Źródła danych są dość istotnym aspektem, ograniczającym często nasze możliwości. Korzystamy z różnych, w tym komercyjnych, źródeł danych do prowadzenia badań i wytwarzania produktów. W przypadku produktów komercyjnych, takich jak BotSense, korzystamy ze źródeł komercyjnych, np. do trenowania detektorów złośliwego oprogramowania mobilnego. W tym obszarze trenowane przez nas modele są modelami lekkimi, tzn. o stosunkowo niskiej złożoności, jednak utrzymujące wysoką skuteczność detekcji. Takie modele mogą być swobodnie uruchamianie na urządzeniach końcowych, jak telefony komórkowe. Kierunek lekkiej sztucznej inteligencji wynika w tym wypadku nie z braku dostępności danych, bo do tych mamy dostęp, czy ograniczeń technologicznych, a raczej z architektury usł...

Artykuł jest płatny. Aby uzyskać dostęp można:

  • zalogować się na swoje konto, jeśli wcześniej dokonano zakupu (w tym prenumeraty),
  • wykupić dostęp do pojedynczego artykułu: SMS, cena 5 zł netto (6,15 zł brutto) - kup artykuł
  • wykupić dostęp do całego wydania pisma, w którym jest ten artykuł: SMS, cena 19 zł netto (23,37 zł brutto) - kup całe wydanie,
  • zaprenumerować pismo, aby uzyskać dostęp do wydań bieżących i wszystkich archiwalnych: wejdź na BANK.pl/sklep.

Uwaga:

  • zalogowanym użytkownikom, podczas wpisywania kodu, zakup zostanie przypisany i zapamiętany do wykorzystania w przyszłości,
  • wpisanie kodu bez zalogowania spowoduje przyznanie uprawnień dostępu do artykułu/wydania na 24 godziny (lub krócej w przypadku wyczyszczenia plików Cookies).

Komunikat dla uczestników Programu Wiedza online:

  • bezpłatny dostęp do artykułu wymaga zalogowania się na konto typu BANKOWIEC, STUDENT lub NAUCZYCIEL AKADEMICKI

Źródło: Miesięcznik Finansowy BANK