Raport Specjalny | Bezpieczeństwo Banków | ChatGPT może napędzać cyberataki

Raport Specjalny | Bezpieczeństwo Banków | ChatGPT może napędzać cyberataki
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Wzbudził już liczne kontrowersje, nawet wśród liderów światowego rynku IT. Czy sektor finansowy jest gotów, tak pod względem technicznym jak i prawnym, by stawić czoła sztucznej inteligencji, działającej po złej stronie mocy?

Jednym z większych wyzwań dla działów IT są dziś ataki phishingowe, za pomocą których cyberprzestępcy zdobywają i przejmują cenne informacje, takie jak loginy i hasła, wrażliwe dane, np. numery PESEL czy numery kart płatniczych wraz z zabezpieczeniami. GPT, czyli technologia oparta na sztucznej inteligencji Generative Pre-trained Transformer, może sprawić, że problem z kradzieżą wrażliwych danych przy użyciu fałszywych e-maili stanie się jeszcze poważniejszy.

Niepokojące informacje

Badacze udowodnili, że dzięki uczeniu maszynowemu można dziś bez problemu wygenerować tekst idealnie nadający się do prowadzenia kampanii phishingowej lub przejęcia konta firmowego – i to na dużą skalę. Przeprowadzili także m.in. eksperyment, w którym oceniano, jak zmiany zadanych pytań wpływają na otrzymywane wyniki. Efekty? Niepokojące. Okazało się bowiem, że potencjalnie szkodliwe i wprowadzające w błąd treści, które mogą być wykorzystane do popełnienia przestępstwa, są z łatwością generowane przez te modele. Potrafią one przy tym tak dobrze naśladować konkretne style pisania, że standardowemu odbiorcy trudno jest odróżnić e-maila wysłanego np. przez jego szefa od tego, którego przesłała maszyna.

Wyobraźmy sobie scenariusz, w którym do przejętego konta pocztowego podłącza się złośliwy bot zasilany sztuczną inteligencją. Taki system w ułamku sekundy przeprowadzi analizę historii korespondencji, przygotuje listę adresatów ataku i dostarczy im wiadomość ze złośliwym linkiem, której treść będzie napisana poprawnym językiem, stylistycznie nieodbiegającym od innych wiadomości wysyłanych przez tego pracownika – mówi Michał Zalewski, inżynier w firmie Barracuda Networks, która jest dostawcą rozwiązań bezpieczeństwa typu cloud-first.

Platformy, takie jak ChatGPT, budzą więc uzasadniony niepokój wśród specjalistów ds. cyberbezpieczeństwa. Zwłaszcza że interesują się nimi żywo cyberprzestępcy. I choć ChatGPT ma dziś pewne ograniczenia – z założenia ma być bezpieczny i dostępny dla wszystkich, zatem nie odpowiada na pytania, które można uznać za szkodliwe lub nieodpowiednie, to z czasem prawdopodobnie pojawią się inne narzędzia, ...

Artykuł jest płatny. Aby uzyskać dostęp można:

  • zalogować się na swoje konto, jeśli wcześniej dokonano zakupu (w tym prenumeraty),
  • wykupić dostęp do pojedynczego artykułu: SMS, cena 5 zł netto (6,15 zł brutto) - kup artykuł
  • wykupić dostęp do całego wydania pisma, w którym jest ten artykuł: SMS, cena 19 zł netto (23,37 zł brutto) - kup całe wydanie,
  • zaprenumerować pismo, aby uzyskać dostęp do wydań bieżących i wszystkich archiwalnych: wejdź na BANK.pl/sklep.

Uwaga:

  • zalogowanym użytkownikom, podczas wpisywania kodu, zakup zostanie przypisany i zapamiętany do wykorzystania w przyszłości,
  • wpisanie kodu bez zalogowania spowoduje przyznanie uprawnień dostępu do artykułu/wydania na 24 godziny (lub krócej w przypadku wyczyszczenia plików Cookies).

Komunikat dla uczestników Programu Wiedza online:

  • bezpłatny dostęp do artykułu wymaga zalogowania się na konto typu BANKOWIEC, STUDENT lub NAUCZYCIEL AKADEMICKI

Źródło: Miesięcznik Finansowy BANK