Raport Specjalny | Bezpieczeństwo Banków | ChatGPT może napędzać cyberataki

Raport Specjalny | Bezpieczeństwo Banków | ChatGPT może napędzać cyberataki
Wzbudził już liczne kontrowersje, nawet wśród liderów światowego rynku IT. Czy sektor finansowy jest gotów, tak pod względem technicznym jak i prawnym, by stawić czoła sztucznej inteligencji, działającej po złej stronie mocy?

Jednym z większych wyzwań dla działów IT są dziś ataki phishingowe, za pomocą których cyberprzestępcy zdobywają i przejmują cenne informacje, takie jak loginy i hasła, wrażliwe dane, np. numery PESEL czy numery kart płatniczych wraz z zabezpieczeniami. GPT, czyli technologia oparta na sztucznej inteligencji Generative Pre-trained Transformer, może sprawić, że problem z kradzieżą wrażliwych danych przy użyciu fałszywych e-maili stanie się jeszcze poważniejszy.

Niepokojące informacje

Badacze udowodnili, że dzięki uczeniu maszynowemu można dziś bez problemu wygenerować tekst idealnie nadający się do prowadzenia kampanii phishingowej lub przejęcia konta firmowego – i to na dużą skalę. Przeprowadzili także m.in. eksperyment, w którym oceniano, jak zmiany zadanych pytań wpływają na otrzymywane wyniki. Efekty? Niepokojące. Okazało się bowiem, że potencjalnie szkodliwe i wprowadzające w błąd treści, które mogą być wykorzystane do popełnienia przestępstwa, są z łatwością generowane przez te modele. Potrafią one przy tym tak dobrze naśladować konkretne style pisania, że standardowemu odbiorcy trudno jest odróżnić e-maila wysłanego np. przez jego szefa od tego, którego przesłała maszyna.

Wyobraźmy sobie scenariusz, w którym do przejętego konta pocztowego podłącza się złośliwy bot zasilany sztuczną inteligencją. Taki system w ułamku sekundy przeprowadzi analizę historii korespondencji, przygotuje listę adresatów ataku i dostarczy im wiadomość ze złośliwym linkiem, której treść będzie napisana poprawnym językiem, stylistycznie nieodbiegającym od innych wiadomości wysyłanych przez tego pracownika – mówi Michał Zalewski, inżynier w firmie Barracuda Networks, która jest dostawcą rozwiązań bezpieczeństwa typu cloud-first.

Platformy, takie jak ChatGPT, budzą więc uzasadniony niepokój wśród specjalistów ds. cyberbezpieczeństwa. Zwłaszcza że interesują się nimi żywo cyberprzestępcy. I choć ChatGPT ma dziś pewne ograniczenia – z założenia ma być bezpieczny i dostępny dla wszystkich, zatem nie odpowiada na pytania, które można uznać za szkodliwe lub nieodpowiednie, to z czasem prawdopodobnie pojawią się inne narzędzia, ...

Artykuł jest płatny. Aby uzyskać dostęp można:

  • zalogować się na swoje konto, jeśli wcześniej dokonano zakupu (w tym prenumeraty),
  • wykupić dostęp do pojedynczego artykułu: SMS, cena 5 zł netto (6,15 zł brutto) - kup artykuł
  • wykupić dostęp do całego wydania pisma, w którym jest ten artykuł: SMS, cena 19 zł netto (23,37 zł brutto) - kup całe wydanie,
  • zaprenumerować pismo, aby uzyskać dostęp do wydań bieżących i wszystkich archiwalnych: wejdź na BANK.pl/sklep.

Uwaga:

  • zalogowanym użytkownikom, podczas wpisywania kodu, zakup zostanie przypisany i zapamiętany do wykorzystania w przyszłości,
  • wpisanie kodu bez zalogowania spowoduje przyznanie uprawnień dostępu do artykułu/wydania na 24 godziny (lub krócej w przypadku wyczyszczenia plików Cookies).

Komunikat dla uczestników Programu Wiedza online:

  • bezpłatny dostęp do artykułu wymaga zalogowania się na konto typu BANKOWIEC, STUDENT lub NAUCZYCIEL AKADEMICKI

Źródło: Miesięcznik Finansowy BANK