AI w cyberbezpieczeństwie: multiplikacja zagrożeń
„Najwyższe władze Białego Domu podejmują pilne działania w celu przeciwdziałania potencjalnym zagrożeniom dla cyberbezpieczeństwa wynikającym z najnowszych modeli sztucznej inteligencji, co pokazuje, że zagrożenia związane ze sztuczną inteligencją stają się dla administracji Trumpa sprawą najwyższej wagi” – tak o skali zagrożeń związanych z AI pisał w połowie kwietnia „Wall Street Journal”.
Najnowszy raport KPMG z kolei pokazuje, że sztuczna inteligencja znajduje się w centrum dzisiejszej epoki przełomowych zmian i okazuje się być bronią obosieczną dla specjalistów ds. cyberbezpieczeństwa.
„Z jednej strony, osoby odpowiedzialne za obronę, ochronę i reagowanie mogą wykorzystać sztuczną inteligencję do wykrywania zagrożeń i radzenia sobie z nimi szybciej i skuteczniej niż ludzie działający samodzielnie. Z drugiej strony, sztuczna inteligencja wzmacnia pozycję podmiotów stanowiących zagrożenie, które nie tylko automatyzują i skalują swoje działania, ale także wykorzystują bardziej wyrafinowane metody i narzędzia do przełamywania cyberobrony” – podkreślono w raporcie „Cybersecurity Considerations 2026”.
Tradycyjne rodzaje zagrożeń stają się groźniejsze przez AI
Według KPMG, sztuczna inteligencja typu agentowego oraz rozprzestrzenianie się agentów cyfrowych sprawiają również, że zarządzanie tożsamością cyfrową znajduje się pod większą kontrolą, ponieważ dyrektorzy ds. bezpieczeństwa informacji (CISO) dążą do ochrony ogromnej liczby tożsamości nie-ludzkich i utrzymania ich działań pod kontrolą.
„Zestawiając globalną i lokalną polską perspektywę, widać zjawisko, które można nazwać paradoksem dojrzałości: firmy coraz konsekwentniej budują struktury i inwestują w narzędzia bezpieczeństwa, a jednocześnie liczba incydentów osiąga rekordowo wysoki poziom, ponieważ atakujący adaptują nowe technologie co najmniej równie sprawnie jak obrońcy. Sztuczna inteligencja jest głównym katalizatorem tej asymetrii – i właśnie dlatego kluczowym wyzwaniem na najbliższe lata staje się nie tyle dostęp do odpowiednich rozwiązań technicznych, ile zdolność zarządów do podejmowania świadomych decyzji w obszarze cyberbezpieczeństwa” – ocenia Michał Kurek, Partner, Szef Zespołu Cyberbezpieczeństwa w KPMG Polsce i Europie Środkowo-Wschodniej, cytowany w komunikacie poświęconym raportowi.
Jak zatem AI wpływa na cyberbezpieczeństwo i oszustwa. „Oszustwa polegające na podszywaniu się pod inne osoby stanowią coraz większe zagrożenie w naszym cyfrowym świecie, gdzie przestępcy podszywają się pod legalnych przedstawicieli firm, aby wykraść poufne informacje lub pieniądze” – napisało PwC w raporcie „The new face of fraud: Combating impersonation and deepfake threat”.
Ta grupa zagrożeń obejmuje znane już, ale coraz bardziej zaawansowane ich rodzaje: phishing, deepfake i nowe rodzaje botów.
Popularny phishing ma miejsce wtedy, gdy „oszuści wysyłają zwodnicze wiadomości ...
Artykuł jest płatny. Aby uzyskać dostęp można:
- zalogować się na swoje konto, jeśli wcześniej dokonano zakupu (w tym prenumeraty),
- wykupić dostęp do pojedynczego artykułu: SMS, cena 5 zł netto (6,15 zł brutto) - kup artykuł
- wykupić dostęp do całego wydania pisma, w którym jest ten artykuł: SMS, cena 19 zł netto (23,37 zł brutto) - kup całe wydanie,
- zaprenumerować pismo, aby uzyskać dostęp do wydań bieżących i wszystkich archiwalnych: wejdź na BANK.pl/sklep.
Uwaga:
- zalogowanym użytkownikom, podczas wpisywania kodu, zakup zostanie przypisany i zapamiętany do wykorzystania w przyszłości,
- wpisanie kodu bez zalogowania spowoduje przyznanie uprawnień dostępu do artykułu/wydania na 24 godziny (lub krócej w przypadku wyczyszczenia plików Cookies).
Komunikat dla uczestników Programu Wiedza online:
- bezpłatny dostęp do artykułu wymaga zalogowania się na konto typu BANKOWIEC, STUDENT lub NAUCZYCIEL AKADEMICKI