Gra pozorów – modele AI w cyberprzestrzeni

Gra pozorów – modele AI w cyberprzestrzeni
Fot. stock.adobe.com / ipopba
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Sztuczna inteligencja, często określana skrótem AI, to dziś nadzieja na poprawę bezpieczeństwa w świecie cyfrowym, zwłaszcza tam, gdzie dochodzi do wymiany wartości – czy to w transakcjach finansowych, na giełdach, czy nawet w grach komputerowych. Ale czy AI to rzeczywiście tarcza przed zagrożeniami, czy może idealne narzędzie dla cyberprzestępców?

AI w rękach przestępców niesie dwa główne zagrożenia. „Po pierwsze, zwiększa precyzję ataków – mówi Piotr Bisialski, kierownik Zespołu NASK Incident Response Team.

„Zwłaszcza w trakcie ataków socjotechnicznych, podczas których generatywna sztuczna inteligencja tworzy bardziej wiarygodne, a przy tym trudniejsze do rozpoznania oszustwa”.

Po drugie, automatyzacja umożliwia działania masowe, skierowane nie na pojedyncze jednostki, lecz na całe grupy. W USA i Wielkiej Brytanii w roku 2023 odnotowano ponad 30-krotny wzrost liczby działań z wykorzystaniem technik Deep fake, mających na celu ominięcie zabezpieczeń instytucji finansowych.

W efekcie tego w USA 98% podmiotów finansowych odnotowało straty z tytułu oszustw realizowanych z wykorzystaniem narzędzi AI. 24% podmiotów określiło swoje straty na znacznie większe niż 1 mln dolarów. Na szczęście sztuczna inteligencja pozostawia ślady, które mogą zdradzić jej użycie. Reagują na nie systemy wykrywające deepfake’i bazujące na AI.

„Ukazuje to technologiczny paradoks, w którym sztuczna inteligencja staje się zarówno narzędziem ataku, jak i obrony przed tym atakiem” – zauważa dr Mateusz Krzysztoń, kierownik Zakładu Systemów Rozproszonych NASK.

Czytaj także: Nie pomagaj oszustom, chroń swój majątek

Systemy ochrony AI celem ataków

Nie można przy tym zapominać, że same systemy AI, służące do ochrony, również stają się celem ataków. Pojawiają się nowe, specyficzne dla sztucznej inteligencji rodzaje zagrożeń, na które tradycyjne narzędzia cyberbezpieczeństwa nie są przygotowane.

„Wdrażając AI, musimy zabezpieczać ją przed atakami modyfikującymi dane wejściowe, które mogą oszukać system i sprawić, że przestanie on rozpoznawać zagrożenia” – tłumaczy Michał Rotnicki, ekspert ds. transferu technologii NASK.

W Tajlandii konsekwencją wprowadzenia powszechnej weryfikacji biometrycznej w celu ograniczenia kradzieży internetowych, było pojawienie się malware GoldPickax, który kradnie dane multimedialne. Jest on dystrybuowany pod postacią aplikacji mobilnych, zachęcających użytkownika do rejestracji, udostępnienia zdjęć, a nawet fotografowania dokumentów tożsamości.

W zapewnieniu bezpieczeństwa kluczowe jest także zrozumienie decyzji podejmowanych przez AI. Zwiększa ono nie tylko naszą kontrolę nad sztuczną inteligencją, lecz również zaufanie do niej samej. Należy jednak pamiętać, że omylność AI to nieodzowna część technologii. Wynika ona z jej statystycznej natury i ograniczonych danych treningowych.

Dlatego NASK kładzie szczególny nacisk na dostarczanie nie tylko decyzji, ale także wyjaśnień, które pozwolą lepiej zrozumieć mechanizmy działania systemu. Przepisy AI Act, szczególnie w przypadku systemów wysokiego ryzyka, nakładają obowiązek wprowadzenia narzędzi wyjaśniających, które umożliwią użytkownikom świadome i odpowiedzialne korzystanie z technologii.

Czytaj także: Raport Specjalny | Płatności Bezgotówkowe | Wyzwania cyberbezpieczeństwa w dobie sztucznej inteligencji w sektorze fintech i płatnościach elektronicznych

AI potrzebuje dużo energii

Kolejnym wyzwaniem AI są wysokie koszty i złożoność procesu trenowania sieci neuronowych. Nie można również zapomnieć o zapotrzebowaniu na ogromne zasoby mocy obliczeniowej i energii.

„Aby zmniejszyć negatywny wpływ na środowisko i zwiększyć dostępność systemów AI, NASK pracuje nad rozwijaniem lżejszych rozwiązań, które mogą działać na urządzeniach końcowych, takich jak telefony” – mówi dr Mateusz Krzysztoń.

Dzięki temu ocena zagrożeń może odbywać się lokalnie, co minimalizuje potrzebę przesyłania danych poza urządzenie, dając użytkownikowi większą kontrolę nad ochroną i prywatnością.

Podsumowując – sztuczna inteligencja to potężne narzędzie. Daje możliwości, ale też stawia wyzwania. Jej niedoskonałości wynikają często z ludzkich ograniczeń twórców i niekompletnych danych.

Pojawienie się AI to jednak rewolucja porównywalna do wprowadzenia powszechnego Internetu. Dlatego tak ważne jest, aby nie tylko korzystać z jej potencjału, ale nauczyć się radzić sobie z jej słabościami.

Źródło: BANK.pl