Cyberprzestępcy wykorzystają sztuczną inteligencję. Technologia udaje człowieka

Cyberprzestępcy wykorzystają sztuczną inteligencję. Technologia udaje człowieka
Fot. stock.adobe.com/tippapatt
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Dynamiczny rozwój sztucznej inteligencji może się obrócić przeciwko ludziom. Przestępcy mogą wykorzystać systemy inteligentne oraz narzędzia automatyzujące do przeprowadzenia ataków na coraz szerszą skalę. Zagrożenie może również przyjść ze strony asystentów głosowych, którzy mogą do nas dzwonić i podając się za konsultantów telefonicznych, wykradać nasze wrażliwe dane. Technologia jest już na tyle zaawansowana, że trudno rozpoznać, czy rozmówcą jest człowiek czy maszyna.

Dynamiczny rozwój sztucznej inteligencji może się obrócić przeciwko ludziom #AI #SztucznaInteligencja #cyberprzestępczość

– W chwili obecnej jesteśmy świadkami znacznej automatyzacji cyberprzestępczości. Dzięki dostępności różnorodnych narzędzi wiele osób przekazuje złośliwe oprogramowanie i wykonuje powiązane z tym czynności, nie zdając sobie nawet sprawy, w jaki sposób to wszystko działa – alarmuje Juraj Malcho, dyrektor ds. technologii z firmy ESET.

Firma Neustar przeprowadziła w październiku badania wśród 301 specjalistów IT zajmujących się tematyką bezpieczeństwa informacji, aby się dowiedzieć, jak zapatrują się na rozwój technologii sztucznej inteligencji. Choć 87 proc. ankietowanych stwierdziło, że widzą w SI narzędzie, które pomoże walczyć z cyberprzestępczością, to aż 82 proc. obawia się, że może doprowadzić do narodzin nowych, niebezpiecznych form ataków ze strony hakerów. Połowa badanych stwierdziła, że SI może posłużyć do wykradania danych osobowych, a 16 proc. respondentów stwierdziło, że może zdestabilizować działania biznesowe oraz zwiększyć koszty związane z zapewnieniem bezpieczeństwa sieci.

Sztuczna inteligencja ułatwia pracę cyberprzestępcom

Specjaliści z ZeroFOX postanowili sprawdzić, czy sztuczna inteligencja rzeczywiście może ułatwić pracę cyberprzestępcom. Naukowcy wykorzystali technologię uczenia maszynowego do pokazania botowi SNAP_R, jak zachowują się użytkownicy Twittera. Następnie sprawdzono, w jaki sposób łatwiej będzie rozprzestrzenić szkodliwe linki – za pośrednictwem człowieka czy maszyny. Sztuczna inteligencja działała znacznie szybciej, infekując w tym samym czasie czterokrotnie więcej użytkowników niż haker.

– Automatyzacja ataków odbywać się będzie poprzez chatboty czy też linguboty. Obecnie ktoś musi podnieść słuchawkę, zadzwonić i wykorzystać pewne tricki psychologiczne, aby uzyskać od rozmówcy określone dane. Niebawem możemy mieć do czynienia ze zautomatyzowanymi, cyfrowymi specjalistami poszukującymi konkretnych informacji. Wykorzystując w tym celu odpowiednie zwroty i formy odpowiedzi, będą postępować tak, jak doskonali psycholodzy. Myślę, że jest to szczególnie niebezpiecznie, zwłaszcza że w grę wchodzą dziesiątki tego rodzaju ataków dziennie – przewiduje Juraj Malcho.

Maszyna do wyłudzania danych

Szczególnie niebezpieczna może się okazać technologia, która w założeniu ma ułatwiać nam życie. Asystent głosowy Google Duplex, wykorzystując technologię uczenia maszynowego, może prowadzić rozmowę w taki sposób, że rozmówca nie rozpozna, że ma do czynienia z maszyną. Sztuczna inteligencja mówi płynnie, przytakuje rozmówcy i kiedy wyszukuje odpowiedzi na bardziej skomplikowane pytania – wzdycha. Google Duplex stworzono po to, aby wyręczyła nas np. w rezerwowaniu stolików czy umawianiu spotkać w firmach, które nie prowadzą systemu rezerwacji online.

W rękach cyberprzestępców narzędzie może się zamienić w maszynę do wyłudzania danych. Można wykorzystać je do podszywania się pod przedstawicieli banków czy jednostek państwowych. W przygotowaniu są kolejne technologie, które z jednej strony mają przyspieszać obliczenia i ułatwiać nam życie, ale z drugiej mogą się stać poważnym zagrożeniem.

– Być może w ciągu 10 lat w użyciu znajdą się komputery kwantowe, które całkowicie zmienią znane nam w tej chwili oblicze kryptografii. Gdybym jednak miał spojrzeć na najbliższe trzy do pięciu lat, to myślę, że nastąpią zmiany związane z większą automatyzacją określonych rodzajów ataków. Skupiłbym się tutaj na działaniach, które korzystają lub wiążą się z użyciem sztucznej inteligencji czy uczenia maszynowego – mówi ekspert.

Jak mogą działać asystenci głosowi od cyberprzestępców?

Brytyjska sieć handlowa Marks & Spencer już teraz wykorzystuje sztuczną inteligencje na infoliniach. Kiedy klienci dzwonią do firmy, chatbot Twilio prosi o zadanie pytania. System rozpoznawania mowy wysyła zapytanie do sztucznej inteligencji Google Dialogflow, która analizuje jej treść i decyduje, z jakim oddziałem połączyć danego klienta. Na podobnej zasadzie mogą działać asystenci głosowi od cyberprzestępców. Tyle że zamiast przekierowywać rozmowę na inny numer, poprowadzą ją tak, aby wyłudzić nasze dane osobowe.

W 2017 roku wartość rynku asystentów głosowych wyniosła niemal 1,7 mld dol. Eksperci z Research and Markets szacują, że do 2023 roku branża będzie rozwijała się w tempie 32 proc. średniorocznie, aż osiągnie wartość 9 mld dol.

Źródło: Newseria

Logo Newseria Innowacje