Cyberprzestępcy wykorzystają sztuczną inteligencję. Technologia udaje człowieka
– W chwili obecnej jesteśmy świadkami znacznej automatyzacji cyberprzestępczości. Dzięki dostępności różnorodnych narzędzi wiele osób przekazuje złośliwe oprogramowanie i wykonuje powiązane z tym czynności, nie zdając sobie nawet sprawy, w jaki sposób to wszystko działa – alarmuje Juraj Malcho, dyrektor ds. technologii z firmy ESET.
Firma Neustar przeprowadziła w październiku badania wśród 301 specjalistów IT zajmujących się tematyką bezpieczeństwa informacji, aby się dowiedzieć, jak zapatrują się na rozwój technologii sztucznej inteligencji. Choć 87 proc. ankietowanych stwierdziło, że widzą w SI narzędzie, które pomoże walczyć z cyberprzestępczością, to aż 82 proc. obawia się, że może doprowadzić do narodzin nowych, niebezpiecznych form ataków ze strony hakerów. Połowa badanych stwierdziła, że SI może posłużyć do wykradania danych osobowych, a 16 proc. respondentów stwierdziło, że może zdestabilizować działania biznesowe oraz zwiększyć koszty związane z zapewnieniem bezpieczeństwa sieci.
Sztuczna inteligencja ułatwia pracę cyberprzestępcom
Specjaliści z ZeroFOX postanowili sprawdzić, czy sztuczna inteligencja rzeczywiście może ułatwić pracę cyberprzestępcom. Naukowcy wykorzystali technologię uczenia maszynowego do pokazania botowi SNAP_R, jak zachowują się użytkownicy Twittera. Następnie sprawdzono, w jaki sposób łatwiej będzie rozprzestrzenić szkodliwe linki – za pośrednictwem człowieka czy maszyny. Sztuczna inteligencja działała znacznie szybciej, infekując w tym samym czasie czterokrotnie więcej użytkowników niż haker.
– Automatyzacja ataków odbywać się będzie poprzez chatboty czy też linguboty. Obecnie ktoś musi podnieść słuchawkę, zadzwonić i wykorzystać pewne tricki psychologiczne, aby uzyskać od rozmówcy określone dane. Niebawem możemy mieć do czynienia ze zautomatyzowanymi, cyfrowymi specjalistami poszukującymi konkretnych informacji. Wykorzystując w tym celu odpowiednie zwroty i formy odpowiedzi, będą postępować tak, jak doskonali psycholodzy. Myślę, że jest to szczególnie niebezpiecznie, zwłaszcza że w grę wchodzą dziesiątki tego rodzaju ataków dziennie – przewiduje Juraj Malcho.
Maszyna do wyłudzania danych
Szczególnie niebezpieczna może się okazać technologia, która w założeniu ma ułatwiać nam życie. Asystent głosowy Google Duplex, wykorzystując technologię uczenia maszynowego, może prowadzić rozmowę w taki sposób, że rozmówca nie rozpozna, że ma do czynienia z maszyną. Sztuczna inteligencja mówi płynnie, przytakuje rozmówcy i kiedy wyszukuje odpowiedzi na bardziej skomplikowane pytania – wzdycha. Google Duplex stworzono po to, aby wyręczyła nas np. w rezerwowaniu stolików czy umawianiu spotkać w firmach, które nie prowadzą systemu rezerwacji online.
W rękach cyberprzestępców narzędzie może się zamienić w maszynę do wyłudzania danych. Można wykorzystać je do podszywania się pod przedstawicieli banków czy jednostek państwowych. W przygotowaniu są kolejne technologie, które z jednej strony mają przyspieszać obliczenia i ułatwiać nam życie, ale z drugiej mogą się stać poważnym zagrożeniem.
– Być może w ciągu 10 lat w użyciu znajdą się komputery kwantowe, które całkowicie zmienią znane nam w tej chwili oblicze kryptografii. Gdybym jednak miał spojrzeć na najbliższe trzy do pięciu lat, to myślę, że nastąpią zmiany związane z większą automatyzacją określonych rodzajów ataków. Skupiłbym się tutaj na działaniach, które korzystają lub wiążą się z użyciem sztucznej inteligencji czy uczenia maszynowego – mówi ekspert.
Jak mogą działać asystenci głosowi od cyberprzestępców?
Brytyjska sieć handlowa Marks & Spencer już teraz wykorzystuje sztuczną inteligencje na infoliniach. Kiedy klienci dzwonią do firmy, chatbot Twilio prosi o zadanie pytania. System rozpoznawania mowy wysyła zapytanie do sztucznej inteligencji Google Dialogflow, która analizuje jej treść i decyduje, z jakim oddziałem połączyć danego klienta. Na podobnej zasadzie mogą działać asystenci głosowi od cyberprzestępców. Tyle że zamiast przekierowywać rozmowę na inny numer, poprowadzą ją tak, aby wyłudzić nasze dane osobowe.
W 2017 roku wartość rynku asystentów głosowych wyniosła niemal 1,7 mld dol. Eksperci z Research and Markets szacują, że do 2023 roku branża będzie rozwijała się w tempie 32 proc. średniorocznie, aż osiągnie wartość 9 mld dol.
Źródło: Newseria