Amerykańskie władze ostrzegają banki ws. nowej technologii AI
Ostrzeżenia dotyczą nowego modelu sztucznej inteligencji o nazwie Claude Mythos Preview.
Według twórców narzędzie to jest wyjątkowo skuteczne w wykrywaniu luk w zabezpieczeniach oprogramowania – także takich, których nie potrafią znaleźć programiści czy zespoły bezpieczeństwa.
Choć może to pomóc firmom w poprawie ochrony systemów, eksperci obawiają się, że ta sama zdolność może zostać wykorzystana przez cyberprzestępców.
Nowy model AI Claude Mythos Preview może zagrażać cyberochronie banków
Podczas spotkania bankierzy zostali poinformowani, że jeśli technologia zostanie wdrożona w wewnętrznych systemach banków, istnieje ryzyko ujawnienia wrażliwych informacji o infrastrukturze cyfrowej instytucji finansowych.
W najgorszym scenariuszu dane te mogłyby trafić w ręce hakerów lub innych nieuprawnionych podmiotów, które wykorzystałyby je do przeprowadzenia ataków na systemy bankowe i kradzieży danych klientów.
Firma Anthropic sama przyznała, że nowy model jest na tyle zaawansowany i potencjalnie niebezpieczny, iż nie zostanie na razie udostępniony publicznie. Zamiast tego technologia ma być testowana w ograniczonej grupie około 40 firm w ramach inicjatywy nazwanej „Project Glasswing”.
Wśród uczestników programu znajduje się m.in. bank JPMorgan Chase, który zapowiedział wykorzystanie systemu do badań nad nowymi narzędziami sztucznej inteligencji wspierającymi cyberbezpieczeństwo infrastruktury krytycznej.
Czytaj także: Pilne spotkanie CEO amerykańskich banków w sprawie nowego modelu AI
Anthropic w sporze z Departamentem Obrony USA ws. stosowania AI
Rozwój technologii AI wywołuje nie tylko dyskusje o bezpieczeństwie cyfrowym. Administracja prezydenta Donalda Trumpa prowadzi spór prawny z firmą Anthropic dotyczący decyzji Departamentu Obrony, który uznał spółkę za potencjalne ryzyko dla łańcucha dostaw. Taka klasyfikacja oznacza, że technologie firmy mogą być ograniczane lub wykluczane z niektórych projektów rządowych, zwłaszcza związanych z bezpieczeństwem i wojskiem.
Decyzja ta zapadła po tym, jak Anthropic wprowadził ograniczenia dotyczące wykorzystania swojej sztucznej inteligencji w działaniach wojskowych. Firma chciała kontrolować sposób używania swoich modeli AI, aby nie były stosowane w określonych zastosowaniach militarnych.
Przedstawiciele rządu podkreślają, że spotkanie z bankami było początkiem szerszego procesu koordynacji działań wobec szybkiego rozwoju sztucznej inteligencji.
Według doradcy ekonomicznego Białego Domu, Kevina A. Hassetta, wśród decydentów panuje poczucie pilnej potrzeby opracowania zasad bezpiecznego wykorzystania nowych technologii AI w sektorze finansowym.
