Amerykańskie władze ostrzegają banki ws. nowej technologii AI

Amerykańskie władze ostrzegają banki ws.  nowej technologii AI
Fot. stock.adobe.com / photostockatinat
Amerykańskie władze finansowe ostrzegły największe banki przed potencjalnymi zagrożeniami związanymi z nowym systemem sztucznej inteligencji opracowanym przez firmę Anthropic. Podczas pilnie zwołanego spotkania, które miało miejsce 7 kwietnia ‘26 w Waszyngtonie sekretarz skarbu Scott Bessent powiedział szefom największych instytucji finansowych, że technologia może zwiększyć ryzyko cyberataków na sektor bankowy. W rozmowach uczestniczył także przewodniczący Rezerwy Federalnej Jerome H. Powell, który w ostatnich tygodniach publicznie zwracał uwagę na rosnące zagrożenie cyberatakami dla globalnego systemu finansowego.

Ostrzeżenia dotyczą nowego modelu sztucznej inteligencji o nazwie Claude Mythos Preview.

Według twórców narzędzie to jest wyjątkowo skuteczne w wykrywaniu luk w zabezpieczeniach oprogramowania – także takich, których nie potrafią znaleźć programiści czy zespoły bezpieczeństwa.

Choć może to pomóc firmom w poprawie ochrony systemów, eksperci obawiają się, że ta sama zdolność może zostać wykorzystana przez cyberprzestępców.

Nowy model AI Claude Mythos Preview może zagrażać cyberochronie banków

Podczas spotkania bankierzy zostali poinformowani, że jeśli technologia zostanie wdrożona w wewnętrznych systemach banków, istnieje ryzyko ujawnienia wrażliwych informacji o infrastrukturze cyfrowej instytucji finansowych.

W najgorszym scenariuszu dane te mogłyby trafić w ręce hakerów lub innych nieuprawnionych podmiotów, które wykorzystałyby je do przeprowadzenia ataków na systemy bankowe i kradzieży danych klientów.

Firma Anthropic sama przyznała, że nowy model jest na tyle zaawansowany i potencjalnie niebezpieczny, iż nie zostanie na razie udostępniony publicznie. Zamiast tego technologia ma być testowana w ograniczonej grupie około 40 firm w ramach inicjatywy nazwanej „Project Glasswing”.

Wśród uczestników programu znajduje się m.in. bank JPMorgan Chase, który zapowiedział wykorzystanie systemu do badań nad nowymi narzędziami sztucznej inteligencji wspierającymi cyberbezpieczeństwo infrastruktury krytycznej.

Czytaj także: Pilne spotkanie CEO amerykańskich banków w sprawie nowego modelu AI

Anthropic w sporze z Departamentem Obrony USA ws. stosowania AI

Rozwój technologii AI wywołuje  nie tylko dyskusje o bezpieczeństwie cyfrowym. Administracja prezydenta Donalda Trumpa prowadzi  spór prawny z firmą Anthropic dotyczący decyzji Departamentu Obrony, który uznał spółkę za potencjalne ryzyko dla łańcucha dostaw. Taka klasyfikacja oznacza, że technologie firmy mogą być ograniczane lub wykluczane z niektórych projektów rządowych, zwłaszcza związanych z bezpieczeństwem i wojskiem.

Decyzja ta zapadła po tym, jak Anthropic wprowadził ograniczenia dotyczące wykorzystania swojej sztucznej inteligencji w działaniach wojskowych. Firma chciała kontrolować sposób używania swoich modeli AI, aby nie były stosowane w określonych zastosowaniach militarnych.

Przedstawiciele rządu podkreślają, że spotkanie z bankami było początkiem szerszego procesu koordynacji działań wobec szybkiego rozwoju sztucznej inteligencji.

Według doradcy ekonomicznego Białego Domu, Kevina A. Hassetta, wśród decydentów panuje poczucie pilnej potrzeby opracowania zasad bezpiecznego wykorzystania nowych technologii AI w sektorze finansowym.

Witold Gadomski
Witold Gadomski, publicysta ekonomiczny, od ponad 20 lat pracujący w Gazecie Wyborczej. Autor książki o Leszku Balcerowiczu, współautor Kapitalizm. Fakty i iluzje. Od 2020 roku współpracuje z portalem BANK.pl.
Źródło: Portal Finansowy BANK.pl