Dane, modele i kontrola w erze agentów AI

Dane, modele i kontrola w erze agentów AI
Fot. AntonKhrupinArt/stock.adobe.com
W ciągu zaledwie dwóch lat sztuczna inteligencja z eksperymentalnej ciekawostki stała się fundamentem działalności operacyjnej w niemal każdej branży, w tym w bankowości.

Grzegorz Kuliszewski
Services Executive
Dell Technologies

Według McKinsey, 92% firm planuje zwiększyć inwestycje w AI w najbliższych trzech latach, tymczasem koszt działania modeli rok do roku spada nawet dziesięciokrotnie. Równocześnie nowe układy scalone zużywają 6-7 razy mniej energii niż porównywalne wydajnościowo generacje sprzed kilku lat. Skala, tempo i obniżające się bariery wejścia tworzą środowisko, w którym pytanie „czy wdrożyć AI?” zostało zastąpione pytaniem „jak wdrażać AI w sposób bezpieczny, kontrolowany i zgodny z regulacjami?”.

Sztuczna inteligencja jest dziś wszechobecna, ale technologia dojrzewa szybciej, niż organizacje są w stanie przebudować procesy, architekturę danych, polityki bezpieczeństwa oraz model zarządzania ryzykiem. W efekcie powstaje dysproporcja między tym, jak łatwo użytkownicy mogą korzystać z narzędzi AI w życiu prywatnym, a tym, jak ograniczony i sformalizowany bywa dostęp do analogicznych możliwości w środowisku pracy. Tam, gdzie organizacja nie nadąża z dostarczeniem bezpiecznych, wygodnych rozwiązań, pojawia się realne ryzyko operacyjne, reputacyjne i regulacyjne. Jednym z jego najbardziej widocznych przejawów jest shadow AI.

Shadow AI, czyli brak wygody skutkuje brakiem kontroli

Dane Dell Technologies pokazują, że 63% organizacji doświadcza zjawiska shadow AI, czyli sytuacji, w której pracownicy korzystają z prywatnych narzędzi opartych na sztucznej inteligencji do zadań służbowych. Nie wynika to z braku lojalności, lecz z prostej ekonomii: użytkownicy wybierają rozwiązania szybkie, intuicyjne i natychmiast dostępne. Deloitte wskazuje dodatkowo, że mimo promowania wewnętrznych rozwiązań AI i oferowania szkoleń, 69% pracowników wciąż używa w pracy prywatnych narzędzi, bo działają szybciej i prościej niż firmowe odpowiedniki.

W sektorze bankowym koszt takiego zachowania rzadko jest widoczny natychmiast, ale ma charakter strukturalny. Wraz z użyciem prywatnych narzędzi poza kontrolą organizacji pojawia się ryzyko ujawnienia informacji wrażliwych, w tym danych objętych tajemnicą bankową, danych klientów i pracowników, wiedzy o procesach, ryzyku oraz elementów własności intelektualnej. Co istotne, każdy taki incydent może eskalować z poziomu problemu IT do poziomu ryzyka reputacyjnego i regulacyjnego, bezpośrednio wpływając na zaufanie klientów oraz relacje z nadzorcą. Dodatkowo organizacja może utracić zdolność szybkiego i kontrolowanego odtworzenia środowisk, w których AI była wykorzystywana operacyjnie.

Zmiana perspektywy: zamiast przenosić dane do AI, przenieś AI do danych

Badania Dell Technologies pokazują, że 73% ankietowanych przedsiębiorstw na świecie deklaruje, że ich dane i własność intelektualna są zbyt cenne, aby umieszczać je w zewnętrznych narzędziach GenAI. Model „dane do AI” sprawdził się jako sposób testowania rozwiązań i budowania kompetencji, a wykorzystanie AI w chmurze pozostanie istotnym elementem krajobrazu technologicznego. Jednak w bankowości, gdzie dane są nie tylko kluczowym zasobem biznesowym, lecz także obiektem ścisłych wymogów regulacyjnych, bezpieczeństwo architektury stoi ponad funkcjonalnością narzędzi.

Dlatego stosuje się podejście odwrotne: to AI ma przychodzić do danych, działając w ramach architektury organizacji, jej polityk bezpieczeństwa, mechanizmów kontroli dostępu i audytu. Zamiast „wynoszenia” danych do zewnętrznych modeli, organizacja uruchamia modele i agentów AI tam, gdzie znajdują się dane, logika biznesowa oraz odpowiedzialność decyzyjna. Takie podejście pozwala nie tylko chronić poufność informacji, lecz także jasno określić, kto odpowiada za działanie AI, na jakich danych ona pracuje i w jaki sposób jej decyzje są wykorzystywane w procesach.

AI PC i lokalne agenty: bezpieczeństwo nierozłącznym elementem produktywności

W tym kontekście rośnie rola AI PC, czyli komputerów osobistych projektowanych pod obciążenia związane z AI. Urządzenia tej klasy umożliwiają uruchamianie modeli i agentów lokalnie, bez konieczności przesyłania danych poza domenę organizacji. Dla instytucji finansowych oznacza to możliwość pogodzenia dwóch pozornie sprzecznych celów: wysokiej produktywności użytkowników oraz pełnej kontroli nad danymi i kontekstem ich przetwarzania. Przykładem są komputery, takie jak Dell Pro Max z GB10, które zapewniają wysoką wydajność obliczeń AI przy zachowaniu lokalności i przewidywalności środowiska.

Podczas gdy AI PC średniej klasy potrafi obsłużyć modele rzędu 2-20 mld parametrów, Dell Pro Max z GB10 uruchamia modele do 200 mld parametrów, osiągając poziom, który jeszcze niedawno wymagał infrastruktury serwerowej. Z punktu widzenia bezpieczeństwa oznacza to, że zaawansowane przetwarzanie AI może odbywać się bez ekspozycji danych na zewnętrzne platformy i bez tworzenia nowych wektorów ryzyka. Co więcej, mniejsze, wyspecjalizowane modele – rzędu 1-2 mld parametrów – mogą działać równolegle, tworząc środowisko wieloagentowe pod pełnym nadzorem organizacji.

Istotnym uzupełnieniem tej warstwy staje się standaryzacja integracji agentów z narzędziami pracy. Dzięki MCP (Model Context Protocol) agenty mogą łączyć się z systemami takimi, jak poczta, kalendarz, CRM czy bazy danych. Kluczowe jest jednak to, aby działały wyłącznie w ramach tożsamości i uprawnień użytkownika lub systemu, w imieniu którego pracują. W dobrze zaprojektowanej architekturze system AI nie omija istniejących mechanizmów kontroli dostępu, lecz staje się ich przedłużeniem.

Dlatego w instytucjach bankowych niezbędny jest centralny system zarządzania agentami, zapewniający monitorowanie ich działań, pełną ścieżkę audytu oraz możliwość oceny zgodności z regulacjami i wewnętrznymi politykami bezpieczeństwa.

Wraz z rozwojem agentowości zmienia się również model zagrożeń. Ryzyko nie dotyczy już wyłącznie wycieku danych, ale także manipulacji zachowaniem modeli, nadużyć uprawnień agentów czy wykonywania nieautoryzowanych działań w imieniu użytkownika. Dlatego bezpieczeństwo agentów staje się integralnym elementem architektury.

Bezpieczeństwo AI to też możliwość odtworzenia modeli, procesów i całego ekosystemu aplikacji

W świecie rosnących cyberzagrożeń kluczowe staje się pytanie nie tylko o to, jak zapobiegać atakom, lecz także jak przywrócić działanie organizacji po incydencie bez utraty danych, modeli i zdolności operacyjnych. W bankowości, gdzie regulacje wymagają jednocześnie ciągłości usług i zabezpieczenia śladów incydentu, tradycyjne podejścia do odzyskiwania danych mogą okazać się niewystarczające.

Dlatego coraz większego znaczenia nabiera koncepcja Cyfrowego Bunkra – izolowanej, odseparowanej strefy, w której przechowywane są krytyczne kopie danych, aplikacji oraz kluczowych komponentów środowisk. Środowisko „clean room”, będące częścią Bunkra, pozwala na odtworzenie systemów (w tym aplikacji i agentów AI) poza bieżącym środowiskiem operacyjnym, które może być skompromitowane w wyniku ataku cyfrowego. Co istotne, do Bunkra powinny trafiać nie tylko dane, ale również modele AI, ich konfiguracje oraz zależności integracyjne, bez których organizacja nie jest w stanie wznowić kluczowych procesów biznesowych.

To podejście umożliwia pogodzenie wymogów regulacyjnych z realiami cyberzagrożeń: z jednej strony zapewnia ciągłość działania, z drugiej pozwala zachować integralność środowiska dowodowego i spełnić polecenia regulatora.

Wnioski: AI jako infrastruktura krytyczna

Organizacje z zaawansowanymi systemami IT stoją dziś przed wyborem, który zadecyduje o ich przewadze konkurencyjnej w kolejnych latach. Nie chodzi już o to, jakie narzędzia AI wdrażać, lecz o to, jak zbudować środowisko, w którym AI działa w sposób bezpieczny, audytowalny i przewidywalny. W bankowości AI coraz częściej staje się elementem infrastruktury krytycznej – a ta musi podlegać tym samym zasadom co inne kluczowe systemy: segmentacji, testom odporności, planom ciągłości działania oraz jasno przypisanej odpowiedzialności.

W świecie agentów AI przewagę zyskają nie te instytucje, które wdrażają najszybciej, lecz te, które potrafią zachować kontrolę – także w sytuacji kryzysowej.

Źródło: Miesięcznik Finansowy BANK