AI przyspiesza, ale to dane decydują o przewadze. Firmy potrzebują strategii, a nie kolejnych narzędzi
Sztuczna inteligencja jest dziś wszechobecna, ale technologia dojrzewa szybciej niż organizacje są w stanie przebudować procesy, architekturę danych, polityki bezpieczeństwa i model zarządzania zmianą.
W efekcie powstaje dysproporcja między tym, jak szybko użytkownicy mogą korzystać z narzędzi AI w życiu prywatnym, a tym, jak ograniczony i złożony bywa dostęp do analogicznych możliwości w środowisku pracy.
Tam, gdzie ta luka jest największa, rośnie nowe ryzyko operacyjne i regulacyjne: shadow AI.
Shadow AI, czyli konsekwencja braku wygody
Dane Dell Technologies pokazują, że 63% organizacji doświadcza zjawiska shadow AI, czyli sytuacji, w której pracownicy korzystają z prywatnych narzędzi opartych na sztucznej inteligencji do zadań służbowych.
Nie wynika to z braku lojalności, lecz z prostej ekonomii uwagi: użytkownicy wybierają rozwiązania szybkie, intuicyjne i natychmiast dostępne. Deloitte wskazuje dodatkowo, że mimo promowania wewnętrznych rozwiązań AI i oferowania szkoleń, 69% pracowników wciąż używa w pracy prywatnych narzędzi, bo działają szybciej i prościej niż firmowe odpowiedniki.
W sektorze bankowym koszt takiego zachowania rzadko jest widoczny na pierwszy rzut oka, ale ma charakter strukturalny.
Wraz z użyciem prywatnych narzędzi poza kontrolą organizacji pojawia się ryzyko ujawnienia informacji wrażliwych, w tym danych objętych tajemnicą bankową, danych klientów, danych pracowniczych, wiedzy o procesach i ryzyku, a także elementów własności intelektualnej.
Zmiana perspektywy: zamiast przenosić dane do AI, przenieś AI do danych
Badania Dell Technologies pokazują, że 73% ankietowanych przedsiębiorstw na świecie deklaruje, że ich dane i własność intelektualna są zbyt cenne, aby umieszczać je w zewnętrznych narzędziach GenAI.
Model „dane do AI” sprawdził się jako sposób testowania rozwiązań i budowania kompetencji, a wykorzystanie AI w chmurze pozostanie istotnym elementem krajobrazu technologicznego.
Jednak w przypadku danych wewnętrznych, które w bankach są nie tylko kluczowym zasobem biznesowym, ale też obiektem rygorów regulacyjnych i wymogów zgodności, coraz większe znaczenie zyskuje podejście odwrotne: to AI ma przychodzić do danych, działając w ramach architektury, polityk i kontroli organizacji.
Zamiast zatem budować procesy, w których użytkownik „wynosi” dane do zewnętrznego narzędzia, organizacja projektuje środowisko, w którym modele i agenci AI są uruchamiani tam, gdzie znajdują się dane, logika biznesowa i mechanizmy bezpieczeństwa.
To podejście nie rozwiązuje wyłącznie problemu poufności. Porządkuje również kwestię odpowiedzialności, rozliczeń i zgodności, bo umożliwia osadzenie AI w istniejących ramach.
AI PC i lokalne agenty: nowa warstwa produktywności
W tym kontekście rośnie rola AI PC, czyli komputerów osobistych projektowanych pod obciążenia związane z AI. Urządzenia tej klasy umożliwiają uruchamianie modeli i agentów lokalnie, bez konieczności przesyłania danych na zewnątrz organizacji.
To pozwala na zachowanie standardów bezpieczeństwa, a użytkownikom daje wygodę porównywalną z narzędziami konsumenckimi. Przykładem są komputery, takie jak Dell Pro Max z GB10, które zapewniają wysoką wydajność obliczeń AI przy zachowaniu pełnej kontroli nad danymi.
Podczas gdy AI PC średniej klasy potrafi obsłużyć modele rzędu 2–20 mld parametrów, Dell Pro Max z GB10 uruchamia modele do 200 mld parametrów. Osiąga zatem poziom, który jeszcze niedawno wymagał infrastruktury serwerowej.
Z kolei modele wyspecjalizowane na poziomie około 1,5B parametrów można uruchamiać równolegle, nawet kilka na jednym PC, co przekłada się na realną wieloagentowość w pracy pojedynczego użytkownika lub zespołu.
Ważnym uzupełnieniem tej warstwy staje się standaryzacja integracji agentów z narzędziami pracy. Dzięki MCP, czyli Model Context Protocol od Anthropic, agenty mogą łączyć się w ujednolicony sposób z systemami takimi jak poczta, kalendarz, CRM czy bazy danych. W praktyce oznacza to, że AI zaczyna działać kontekstowo w ramach codziennych narzędzi, na danych i uprawnieniach użytkownika.
To właśnie w tym miejscu powstaje nowa warstwa produktywności: personalna, kontekstowa, a przy odpowiednim zaprojektowaniu także lokalna i zgodna z wymaganiami bezpieczeństwa.
Dla dużych instytucji finansowych kluczowe jest, że nie chodzi o jednego asystenta, lecz o portfel agentów wyspecjalizowanych w konkretnych zadaniach. Innego wsparcia potrzebuje sprzedaż i obsługa, innego operacje i back office, a jeszcze innego bezpieczeństwo i IT.
Jeśli agenty działają na wspólnej bazie architektonicznej, pod tym samym nadzorem i w tej samej domenie bezpieczeństwa, można zachować spójność polityk i audytu, jednocześnie dostarczając rozwiązania odpowiadające realnym potrzebom użytkowników.
Trzy filary odpowiedzialnych agentów AI
John Roese, Global CTO i Chief AI Officer w Dell Technologies, rekomenduje myślenie o agentach AI w oparciu o trzy filary. Po pierwsze, nie istnieje jedna uniwersalna platforma, która obsłuży wszystkich agentów w każdym obszarze. W praktyce powinny one działać w kilku środowiskach lokalnych, możliwie blisko procesów, które wspierają, aby ograniczyć tarcie operacyjne, skrócić ścieżki danych i poprawić kontrolę.
Po drugie, odpowiedzialność organizacji polega na zapewnieniu standardów komunikacji. Dopiero wymiana informacji i współpraca pomiędzy modelami oraz agentami pozwala uzyskać efekty biznesowe, zamiast budować kolejne, odseparowane silosy automatyzacji.
Po trzecie, kluczowy jest centralny system zarządzania, umożliwiający monitorowanie i kontrolę agentów, w tym ocenę czy działają bezpiecznie i zgodnie z ustalonymi regulacjami oraz wewnętrznymi politykami.
Z perspektywy banków podejście to ma bezpośredni wpływ na ograniczenie shadow AI. Gdy organizacja dostarcza pracownikom narzędzia AI wygodne, szybkie i adekwatne do ich codziennych zadań, maleje motywacja do korzystania z prywatnych rozwiązań.
Jednocześnie uruchamianie AI lokalnie pozwala utrzymać pełną kontrolę nad wrażliwymi informacjami, a także nad tym, jak AI jest używana, jakie dane widzi i jak wyniki są wykorzystywane w procesach.
To podejście nie wymaga kompromisu między bezpieczeństwem a produktywnością, o ile jest osadzone w spójnej architekturze danych, bezpieczeństwa i governance.
Wnioski? Zmiana sposobu wdrażania AI
Organizacje z zaawansowanymi systemami IT stoją dziś przed zadaniem, które w praktyce zdecyduje o przewadze konkurencyjnej w kolejnych latach. Nie chodzi już o to, które narzędzie AI kupić. Kluczowe staje się to, jak chronić dane, jak dostarczyć AI tam, gdzie pracują użytkownicy, jak ograniczyć shadow AI oraz jak budować produktywność bez ryzyka utraty kontroli i bez tworzenia kolejnych wysp technologicznych.
Odpowiedź leży w architekturze i w zmianie perspektywy. W bankowości, gdzie zgodność i bezpieczeństwo są równie ważne jak efektywność, AI staje się elementem infrastruktury krytycznej.
A infrastruktura krytyczna musi być bezpieczna, suwerenna i przewidywalna. To te instytucje, które najszybciej zbudują spójny model wdrażania AI oparty na danych, bezpieczeństwie i zarządzaniu, będą w stanie wykorzystać przyspieszenie technologiczne bez zwiększania ekspozycji na ryzyko.