Jak pogodzić wykorzystanie sztucznej inteligencji z zachowaniem suwerenności danych w branży finansowej?

Jak pogodzić wykorzystanie sztucznej inteligencji z zachowaniem suwerenności danych w branży finansowej?
Fot. AntonKhrupinArt/stock.adobe.com
Banki coraz odważniej przekuwają eksperymenty z generatywną sztuczną inteligencją w realne produkcyjne wdrożenia. Motorem napędowym tego trendu jest potrzeba zwiększenia efektywności oraz chęć podniesienia jakości obsługi klienta. Ale jednocześnie instytucje finansowe oczekują pełnej kontroli nad infrastrukturą, w której działa AI, modelami i zgromadzonymi w nich informacjami. Budowanie skalowalnych, bezpiecznych i zgodnych z przepisami środowisk do przetwarzania danych oraz wyciągania z nich wniosków umożliwiają takie bazujące na otwartym źródle rozwiązania, jak Red Hat AI 3 i AI Inference Server.

Lubomir Stojek
Country Manager Red Hat w Polsce

Jeszcze kilka lat temu zastosowanie sztucznej inteligencji w instytucjach z branży finansowej zazwyczaj kończyło się na etapie pilotażowym. Obecnie, jak wynika z opracowanego przez Red Hat i FStech raportu „AI in financial services: Trends, strategies and challenges”, 63% podmiotów wykorzystuje AI do automatyzacji procesów i handlu algorytmicznego, a 60% w cyberbezpieczeństwie oraz obsłudze klienta, bazującej na dużych modelach językowych (LLM). Narzędzia tego typu wspierają proces podejmowania decyzji kredytowych, przewidują ryzyko i analizują nietypowe transakcje w czasie rzeczywistym. Jednak wprowadzając sztuczną inteligencję w etap produkcyjny, banki potrzebują infrastruktury zdolnej przetwarzać ogromne wolumeny danych, a jednocześnie mieć zagwarantowaną zgodność z wymogami regulacji prawnych.

Obecnie tylko 15% instytucji finansowych ma w pełni opracowaną strategię AI obejmującą wykorzystanie otwartego oprogramowania, a co trzecia zmaga się z brakiem specjalistów. Modernizacja infrastruktury IT stała się więc warunkiem koniecznym. Dlatego polskie firmy coraz częściej inwestują w chmurę hybrydową i automatyzację, by wyeliminować dług technologiczny i ograniczyć skutki luki kompetencyjnej. Dzięki temu są w stanie zastąpić przestarzałe serwery rozwiązaniami wirtualnymi, skrócić czas przywracania środowisk do pracy po awarii oraz wdrażać model „infrastruktury jako kodu”, który pozwala dynamicznie skalować zasoby i zwiększać odporność operacyjną.

Coraz więcej firm zdaje sobie sprawę, że otwarte oprogramowanie zapewnia przejrzystość, możliwość audytu i pełną kontrolę nad miejscem, w którym przetwarzane są dane. Raport Red Hat i FStech wskazuje jednak, że 21% podmiotów ma strategię AI, ale wciąż nie rozumie roli open source, a 19% nie potrafi odróżnić otwartej AI od AI bazującej na otwartym oprogramowaniu. To pokazuje, że potrzebne są rozwiązania i platformy, które ułatwiają instytucjom bezpieczne korzystanie z otwartych narzędzi – dlatego coraz więcej przedsiębiorstw sięga po systemy łączące elastyczność open source z mechanizmami ochronnymi i wsparciem klasy korporacyjnej.

Red Hat AI 3 – platforma dla produkcyjnej sztucznej inteligencji

Rozwiązanie Red Hat AI 3 to odpowiedź na wyzwania doświadczane przez instytucje finansowe, które chcą przejść od fazy eksperymentów do produkcyjnych wdrożeń sztucznej inteligencji. Platforma ta łączy w sobie elementy systemów Red Hat Enterprise Linux AI (RHEL AI), Red Hat OpenShift AI i AI Inference Server, przez co zapewnia spójne środowisko do zarządzania całym cyklem życia modeli LLM. Umożliwia ich trenowanie, dostrajanie i rozproszone wnioskowanie w hybrydowych środowiskach – od centrum danych, po chmurę publiczną i suwerenną chmurę branżową.

W praktyce oznacza to, że banki mogą tworzyć i wdrażać aplikacje bazujące na sztucznej inteligencji bez konieczności przenoszenia danych do zewnętrznych usług. Mechanizmy tzw. rozproszonego wnioskowania (llm-d) pozwalają rozdzielać zadania obliczeniowe pomiędzy różne sprzętowe akceleratory i zwiększać wydajność bez wzrostu kosztów. Platforma obsługuje dowolne modele i akceleratory, dzięki czemu zespoły IT nie są ograniczone konkretną architekturą sprzętową. Dla branży finansowej to znacząca przewaga, bowiem możliwe staje się utrzymanie suwerenności danych i jednocześnie spełnienie wymogów wydajności w systemach działających całodobowo.

Dla Red Hat AI 3 przygotowano także zweryfikowane, bezpieczne ścieżki wdrożeń (tzw. well-lit paths), które pozwalają instytucjom finansowym ograniczyć ryzyko popełnienia błędów i skrócić czas uruchamiania modeli. W praktyce zespół IT może wdrożyć aplikację wykorzystującą sztuczną inteligencję w ciągu dni, a nie miesięcy, zachowując pełną kontrolę nad danymi i kodem.

AI Inference Server – wydajność i interoperacyjność

Na poziomie operacyjnym kluczowe znaczenie ma etap wnioskowania, czyli moment, gdy model językowy przekształca dane w konkretne decyzje lub rekomendacje. W zastosowaniach finansowych, takich jak analiza ryzyka kredytowego, detekcja fraudów czy generatywna obsługa klienta, oczekiwane jest, że czas reakcji serwera na zapytanie liczony będzie w milisekundach.

Maksymalne przyspieszenie tego etapu możliwe jest dzięki rozwiązaniu Red Hat AI Inference Server. Bazuje ono na projekcie vLLM i mechanizmach stworzonych przez przejętą przez Red Hat firmę Neural Magic, dzięki czemu umożliwia wysokowydajne wnioskowanie w dowolnym środowisku: lokalnym, chmurowym czy brzegowym. Dodatkowo zastosowanie kompresji modeli LLM pozwoliło kilkukrotnie przyspieszyć ich działanie, a jednocześnie zmniejszyć zużycie zasobów. Dla banków oznacza to realne oszczędności – wykorzystanie mniejszej ilości mocy obliczeniowej przy zachowaniu wysokiej jakości odpowiedzi.

Kluczowe jest również to, że Inference Server można wdrożyć jako samodzielną usługę lub jako element rozwiązań Red Hat AI 3 oraz OpenShift AI. Instytucje zyskują elastyczność wyboru: mogą korzystać z jednolitej warstwy wnioskowania obsługującej różne modele i akceleratory, bez konieczności przepisywania aplikacji. Jest to rozwiązanie szczególnie istotne w bankowości, gdzie architektury systemów często obejmują różnorodne środowiska – od mainframe’ów po kontenery Kubernetes.

OpenShift AI – środowisko współpracy i zarządzania kosztami

W większości instytucji finansowych zespoły odpowiedzialne za infrastrukturę, modele sztucznej inteligencji i aplikacje działają w silosach. Red Hat OpenShift AI eliminuje ten problem, zapewniając wspólne, ujednolicone środowisko dla inżynierów AI, deweloperów i administratorów. Podejście Model-as-a-Service (MaaS) pozwala zespołom IT pełnić rolę wewnętrznych dostawców zweryfikowanych modeli – udostępniać je innym jednostkom banku na żądanie. Z kolei AI Hub zapewnia centralny katalog modeli, rejestr do zarządzania ich cyklem życia oraz środowisko monitorowania i oceny jakości.

Dzięki takiemu podejściu bank może efektywniej wykorzystywać zasoby obliczeniowe i unikać dublowania prac pomiędzy działami. Funkcja Gen AI Studio umożliwia inżynierom szybkie prototypowanie aplikacji generatywnych, testowanie promptów i łączenie modeli z wewnętrznymi bazami wiedzy w scenariuszach RAG (Retrieval-Augmented Generation). Jest to istotne zwłaszcza dla podmiotów, które chcą tworzyć asystentów analitycznych lub systemy raportowania wspomaganego sztuczną inteligencją – bez wyprowadzania danych poza własne środowisko.

Bezpieczeństwo w architekturze Red Hat

Każdy komponent ekosystemu Red Hat powstaje z myślą o bezpieczeństwie warstwy systemowej i aplikacyjnej. Dla przykładu, Red Hat AI 3 wykorzystuje architekturę kontenerową Kubernetes z wbudowanym mechanizmem izolacji procesów, co pozwala separować obciążenia AI i ograniczać ryzyko eskalacji uprawnień. System automatycznie skanuje obrazy kontenerów pod kątem luk w zabezpieczeniach, zapewniając zgodność z regułami polityki bezpieczeństwa wymaganymi przez DORA i NIS 2. Wszystkie komponenty przechodzą regularne testy w ramach programu Red Hat Product Security, który weryfikuje podatności i dostarcza aktualizacje.

Rozwiązania Red Hat zapewniają zgodność z regulacjami dzięki pełnej audytowalności procesów. OpenShift AI i Red Hat AI 3 integrują mechanizmy rejestrowania i monitorowania aktywności użytkowników, co ułatwia spełnienie wymogów dotyczących kontroli dostępu, raportowania i rozliczalności. Platforma umożliwia też wdrożenie modelu Zero Trust, w którym każda interakcja między użytkownikiem, aplikacją i modelem AI jest weryfikowana i odnotowywana w logach. Takie podejście pozwala bankom w znaczącym stopniu skrócić czas reagowania na potencjalne incydenty bezpieczeństwa.

Dla instytucji finansowych priorytetem pozostaje poufność danych. Red Hat AI 3 umożliwia trenowanie i uruchamianie modeli w środowiskach całkowicie odizolowanych od publicznej chmury. Mechanizmy szyfrowania danych w spoczynku oraz podczas ich przesyłania są standardem, a integracja z systemami zarządzania kluczami (KMS) pozwala na stosowanie wewnętrznej polityki kryptograficznej. Dzięki temu bank może budować własne modele językowe lub systemy analityczne bez ryzyka wycieku danych klientów czy metadanych transakcyjnych.

Modernizacja infrastruktury, automatyzacja zadań i wykorzystanie otwartych platform obliczeniowych stały się filarem strategii IT w branży finansowej. Rozwiązania Red Hat AI 3, AI Inference Server i OpenShift AI łączą rozwój modeli generatywnych z wymogami bezpieczeństwa, przyspieszając wdrażanie innowacji. Dla CIO oznacza to możliwość skalowania projektów AI przy zachowaniu zgodności z regulacjami, dla inżynierów – spójne środowisko pracy, a dla zarządu – wymierne korzyści biznesowe. Dzięki temu banki wchodzą w nową fazę wykorzystania sztucznej inteligencji, która z eksperymentalnej staje się narzędziem codziennej pracy.

Źródło: Miesięcznik Finansowy BANK