Bankowość i finanse | Technologie – GFT Technologies | Sukces zapewni technologia, ale także ludzie

Bankowość i finanse | Technologie – GFT Technologies | Sukces zapewni technologia, ale także ludzie
Fot. GFT Technologies
Każda organizacja, która buduje własną technologię może korzystać z generatywnej sztucznej inteligencji do wsparcia procesów wytwarzania oprogramowania – uważa Andrzej Szelemetko, Client Solution Director, GFT Technologies. Rozmawiał z nim Jan Bolanowski.

O sztucznej inteligencji wiele mówi się na poziomie ogólności, a jak to wygląda w szczegółach? Jakie widzimy praktyczne wdrożenia w sektorze finansowym?

– Największy „hype” na sztuczną inteligencję rozpoczął się wraz z pojawieniem się generatywnej sztucznej inteligencji, która znacznie przybliżyła technologie AI tzw. Kowalskiemu. Od tego czasu wiele osób korzysta na co dzień z takich rozwiązań, jak Chat GPT czy Gemini. Sztuczna inteligencja jest jednak z nami znacznie dłużej i od dawna ma zastosowanie w bankowości. Mam tu na myśli uczenie maszynowe, które jest w stanie wykrywać pewne wzorce i dostrzegać anomalie, dzięki czemu znalazło zastosowanie w sektorze finansowym w takich obszarach, jak zapobieganie oszustwom i praniu pieniędzy czy automatyzacja procesów backoffice’owych. To się dzieje od lat i cały czas się rozwija. Natomiast powstanie GenAI otworzyło szereg nowych zastosowań zarówno w backoffice, jak i w obsłudze klienta. Każda organizacja, która buduje własną technologię, może korzystać z generatywnej sztucznej inteligencji do wsparcia procesów wytwarzania oprogramowania. W tym obszarze warto również wymienić nasze narzędzie AI Impact wspomagające cały proces wytwarzania oprogramowania, które wdrażamy u licznych klientów.

Jak to dokładnie działa?

– AI Impact to narzędzie wykorzystujące generatywną sztuczną inteligencję do wsparcia deweloperów, product ownerów i analityków biznesowych w ich codziennej pracy podczas szeroko pojętego wytwarzania oprogramowania. Jest to gotowy produkt, który możemy postawić w dowolnym środowisku chmurowym lub on-premises oraz zintegrować z wybranymi modelami LLM, takimi jak Claude, Gemini czy ChatGPT. W ten sposób dostarczamy szereg funkcji, zaczynając od wsparcia w przygotowaniu wymagań, na których będą pracować deweloperzy, poprzez pomoc w tworzeniu kodu, wsparcie w wykrywaniu błędów i podatności oraz testowanie oprogramowana. To narzędzie potrafi generować zarówno unit testy, jak i testy funkcjonalne i do tego działa w sposób holistyczny, analizując nie tylko szczęśliwe przypadki użycia kodu, ale wykrywając również potencjalne ścieżki negatywne. Szczególnie duże zastosowanie tego narzędzia widzimy też w tzw. legacy transformation, czyli przy pracy z istniejącym softwarem. To bardzo ważne zwłaszcza w przypadku posiadania wiekowych aplikacji, które wciąż znajdują się w użyciu. Często zdarza się, że brakuje odpowiedniej dokumentacji, a zespół, który tworzył oprogramowanie już nie pracuje w organizacji. AI Impact pomaga zrozumieć i udokumentować istniejący kod i sprawić, że stanie się zrozumiały dla osób, które dopiero zaczynają pracę z danym rozwiązaniem. Warto też wspomnieć o module, który wspiera w transformacji systemów legacy napisanych w języku COBOL. Nasze narzędzie jest w stanie przeanalizować nawet obszerną aplikację i zaproponować, jak powinna ona wyglądać w nowoczesnym języku Java.

Czyli sztuczna inteligencja jest już w stanie zastąpić deweloperów?

– Nie. Nie taki jest cel. Odpowiedzialne użycie generatywnej sztucznej inteligencji ma być tylko wsparciem i wymaga udziału człowieka. Dokumentacja czy kod wygenerowane przez AI stanowi dopiero wkład pracy dla człowieka. Efekty działania sztucznej inteligencji trzeba sprawdzić i odpowiednio przetworzyć. Jednak to wsparcie generuje ogromne oszczędności w czasie pracy. Podam przykład jednego z naszych klientów, który proces tworzenia dokumentacji dla istniejącego systemu skrócił o 95%, tzn. zamiast kilku tygodni, dokumentację dla pojedynczej aplikacji udało się skończyć w jeden dzień.

Czas to pieniądz. Ale wdrożenie sztucznej inteligencji też swoje kosztuje. Czy inwestycja w AI zawsze się opłaca?

– Do sztucznej inteligencji należy podchodzić jak do każdej innej inwestycji. Powinno się przeprowadzić analizę, stworzyć business case dla wykorzystania AI w danym obszarze. Postępując metodycznie i skrupulatnie, jesteśmy w stanie oszacować, czy inwestycja się opłaci. Warto też eksperymentować, stawiać hipotezy i je weryfikować, czyli sprawdzać, jak działa sztuczna inteligencja w danym użyciu. Taki proces stanowi ułamek kosztów całkowitego wdrożenia, a pozwala zweryfikować założenia i uniknąć ponoszenia niepotrzebnych kosztów. Warto też rozejrzeć się na rynku, co dzieje się u konkurencji i uczyć się na doświadczeniach i czasem błędach innych.

A z doświadczenia GFT wynika, że jak często opłaca się wdrażać AI w sektorze finansowym?

– Współpracę z klientami zaczynamy niemal zawsze od procesu proof of concept, w którym sprawdzamy, czy wdrożenie sztucznej inteligencji zrealizuje swoje cele i będzie opłacalne dla klienta. Ten etap nie zawsze kończy się decyzją o wdrożeniu. Bywa, że klient rezygnuje, co też można uznać za sukces, bo zaoszczędziliśmy dużo pieniędzy klienta, unikając nieudanego wdrożenia. Natomiast jeżeli proof of concept przebiegł pozytywnie, to następujące później wdrożenie AI praktycznie zawsze się udaje. Trzeba jednak pamiętać, że wdrożenie sztucznej inteligencji to nie jest jednorazowy i skończony proces.

To znaczy?

– Modele AI działają w zmiennym otoczeniu – rynek jest dynamiczny, cały czas zmieniają się dane, zmieniają się trendy. Dlatego wraz z upływem czasu raz nauczony model AI, będzie stopniowo tracił na celności. Żeby tak się nie stało, trzeba go cały czas douczać. Mówię tu o praktyce MLOps, czyli Machine Learnig Operations, w której zawiera się dbanie o jakość danych, monitorowanie wyników działania modelu i w razie konieczności kolejne jego trenowanie. Takie podejście jest kluczowe, jeśli myślimy o długoterminowym sukcesie wdrożenia.

O czym jeszcze trzeba pamiętać podczas wdrażania AI, jeśli chcemy, by skończyło się to sukcesem?

– Zwróciłbym uwagę na dwa aspekty: technologiczny i ludzki. Ten pierwszy dotyczy przede wszystkim danych, które są absolutnym fundamentem działania modeli AI. Przed wdrożeniem narzędzi opartych na sztucznej inteligencji, organizacja musi uporządkować swoje dane, wdrożyć praktyki data governance i data security. Chodzi o to, by sztuczna inteligencja działała na danych jak najwyższej jakości. Kiedy ten fundament jest już położony, należy zapewnić odpowiednią moc obliczeniową dla działania AI. Tutaj zwykle z pomocą przychodzą dostawcy chmurowi, którzy dostarczają infrastrukturę i często gotowe modele AI wraz ze środowiskiem, w których można je uczyć i rozwijać. Można powiedzieć, że sztuczna inteligencja jest stworzona do życia w chmurze. Trzeba jednak pamiętać, że do bezpiecznego korzystania z chmury też trzeba położyć odpowiednie fundamenty.

Natomiast jeśli chodzi o aspekt ludzki, to bardzo ważne jest zadbanie o odpowiednią pulę talentów i doświadczenie we wdrożeniach, żeby zrobić to dobrze i efektywnie. Kolejnym elementem jest edukacja wszystkich pracowników na temat możliwości i zagrożeń związanych z generatywną AI. Czy się to pracodawcom podoba, czy nie, coraz więcej osób korzysta na co dzień z takich narzędzi. Element edukacji, jak z nich korzystać, by nie doprowadzić np. do ­wycieku danych firmowych, jest niezwykle ważny. Taka podstawowa wiedza to już obecnie jest must have, podobnie jak podstawowa wiedza z zakresu cyberbezpieczeństwa.

Ostatnio w Europie coraz większe znaczenie zyskuje kwestia suwerenności technologicznej. Jak to się ma do korzystania z rozwiązań chmurowych przez polskie banki, skoro większość dostawców technologii wywodzi się spoza Europejskiego Obszaru Gospodarczego?

– Najwięksi dostawcy chmurowi działający w Europie robią to zgodnie z regulacjami. Zapewniają, że dane są dostępne i wykorzystywane tylko w EOG, dużo inwestują w to, by dostosować się do wszystkich europejskich przepisów. Ponadto firmy działające w chmurze, a zwłaszcza banki, weryfikują, czy z danych usług chmurowych można korzystać w zgodzie z miejscowymi regulacjami. Jako GFT również sprawdzamy pod tym kątem dostawców i wiemy, że ze zdecydowanej większości usług można bezpiecznie korzystać, a jeśli zdarzało nam się znaleźć jakieś luki, to dostawcy reagują. Natomiast najczęściej do wycieków danych w chmurze dochodziło nie z winy dostawców, tylko z tego, że korzystanie z usługi chmurowej zostało źle skonfigurowane po stronie klienta. Co podkreśla, jak ważne jest świadome wykorzystanie chmury i zbudowanie w organizacji fundamentów technologicznych chmury oraz odpowiednio wyedukowanie zespołu.

To może lepiej jednak nie korzystać z chmury? Czy na rozwiązaniach on premises da się osiągnąć takie same rezultaty jak na cloudzie?

– Oczywiście, że można. Nie zapominajmy, że na samym końcu chmura to też fizyczna serwerownia, w której stoją komputery. Teoretycznie każda organizacja może taką serwerownię stworzyć samodzielnie. Jednak za rozwiązaniami chmurowymi przemawia efekt skali. Postawienie serwerowni, która będzie obsługiwać docelowo tysiące klientów operatora chmury jest kosztowo bardziej opłacalna niż stawianie serwerowni na własne potrzeby przez bank. Ponadto dostawcy usług chmurowych są wyspecjalizowani w tym co robią, prowadzą badania, mają dedykowane procesory zoptymalizowane pod pracę z rozwiązaniami AI, co również zwiększa ich efektywność. No i po trzecie jest jeszcze aspekt kosztowy związany z nierównomiernym zapotrzebowaniem sztucznej inteligencji na moc obliczeniową. W trakcie uczenia modelu potrzebne może okazać się zaangażowanie znacznie większej liczby serwerów niż do codziennej pracy. Jeśli działamy na własnej serwerowni, oznacza to, że wiele maszyn będzie przez większość czasu nieużywana. Korzystając z usług dostawców chmurowych, płacimy tylko za faktycznie wykorzystywaną moc obliczeniową. Takim złotym środkiem może natomiast być podejście hybrydowe, czyli korzystanie z chmury do wytrenowania własnego modelu, który później zostanie uruchomiony na własnym środowisku.

A jak wygląda polski rynek talentów, jeśli chodzi o specjalistów od AI dla sektora finansowego?

– W stosunku do wielkości naszego kraju wypadamy bardzo dobrze. Szacuje się, że w Polsce w całej branży IT mamy ok. 600 tys. osób, podczas gdy większa od nas Hiszpania ma tylko 330 tys. Oczywiście branża AI stanowi tylko część tej puli, ale widzimy, że polscy inżynierowie mają renomę na świecie i odnoszą sukcesy. Wystarczy wspomnieć choćby o założonej przez Polaków firmie Eleven Labs, czy podkreślić rolę, jaką mieli Polacy w powstaniu ChataGPT, gdzie aż 6 polskich inżynierów weszło w skład głównego zespołu OpenAI. Jakość polskich inżynierów jest wysoka, ale wciąż brakuje odpowiedniej liczby specjalistów od sztucznej inteligencji. Mówimy o osobach, które są w stanie tworzyć i uczyć modele, posiadają zaawansowaną wiedzę ze statystyki i rozumieją, jak działają skomplikowane algorytmy. Znając moich kolegów i koleżanki z branży, wiem, że aktywnie pracujemy nad wypełnieniem tej luki i będziemy stać na czele stawki pod względem kompetencji w obszarze sztucznej inteligencji. Ponadto ze względu na tę renomę naszych inżynierów na świecie, lokalne firmy konkurują z korporacjami z całego świata, co sprawia, że liczne talenty w Polsce są wykorzystywane przez zagraniczne korporacje.

Polskie banki mają szansę w tej konkurencji pozyskać wartościowych specjalistów?

– Jeszcze kilka lat temu dominowało przekonanie, że w bankowości nie da się robić najfajniejszych i najbardziej nowoczesnych rzeczy w IT. Obecnie jednak polskie banki są pionierami nowych technologii, sięgają po rozwiązania AI, budują nowoczesne architektury i wdrażają inne najnowsze rozwiązania. Niezależni dostawcy oprogramowania, którzy współpracują z bankami, też pracują z najnowszymi technologiami i dostarczają nowinki technologiczne. Znam osoby, które pracują w bankach przez wiele lat i razem z nimi się rozwijają. Myślę, że to bardzo ciekawa branża, w której jest wciąż wiele do zrobienia, bardzo dużo nowych technologii do wdrożenia. Uważam, że polska bankowość to naprawdę świetne i wymagające miejsce do pracy w roli inżyniera, które wymaga holistycznego podejścia i dobrego zrozumienia aspektów bezpieczeństwa, wydajności i nowinek technologicznych.

Źródło: Miesięcznik Finansowy BANK