Raport Specjalny | IT@BANK 2022 – Ab Initio | Nie pozwól, aby dobry kryzys się zmarnował

Raport Specjalny | IT@BANK 2022 – Ab Initio | Nie pozwól, aby dobry kryzys się zmarnował
Fot. stock.adobe.com / peshkov
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
85 mld USD - na tyle ocenia się w samych Stanach Zjednoczonych koszt wydatków w IT na nietrafione technologie. Zamiast dokonać istotnej zmiany, firmy kontynuują inwestycje, próbując budować obejścia i utrzymując nietrafione projekty. Przeciętny deweloper spędza prawie połowę swojego czasu na utrzymywanie technicznego długu i analizę kodu. W dobrych czasach duże organizacje mogły sobie pozwolić na taki luksus, ale wszystko wskazuje na to, że dobre czasy właśnie się kończą.

Wojciech Małek
Ab Initio

Co przyniesie 2023?

Pisma branżowe, analitycy są nad wyraz zgodni. Można spodziewać się cięć wydatków, recesji i trudności w dostępie do utalentowanych pracowników. W bankowości te problemy będą jeszcze wyraźniejsze, pogłębione przez regulacje i apetyt rządu na zwiększenie fiskalizacji sektora. Do tego dochodzą problemy z generowaniem zysków z bankowości codzienniej. Zgodnie z raportem McKinsey z 18 października br., na rynkach rozwiniętych, czyli w USA i Europie Zachodniej, bankowość codzienna przynosi straty. Niezmienne w ostatnich kilku latach są priorytety i zadania stawiane przed CIO: pogłębianie transformacji cyfrowej, cyberbezpieczeństwo, wykorzystanie chmury i lepsze wykorzystanie danych. Kontynuowanie programów transformacyjnych przy możliwych cięciach budżetowych i trudnościach z pozyskaniem talentów będzie stanowić nie lada wyzwanie w nadchodzących miesiącach.

Dane

Perspektywa Ab Initio jest od ponad 25 lat w zasadzie niezmienna. Dane to jeden z najcenniejszych zasobów, zaś sposób dostępu do nich i ich wykorzystania wpływa, w końcowym rozrachunku, na pozycję rynkową firmy. Podobną perspektywę kreśli McKinsey we wspomnianym raporcie. Dane w bankach to zasób, który może stanowić o przewadze konkurencyjnej wobec firm bigtech. Mogą one, i powinny, być wykorzystane do zwiększenia zaangażowania klientów i lepszej personalizacji oferty. Banki nie mają problemu z gromadzeniem coraz większej ilości danych, które są mało przydatne biznesowi, gdy dostęp do nich jest utrudniony lub czasami wręcz niemożliwy. Każdego dnia na świecie tworzone są exabajty informacji. Ponieważ koszt jednostkowy przechowywania i przetwarzania danych stale spada, firmy gromadzą coraz większe ich ilości.

Adekwatne informacje muszą zostać wyselekcjonowane i zastosowane do konkretnych biznesowych przypadków użycia. Pracownicy działów IT rzadko mają wiedzę domenową, pozwalającą uporządkować dane do użytku biznesowego, pozostawiając je w stanie zawieszenia – gdzieś w pobliżu, ale niedostępne. Ten problem ostatniej mili firmy, na przestrzeni ostatnich dekad, próbowały rozwiązać na wiele sposób. Kiedyś obietnicę powszechnego dostępu do danych miały spełniać scentralizowane hurtownie danych. Koszty, a przede wszystkim czas trwania wdrożeń i przeprowadzania zmian, sprawiły, że rozwiązania te nie są wystarczająco elastyczne na dzisiejsze potrzeby.

Obecnie o palmę pierwszeństwa walczą Data Mesh, Data Fabric czy inne koncepcje dostępu do rozproszonych danych. Z oczywistych względów są one atrakcyjne, nie wymagają nakładów na scentralizowaną infrastrukturę danych, jednakże w ich przypadku kwestia dostępu (ostatniej mili) i inwentaryzacji informacji jest zdecydowanie trudniejsza. Aby móc skutecznie konkurować z bigtechami, banki muszą zbudować nowocze­sne, skalowalne i elastyczne platformy danych. Powinny one umożliwiać nie tylko zbieranie i gromadzenie dużych ich ilości, ale również uniwersalny i szybki dostęp oraz zaawansowaną analitykę. Daje to w rezultacie sprawny i efektywny silnik dla marketingu.

Koszty

Problemem może być również koszt przetwarzania danych. O ile cena jednostkowa w ostatnich dekadach zmniejszyła się radykalnie, to jednak nastąpił znaczący wzrost ilości danych przetwarzanych w bankach. Kilka lat temu wydawało się, że wybawienie od rosnących kosztów spłynie z chmur. Realia okazały się nieco bardziej złożone. Ewidentne korzyści finansowe związane z usługami charakteryzującymi się dużą nieregularnością obciążenia nie przekładają się na całą gamę standardowych usług. Ponadto korzystanie z usług chmurowych wymaga nowych kompetencji i umiejętności sprawnego poruszania się w szerokiej gamie dostępnych usług. Jak w związku z tym mieć koszty pod kontrolą?

W początkach działalności firmy, kiedy przetwarzaniem danych zajmowały się głównie superkomputery, najważniejszym zagadnieniem był koszt CPU. Z czasem, gdy technologia staniała i nastała era big data i Hadoop, ten problem przestał być tak istotny. Ważniejsze stało się efektywne, zwinne, szybkie dostarczanie projektów i aplikacji opartych na danych, przy możliwie jak najmniejszym zespole deweloperów – czyli produktywność. Ostatnie lata to coraz powszechniejsza akceptacja technologii chmurowych i następuje déjà vu – ponownie koszt infrastruktury (CPU, RAM) stanowi istotny problem. Oznacza to, że na etapie wyboru środowiska, platformy, usług, na których oparta ma być aplikacja, ponownie fundamentalne znaczenie ma efektywność technologii. Różnice rzędu 20-30% przy nakładach liczonych w setkach tysięcy i milionach, dają istotne i widoczne oszczędności.

Talenty

W niekończącym się oczekiwaniu na nadejście sztucznej inteligencji, która zastąpi nas w procesie kreatywnym, ludzie są potrzebni do tworzenia środowisk, usług i aplikacji. Pandemia i praca zdalna jeszcze szerzej otworzyły dostęp do rynku światowego, drenując lokalny rynek z utalentowanych deweloperów. Konkurowanie ze światowymi markami, dużymi projektami, a przede wszystkim konkurencyjnymi stawkami jest trudne, o ile w ogóle możliwe. Czy zatem jakkolwiek technologia może w tym pomóc? I tak, i nie. Technologia sama w sobie ma pewien potencjał zatrzymania, czy przyciągnięcia pracownika. Z całą pewnością może natomiast sprawić, że zapotrzebowanie na kapitał ludzki będzie po prostu mniejsze. Problem pozostanie, ale bank będzie konkurował o 20 deweloperów Ab Initio zamiast 100 deweloperów Spark czy Java.

Ukończenie ostatniej mili

Znamy się, jak mało kto, na danych. Pomysły najlepszych firm konsultingowych są dość zbieżne w tym obszarze. Dane to kapitał banku, jakość ich wykorzystania stanowi o przewadze konkurencyjnej. Implementacja pomysłu jest równie istotna, co sam pomysł. Każdy doskonale rozumie, że dane są mało przydatne, gdy dostęp do nich jest utrudniony lub niemożliwy. Tradycyjne metody uzyskiwania dostępu do nich, pozwalające na pokonanie ostatniej mili pomiędzy danymi zgormadzonymi a dostępnymi są zaskakująco trudne i powolne. Naszym pomysłem jest aktywne wykorzystanie metadanych do generowania automatycznych procesów dostępu do nich, co z założenia upraszcza i przyspiesza pracę z nimi, w odróżnieniu od tradycyjnego podejścia, w którym eksperci merytoryczni pracowicie przygotowują specyfikacje do wdrożenia przez IT, co jest zbyt powolne w erze cyfrowej. Co więcej, dane, które ostatecznie dostarcza proces ich przetwarzania, opracowany przez zespół IT, mogą być niespójne lub sprzeczne. Niezbędne jest podejście, które odda kontrolę bezpośrednio w ręce zwykłych użytkowników biznesowych i umożliwi im dynamiczny dostęp do danych. Jako firma, zajmujemy się tego typu procesami od ponad 25 lat. Uczestniczyliśmy w setkach wdrożeń o krańcowo różnych wymaganiach. Na bazie tych doświadczeń udało nam się wypracować oprogramowanie, które znakomicie ułatwia codzienną pracę analityków biznesowych spoza IT.

Automatyzacja

Korzystając z metadanych, oprogramowanie Ab Initio automatycznie generuje plany procesów przetwarzania informacji (tzw. data pipelines). Plan może określać, jak je zbierać i ładować do struktury danych w chmurze z kontrolą ich jakości. Plany sprawdzają analitycy biznesowi, którzy – używając terminów właściwych dla swojego biznesu – konfigurują proces przetwarzania danych w celu ich gromadzenia, filtrowania i agregacji. Nie muszą przy tym znać wszystkich parametrów związanych z lokalizacją, fizyczną organizacją ani sposobem łączenia różnych zestawów danych.

Aktywne metadane

Sekretem potężnych możliwości automatyzacji procesu przetwarzania danych Ab Initio są aktywne metadane. Na początek oprogramowanie automatycznie wykrywa dane i metadane, skanując je w celu profilowania i klasyfikowania treści. Można przy tym wykryć, że jedno pole może być nazwą produktu, inne numerem karty kredytowej, a jeszcze inne numerem PESEL. Identyfikowane są nieprawidłowe lub brakujące wartości informacji. Można również zastosować funkcje bezpieczeństwa (takie jak maskowanie lub tokenizacja) do wrażliwych danych osobowych.

Po znalezieniu danych analityk przegląda, zatwierdza, modyfikuje lub odrzuca sugerowane reguły. Dzięki temu użytkownicy biznesowi mają bezprecedensowy stopień kontroli nad dostępem do danych i ich przygotowaniem, co łagodzi ból współpracy z IT.

Automatyczny model danych stanowi podstawę samodzielnego dostępu do nich – użytkownicy biznesowi mogą tworzyć własne zbiory informacji nie martwiąc się o ich format lub lokalizację.

Osiąganie zwinności

Kryzys, presja bigtechów, duża zmienność na rynku wymagają od banków szybkiego reagowania. Bez łatwego i szybkiego dostępu do danych banki nie mogą działać wystarczająco szybko, aby wykorzystać nadarzające się okazje lub zareagować na nieoczekiwane zdarzenia.

Automatyzacja procesów przetwarzania danych, dzięki aktywnemu wykorzystaniu metadanych pozwala użytkownikom biznesowym uzyskać właściwe informacje we właściwym formacie i we właściwym czasie. Nie muszą już oni angażować się w męczącą grę w ping-ponga z działem IT.

Źródło: Miesięcznik Finansowy BANK