AI Reality w banku: kręgosłup danych zamiast fajerwerków
Dan Sommer – Senior Director i Global Market Intelligence Lead w Qliku, wcześniej dekada w Gartnerze – nie jest od teorii. Kiedy pytam o trzy filary, które powtarza od miesięcy (autentyczność, praktyczna wartość, systemy agentowe), bez wahania wybiera priorytet na najbliższe dwanaście miesięcy: autentyczność danych. „Analiza i agenci będą tak dobrzy, jak źródła, na których bazują” – powie za chwilę. I nie chodzi o deklaracje. Qlik próbuje tę wiarygodność mierzyć. Trust Score to ciągły pomiar „gotowości AI” danych w kilku wymiarach: różnorodność, stronniczość (bias – czy dane nie są skrzywione), aktualność (czy są na bieżąco), dokładność, bezpieczeństwo, odnajdywalność (czy łatwo je znaleźć i udokumentować) oraz LLM‑ready.
Proste pytanie w kontrze do magii: gdybyś mógł pilnować tylko dwóch wskaźników jakości danych co tydzień, które wybierasz? Sommer nie ma wątpliwości: gdybyś miał śledzić tylko dwa w cotygodniowym pulsie danych – wybierz aktualność i dokładność. Reszta zaczyna się dopiero po tym.
Integracja po nowemu: cienka warstwa i otwarte formaty
Tu robię krótką pauzę, bo porządkuje się druga myśl przewodnia naszego spotkania: interoperacyjność zamiast scenariusza „przywiąż się raz, żałuj latami”. Sommer opowiada to bez marketingu: cienka warstwa integracyjna, otwarte formaty (Iceberg), lakehouse, pełna niezależność ekosystemu. Qlik/Talend ma pracować z AWS, Snowflake, Databricks, Microsoft Fabric, ale nie dla nich – dla klienta.
Dla banku oznacza to trzy szybkie ścieżki wartości z systemów centralnych (core banking) i mainframe’ów w czasie zbliżonym do rzeczywistego do otwartego lakehouse’a; z tych przepływów budować data products – zaufane półki danych pod konkretne decyzje; oraz przygotować tematyczne repozytoria wiedzy, z których RAG (retrieval‑augmented generatio) potrafi wyciągać właściwe informacje. Ta skromna architektura robi więcej niż kolejne centrum doskonałości bez odbiorcy.
Kompozytowe AI: kiedy 90% to za mało
Wracamy do pytania o brudne paliwo. „Połowa internetu jest stworzona przez AI” – zauważa Dan – „więc trzeba wiedzieć, co i kiedy wpuszczamy do modeli”. Trust Score towarzyszy danym przez cały cykl: na starcie skanuje pipeline’y, na końcu żyje w samych produktach danych. A gdy bank potrzebuje 99% dokładności, a popularne modele dają 90%?
Kompozytowa AI, o której mówi Sommer, to po prostu zestaw narzędzi pracujących razem. Z jednej strony masz LLM – model, który bywa błyskotliwy, ale czasem zgaduje. Z drugiej – twarde reguły i modele liczące według określonych zasad, do tego porządnie opisane zbiory danych. Dzięki temu część procesów działa przewidywalnie, a generatywne AI dokładamy tam, gdzie daje wartość – pod kontrolą.
Pytam o Dark data, inaczej ciemne dane. Logi, e-maile z call center, transkrypcje rozmów, dokumenty, wideo. Wartość – ogromna. Ryzyko – również. Dan nie moralizuje, tylko proponuje porządek: medallion architecture (warstwy bronze–silver–gold, czyli trzy poziomy dojrzewania danych), gdzie dostęp i polityki rosną wraz z wymaganiami. Możesz eksplorować na brzegu, ale zanim wpuścisz szerzej – oczyść, zanonimizuj, opisz pochodzenie. W bankowości to jest różnica między przewagą a pozwem.
Koszty do P&L: wyłącz fajerwerki, włącz rachunek
O pieniądzach rozmawia się łatwiej, gdy pojawiają się liczby. Sommer mówi wprost: są trzy dźwignie, które realnie obniżają koszty i widać je w P&L.
Po pierwsze: oddziel przechowywanie danych od liczenia. Trzymaj dane jak najtaniej (np. Iceberg), a obliczenia uruchamiaj tam, gdzie w danej chwili jest najkorzystniej.
Po drugie: nie wszystko musi iść do wielkiego modelu. Korzystaj z mniejszych modeli i RAG, a zapytania optymalizuj (cache, krótszy kontekst, sprytne kierowanie).
Po trzecie: real time tylko tam, gdzie to naprawdę oszczędza pieniądze – np. we fraudzie czy części decyzji kredytowych. W monitorowaniu rezygnacji klientów wystarczy rytm dobowy lub tygodniowy. Real time wszędzie to drogi, „elegancki” chaos.
Zadaję mu moje ulubione pytanie: ze slajdów do budżetu i wdrożenia? Dwie rzeczy. Partner end‑to‑end, który ogarnia łańcuch od podłączenia źródeł po metrykę biznesową (wtedy cost per insight i time‑to‑answer nie są prezentacją, tylko właściwością narzędzia). Oraz właśnie kompozytowe AI — połączenie probabilistyki z deterministyką – które domyka zaufanie i jakość. A błąd, który kosztuje miesiące i miliony? „Build it and they will come”. Nie przyjdą, jeśli nie współpracujesz z odbiorcą i nie liczysz efektu na każdym etapie.
Salesforce × Informatica: co naprawdę się zmienia
W tle drży jeszcze ruch rynkowy, który trudno zignorować: Salesforce przejmuje Informatikę. Dan układa tę historię w pięć prostych pytań dla banków. Co z końcem wsparcia dla PowerCenter 10.5 (31 marca 2026 r.) i strategiami on‑prem? Czy „Szwajcaria danych” pozostanie neutralna pod Salesforce, czy raczej zacznie migrować do chmury aplikacyjnej? Jak będą prioryteryzowane narzędzia w portfolio? Jak wyglądać będzie rzeczywista przenoszalność danych poza ekosystem? Oraz – na koniec – co to znaczy dla kosztów, kiedy wygoda platformy wygrywa z opcjami architektonicznymi. Kontr narracja Sommera jest konsekwentna: niezależność, otwarte standardy (Iceberg, otwarte API), a po stronie agentów – protokoły (MCP, A2A – standardy współpracy między agentami). Świat idzie w kierunku „protokół ponad platformą”.Zostaw sobie wyjścia awaryjne. 90 dni, które robią różnicę
Poprosiłem Dana o plan na teraz. Jego wersja jest zaskakująco przyziemna. Zrób inwentaryzację i nadaj Trust Score krytycznym zasobom, w tym ciemnym, czyli dark data. Równolegle ogarnij FinOps, czyli koszty przetwarzania. Decyduj świadomie, gdzie uruchamiać obliczenia i jakich silników użyć (Spark, SQL w dół w bazie, gotowe silniki analityczne), żeby nie płacić za nadmiarową moc. A pierwsze produkty danych zrób pod konkretne decyzje – tak, by od razu komuś pomogły podjąć wybór. I przygotuj pierwszych agentów dziś z pętlą zatwierdzenia, jutro z nadzorem nad rojem – ale na protokołach, nie na zamkniętych rozszerzeniach. To wszystko daje się zrobić w trzy miesiące, jeśli sukcesem jest decyzja i wynik, nie ładny slajd.
Wizjonerstwo na jutro rano
Na koniec proszę o szybki rzut oka w przyszłość. „Qlik w 2026?” – „Trzy rzeczy: integralność i zaufanie do danych, interoperacyjność między systemami oraz innowacja na brzegu – orkiestracja agentów i egzekucji. I to w hybrydzie, bo nie każdy klient może żyć tylko w chmurze”. Brzmi jak deklaracja, ale jeśli złożyć w całość jego poprzednie odpowiedzi, to jest raczej obietnica infrastruktury niż magicznego pudełka.
Sommer jest wizjonerem, ale w praktycznym sensie: plan zaczyna od jutra. Po tej rozmowie widać wyraźniej, że najodważniejsze ruchy w bankowości wyglądają skromnie. Zamiast wielkiego modelu – mała, konsekwentna praca: licz Trust Score, ćwicz przenoszalność, rozdziel przechowywanie od przetwarzania, wpuszczaj real‑time tam, gdzie ROI liczy się w sekundach, a wszędzie indziej trzymaj agentów na uwięzi z przyciskiem stop. I pilnuj dwóch wartości co tydzień: aktualności i dokładności. Reszta jest konsekwencją.
Dla CFO – jedno zdanie na start: „Zacznij od rezultatu, cofnij się do danych, których naprawdę potrzebujesz – i co 90 dni sprawdzaj, czy możesz to przenieść gdzie indziej bez bólu”.
Artykuł powstał we współpracy z firmą Hogart Business Intelligence – Partnerem Qlik, aktywnym na rynku rozwiązań dla sektora finansowego.