Bankowość i finanse | Low-Code/No-Code – yarrl S.A. | Wykorzystanie AI w platformie low-code – rewolucja czy rozwój?
![]()
Jan Szymanowski
Dr nauk technicznych, doradca zarządu yarrl S.A., wcześniej dyrektor zarządzający w Proservice Finteco oraz wiceprezes Bonair, od lat wpiera rozwój narzędzi low-code i technologii przez zespół low-code
![]()
Piotr Wierzchowski
Architekt Systemów IT i Product Owner z 25-letnim doświadczeniem. Specjalizuje się w integracji systemów, rozproszonych architekturach zdarzeniowych i tworzeniu produktów SaaS. Pracował w międzynarodowych zespołach, współtworzył platformę low-code, silnik scoringowy i system MES.


Low-Code Application Platform (LCAP)
Termin Enterprise Low-Code Application Platform (LCAP) Gartner wprowadził do obiegu w 2019 r. i od tej pory co roku publikuje analizę i prognozę rynku IT w tym obszarze. W najnowszym raporcie pojawia się prognoza ekspansji wykorzystania technologii low-code w projektach klasy enterprise w najbliższych latach. W kryteriach oceny platform low-code kolejny już raz traktuje się wykorzystanie modeli sztucznej inteligencji jako naturalny etap rozwoju technologii. W kontekście sektora bankowego, LCAP to nie tylko oprogramowanie, ale strategiczne narzędzie do przyspieszenia cyfrowej transformacji, obniżenia kosztów (TCO) i zwiększenia elastyczności biznesowej (agility). Banki muszą szybko reagować na zmieniające się warunki rynkowe i oczekiwania klientów. W kryteriach oceny platform low-code Gartner konsekwentnie podkreśla, że integracja sztucznej inteligencji z platformami low-code nie jest jedynie ewolucją, lecz niezbędnym krokiem ku budowie inteligentniejszych i bardziej autonomicznych aplikacji biznesowych.
Dla naszego zespołu yarrl S.A., rozwijającego od lat własną technologię low-code Meltemee do zastosowań klasy enterprise, oczywiste było wykorzystanie modeli AI zarówno do zwiększenia produktywności zespołów projektowych, jak i wsparcia użytkowników opracowywanych aplikacji.
Zastosowanie AI w platformie Meltemee poprawia zarówno efektywność pracy projektanta low-code, jak i użytkownika aplikacji końcowej, przy jednoczesnym zwiększeniu funkcjonalności narzędzia oraz tworzonego rozwiązania. Wsparcie projektanta to przede wszystkim automatyczne generowanie logiki aplikacji i komunikacja w języku naturalnym. AI w Meltemee staje się wirtualnym asystentem projektanta, sugerując optymalne komponenty, generując schematy baz danych na podstawie wymagań biznesowych, a nawet proponując wstępne wersje interfejsów użytkownika, co znacząco przyspiesza cykl projektowy i redukuje błędy. Wsparcie użytkownika zależy od aplikacji i może obejmować np. komunikację w języku naturalnym, automatyzację zadań czy analizę treści. W bankowości, wsparcie użytkownika może oznaczać inteligentne klasyfikowanie wpływających zgłoszeń reklamacyjnych, odpowiadanie na pytania klientów za pośrednictwem wirtualnego asystenta, czy proaktywne wykrywanie anomalii w procesach.

Meltemee: przyszłość technologii usług cyfrowych
Duże modele językowe (LLM) znajdują w platformach low-code liczne niekontrowersyjne zastosowania, co wyróżnia je na tle innych klas systemów, w których komercyjna adopcja LLM postępuje powoli. Fundament low-code to dążenie do niwelowania barier technologicznych między człowiekiem – projektantem aplikacji – a narzędziem, w którym tworzy on docelowe rozwiązania. W naszej opinii dostępność LLM, których podstawową i najmniej kontrowersyjną cechą jest umiejętność komunikacji w języku naturalnym, stanowi prawdziwy przełom w dziedzinie low-code. Otwiera to drogę do dwóch fundamentalnych klas zastosowań: intuicyjnych interfejsów konwersacyjnych oraz zaawansowanego, semantycznego klasyfikowania i wyszukiwania danych.
Przy tworzeniu złożonych interfejsów konwersacyjnych (czatbotów), korzystających z wielu źródeł danych dostępnych w skali przedsiębiorstwa, wykorzystanie platformy low-code klasy Meltemee jest niezastąpione i stanowi optymalną drogę do budowy skalowalnego, utrzymywanego w długim terminie rozwiązania. Platforma, ze swoim zaawansowanym zestawem narzędzi graficznych do zarządzania obszernymi repozytoriami danych i procesami biznesowymi, wydajnym silnikiem reguł biznesowych oraz szerokim repertuarem interfejsów i gotowych konektorów do systemów zewnętrznych, pozwala na budowę kompleksowych rozwiązań wielo-agentowych, gdzie nad odpowiedzią pracuje nie sam model językowy odpytany pojedynczym „promptem”, lecz zbiór wyspecjalizowanych agentów realizujących różne zadania (np. analizę intencji, dostęp do repozytorium plików, dostęp do systemów zewnętrznych itp.). Standardowe narzędzia dostępne w platformie służą do orkiestracji wywołań modeli językowych, do budowy i utrzymywania repozytorium instrukcji (promptów), czy do dostarczania danych potrzebnych w kontekście konwersacji. To wszystko przy zapewnieniu bezpieczeństwa i monitoringu całości rozwiązania.
Interfejsy konwersacyjne w Meltemee znajdziemy również po stronie aplikacji administracyjnej (przeznaczonej do tworzenia i rozwoju końcowego rozwiązania). Kolejne wersje platformy są w tym zakresie intensywnie rozbudowywane – celem jest umożliwienie deweloperowi low-code prowadzenia dwustronnego dialogu z narzędziem. Poza oczywistym scenariuszem, gdzie komunikuje on językiem naturalnym swoje wymagania (np. wydaje polecenie modyfikacji formularza, dodania do niego pola o określonym typie danych wraz z regułą walidującą), Meltemee ma również samodzielnie analizować w tle zbudowane rozwiązanie. Porównuje je z wbudowanym zbiorem dobrych praktyk, normami branżowymi czy ogólnymi zasadami projektowania systemów IT (np. normalizacji modeli danych, spójności nazewnictwa czy poprawności algorytmów), sugerując poprawki i usprawnienia.
Drugim obszarem wykorzystania potencjału LLM w low-code jest zaawansowana, semantyczna obróbka danych zgromadzonych w tworzonych rozwiązaniach. Dotyczy to zarówno funkcji wyszukiwania informacji, jak i ich przetwarzania – np. w celu analizy intencji, pozyskania kluczowych danych czy wygenerowania treści odpowiedzi na wpływające pismo. W bankowości umożliwia to szybkie wyszukiwanie informacji w gigantycznych bazach danych banku, analizę sentymentu w korespondencji z klientami, automatyczne kategoryzowanie dokumentów finansowych, czy generowanie spersonalizowanych raportów i rekomendacji. Możliwe jest również tworzenie treści dokumentów z zachowaniem ich kontekstu, np. automatyczne generowanie wstępnych wersji umów z klientami czy odpowiedzi na pisma urzędowe z uwzględnieniem generatora dokumentów na bazie szablonów, który może wykorzystywać modele językowe do tworzenia treści. Cyfrowa (wektorowa) reprezentacja dokumentów dostępna na platformie zapewnia szybkie i precyzyjne przeszukiwanie semantyczne. Istotne jest to, że mechanizm ten jest w Meltemee wspomagany przez precyzyjne indeksy realizujące powiązanie danych oraz dodatkowe unikalne dla platformy mechanizmy – eliminując możliwość „zgubienia” informacji często spotykaną w „naiwnych” implementacjach RAG.
Tool to teammate
Wykorzystanie sztucznej inteligencji powoduje, że powstałe w technologii Meltemee aplikacje low-code są nie tylko użytecznymi narzędziami, ale pełnią rolę członków zespołu wspierających realizację zadań i realizujących zadania za użytkowników (platformy i aplikacji), uczących się, interaktywnych, komunikujących się w języku naturalnym. Gartner trafnie opisał w 2024 r. ten efekt w materiale „How AI Is Transforming the Human-Machine Relationship” i określił ten proces jako „tool to teammate”. Dlatego w naszych projektach low-code zasadniczymi kryteriami oceny postępów prac są nie tylko działająca aplikacja, ale także nakład pracy projektantów i łatwość użytkowania aplikacji.