ChatGPT i jego użyteczność dla banków

ChatGPT i jego użyteczność dla banków
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Wszechstronne możliwości chatbota pobudzają wyobraźnię i budzą obawy opinii publicznej. Nic więc dziwnego, że nad skutkami szybkiego rozwoju sztucznej inteligencji zastanawia się także środowisko bankowe, zwłaszcza jak i gdzie banki oraz ich klienci mogą z tego korzystać, pisze Szymon Stellmaszyk, Doradca Zarządu Związku Banków Polskich w Zespole ds. międzynarodowych.

W wielu krajach ChatGPT wzbudza niezwykłe emocje. Np. we Włoszech, w ramach środków wprowadzonych przez tamtejsze władze regulacyjne, OpenAI musi zamieszczać informacje o tym, w jaki sposób i dlaczego przetwarza dane osobowe zarówno użytkowników, jak i osób niebędących użytkownikami, a także zapewnić opcję poprawiania i usuwania tych danych.

Włosi kwestionują, czy OpenAI ma podstawę prawną do gromadzenia tak ogromnych ilości danych wykorzystywanych do uczenia algorytmów ChatGPT wyrażając obawy, że ten system generuje czasem fałszywe informacje o osobach.

Związek Banków Niemieckich też zainteresował się problemem wyjaśniając obszernie swoim czytelnikom czym jest ChatGPT, gdzie można ewentualnie wykorzystać tę najnowszą zdobycz oraz jakie wiążą się z tym wyzwania w sektorze bankowym.

Czytaj także: ChatGPT 4.0 to nie rewolucja, to wezwanie do działania

Możliwości generatywnych modeli sztucznej inteligencji

ChatGPT, czyli zaawansowany model AI opracowany przez OpenAI, pozwala użytkownikom komunikować się z programem komputerowym w naturalny sposób. Ten model oparty jest na przełomowej technologii GPT (Generative Pretrained Transformer), która ostatnio szeroko stosowana jest w badaniach nad AI. Chat pozwala użytkownikom komunikować się na różne sposoby, np. poprzez wprowadzanie tekstu, głosu, a nawet zdjęć i filmów. ChatGPT ma więc ogromny potencjał, aby zrewolucjonizować wiele branż i pomóc firmom pracować wydajniej.

Podstawą ChatGPT jest potężny model językowy GPT-3, który przetwarza do 175 miliardów różnych parametrów za pośrednictwem głębokiej sieci neuronowej. Ten model został wytrenowany na ogromnej ilości danych, co odpowiada ok. 25 miliardom wydrukowanych stron, składających się z ogólnodostępnych tekstów z Internetu i książek. 

Ponieważ system zasadniczo opiera się na statystykach, generując treść na podstawie prawdopodobieństw między połączeniami słów, może się zdarzyć, że algorytm wymyśli też twierdzenia oparte na faktach i przedstawi je jako tzw. fakty. W efekcie mogą powstawać niepożądane efekty, co minimalizuje się poprzez intensywny trening manualny modelu.

ChatGPT w sektorze finansowym

Przetwarzanie języka oparte na AI jest już wykorzystywane przy wielu zastosowaniach w bankowości, np. we wsparciu obsługi klienta, ocenie raportów publicznych w czasie rzeczywistym (analiza wiadomości) lub w analizach dokumentów i umów w ramach procesów due diligence. 

Możliwości te można oczywiście w przyszłości zwiększać i rozważać inne obszary zastosowań.  Będą one jednak wymagały większego zrozumienia tekstów i umiejętności kreatywnego formułowania, np. tworzenie wewnętrznych analiz i podsumowań lub projektowanie treści i tekstów do opisów produktów i kampanii reklamowych w obszarach marketingu i sprzedaży. 

W przyszłości można sobie wyobrazić także inne różnorodne zlecenia pracy, jak badania lub tworzenie propozycji strukturyzacji. Możliwości językowe generatywnych modeli sztucznej inteligencji mogą być też wykorzystywane do zadań programistycznych, a może nawet do utrzymywania lub migracji istniejących starszych systemów, które mogą być dziś opanowane przez bardzo niewielu specjalistów. Eksperci szacują, że te modele mogą osiągnąć nawet 2-10-krotny wzrost wydajności w przypadku normalnej pracy biurowej.

Czytaj także: Co oznacza dla świata uruchomienie ChatGPT?

Bank – ChatGPT– klient a etyka

Należy jednak stwierdzić, że w krótkim okresie i w bezpośrednim kontakcie z klientem możliwe zastosowania ChatGPT lub porównywalnych robotów tekstowych będą raczej ograniczone.

W bezpośredniej komunikacji z klientem należy bowiem zadbać, aby wypowiedzi oraz rekomendacje były zgodne ze stanem faktycznym, wewnętrznie zrozumiałe i niepodważalne etycznie. Wszystko inne miałoby negatywny wpływ na jakość usług bankowych i tym samym satysfakcję klientów. 

Banki mogą przez to narazić się też na znaczne ryzyko związane z odpowiedzialnością i reputacją, jeśli generatywna sztuczna inteligencja będzie działać w środowisku klienta bez dodatkowych filtrów lub kontroli ludzkich. 

Twórcy ChatGPT wyciągnęli wnioski ze słabości wcześniejszych chatbotów i wyszkolili sztuczną inteligencję, by respektowała wartości etyczne i w miarę możliwości wykluczała nadużycia. Dziś jest to zresztą niezbędne do odniesienia sukcesu i akceptacji zarówno na poziomie prywatnym, jak i biznesowym. Nie można jednak całkowicie wykluczyć takich skutków. 

Regulacje prawne dotyczące odpowiedzialności AI

W przypadku ChatGPT pojawia się także ważne pytanie dla banków: kto ponosi ostateczną odpowiedzialność w przypadku wystąpienia szkody lub naruszenia praw? Z prawnego punktu widzenia jest to obszar, któremu wciąż wiele brakuje na gruncie legislacyjnym i orzeczniczym.

Europejski prawodawca pracuje już nad regulacjami, które mają na celu wyjaśnienie kwestii otwartej odpowiedzialności, zwłaszcza w przypadku zastosowań AI wysokiego ryzyka, oraz zwiększenie zaufania użytkowników. Kluczem ma być wskazanie i spełnienie minimalnych wymagań dotyczących przejrzystości, cyberbezpieczeństwa i zarządzania ryzykiem. 

Niezależnie, powszechną praktyką w sektorze bankowym jest identyfikacja wszystkich ryzyk dla tych instytucji finansowych oraz ich bieżące monitorowanie i kontrolowanie. Dotyczy to też wykorzystania systemów AI w operacjach bankowych. Zarządzanie ryzykiem musi być zaś zgodne z wymogami regulatorów i podlegać nadzorowi ze strony nadzoru. W tym zakresie sektor bankowy jest już odpowiedzialny za odpowiedzialne korzystanie z aplikacji AI, czy to w bezpośrednim kontakcie z klientem, czy też w ramach wewnętrznego zarządzania ryzykiem. 

Duże modele, takie jak te używane w ChatGPT, oczywiście obiecują potencjał do realizacji wzrostu produktywności. Biorąc jednak pod uwagę obecny poziom dojrzałości i niepewne otoczenie prawne, daleko idące zastosowanie w procesach obsługi klienta i w obszarach szczególnego ryzyka powinno być wciąż wyraźnie kwestionowane. 

Wysoka dynamika rozwoju technologicznego nie wyklucza, aby ​​w niezbyt odległej przyszłości spodziewać się dużego postępu w zakresie niezawodności i identyfikowalności. Może to oznaczać, że generatywne aplikacje sztucznej inteligencji zyskają również kiedyś na znaczeniu oraz w praktyce banków.

Szymon Stellmaszyk. Doradca Zarządu Związku Banków Polskich w Zespole ds. międzynarodowych.  Prawnik i absolwent międzynarodowych stosunków gospodarczych i politycznych – Uniwersytet im. Adama Mickiewicza w Poznaniu i KU Leuven. W ZBP od 2006 roku. Na przestrzeni lat członek Komitetów Europejskiej Federacji Bankowej ds. międzynarodowych, zwalczania przestępstw finansowych, komunikacji i edukacji finansowej. 
Źródło: BANK.pl