BankTech 2024: czy sztuczna inteligencja jest sztuczna?
Jak stwierdził prof. dr hab. Jan Kreft, sztuczna inteligencja jest „czarną skrzynką”, do której świadomie lub nieświadomie dostarczamy dane i wychodzi z niej wiedza albo lepiej wyszkolone modele. Nie trzeba wcale wiedzieć, jak ona działa, nie musimy znać założeń programistycznych ludzi, którzy się tym zajmują, ale wystarczy, że obserwujemy, jakie są skutki jej działania np. te społeczne.
Namawiał do przyjęcia perspektywy użytkownika, który nie wie, jak działa sztuczna inteligencja, ale ma ona w sobie atrybucję wiarygodności. Została stworzona po to, żeby ograniczyć niedoskonałości człowieka.
Prof. Jan Kreft zwrócił uwagę, że nie jest ona wcale taka sztuczna, bo nasze ślady cyfrowe, które zostawiamy w sieci niewiele mają wspólnego ze sztucznością. Nie jest też inteligencją, bo nie ma w niej inteligencji.
Chatbot wypełnia luki w bazach danych i odpowiada na pytania też „nie wiem” – w związku z tym mamy do czynienia z tzw. halucynacjami (w przypadku Chat GTP 4 i 4 plus jest to na poziomie ok. 3 – 3,5%).
W przypadku tych gorszych AI jest to poziom halucynacji sięga nawet 27%. Jednak z drugiej strony jesteśmy dopiero na początku rozwoju sztucznej inteligencji i może halucynacja jest też równocześnie jakąś kreatywnością.
Prof. Jan Kreft zwrócił uwagę, że nie ma neutralnych społecznie algorytmów. Jak stwierdził, sztuczna inteligencja nie zastąpi człowieka, a zadania wykonywane przez człowieka. W USA trwa dyskusja, czy nie zastąpi prezesów i wiceprezesów, bo najbardziej wyrafinowane będą mogły już niedługo wykonywać ich pracę.
Sztuczna inteligencja zderza się z możliwością implementacji. Dziś specjaliści zgadzają się z tezą, że zastąpi ona tylko tych z „białych kołnierzyków”, którzy nie nauczą się z niej korzystać.
Sięga się po AI nie dlatego, że algorytm tworzy coś lepiej niż ludzie, ale że robi to szybciej i więcej niż człowiek. Dlatego nawet wcale nie musi być tak samo dobry, jak ludzie.
Prof. Jan Kreft podkreślił, że jeśli chodzi o zaufanie, to idąc do lekarza, nie możemy wcześniej sprawdzić jego wiedzy i w podobnej stajemy sytuacji, kiedy np. firma mówi, że rozwiązuje wszystkie problemy przy pomocy jakiejś wyrafinowanej sztucznej inteligencji. Co w takiej sytuacji zrobić? Może na przykład własny produkt AI.
Prof. Jan Kreft wspomniał również o wbudowywaniu osobowości w chatboty. Jak stwierdził, staną się też systemami autonomicznymi.
Czytaj także: Prezes ZBP o roli banków w budowie odporności cyfrowej kraju
Droga do GenAI prowadzi przez chmurę
Jak szybko odblokować potencjał sztucznej inteligencji dla sektora finansowego – o tym mówili Maciej Cetler, CEO i Łukasz Kołodziejek, AWS Solutions Architect z firmy Tameshi.
Firma zajmuje się wsparciem banków i instytucji finansowych w drodze chmury AWS. Pokazali, że chmura i sztuczna inteligencja niosą ze sobą też parę aspektów związanych z użytecznościami. Wartość rynku chmurowego w 2024 roku wynosi 4,8 mld zł.
Przyjmuje się, że wzrost wydatków na chmurę publiczną w tym roku wzrośnie o ponad 73%, a wartość całego rynku chmurowego w Polsce wzrośnie trzykrotnie do 2029 roku.
Jeśli chodzi o trendy technologiczne, które obowiązują dziś wśród instytucji finansowych, to kładzie się nacisk na bezpieczeństwo, digitalizację procesów, ekologię i GenAI.
Bez chmury żaden z tych trendów nie ma sensu. Chmura jest akceleratorem, który pozwala nam dużo lepiej modyfikować procesy występujące w ramach organizacji. Także na lepsze wykorzystanie zasobów również od strony ekologii. W przyszłym roku Amazon planuje, że nawet 100% energii wykorzystywanej przez AWS będzie pochodziło ze źródeł odnawialnych.
Podkreślili, że migracja bankowości elektronicznej, na przykład taka, jaką firma przeprowadziła dla Banku Pocztowego, to zmiana niepolegająca tylko na przeniesieniu serwerów z punktu A do B, ale jest to też zmiana kultury w ramach organizacji, która prowadzi do lepszego wykorzystania chmury i GenAI. Jest „bramą”, która daje dostęp do bardzo wielu procesów i do optymalizacji procedur.
Maciej Cetler i Łukasz Kołodziejek podkreślili, że jeśli myśli się o inwestycji w sztuczną inteligencję to warto zidentyfikować procesy manualne, powtarzalne i czasochłonne. Zastosowanie sztucznej inteligencji powinno wspierać procesy i ludzi, którzy już wykonują pracę, która jest ciągła, męcząca i powtarzalna.
Sztuczna inteligencja a cyberbezpieczeństwo banku i klienta
O tym, jak bezpiecznie używać Generative AI dzięki platformie Salesforce, mówili: Bartłomiej Mikoda, Strategic Accounts Director Poland/Lithuania i Florian Banaś, Lead, Account SE z firmy Salesforce.
Przypomnieli, że dziś w bankowość musi stale utrzymywać konkurencyjność i zwiększać efektywność, żeby zapewnić odpowiednie wartości dla klientów. Jeśli chce się to osiągnąć, trzeba mieć zdolność by zrobić więcej w krótszym czasie na przykład poprzez automatyzację procesów. Trzeba też zapewnić hiperpersonalizację, żeby docierać do klientów w odpowiednim czasie z dedykowaną ofertą. Stosować omnichannel, żeby uprościć z nimi kontakt i móc budować efektywne relacje przez dłuższy czas.
Zunifikowane dane oszczędzają czas, automatyzacja zwiększa produktywność, a AI redukuje koszty. Jak podali eksperci, 77% organizacji deklaruje odzyskanie co najmniej dwóch godzin po zastosowaniu narzędzia automatyzacji, a 79% obniżenie kosztów po użyciu rozwiązań GenAI.
Narzędzie skierowane do branży finansowej zostało przez firmę wprowadzone na rynek już 8 lat temu. Trzy razy w roku wprowadzane są innowacje do tego produktu, żeby cały czas był on aktualny.
Bartłomiej Mikoda i Florian Banaś zwrócili uwagę, że jeśli chce się dziś używać GenAI to trzeba zadbać o dane tak, żeby były, jak najlepszej jakości i zharmonizowane. Wspomniano między innymi o analizie umów kredytowych i wykorzystaniu analityki dostępnej dla każdego, a nie tylko dla osób do tego dedykowanych.
Czytaj także: BankTech 2024 o tym, jak banki w praktyce korzystają ze sztucznej inteligencji
W poszukiwaniu równowagi. Technologiczna perspektywa użycia AI w przededniu rewolucji technologicznej
Tak zatytułowaną debatę moderował prof. Jan Kreft a uczestniczyli w niej:
Mariusz Gromada, dyrektor Departamentu Customer Intelligence w Banku Millennium; Bolesław Lubecki, dyrektor Departamentu Rozwiązań IT dla Ryzyka i Finansów w Alior Banku; Michał Owczarek, Expert Feature Engineer w zespole AI & Data Engineering w ING Bank Śląskim oraz Agata Strzelecka, dyrektorka zarządzająca w VeloBanku.
Prof. Jan Kreft, rozpoczynając debatę, zwrócił uwagę, że rozwój sztucznej inteligencji jest naprawdę błyskawiczny i nie do końca rozumiany również przez klientów. Zadał pytanie, jak instytucje finansowe radzą sobie z takimi prawdziwymi i wyobrażonymi konsekwencjami i skutkami działania takich sztucznych inteligencji w organizacji.
W trakcie dyskusji stwierdzono, że każda technologia, każda rewolucja, niesie za sobą pozytywne i negatywne emocje. I tak samo jest ze sztuczną inteligencją. Kiedy pojawiła się bankowość internetowa, bankowość mobilna, wszyscy bankierzy w oddziałach mówili, że stracą pracę. Jednak nadal pracują w oddziałach, choć oczywiście jest ich mniej i mają trochę inną rolę.
Podobnie było w przypadku robotyzacji i tak samo będzie w przypadku AI. Na przykład w VeloBanku w sposób transparentny komunikuje się z pracownikami. Ważne jest to, żeby uczestniczyli we wdrożeniu tej technologii, żeby zobaczyli szansę, a nie tylko zagrożenia. Oczywiście przyniesie to redukcje etatów, jeśli mówimy o prostych czynnościach i operacjach, ale z drugiej strony powstaną nowe etaty.
Bardzo istotne jest też przeprowadzenie ludzi starszych przez tę technologię. W oddziałach bankowcy pokazują np. aplikację mobilną banku i próbują niektóre osoby przeprowadzić przez proces on boardingu do tej aplikacji. Podkreślono szczególnie znaczenie edukacji dotyczącej AI także w szkołach.
Zwrócono uwagę, że działania regulatorów trochę spowolnią wprowadzanie nowej technologii i będziemy się do niej powoli adoptowali. Podkreślono, że bank jest instytucją publicznego zaufania. Jednak w sytuacji rewolucji, w którą teraz wchodzimy, mając na uwadze zwłaszcza GenAI, na pewno będzie ona inna, niż w przypadku wprowadzania w bankowości poprzednich nowych technologii.
Podano przykład powołania pełnomocnika do spraw AI, żeby różne wątki jej dotyczące, które toczą się w firmie, kanalizowane były w jednym miejscu. To jak działa sztuczna inteligencja jest ważne, nie tylko z perspektywy starszego klienta, ale też trzeba zadbać o to, żeby informacje o niej docierały szerzej.
Bardzo ważny jest aspekt edukacyjny wśród pracowników, w szczególności tych, którzy mają bezpośredni kontakt z klientem, aby potrafili przedstawić jej zalety i benefity wynikające korzystania z tej technologii.
Banki jako instytucje zaufania publicznego muszą wdrażać GenAI w sposób odpowiedzialny, żeby dane klienta były zabezpieczone, a procesy były później audytowalne.
Widać też potrzebę edukacji klienta od strony ryzyka wyłudzeń, bo dzisiaj możliwe jest np. podrobienie głosu, można wyłudzić kod blik itp.
Dyskutowano także o możliwym wpływie wykorzystania sztucznej inteligencji i jej wpływie na rynek pracy. Dlatego już dziś trzeba myśleć o takich rozwiązaniach jak czterodniowy tydzień pracy i wynagrodzenie gwarantowane. Pytaniem jest, czy np. dochód podstawowy powinien być finansowany przez instytucje, które w największym stopniu korzystają z AI.
Czynnik ludzki całkowicie nie zniknie, bo są klienci, którzy go po prostu potrzebują. Jednak trzeba się zmierzyć z tym, że o pracę będzie trudniej. Sztuczna inteligencja będzie z nami, a to, co będzie nas różnicowało, to umiejętność jej wykorzystania.
Zwrócono uwagę, że na przykład wykorzystuje się AI w procesach rekrutacji, przyjmowania CV i ich analizy pod kątem danego stanowiska pracy, ale też dawania rekomendacji, oddzwaniania do kandydata czy przeprowadzania z nim rozmów. Można się zastanawiać, czy jeśli gdzieś w analizie takich danych są ukryte jakieś uprzedzenia w zastosowanych algorytmach, to czy nie pojawią się one w sugestiach dla pracowników HR przygotowanych przez sztuczną inteligencję. Czym to się jednak różni od sytuacji, w której dane analizuje człowiek i ma akurat „zły dzień” i również kieruje się jakimiś uprzedzeniami.
Dlatego każda odpowiedzialna organizacja, przynajmniej przez pierwszy okres stosowania AI i również potem, powinna zająć się monitoringiem algorytmów. Każda organizacja, która wdraża technologie oparte na sztucznej inteligencji, powinna wewnętrznie przygotować kodeks etyki związany z jej wykorzystaniem.