Forum Technologii Bankowych | Wydanie Specjalne | Wirtualni asystenci – sztuczna inteligencja w praktycznym wydaniu

Forum Technologii Bankowych | Wydanie Specjalne | Wirtualni asystenci  – sztuczna inteligencja w praktycznym wydaniu
Fot. sdecoret/stock.adobe.com
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Rozwój sztucznej inteligencji i coraz doskonalsze algorytmy interpretujące język naturalny to dwa czynniki, dzięki którym dynamicznie rozwija się rynek wirtualnych asystentów. Korzysta z nich coraz więcej podmiotów, minimalizując koszty, a zarazem poprawiając obieg informacji i ogół doświadczeń klienta. Czym są cyfrowi doradcy, skąd się wzięli i jak działają?

Podwaliny pod rozwiązania stosowane współcześnie położył przed laty Alan Turing, brytyjski pionier informatyki, matematyk i kryptolog, a zarazem postać uważana za ojca sztucznej inteligencji.

To właśnie jemu zawdzięczamy test Turinga – jeden z najbardziej rozpowszechnionych sposobów na weryfikację działania sztucznej inteligencji, a tym samym wirtualnego asystenta. Test, w swojej oryginalnej, pierwotnej wersji dotyczy algorytmu, który wchodzi z użytkownikiem w interakcje za pomocą tekstu. Zaliczenie go przez algorytm następuje, gdy użytkownik nie jest w stanie rozpoznać, czy ma do czynienia z innym człowiekiem, czy z maszyną.

Warto w tym miejscu odnieść się do medialnych doniesień, gdzie co pewien czas pojawiają się, utrzymane często w sensacyjnym tonie, informacje o zaliczeniu testu Turinga i pojawieniu się „inteligentnych” maszyn. To niewłaściwa interpretacja, bo test Turinga nie ma nic wspólnego z udowadnianiem posiadania przez maszynę inteligencji.

To po prostu sprawdzian, czy maszyna jest w stanie przekonująco udawać człowieka. Nie musi „myśleć” – wystarczy, że to symuluje, dostarczając użytkownikowi wrażenie obcowania nie z maszyną, a z istotą ludzką. W praktyce jest to fundament działania skutecznego, wchodzącego w wiarygodną interakcję, wirtualnego asystenta.

Kto przejdzie test Turinga?

Sprawdziany takie trwają co najmniej od 1966 r., gdy informatyk Joseph Weizenbaum opracował algorytm ELIZA, udający psychoanalityka. Sam test przestał być istotną barierą bardzo szybko – już w 1972 r. algorytm PARRY był prawidłowo rozpoznawany przez oceniających (w tej roli wystąpili nieprzypadkowi sędziowie – zespół psychiatrów) ze skutecznością 48%, a więc zbliżoną do zgadywania. Nic zatem dziwnego, że kolejne dekady przyniosły wiele „zaliczonych” testów Turinga, wykonywanych przez coraz doskonalsze algorytmy, głównie w postaci różnie działających chatbotów.

Te przez długi czas pozostawały w kręgu zainteresowań naukowców lub pasjonatów. Dość wspomnieć rozwijanego od 1988 r. Cleverbota. W 2011 r., podczas festiwalu innowacji Techniche w indyjskim Guwahati, został on uznany przez 60% użytkowników za człowieka. Mniej więcej taki sam wynik uzyskali korzystający z komunikatora tekstowego ludzie, których człowieczeństwo nie było kwestionowane w 63% przypadków.

Technologia zmienia się w produkt

Komercyjne wdrożenia, będące zarazem bezpośrednimi poprzednikami stosowanych współcześnie rozwiązań, pojawiły się w 2013 r. w Chinach. Wówczas to serwis WeChat uruchomił środowisko pozwalające na stosowanie chatbotów.

Na miejsce komercjalizacji tej technologii zwraca szczególną uwagę raport firmy Symetria UX, specjalizującej się w projektowaniu doświadczeń użytkownika. To właśnie Chiny, ze względu na wielkość, ale i specyfikę swojego rynku, stały się poligonem doświadczalnym dla wirtualnych asystentów użytkownika.

Chatboty stały się tam sposobem na obniżenie kosztów, a zarazem poprawienie jakości obsługi w przypadku napływu bardzo dużej liczby zapytań ze strony potencjalnych klientów.

Rozumienie języka naturalnego

Warto odnotować niezwykle dynamiczny rozwój tego rodzaju instrumentów. Początkowo wirtualni asystenci obsługiwali jedynie tekst, jednak szybko pojawiły się, i osiągnęły wysoką sprawność, rozwiązania zdolne do efektywnego przetwarzania ludzkiej mowy (NLP – Natural Language Processing), a także rozumienia jej znaczenia (NLU – Natural Language Understanding), co w praktyce oznacza przełożenie mowy na ustrukturyzowane, możliwe do dalszej obróbki dane.

Systemy tego rodzaju zaprezentowały w konsumenckim wydaniu największe koncerny technologiczne, jak choćby Apple z asystentką Siri, Microsoft z Cortaną, Amazon z Aleksą czy Google z usługą Asystent. To popularne rozwiązania, stosowane powszechnie w smartfonach, komputerach czy tzw. inteligentnych głośnikach.

Komercyjne wdrożenia, będące zarazem bezpośrednimi poprzednikami stosowanych współcześnie rozwiązań, pojawiły się w 2013 r. w Chinach. Chiny, ze względu na wielkość, ale i specyfikę swojego rynku, stały się poligonem doświadczalnym dla wirtualnych asystentów użytkownika. Chatboty stały się tam sposobem na obniżenie kosztów, a zarazem poprawienie jakości obsługi.

Poza funkcją użytkową wirtualni asystenci pełnią również rolę ewangelizatorów nowej technologii, upowszechniając i oswajając z nią rzesze użytkowników. Interakcja z botem staje się czymś zupełnie naturalnym, a nawet pożądanym przez szerokie grono introwertyków (ok. 41% populacji). To ta część użytkowników, dla której interakcja z maszyną udającą człowieka jest łatwiejsza od komunikacji z żywym człowiekiem.

Generowanie języka naturalnego

Tempo rozwoju tego typu narzędzi jest szokujące. Już w 2018 r. Asystent Google’a podczas publicznej prezentacji zaliczył test Turinga, prowadząc konwersację w języku naturalnym. Nie ograniczała się ona do wygłaszania gotowych formuł lub reagowania na sprecyzowane, wyraźnie wydane polecenia.

Pokaz możliwości wirtualnego asystenta był typową rozmową telefoniczną, podczas której maszyna rozmawiała z człowiekiem. Jej celem było – odpowiednio – zarezerwowanie stolika w restauracji i umówienie wizyty u fryzjera, co w obu przypadkach zakończyło się powodzeniem. Potwierdziło to zdolność bota nie tylko do rozpoznawania i „rozumienia” języka naturalnego, ale także do udzielania w nim odpowiedzi (NLG – Natural Language Generation).

Warto zastrzec, że nie każdy wirtualny asystent potrzebuje takich umiejętności. W niektórych przypadkach – jak np. odpowiedzi na typowe, często zadawane pytania – zamiast rozbudowanych algorytmów AI w zupełności sprawdzą się prostsze rozwiązania, co podkreśla Anna Schneider z Symetria UX. – Mitem jest jednak, że każdy chatbot musi opierać się na sztucznej inteligencji. Jest to błędne przekonanie, gdyż wiele chatbotów, zwłaszcza tych w środowisku Messengera, opiera się na predefiniowanych skryptach, tzn. korzystają one ze schematów blokowych – wyjaśnia.

Wirtualny asystent w banku

W jaki sposób konsumenckie doświadczenia można odnieść do firm, zwłaszcza dużych i działających w sektorze finansów? W tym przypadku wyróżnić można trzy obszary korzyści, płynące bezpośrednio z zastosowania wirtualnych asystentów.

Pierwszym jest oszczędność, będąca efektem relatywnie niskich kosztów, malejących zwłaszcza w przypadku zestawienia wdrożenia chatbota z „czynnikiem ludzkim” wykonującym tę samą pracę. Współcześnie to jedna z najpopularniejszych technologii, pomagających w automatyzacji obsługi klienta i zastępujących infolinie czy mozolnie wypełniane formularze.

Kolejną przewagą cyfrowego pomocnika jest łatwość zbierania i przetwarzania danych, dotyczących pytań i usług, w sprawie których kontaktowali się klienci. Na ich podstawie, a także dzięki możliwości szybkiego przetwarzania dużej ilości informacji, bot jest w stanie kontekstowo dopasowywać i modyfikować przedstawianą klientowi ofertę.
Wśród kluczowych benefitów istotna jest także dostępność wirtualnych asystentów, gotowych do działania przez całą dobę, każdego dnia tygodnia. Nie mniej ważna jest skalowalność takiego rozwiązania, ograniczana głównie zasobami informatycznymi (co w praktyce, np. przy modelu SaaS, traci na znaczeniu).

Rozwój samych botów stymuluje zarazem powstawanie nowej branży – firm zajmujących się różnymi aspektami wirtualnych asystentów, jak Directly, specjalizującej się w szkoleniu botów, czy Twilio, dostarczającej narzędzia do ich personalizacji.

Pułapki uczenia maszynowego

Jedną z podstaw działania zaawansowanych, wirtualnych asystentów jest uczenie maszynowe. Proces ten nie zawsze przebiega jednak w pożądany sposób, czego przykładem jest los bota o nazwie Tay, uruchomionego w 2016 r. przez koncern Microsoft na platformie Twitter.

Tay był rozwiązaniem opartym na rozwijanym w Chinach bocie Xiaoice (oprogramowanie Microsoftu, służące do rozwoju i badań nad algorytmami, obsługującymi konwersację). Zgodnie z założeniami twórców, Tay miał symulować amerykańską 19-latkę. Sztuczna inteligencja uczyła się na podstawie interakcji z użytkownikami, a ci odcisnęli na niej piętno, którego twórcy bota prawdopodobnie nie przewidzieli.

O ile sam algorytm działał poprawnie, to piętą achillesową okazały się interakcje, na podstawie których budował swoje umiejętności. Bardzo szybko Tay zaczął wygłaszać poglądy nie tyle niepoprawne politycznie, co wprost rasistowskie czy mizoginiczne. Zmusiło to twórców do wyłączenia go zaledwie 16 godzin od rozpoczęcia eksperymentu.

Daleko mniej spektakularną, choć wartą wspomnienia wpadkę zaliczył także polski Zakład Ubezpieczeń Społecznych po uruchomieniu Platformy Usług Elektronicznych, pozwalającej na interakcje z wirtualnymi asystentami – Krzysztofem i Moniką. Ci, po otrzymaniu pytania „gdzie są moje pieniądze„, zgodnie odpowiadali: „nie mam pojęcia, gdzie są, nikt mi tego jeszcze nie powiedział.”

Źródło: Miesięcznik Finansowy BANK