UOKiK: chatbot i człowiek muszą być tak samo rzetelni w obsłudze konsumentów

UOKiK: chatbot i człowiek muszą być tak samo rzetelni w obsłudze konsumentów
Fot. stock.adobe.com / Blue Planet Studio
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Dopuszczalne jest wykorzystanie chatbotów w procesie obsługi konsumentów, np. w procesie reklamacyjnym. Może to jednak podlegać ocenie pod kątem rzetelności, tak samo jakby obsługa była prowadzona przez człowieka - poinformowali przedstawiciele UOKiK na sejmowej podkomisji ds. regulacji prawnych.

„Przedsiębiorcy wykorzystują sztuczną inteligencję w celu kontaktowania się z klientami, w szczególności przy odpowiedziach na reklamacje, przy bieżącej obsłudze, telesprzedaży. Szerzej rozumiane algorytmy cyfrowe wykorzystywane są też np. w procesie kształtowania cen, w systemie rekomendacji produktów czy ocen sprzedawców dostępnych na platformach.

Samo użycie sztucznej inteligencji nie stanowi naruszenia praw konsumentów, jednakże ocenie może podlegać sposób użycia, w szczególności zdolność sztucznej inteligencji do efektywnego wykonywania określonych zadań” – powiedziała podczas posiedzenia podkomisji Katarzyna Araczewska, zastępca dyrektora w Urzędzie Ochrony Konkurencji i Konsumentów.

Rozbieżne odpowiedzi na reklamacje udzielane przez chatbot i człowieka

Wskazała, że dopuszczalne jest wykorzystanie chatbotów w procesie obsługi konsumentów, na przykład w procesie reklamacyjnym. Może to jednak podlegać ocenie pod kątem rzetelności tej obsługi, dokładnie tak samo jakby obsługa była prowadzona przez człowieka.

„Problemy, które pojawiają się na rynku w związku z obsługą konsumentów przez sztuczną inteligencję związane są z tym, że sztuczna inteligencja niekiedy udziela odpowiedzi nie na temat. To kluczowy problem, najczęściej wskazywany w sygnałach, które wpływają do urzędu ze strony konsumentów” – powiedziała.

„Pojawia się również wątek rozbieżnych wypowiedzi, konsumenci są obsługiwani przez różne osoby – często konsument nie jest w stanie ustalić czy obsługiwany jest przez człowieka, czy przez chatbot. Jego problem jest obsługiwany w różny sposób. Często nie ma też ciągłości korespondencji, więc zdarza się tak, że z tym samym problemem odbija się od różnych osób, jednocześnie otrzymuje różne odpowiedzi, często nieprowadzące do rozwiązania jego problemu” – dodała ekspertka z UOKiK.

Katarzyna Araczewska wskazała, że pojawiają się trudności związane z połączeniem, jeśli konsument chce być obsłużony przez żywą osobę.

„Kolejnym problemem jest brak archiwizowania korespondencji – to nie jest problem związany tylko ze sztuczną inteligencją, może pojawić się też w sytuacji, kiedy konsument jest obsługiwany przez człowieka” – powiedziała.

Dodała, że nie zawsze rozstrzygnięcia reklamacji są wykonywane. Na przykład na czacie konsument uzyska deklaracje czy ze strony osoby go obsługującej, czy ze strony chatbotu, że otrzyma zwrot pieniędzy, a w praktyce nie zawsze do zwrotu dochodzi.

„Podejmujemy działania dotyczące różnych sektorów rynku. Analizowaliśmy działania chatbotów między innymi na rynku telekomunikacyjnym, na rynku usług e-commerce, w szczególności przy aplikacji służącej do zamawiania jedzenia, czy w przypadku platform sprzedażowych. W toku cały czas pozostaje postępowanie związane z UberEats Poland, związane z mało efektywnym procesem rozpatrywania reklamacji zgłaszanych przez konsumentów na czacie” – powiedziała.

„Tego rodzaju problemy pojawiają się również na rynku finansowym. Konsumenci skarżą się na przykład na obsługę w aplikacji Revolut. Wskazują, że nie są w stanie uzyskać rozwiązania problemu w ciągu kilku dni, niekiedy zdarza się, że są im udzielane odpowiedzi przez kilka różnych osób i tych odpowiedzi potrafi być nawet kilkadziesiąt – jednocześnie nie prowadzą one do rozwiązania problemu. Prowadzone jest w tym zakresie postępowanie wyjaśniające” – dodała.

Czytaj także: Warto wiedzieć | Klienci Instytucji Finansowych | Cyfryzacja banków – perspektywa konsumencka

AI w procedurze oceny zdolności kredytowej

Sztuczna inteligencja wykorzystywana jest także w sektorze finansowym przez banki do weryfikacji behawioralnej.

„W drodze takiej weryfikacji konsument na podstawie tego, jak się zachowuje np. korzystając z aplikacji banku czy bankowości elektronicznej, powinien być dodatkowo zabezpieczony np. w sytuacji fraudów.

Nasze działania objęły dwa banki – ING Bank Śląski i mBank.

W ramach badań weryfikowaliśmy zakres wykorzystywania w swojej działalności systemów bazujących na analizie biometrii behawioralnej, sposób udzielania przez konsumentów zgody na wykorzystanie danych biomedycznych, zakres danych pozyskiwanych za pośrednictwem tych systemów oraz relacje z podmiotami trzecimi, udostępniającymi takie systemy i sposób udostępniania danych biomedycznych pozyskanych od konsumentów” – powiedziała Katarzyna Araczewska.

Czytaj także: Prawie 350 tysięcy rozmów przeprowadził przez dwa lata chatbot Santander Bank Polska

Ceny dynamiczne a algorytmy

Wskazała, że UOKiK w szerszym kontekście – jeśli chodzi o wykorzystywanie w obsłudze konsumentów algorytmów – przygląda się również kształtowaniu cen dynamicznych, w szczególności w przewozie osób.

„Takie kształtowanie dynamiczne stawek nie jest oczywiście zakazane, jest to praktyka dopuszczalna. Polega ona na tym, że np. stawka za kilometr w przypadku przewozu osób jest kształtowana w zależności od aktualnego zapotrzebowania – jeżeli w danym momencie w mieście rozgrywa się jakieś wydarzenie, które sprawia, że jest większe zapotrzebowanie na usługi, stawka może wzrosnąć.

Stawka może wzrosnąć kiedy przejazd odbywa się z lotniska, w porze nocnej albo w godzinach szczytu, co jest związane z korkami. Co jest istotne z naszego punktu widzenia to to, aby konsument przed rozpoczęciem przejazdu otrzymywał informacje o koszcie przejazdu” – powiedziała ekspertka UOKiK.

„Ten koszt nie powinien ulec zmianie. Jeżeli koszt jest ukształtowany dynamicznie, dopóki konsument wie o tym, ile ma zapłacić, dopóty nie mamy do czynienia z nieprawidłowościami.

Negatywnie oceniamy takie sytuacje, w których koszt ulega zmianie w trakcie przewozu. Dopuszczalne są takie zmiany pod warunkiem, że konsument wyrazi na to zgodę. W tym zakresie także prowadzimy postępowania wyjaśniające, w szczególności w sprawie Ubera i Bolta” – dodała.

Moderacja fałszywych ocen e-sprzedawców

Algorytmy mogą być też wykorzystywane np. do obliczania ocen konsumenckich.

„Konsumenci, którzy korzystają z ocen umieszczonych na platformach, żeby wybrać sprzedawcę, od którego chcieliby kupić towar, sugerują się ogólną oceną wyświetlaną na temat tego sprzedawcy na danej platformie. W zakresie ocen prezes UOKiK nie ogranicza się w kontroli do kwestii sposobu obliczania ocen.

Zajmujemy się także pozyskiwaniem fałszywych ocen, sposobem ich moderacji. Natomiast temat sposobu obliczania takich ocen jest o tyle istotny, że dla konsumentów algorytm jest niedostępny, konsumenci w żaden sposób nie są w stanie zweryfikować czy on działa w sposób prawidłowy – czy nieprawidłowy oraz czy ocena, którą finalnie widzą została obliczona w sposób rzetelny. Nie ma żadnych przepisów wskazujących jak ocena powinna być obliczona” – powiedziała Katarzyna Araczewska.

Czytaj także: AI ułatwi tworzenie wiarygodnych fake newsów?

Źródło: PAP BIZNES