Raport Cyberbezpieczeństwo | Regulacje | AI Act nie trzeba się bać – trzeba analizować ryzyka
Jakie korzyści da nam sztuczna inteligencja?
– Olbrzymie. Stwarza możliwość podniesienia efektywności funkcjonowania przedsiębiorstwa przy jednoczesnym ograniczeniu wykorzystywanych zasobów. Dla mnie, prawnika, to np. skrócenie analizy tekstu, którą musiałby robić człowiek przez kilkadziesiąt godzin do kilku czy kilkunastu sekund, co jest szczególnie istotne, gdy przedmiotem analizy jest ogromna baza orzecznicza (np. obejmująca tysiące wyroków sądowych) albo rozbudowane tabele z wartościami rachunkowymi. W wypadku sektora finansowego to oszczędności kosztów.
To startujemy i nie pytamy, czy leci z nami pilot?
– Tak się nie da. Nad tym musi być nadzór człowieka, żeby nie wpaść w pętlę informatyczną bądź w pętlę systemu.
Na czym to polega?
– Np. na tym, że chatbot czy automat formalnie odpowiada na nasze pytania lub prośby, przekazując rozmowę na kolejny etap, lecz w praktyce nie daje konstruktywnej odpowiedzi albo te odpowiedzi nie są satysfakcjonujące i nie rozwiązują mojego problemu. Z punktu widzenia maszyny: nasza akcja wywołała jej reakcję, ale z moim realnym problemem wciąż pozostaję sam. Dlatego nadzór człowieka jest absolutnie i bezwzględnie konieczny.
To jedyny problem?
– Mamy problem związany z danymi osobowymi. On polega również na tym, że z systemów elektronicznych coś może wycieknąć. Większym problemem jest jednak to, że systemy oparte na AI badają nasze przyzwyczajenia, nawyki, biometrię i są w stanie uzyskiwać o nas – użytkownikach, taką wiedzę, której sami o sobie nie mamy. Mogą wyczuwać nasz stan emocjonalny, rozdrażnienie, przyzwyczajenia i maniery, stwierdzać, z jaką szybkością piszemy na klawiaturze, jakie strony internetowe oglądamy. Są to systemy wykorzystywane przez przedsiębiorców, a być może nie chcielibyśmy, żeby przedsiębiorcy taką wiedzę o nas mieli. To wszystko powoduje, że problemów prawnych i etycznych jest bardzo dużo.
Unia postanowiła je rozwiązać, tworząc rozporządzenie AI Act. Co to właściwie jest?
– AI Act jest wielką skomplikowaną regulacją, która będzie wymagać dostosowania do niej lokalnych systemów prawnych, zmian prawa krajowego i już zaczęły się prace nad wdrożeniem rozwiązań w państwach członkowskich UE. Przewiduję, że nie raz będzie to problematyczne i dyskusyjne, bo obawiam się, że AI Act jest przejawem nadregulacji. Rozumiem i cenię z jednej strony to, że troszczy się o wiele kwestii etycznych, o konsumenta, o bezpieczeństwo danych, ale z drugiej dotyczy rozwiązań bardzo nowoczesnych i bardzo dynamicznie się rozwijających. Mamy dwuletni okres vacatio legis, a biorąc pod uwagę dynamikę rozwoju rzeczywistości, można zastanawiać się, czy AI Act w momencie wejścia w życie nie będzie już rozwiązaniem przeterminowanym, a dodatkowo takim, które nakładając bardzo daleko idące obowiązki i wymogi, spowoduje, że w Europie staniemy się mniej innowacyjni.
Z powodu nadmiernych regulacji?
– Obawiam się, że tak i na pewno trzeba znaleźć więcej równowagi. Azja może nie jest dobrym przykładem, bo tam do praw człowieka podchodzi się z większym lekceważeniem, lecz jednak nam uciekła, uciekają nam USA, a przeregulowana Europa skupiona jest na bezpieczeństwie i zostaje w tyle, co nie jest dobrą perspektywą dla naszej konkurencyjności, innowacyjności, a także – w konsekwencji – nawet interesu konsumentów, którzy zyskują już wiele na korzystaniu z AI.
AI Act zahamuje naszą, europejską innowacyjność?
– AI Act miał być opracowaniem kompleksowym, dotyczącym bardzo różnych sfer rzeczywistości społeczno-gospodarczej, swoistym rodzajem kodyfikacji AI, skupionej na systemach wysokiego ryzyka i fundacyjnych modelach. W krajach azjatyckich, w USA na poziomie stanowym i federalnym podchodzi się do tego inaczej, punktowo. Oczywiście taka rozdrobniona regulacja też ma swoje wady, ale regulacja kompleksowa, kodeksowa, też je ma, bo tendencja legislatora jest wtedy taka, żeby uregulować po prostu wszystko, a zatem i te sfery, które należałoby odpuścić, żeby pozwalały na większą inicjatywę, innowacyjność. Pozostawianie pewnych spraw niedoregulowanych ma swoje zalety, ponieważ AI rozwija się spontanicznie, a nie według twardych, a priori przyjętych założeń prawodawcy.
Nasi bankowcy doceniają już dobrodziejstwa AI?
– Tak i wykorzystują te rozwiązania w większym stopniu niż mogłoby się nam intuicyjnie wydawać. Nie tylko w zakresie obsługi klienta (czyli np. poprzez chatboty czy voiceboty), ale np. w celu podnoszenia bezpieczeństwa – systemy AI są w stanie (lepiej niż ludzie) zapobiegać atakom hakerskim na systemy bankowe. Co więcej, są one na tyle inteligentne, żeby nie tylko im zapobiec, a nawet je przewidzieć na podstawie analizy bardzo wielu okoliczności i danych, których ludzkie oko nie wyśledzi, a rozum nie połączy ze sobą. Są w stanie przewidzieć zagrożenie. To rzecz bardzo cenna, gdyż wiemy, jak istotne jest cyberbezpieczeństwo w dodatkowo napiętej sytuacji geopolitycznej. Systemy AI są w stanie zdecydowanie poprawić bezpieczeństwo.
Ci, którzy są po drugiej stronie, też ich używają.
<...>Artykuł jest płatny. Aby uzyskać dostęp można:
- zalogować się na swoje konto, jeśli wcześniej dokonano zakupu (w tym prenumeraty),
- wykupić dostęp do pojedynczego artykułu: SMS, cena 5 zł netto (6,15 zł brutto) - kup artykuł
- wykupić dostęp do całego wydania pisma, w którym jest ten artykuł: SMS, cena 19 zł netto (23,37 zł brutto) - kup całe wydanie,
- zaprenumerować pismo, aby uzyskać dostęp do wydań bieżących i wszystkich archiwalnych: wejdź na BANK.pl/sklep.
Uwaga:
- zalogowanym użytkownikom, podczas wpisywania kodu, zakup zostanie przypisany i zapamiętany do wykorzystania w przyszłości,
- wpisanie kodu bez zalogowania spowoduje przyznanie uprawnień dostępu do artykułu/wydania na 24 godziny (lub krócej w przypadku wyczyszczenia plików Cookies).
Komunikat dla uczestników Programu Wiedza online:
- bezpłatny dostęp do artykułu wymaga zalogowania się na konto typu BANKOWIEC, STUDENT lub NAUCZYCIEL AKADEMICKI