AI jak energia jądrowa
„Sztuczna inteligencja to bardzo potężna technologia, bardzo szybko się rozwijająca i czasem nie do końca jeszcze zbadana. Nie wszystko wiemy o tym, jak ona działa” – podkreślał Krzysztof Goworek identyfikując trudności jakie banki napotykają przy wdrażaniu AI.
„Z jednej strony banki, które są organizacjami mocno regulowanymi i z natury swojej bardzo ostrożnymi jako organizacje zaufania publicznego chciałyby korzystać z najnowszych technologii i automatyzować procesy obsługi klienta, procesy oceny ryzyka kredytowego, czy inne procesy, które w tej chwili realizują w dużym stopniu ludzie, ale z drugiej strony trudno jest im nadążyć za tempem rozwoju technologii.
Banki wiedzą, że wprowadzane są regulacje ograniczające zastosowanie sztucznej inteligencji albo wymuszające odpowiednie zarządzanie nią po to, żeby uniknąć pewnych ryzyk, które wiążą się z tą technologią, więc tworzy nam się z tego bardzo skomplikowany krajobraz.
Jest bardzo ciekawa nowoczesna technologia, która rozwija się z tygodnia na tydzień i są przepisy, które są dopracowywane i będą wprowadzane kolejnymi etapami do końca 2027 roku, i są procesy bankowe, które trzeba do tej technologii i do tych przepisów dostosować” – wyjaśniał.
Kalendarz regulacji dotyczących AI
Krzysztof Goworek przypomniał jakie ważne regulacje dotyczące AI będą wchodziły w życie w najbliższych miesiącach.
W sierpniu bieżącego roku wchodzą w życie kolejne przepisy unijnego aktu o sztucznej inteligencji, AI Act.
Jak wyjaśniał między innymi regulują one korzystanie z tak zwanych modeli ogólnego przeznaczenia, czyli tego, co znamy jako duże modele językowe, takie jak na przykład ChatGPT.
W jego opinii przepis, który w jeszcze większym stopniu wpłynie na banki pojawi się w sierpniu przyszłego roku, kiedy wejdą w życie regulacje dotyczące korzystania z tak zwanych modeli wysokiego ryzyka.
Jak wyjaśnił w przypadku banków do modeli czy systemów wysokiego ryzyka zaliczają się między innymi systemy związane z oceną ryzyka kredytowego, które dla każdego banku są bardzo istotnym procesem biznesowym.
Jego zdaniem banki już teraz powinny się przygotowywać do tej regulacji, mimo, że prace nad nią jeszcze trwają.
„Przede wszystkim musimy wiedzieć, z jakich rozwiązań sztucznej inteligencji korzystamy w banku, bo są ich dziesiątki, a być może nawet setki. Są wdrażane przez wiele lat i mogą nie być skatalogowane w sposób odpowiedni do tych nowo wchodzących regulacji. Od tego trzeba zacząć” – wskazywał Krzysztof Goworek odnosząc się do przepisów, które zaczną obowiązywać od sierpnia przyszłego roku.
„Po drugie, każdy nowy system i nowy model, który jest wdrażany, musi być testowany i monitorowany, żeby parametry jakości jego odpowiedzi były odpowiednie po to, żeby był on odporny na ataki” – dodał.
AI i nowe zagrożenia
Zauważył, że pojawienie się systemów sztucznej inteligencji stworzyło zupełnie nową kategorię zagrożeń cyberbezpieczeństwa. Pojawiły się nowe typy ataków przed którymi banki muszą się zabezpieczyć.
„Zarządzanie sztuczną inteligencją jest działalnością interdyscyplinarną, to znaczy że wiele obszarów banku musi się w to zaangażować. To nie jest tylko dział IT czy dział bezpieczeństwa, ale to są też użytkownicy tych modeli. To są też właściciele biznesowi procesów, które są realizowane czy wspierane przez modele” – mówił.
Stwierdzenie z jakich rozwiązań AI, i w których procesach korzysta bank jest swoistym audytem, który może przeprowadzić sam bank – jeśli ma odpowiednie kompetencje – lub firma zewnętrzna.
„Ten audyt jest pierwszym krokiem. Potem musimy wdrożyć rozwiązania, które zapewnią nam zarządzanie systemami, które już mamy wdrożone i będziemy wdrażać nowe w sposób zgodny z regulacjami. Czyli będzie centrum sterowania AI w banku, gdzie każdy model, każdy algorytm, każdy proces wspierany przez AI będzie widoczny. Będą widoczne w jednym miejscu jego parametry wydajnościowe, jakościowe, gdzie będzie można też zlecać zmiany, czy zgłaszać problemy związane z działaniem systemu”- tłumaczył.
Krzysztof Goworek porównał sztuczną inteligencję do elektrowni jądrowej.
„Sztuczna inteligencja daje potężne możliwości, może być bardzo efektywna kosztowo i może też być bardzo bezpieczna, ale podobnie do elektrowni atomowych wymaga ścisłych, przemyślanych i konsekwentnie realizowanych procedur związanych z jakością i z bezpieczeństwem” – wyjaśniał sens swojego porównania.
„Ważne jest żeby był też czerwony przycisk, i człowiek, który widzi, że model działa źle, może ten model wyłączyć. W praktyce może częściej niż przez wyłączenie modelu czerwonym przyciskiem realizuje się to w ten sposób, że w każdym istotnym procesie wspieranym przez AI jest też człowiek, który weryfikuje decyzje podejmowane przez model i je akceptuje. To jest tak zwane Human-in-the-loop ( HITL )” – podkreślił Krzysztof Goworek.