Jak osiągnąć bezpieczną komunikację z modelem AI?

Jak osiągnąć bezpieczną komunikację z modelem AI?
Tymoteusz Olszewski | Źródło: Bank.pl
„Średni koszt roczny zachowania kontroli nad bezpieczeństwem danych wychodzących z banku do jednego modelu AI i wracających do banku wynosi około pół miliona złotych w europejskim systemie bankowym” – mówił Tymoteusz Olszewski Head of AI Speednet w rozmowie z BANK.pl podczas konferencji BankTech 2025.

Układ, w którym dane trafiają do modelu AI i potem z niego wracają nigdy nie jest w stu procentach bezpieczny.

„Układ nigdy nie jest bezpieczny, jeżeli chodzi o migrację danych do modelu i pobieranie danych z modelu, dlatego że modele kłamią. Modele sztucznej inteligencji bazują na prawdopodobieństwie poprawności odpowiedzi.

Wysokie prawdopodobieństwo poprawności odpowiedzi, to jest coś, co staramy się wyśrubować na etapie produkcji i potem na etapie rozwoju produktu” – wskazywał Tymoteusz Olszewski.

Jak stwierdził – istnieje ponad 20 różnego rodzaju przyczyn powstawania potencjalnych incydentów w ruchu danych pomiędzy systemem a modelem.

Nawet jeżeli model jest wewnątrz infrastruktury, to on dalej może popełniać bardzo wiele błędów. Te błędy to nie tylko halucynacje, to także sytuacje związane z samą semantyką języka, z używaniem toksycznego języka.

„To jest kwestia uprzedzeń, czyli tak zwanego biasu, to są kwestie związane z transparentnością samego systemu, czyli z naszą zdolnością do wykrywania przyczyn powstania incydentu, dojścia jego przyczyny i usunięcia jej na sam koniec. To są sytuacje związane z wykorzystywaniem zewnętrznych baz używanych przez dany model” – mówił.

Czytaj także: Wydarzenia i opinie | BankTech 2025 | Technologia motorem postępu

Przykłady incydentów

Tymoteusz Olszewski stwierdził, że model jest dostrajany na etapie rozwoju, jak również baza wiedzy, z której model korzysta.

Wymienił szereg przykładów związanych z incydentami naruszającymi bezpieczeństwo w ruchu między systemem a modelem.

„Na przykład użytkownik może próbować przeprowadzić coś, co nazywamy prompt injection attack albo zatruciem modelu, gdzie użytkownik próbuje wywołać reakcję modelu mającą na celu na przykład wyciągnięcie poufnych danych.

Wszystkie te  zdarzenia musimy w jakiś sposób wykryć, dojść do przyczyny powstania tego zdarzenia i bardzo szybko zareagować. To łańcuch procesu, który kosztuje już dzisiaj każdego, kto wdraża komercyjne rozwiązania AI” – mówił.

„Zajmują się tym najczęściej osoby z działu R&D, które biorą udział nie tylko w tworzeniu modelu, ale przede wszystkim w testowaniu samej komunikacji aplikacji z modelem i dostrajaniu samego modelu”.

Zdaniem Tymoteusza Olszewskiego nie ma w Polsce banku, gdzie komunikacja między modelem a bankiem jest pod pełną kontrolą.

„Nasza firma zajmuje się na sektorem bankowym od ponad 25 lat i jeszcze nam się nie zdarzyło, żebyśmy rozmawiali z jakimkolwiek bankiem, który miałby ten proces (Governance) poukładany i był on w pełni szczelny.”

Czytaj także: UODO o polityce rozwoju AI w Polsce do 2030 roku

Celem domknięty system AI Governance

W tym miejscu odwołał się do swojej prezentacji podczas konferencji BankTech, gdzie komunikację pomiędzy modelem a bankiem porównał do ruchu granicznego.

„Ta szczelność kończy się, używając analogii do ruchu granicznego, na samej administracji i urzędach wojewódzkich. To znaczy nie ma tam jakiejś agencji bezpieczeństwa wewnętrznego, używając dalej tej analogii, która by ściśle domykała ten proces kontroli na etapie audytu na przykład. Banki nie mają też pozakładanych odpowiednich kontrolek na etapie samej produkcji i rozwoju.”

Tymoteusz Olszewski zwrócił uwagę, że najczęściej banki wdrażając AI korzystają z zewnętrznych modeli, np. z modelu językowego Bielik, gdyż to jest znacznie tańsze niż posiadanie i rozwijanie rozwiązań w oparciu o własny model. Wskazał, że większość wdrożeń dalej odbywa się na zasadzie API.

„Tak więc nie spotkałem się jeszcze w Polsce z w pełni szczelnym, domkniętym systemem AI Governance” – stwierdził.

Pytany o to czy zna bank na świecie, który w jego ocenie spełnia kryteria „szczelności”,  bezpieczeństwa w relacji układ – model stwierdził, że jeden z banków holenderskich odpowiada tym kryteriom.

„Ten bank ma organizację poukładaną w taki sposób, że każda z grup w dziale IT ma swój własny produkt AI i każda z tych grup jest odpowiedzialna za załączanie odpowiednich kontrolek na etapie produkcji i rozwoju tego produktu. Te wszystkie kontrolki są standaryzowane.

W Polsce z takim rozwiązaniem nigdzie się nie spotkałem” – wyjaśnił Tymoteusz Olszewski.

Czytaj także: W których obszarach działalności bankowej można najszybciej wdrożyć AI?

Źródło: BANK.pl