Sztuczna inteligencja: edukować, komunikować, wdrażać. W tej kolejności

Sztuczna inteligencja: edukować, komunikować, wdrażać. W tej kolejności
Dr Michał Nowakowski, prezes Zarządu PONIP. Źródło: PONIP
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Brak wiedzy to największe zagrożenie, także w przypadku zastosowania rozwiązań opartych o #sztucznainteligencja. Uwaga taka rozciąga się nie tylko na osoby bezpośrednio związane z tworzeniem takich rozwiązań, ale także tych, którzy powinni te procesy nadzorować lub co najmniej w nich współuczestniczyć. Systemy oparte przykładowo o uczenie maszynowe czy głębokie mogą generować zróżnicowane ryzyka, które mogą nie być do wyłapania na technicznym etapie, zarówno zbierania danych, jak ich procesowania. Ryzyka te mogą mieć zarówno charakter etyczny czy prawny, jak również operacyjny, a nawet techniczny, podkreśla dr Michał Nowakowski, prezes PONIP.

To, czy będziemy w stanie sobie z nimi poradzić, zależy nie tylko od wdrożonych rozwiązań organizacyjno-technicznych, w tym polityk i procedur, ale także tego na ile osoby uwikłane w procesy związane z tworzeniem i wdrażaniem #ai będą rozumiały ich specyfikę, a także zagrożenia i wyzwania dla konkretnej organizacji.

Inny poziom prywatności i wyjaśnialności modelu będzie oczekiwany w przypadku systemów ingerujących w krytyczne obszary naszego życia, a inny w procesach produkcyjnych czy logistyce

Nie chodzi tutaj wcale o zagłębianie się w bardzo techniczne zagadnienia, bo te są rozstrzygane przez osoby posiadające stosowną wiedzę techniczną. Chodzi o przynajmniej podstawową wiedzę w zakresie tego, jak działają algorytmy i modele (w jaki sposób generują określone rezultaty), a także jak przebiega proces pozyskiwania i wstępnego przetwarzania danych na potrzeby np. testowania.

Odrębną kwestią jest zrozumienie pewnych wątków etycznych, które wcale nie są związane z arystotelesowską koncepcją człowieka czy szerzej filozoficznymi dyskusjami. Dotyczy to wyboru właściwej – proporcjonalnej – drogi w zakresie tworzenia bezpiecznych i zarazem efektywnych rozwiązań w zakresie uczenia maszynowego czy głębokiego, ale także przetwarzania obrazu czy dźwięku.

Przykład? Inny poziom prywatności i wyjaśnialności modelu będzie oczekiwany w przypadku systemów ingerujących w krytyczne obszary naszego życia, a inny w procesach produkcyjnych czy logistyce. Wybór właściwej drogi będzie więcej tutaj uzależniony od zrozumienia co jest istotą rozwiązania, a także jakie rezultaty mogą się pojawić, w tym czy istnieje prawdopodobieństwo zmaterializowania się określonego ryzyka lub ryzyk.

Czytaj takze: Etyczne aspekty wykorzystywania możliwości sztucznej inteligencji, ryzyka i odpowiedzialność

Sztuczna inteligencja a legislacja

Projektowane akty prawne (i regulacje) w zakresie systemów sztucznej inteligencji są – przynajmniej w jakiejś części – jeszcze relatywnie odległą przyszłością, ale przecież już dzisiaj przy tworzeniu takich rozwiązań musimy uwzględniać wiele z aspektów związanych chociażby z ochroną danych czy prywatnością.

A na horyzoncie są już takie rozwiązania prawne, które będą zobowiązywały także do uwzględniania „braku szkodliwości” produktu czy usługi, jak również poszanowania innych praw podstawowych.

To będzie wymagało już znacznie większego zaangażowania ze strony takich jednostek jak służby prawne czy compliance, ale przynajmniej podstawowe zrozumienie założeń przez osoby techniczne będzie też niezbędne.

Ważne jest także uwzględnienie interdyscyplinarnego charakteru projektów z gatunku „AI”. O ile w przypadku takich rozwiązań, które nie mają przełożenia na człowieka czy środowisko (zazwyczaj będą to raczej obszary automatyzacji), można przyjąć – choć i to może być ryzykowne – że nie materializują się nam tam wyzwania o charakterze etycznym czy prawnym – to w przypadku takich systemów, które roboczo możemy określić systemami wysokiego ryzyka, konieczność zaangażowania różnych interesariuszy może okazać się niezbędna.

Chodzi tutaj nie tylko o wykrywanie zagrożeń, ale także zwracanie uwagi na te obszary, które można potraktować inaczej. Spojrzenie z innej perspektywy niewątpliwie może podnieść efektywność projektu i jego ostatecznego rezultatu.

Czytaj także: Kto jeszcze poza Unią Europejską chce bardziej restrykcyjnych przepisów dotyczących AI?

Zarząd: jasne zasady odpowiedzialności i komunikacji

Czego jednak potrzeba, żeby zapewnić, że będzie to działało w praktyce? Sprawa nie jest łatwa, ale możemy przyjąć, że potrzebować będziemy mandatu i zrozumienia od organów zarządzających, jasnych zasad odpowiedzialności i komunikacji. Sprowadza się to do tworzenia kultury innowacyjności oraz skupienia na danych. Ale wdrażanie kultury typu data-driven, to temat na oddzielny felieton.

Zarząd powinien wyjść od określenia co dla organizacji jest ważne, jakie zasady powinny być bliskie jej członkom oraz w jaki sposób mają być one szanowane i realizowane

Wróćmy do zarządu i tego co może on zrobić, aby zapewnić odpowiedni przepływ wiedzy, doświadczeń oraz informacji.

W każdej organizacji organ zarządzający – przynajmniej w teorii – odpowiada za alokację zasobów i zapewnienie właściwych instrumentów do realizacji celów organizacji oraz spełnienia wymogów prawnych i regulacyjnych. Nie inaczej jest też w przypadku etycznych aspektów, które dla organizacji powinny być swoistym modus operandi. Stąd też to zarząd powinien wyjść od określenia co dla organizacji jest ważne, jakie zasady powinny być bliskie jej członkom oraz w jaki sposób mają być one szanowane i realizowane.

W praktyce oznacza to, że zarząd nie powinien ograniczać się wyłącznie do zarysowania zasad, ale pokazania:

1.    Co jest wartością dla organizacji?

2.    Dlaczego jest to ważne dla organizacji (i jej klientów)?

3.    Jak organizacja ma osiągać spełnienie tych standardów?

Może to odbywać się zarówno poprzez opracowywanie i komunikowanie strategii dla AI, ale także przez bardziej zaawansowane programy, jak np. program etyki sztucznej inteligencji, który ma na celu nie tylko pokazanie jaki jest stan pożądany, ale także egzekwowanie realizacji określonych założeń.

Zresztą odpowiednie określenie narzędzi, wskaźników (KPI) i częstotliwości oceny będzie istotnym zagadnieniem, jeżeli zdecydujemy się na sformalizowanie całego procesu. To jest jednak zagadnienie wymagające dobrej znajomości ryzyk AI oraz oczekiwań samej organizacji w tym zakresie.

Organ zarządzający i wyższa kadra powinna zadbać o to, aby wdrożenie i ogłoszenie programu nie przeszło bez echa. Dla organizacji powinno stanowić to ważne wydarzenie, którego bezpośrednią kontynuacją powinno być przeprowadzenie szkoleń dla osób (jednostek), które będą uczestniczyły w procesach „obsługi” AI.

Nie może to polegać wyłącznie na suchym komunikacie – „Wdrażamy strategię dla AI. Zastosujcie się”. Tym bardziej, że jednym z kolejnych elementów powinno być ogłoszenie tego faktu na zewnątrz. Pamiętajmy, że budowanie etycznej organizacji opartej o dane to nie tylko korzyść dla samej organizacji, ale także – a może przede wszystkim – jej klientów. Dlatego tak ważne jasne zakomunikowanie tego faktu. Buduje to zaufanie i lojalność klientów, choć oczywiście może być też źródłem wyzwań (problemów), jeżeli okaże się, że etyka była „tylko z nazwy”, a w rzeczywistości organizacja nie realizuje ogłaszanych postulatów. Dlatego warto to dobrze przemyśleć.

Organ zarządzający i wyższa kadra powinna zadbać o to, aby wdrożenie i ogłoszenie programu nie przeszło bez echa. Dla organizacji powinno stanowić to ważne wydarzenie

Konkluzją tego krótkiego felietonu jest to, że edukacja i komunikacja są bardzo ważne, a zapewnienie realizacji tego postulatu leży po stronie zarządzających. Dzisiaj możemy nie dostrzegać potrzeby szerszej edukacji i komunikacji, ale zbliżająca się fala innowacji (ale i regulacji) może zwyczajnie wymusić poniesienie pewnych kosztów, które jednak zwrócą się w pewnej perspektywie. Warto o tym pamiętać już dziś.

Dr Michał Nowakowski,

prezes Zarządu Polskiej Organizacji Niebankowych Instytucji Płatności (PONIP).

Poglądy i opinie wyrażone w niniejszym artykule stanowią wyłącznie osobiste poglądy autora i nie mogą być utożsamiane z poglądami lub opiniami instytucji, z którą autor jest lub był związany.

Źródło: aleBank.pl