Globalne rekomendacje UNESCO w sprawie etyki przy stosowaniu sztucznej inteligencji

Globalne rekomendacje UNESCO w sprawie etyki przy stosowaniu sztucznej inteligencji
Fot. stock.adobe.com / Worawut
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Opublikowany został bardzo ważny dokument "Recommendation on the Ethics of Artificial Intelligence" opracowany przez agendę ONZ - UNESCO, który stanowi bardzo ważny krok na drodze do ustanowienia prawdziwie globalnych standardów etycznych w zakresie wykorzystania sztucznej inteligencji, pisze Michał Nowakowski.

Rekomendacja jest jeszcze na etapie ustalania ostatecznego kształtu, ale widać już wyraźnie, że jej charakter – podobnie jak projekt rozporządzenia UE w sprawie AI – koncentrować się będzie na człowieku i jego podstawowych prawach.

Rekomendacje powinny być traktowane jako dobre praktyki w zakresie etyki dla całego sektora publicznego i prywatnego

To zresztą jedyny słuszny kierunek i nie stoi to na przeszkodzie w zapewnieniu człowiekowi prawa do rozwoju, które jest wskazywany w rekomendacji dość często. Jakie podejście – na razie – prezentuje więc UNESCO? Spójrzmy na pierwsze zagadnienia, a w najbliższym czasie będziemy przyglądali się kolejnym elementom.

Na początek ważna informacja. Rekomendacja jest adresowana nie tylko do państw członkowskich UNESCO, ale wszystkich aktorów w cyklu życia systemów sztucznej inteligencji oraz organów odpowiedzialnych za tworzenie środowiska prawnego i regulacyjnego. Same rekomendacje powinny być traktowane jako dobre praktyki w zakresie etyki dla całego sektora publicznego i prywatnego.

Ja dodam tylko, że w nauce poświęca się dużo miejsca nieefektywności „korporacyjnych” zasad etycznych dla AI, często wskazywanych jako ethics-washing i postuluje się tworzenie właśnie takich międzynarodowych standardów.

Dokument wskazuje, że UNESCO nie ma ambicji koncentrowania się na jednej definicji sztucznej inteligencji, choć oczywiście i tutaj ją znajdziemy. Poszła ona jednak w kierunku zarzuconym przez Unię Europejską jakiś czas temu, bowiem agenda ONZ wskazuje, że systemami AI (systemami technologicznymi) są takie systemy, które posiadają zdolność do przetwarzania danych oraz informacji w sposób przypominający inteligentne zachowania i zasadniczo zawierają w sobie aspekty typowe dla rozumowania, uczenia się, percepcji, przewidywania, planowania i kontroli. Jest to więc znacznie bardziej „humanistyczne” podejście niż dość „technologiczna” definicja AI z projektu rozporządzenia

To jednak nie koniec tej definicji, bowiem dalej znajdziemy jej uszczegółowienie. UNESCO wskazuje, że takie rozwiązania opierają się na modelach i algorytmach, które pozwalają na uczenie się i wykonywanie czynności poznawczych, które mają odzwierciedlenie w przewidywaniu czy konkretnych decyzjach w środowisku rzeczywistym, jak i wirtualnym.

Systemami AI są takie, które posiadają zdolność do przetwarzania danych oraz informacji w sposób przypominający inteligentne zachowania i zasadniczo zawierają w sobie aspekty typowe dla rozumowania, uczenia się, percepcji, przewidywania, planowania i kontroli

Mogą one także posiadać różny poziom autonomii i wykorzystywać różne metody, w tym uczenie maszynowe czy głębokie, a także mogą być wykorzystywane w środowisku mieszanym (cyfrowym i rzeczywistym) z użyciem m.in. Internetu Rzeczy, systemów robotycznych czy interfejsów pozwalających na interakcje z człowiekiem, ale także wykorzystujące różne sensory w przestrzeni – np. publicznej. Definicja ciekawa i niewątpliwie bardzo rozwojowa, choć mam wątpliwości do nadawania AI „ludzkiego” elementu w postaci symulacji inteligencji.

Czytaj także: Sztuczna inteligencja wspiera niewidomych i niedowidzących klientów ING Banku Śląskiego

Gdzie ta etyka?

Autorzy słusznie wskazują na to, że wątpliwości związane z etyką pojawiają się w przypadku systemów AI na wszystkich etapach życia produktu, a więc od etapu badania, poprzez tworzenie i rozwój, aż do umiejscowienia na rynku i monitoringu, oceny, ewaluacji i walidacji, użycia, likwidacji z rynku i wyłączenia.

W dokumencie znajdziemy także wyraźne wskazanie, że na tych etapach pojawia się wielu aktorów, którzy mogą być zarówno osobami fizycznymi, jak i prawnymi oraz – co bardzo istotne – standardy etyczne powinny być adresowane do wszystkich, a więc także do naukowców, programistów i inżynierów, czy też uczelni, sektora prywatnego. Nic dodać, nic ująć. Musimy zrozumieć, że AI rodzi (stare)nowe ryzyka, które mogą dotykać nas z coraz większą siłą.

Wątpliwości związane z etyką pojawiają się w przypadku systemów AI na wszystkich etapach życia produktu

To powoduje, że pojawiają się przed nami nowe wyzwania etyczne, do których zaliczyć można m.in. ocenę wpływu AI na nasze decyzje, interakcje społeczne, opiekę medyczną, dostęp do informacji, ochronę danych, środowisko, zasadę praworządności czy demokracji, ale także nasze prawa podstawowe, w tym prawo do prywatności czy niedyskryminacji. Co ciekawe, autorzy wskazują, że choć te wyzwania istnieją już dzisiaj, to wykorzystanie AI prowadzić może do ich wzmocnienia i pogłębiania różnic w społeczeństwie.

O etyce w kontekście AI musimy więc myśleć także w kontekście naszej przyszłości, a nie tylko tego, co jest dzisiaj

Zdaniem UNESCO część z zachowań dotąd zarezerwowanych dla człowieka może dzisiaj z powodzeniem być przejmowana przez systemy sztucznej inteligencji, a to już spore zagrożenie szczególnie dla młodych ludzi, którzy dopiero dołączają do społeczeństwa jako osoby dorosłe.

O etyce w kontekście AI musimy więc myśleć także w kontekście naszej przyszłości, a nie tylko tego, co jest dzisiaj. Czy można to lepiej opisać?

Cztery główne obszary rekomendacji

UNESCO skupiło się na czterech obszarach tematycznych, tj. edukacji, nauce, kulturze oraz komunikacji i informacji, co wynika oczywiście z zakresu kompetencji przyznanych, ale i specyficznych potrzeb nowego rynku.

Jeżeli chodzi o edukację, to UNESCO wskazuje, że w przypadku edukacji potrzeba tworzenia nowych praktyk, które pozwolą na pozyskiwanie umiejętności w obszarze etyki, krytycznego myślenia, odpowiedzialnego tworzenia (w tym software) i innych obszarów, które będą istotne na nowym – cyfrowym – rynku pracy.

Z kolei w przypadku nauki konieczne jest pogłębianie zrozumienia, jaki wpływ na nas samych mają nowe technologie i jak istotne jest uwzględnianie tam wątków odnoszących się do człowieka. Natomiast w przypadku kultury musimy zadbać o to, aby AI nie przejęło tradycyjnych obszarów oraz nie doprowadziło do całkowitej komercjalizacji sztuki.

Jeżeli chodzi o komunikację i informację, to sprawa jest jasna. AI może zrobić wiele dobrego, ale automatyzacja w obszarze dziennikarstwa i przekazywania wiadomości może prowadzić do wielu wyzwań czy nawet problemów, związanych chociażby z dezinformacją, dyskryminacją czy „ogłupianiem” (to akurat moje określenie).

Czytaj także: Kongres Gospodarki Elektronicznej, jak AI wpłynie na funkcjonowanie gospodarki?

Wartości i zasady jako punkt wyjścia, ale i dyskusji

Wartościom i zasadom poświęcono sporo miejsca w rekomendacji, ale jednocześnie jest to obszar, który podlegać będzie jeszcze wielu zmianom. Wskażę tylko na ogólne wartości, które zostały już zawarte w dokumencie. Należą do nich:

1.    Uznawanie, ochrona i promowanie praw człowieka oraz podstawowych wolności i ludzkiej godności;

2.    Rozwój środowiska oraz ekosystemu;

3.    Różnorodność oraz włączenie;

4.    Życie w połączonym, pokojowym i sprawiedliwym społeczeństwie.

Brakuje tutaj unijnego – well-being, choć założyć można, że to obszar pokryty w punkcie pierwszym.

Jeżeli chodzi o podstawowe zasady to mamy z kolei:

1.    Zasadę proporcjonalności oraz zasadę nieczynienia szkody;

2.    Bezpieczeństwo (tutaj safety and security, które ma konotację bardziej technologiczną);

3.    Uczciwość i niedyskryminacja;

4.    Równowaga;

5.    Prawo do prywatności i ochrony danych;

6.    Rola człowieka – w tym nadzór;

7.    Przejrzystość i wyjaśnialność;

8.    Odpowiedzialność i rozliczalność;

9.    Świadomość i biegłość;

10. Udział wszystkich zainteresowanych oraz rozsądne tworzenie ram dla AI, a także współpraca.

Widać więc wyraźnie, że UNESCO bardzo poważnie traktuje kwestie etyczne, które pojawiają się wokół sztucznej inteligencji. I to dobrze, bo od realizacji tych rekomendacji zależy w jakim świecie będziemy żyli.

To będzie też oczywiście zależne od tego, jak będziemy podchodzili do kwestii etycznego AI – czy na zasadzie niezbędnego minimum, czy bardziej odpowiedzialnego podejścia.

Wiele będzie też zależeć od tego jak organy nadzoru będą podchodziły do tej kwestii, ale także czy będą rozumiały i miały kompetencje do takiego nadzoru.

Na marginesie chciałbym tylko zwrócić uwagę, że nadal brakuje bardziej technicznego wyjaśnienia, jak etykę przełożyć na cały obszar AI, ale jest to wyzwanie, które ewoluuje i wymaga udziału wielu „stakeholderów”, więc może to jeszcze nie ten czas.

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl.
Adres e-mail: michal.nowakowski@ngladvisory.com Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.
Źródło: NGL Advisory
Źródło: aleBank.pl