Inżynieria oprogramowania a etyka; czy silna sztuczna inteligencja zawładnie ludzkością?

Inżynieria oprogramowania a etyka; czy silna sztuczna inteligencja zawładnie ludzkością?
Fot. stock.adobe.com / U-STUDIOGRAPHY DD59
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Niedawno pisałem o sztucznej inteligencji dążącej do "zapewnienia" zagłady ludzkości, ale oczywiście z pewnym przymrużeniem oka oraz mniej futurystycznym podejściem. Prawda jest taka, że dzisiaj powinniśmy się skupić na bardziej realistycznych scenariuszach niż perspektywa stworzenia tzw. General Artificial Intelligence, czyli sztucznej inteligencji symulującej zachowania człowieka lub wykraczającej poza jego możliwości intelektualne. To akurat w wielu aspektach już się dzieje, choć bardziej w zakresie "zasobności" wiedzy oraz "umiejętności" wykrywania różnych zależności pomiędzy danymi, pisze Michał Nowakowski.

W kolejnej części felietonu chciałbym skupić się na ważnym wątku, który spędza sen z powiek zarówno „technicznym”, jak i prawnikom, filozofom czy socjologom. Chodzi tutaj o tworzenie etycznej warstwy sztucznej inteligencji.

Chyba nikt nie ma złudzeń, że uda się stworzyć „idealny” model sztucznej inteligencji

Temat jest bardzo złożony i wielowątkowy, bowiem dotyka takich trudno rozstrzygalnych zagadnień jak:

1.    Wybór (właściwego?) modelu norm i zasad o charakterze etycznym – czy coś takiego w ogóle istnieje?;

2.    Przekucia tych norm i zasad na algorytm i model sztucznej inteligencji – w kolejnych felietonach będę starał się przybliżyć takie koncepcje jak „Value Alignment”, „Binary Approach” i inne, które starają się zrealizować postulat etycznej AI;

3.    Oceny „zachowań” sztucznej inteligencji w warunkach niebinarnego świata rzeczywistego, w tym reakcji na tzw. czarne łabędzie, czyli rzadkie (ale możliwe do zrealizowania) sytuacje, których projektujący AI nie był w stanie przewidzieć;

4.    Możliwości trenowania modelu sztucznej inteligencji i testowania – jakie dane w takiej sytuacji brać pod uwagę i co uznać za „ok”?;

5.    Wpływu osób trzecich na etyczne „zachowania” AI;

6.    Kwestia odpowiedzialności za etyczne działania – czy odpowiedzialność na zasadzie ryzyka zawsze jest odpowiednim wariantem?;

7.    Problematyka inżynierii odwrotnej (zwrotnej) – reverse engineering – oraz problematyki wyjaśnialności (explainability).

Praktycznym problemem związanym z budowaniem etycznej sztucznej inteligencji jest przede wszystkim brak zgodności co do kluczowych jej elementów, jak również wyboru właściwego modelu postępowania czy instrumentów do jej realizacji.

Czy sztuczna inteligencja powinna być etyczna globalnie, regionalnie czy lokalnie?

Wiele grup interesów ma sprzeczne poglądy w tym zakresie, a niekoniecznie jednolite podejście na poziomie międzynarodowym ‒ z pewnymi wyjątkami, jak np. rekomendacje UNESCO dla etycznej AI ‒ powoduje, że utworzenie prawidłowego (pytanie co to oznacza) wzorca aktywności AI w obszarze etyki może być utrudnione – jeżeli nie niemożliwe.

To z kolei rodzi pytanie o to, czy sztuczna inteligencja powinna być etyczna globalnie, regionalnie czy lokalnie? O ile można wskazać pewne ogólne wzorce zachowań, których poszanowanie (prawie) wszędzie jest akceptowalne, np. prawa podstawowe ‒ choć i tutaj znajdują się pewne wyłomy ‒ to część z kwestii etycznych, np. w obszarze praw tzw. trzeciej generacji może już nie mieć charakteru uniwersalnego. A to już jest duże wyzwanie.

Czytaj także: Sztuczna inteligencja z obowiązkowym ubezpieczeniem OC? Komisja Europejska pyta o zakres odpowiedzialności

Ale o co właściwie chodzi?

Na początku felietonu oraz w jego pierwszej części dużo pisałem o tzw. General Artificial Intelligence, czyli sztucznej inteligencji będącej pewnym odwzorowaniem człowieka, ale dzisiaj skupimy się na bardziej przyziemnych scenariuszach dotyczących tych systemów (to jest kluczowe) AI, które wpływają na człowieka i jego otoczenie.

Będą to więc takie rozwiązania jak samochody samojezdne (półautonomiczne), algorytmy wykorzystywane przez platformy społecznościowe czy sprzedażowe (e-commerce), ale także wszelkie rozwiązania stosowane przez sektor publiczny, np. dokonujące oceny obywateli, klasyfikacji i inne powiązane z aspektami bezpieczeństwa. Ciekawym przykładem są też dość szybko rozwijające się roboty wspierające np. osoby zniedołężniałe.

Są (…) rozwiązania, które działają w sposób zautomatyzowany (…) i mają przy przyjmowaniu odpowiedniego podejścia pewną swobodę (…) czy ich „działania” można klasyfikować jako etyczne?

Również i one „zderzają” się z szeroko rozumianą sferą etyczną, choć może to się nam wydawać nieco abstrakcyjne. Abstrahuję tutaj od już nieco przerobionego dylematu zwrotnicy pociągowej, ale zwracam uwagę np. problematykę realizacji celu za wszelką cenę.

Każda sztuczna inteligencja realizuje określony cel. Cel określony przez człowieka. Człowiek określa parametry, zakres danych wejściowych i niekiedy wpływa w sposób istotny na to, jak dany model uczy się pewnych zależności.

Są jednak takie rozwiązania, które działają w sposób zautomatyzowany (co nie znaczy, że całkowicie autonomiczny) i mają przy przyjmowaniu odpowiedniego podejścia pewną swobodę. Ten model zaś stawia pod znakiem zapytania to, czy ich „działania” można klasyfikować jako etyczne?

Czytaj także: Sztuczna inteligencja wkracza do naszego życia, czy się to nam podoba, czy nie; a co z etyką?

Zero – jedynkowy model oprogramowania a sztuczna inteligencja

Wiąże się to ściśle ze wspomnianym przeze mnie problemem wyjaśnialności i często występującym zagadnieniem „czarnej skrzynki”, czyli (nie)możliwości odtworzenia schematu „myślowego”, który zastosował dany model sztucznej inteligencji. Ma to szczególne znaczenie, jeżeli chcemy kalibrować model (dostrajać go do pewnego optimum), w szczególności na bazie dotychczasowych aktywności.

O ile nie jest możliwe stworzenie uniwersalnego i łatwo aplikowalnego (na razie) modelu etycznej AI, to akcent powinien być przeniesiony bardziej na osoby (ludzi) odpowiedzialnych za tworzenie i użytkowanie takich systemów

W takim przypadku niezwykle istotne staje się zaprogramowanie pewnych bazowych norm „postępowania” lub przynajmniej zakazów, o ile jest to oczywiście możliwe. Niestety, powiedzmy sobie szczerze – 0/1 świat oprogramowania nie jest zbyt elastyczny i trudno w nim odzwierciedlić świat rzeczywisty, który nie opiera się zawsze o zwykłe „tak” i „nie”. Nawet jeżeli uda się w pewnym zakresie przenieść normy moralne (z prawem jest nieco łatwiej), to nie daje nam to gwarancji, że czegoś nie przeoczymy lub nie przygotujemy modelu na scenariusz „czarnego „łabędzia”.

Można więc przyjąć, że o ile nie jest możliwe stworzenie uniwersalnego i łatwo aplikowalnego (na razie) modelu etycznej AI, to akcent powinien być przeniesiony bardziej na osoby (ludzi) odpowiedzialnych za tworzenie i użytkowanie takich systemów, co jednocześnie nie wyklucza możliwości zastosowania pewnych rozwiązań technicznych, o czym w kolejnym felietonie.

Nie wyklucza to jednocześnie możliwości wystąpienia błędu, ale chyba nikt nie ma złudzeń, że uda się stworzyć „idealny” model sztucznej inteligencji. To jest po prostu niemożliwe. Tym bardziej, że AI to dane, a dane mogą mieć różną jakość.

To tyle tytułem wstępu do „naszych” problemów w kontekście etyki sztucznej inteligencji. Kolejna część poświęcona będzie tworzeniu uniwersalnych wzorców zachowań, gdzie zahaczymy już o konkretne (inżynieryjne) rozwiązania w tym zakresie.

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany. Źródło: NGL Advisory
Źródło: aleBank.pl