Sztuczna inteligencja wkracza do naszego życia, czy się to nam podoba, czy nie; a co z etyką?
Przyczyna tego stanu rzeczy jest zasadniczo jedna – to się po prostu opłaca. W sensie ekonomicznym, społecznym czy zdrowotnym (wpisać można praktycznie każdy aspekt naszego życia), a jak coś jest opłacalne i przynosi znaczne korzyści to trudno z tego zrezygnować.
Stąd zakładam, że długo nie czeka nas „zima AI”, a raczej stopniowe wkraczanie modeli sztucznej inteligencji do naszego życia. I nie, nie mam tutaj na myśli humanoidalnych robotów strzelających laserami. Niedługo stanie się to po prostu naszą codziennością. Czy się to nam podoba, czy nie.
Sztuczna inteligencja potrzebuje wielu umiejętności, kompetencji i różnorodności, w wielu aspektach
Granice będą wytyczały prawo, regulacje i etyka, które przyjmować będą z pewnością różne formy ‒ miękkie i twarde prawo, ale także samoregulacja czy kodeksy branżowe.
Czytaj także: AI w Finansach, i w zawodach prawniczych
Dlaczego etyka jest tak istotna w modelach AI?
Nie będę się tutaj powtarzał co do tego, jakie zmiany nas czekają wraz z przyjęciem rozporządzenia w sprawie AI, Digital Operational Resilience Act czy NIS2. Dzisiaj chciałbym zająć się kwestią edukacji oraz kompetencji, które będą kształtowały także nasze podejście do AI.
Na początek przypomnienie dwóch moich ankiet z ostatnich kilku miesięcy. W pierwszej z nich zgodziliście, że nauczanie prawa i regulacji powinno być częścią kształcenia „technicznych” osób, ale w zwróciliście też uwagę, że pewne podstawy technologiczne powinny być elementem uczenia osób z szeroko rozumianych nauk społecznych.
W drugiej ankiecie – choć tutaj nie było już takiej zgodności, ale to może kwestia odpowiedzi – że etyka jest obowiązkiem twórcy i użytkownika, ale także częścią technologii (to cieszy).
Z tego wyłania nam się więc jasny obraz – sztuczna inteligencja potrzebuje wielu umiejętności, kompetencji i różnorodności, w wielu aspektach.
Taka też jest teza zawarta w jednym z rozdziałów genialnej książki „Oxford Handbook of Ethics of AI”, choć motyw ten powtarza się bardzo często. O samej definicji etyki oraz jej zakresie piszę dosyć często, ale warto przypomnieć – to nic innego jak definiowanie moralności i reguł postępowania.
To od człowieka zależy, jak dany model będzie działał. Od człowieka, który jest jego twórcą, wdrożeniowcem, producentem czy użytkownikiem
W kontekście AI etyka nie nabiera jakiegoś magicznego, robotycznego znaczenia i nie staje się etyką robotów, choć w nauce i takie definicje znajdziemy, ale nadal pozostają one w znacznej mierze „człowiecze”. Dzisiaj nie mamy jeszcze bardzo skonkretyzowanego podejścia do etyki w AI, choć różne organizacje międzynarodowe (przykład UNESCO) oraz branżowe (przykład IEEE) pracują nad standardami w tym zakresie, z różnym skutkiem.
Etyka (w) sztucznej inteligencji w praktyce w niewielkim stopniu zależy od samego modelu czy algorytmu, choć rozwój m.in. sieci neuronowych i uczenia głębokiego powoduje, że problem wyjaśnialności niektórych decyzji czy rekomendacji zaczyna się rozwijać, co w przyszłości będzie generować też technologiczne problemy. Faktem jednak jest, że to od człowieka zależy, jak dany model będzie działał. Od człowieka, który jest jego twórcą, wdrożeniowcem, producentem czy użytkownikiem. Ról w całym cyklu „życia” jest sporo i są one też podzielone na konkretne jednostki.
Dobór właściwych danych wejściowych oraz ich odsiewanie, wykluczanie parametrów dyskryminujących lub z góry „zbiasowanych”, monitoring uczenia i walidacja modeli, a także ochrona przed nieuprawnionym dostępem ‒ to tylko część z zadań, które związane są z projektowaniem modeli sztucznej inteligencji.
Czytaj także: Badanie SAS: banki coraz częściej wykorzystują sztuczną inteligencję do przeciwdziałania praniu pieniędzy
Edukacja, edukacja, edukacja
Stąd też teza dzisiejszego felietonu. Ponieważ budowanie algorytmów i modeli AI to już nie tylko samo programowanie, ale uwzględnianie wielu aspektów społecznych, ludzkich, prawnych oraz regulacyjnych, to poza tworzeniem interdyscyplinarnych zespołów, konieczne jest edukowanie w zakresie etyki i wpajanie „zdrowych” wzorców oraz poszanowania dla różnorodności, jakkolwiek byśmy jej nie definiowali.
Brak zrozumienia podstawowych wyzwań związanych z tymi zagadnieniami nie pozwoli na tworzenie rozwiązań uczciwych i zgodnych ze standardami oraz normami etycznymi, a to przecież warunek dalszego rozwoju AI. Żaden (prawie) regulator czy państwo nie pozwoli na to, aby sztuczna inteligencja wprowadzała nierówności, w szczególności na szeroką skalę. To się po prostu nie opłaca.
Konieczne jest edukowanie w zakresie etyki i wpajanie „zdrowych” wzorców oraz poszanowania dla różnorodności
Nie oznacza to, że teraz wszyscy powinniśmy rzucić się do programowania i zgłębiać tajniki tworzenia modeli, a także inspirować się dziełami wybitnych filozofów moralności. Bynajmniej. Różnorodność profesji, kompetencji oraz doświadczenia ma zapewnić, że każdy element istotny dla modelu będzie zabezpieczony, natomiast w edukacji chodzi o tworzenie pewnych postaw (i podstaw) w zakresie oczekiwanego rezultatu – etycznej i godnej zaufania sztucznej inteligencji. Choć sam mam wątpliwości co do „tytułowania” AI godną zaufania…
Granice technologiczne
Jest o tyle istotne, że rzeczywiście pewne elementy etyczne mogą i powinny być zaszyte zarówno w algorytmach, jak i modelach trenowanych i wytrenowanych, bowiem da się skwantyfikować pewne wzorce do zrozumiałej dla maszyny formuły, choć nadal wymagać ona będzie ze strony człowieka drobiazgowego nadzoru (może to też wykonywać inne oprogramowanie we współpracy z człowiekiem), bowiem – tak jak i człowiek – model może nauczyć się niemoralnych zachowań, które mogą być przykładowo konsekwencją żywienia się spaczonymi danymi, o które w dzisiejszych czasach nie jest trudno.
Należy więc zacząć myśleć o etyce AI, jako o części edukacji na naprawdę szeregu kierunków kształcenia, w tym na niższych poziomach, bowiem z algorytmami przyjdzie nam kiedyś żyć
Z drugiej strony ludzie odpowiedzialni za etykę sensu stricto, czy też prawo i regulacje powinni rozumieć ograniczenia, jakie niesie ze sobą technologia, z którą mają do czynienia. Nie wszystko da się przenieść na kod, nie wszystko da się perfekcyjnie wybadać i wyeliminować, a nawet po prostu – zamodelować. Niewłaściwie (nie)zrozumienie się aktorów odpowiedzialnych za tworzenie nowych rozwiązań generować może nie tylko spięcia, ale także prowadzić do całkiem (nie)oczekiwanych rezultatów, a także po prostu – zamknięcia perspektywicznego projektu.
Tak jak i człowiek – model może nauczyć się niemoralnych zachowań, które mogą być przykładowo konsekwencją żywienia się spaczonymi danym
W praktyce należy więc zacząć myśleć o etyce AI, jako o części edukacji na naprawdę szeregu kierunków kształcenia, w tym na niższych poziomach, bowiem z algorytmami przyjdzie nam kiedyś żyć, a dobrze byłoby je choć w najmniejszym stopniu rozumieć, żeby się ich po prostu nie bać.
Czytaj także: AI W FINANSACH 2021: Czy unijne regulacje zagrażają innowacjom?
Wybór formy kształcenia tych po(d)staw będzie zależny od tego, czy do czynienia mamy z kształceniem akademickim, zawodowym czy wewnątrz organizacji. Powinno to być dostosowane zarówno do potrzeb, jak i ryzyk, które są związane z daną działalnością. Tylko wtedy możemy mieć pewność, że trafimy z przekazem. A przecież o to finalnie chodzi.
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.