Jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i sztucznej inteligencji?
Spokojnie. Nie mam zamiaru pisać tutaj o różnych teoriach spiskowych, ani też przedstawiać twardych danych na poparcie moich przemyśleń, ale chciałbym skłonić do refleksji nad kierunkiem zmian, które zachodzą w naszym społeczeństwie i środowisku, a które wymagają spojrzenia poza techniczne i biznesowe walory stosowanych rozwiązań, które choć mają znaczenie, nie mogą stanowić jedynej podstawy tego rozwoju.
I celu samego w sobie.
Czytaj także: Sztuczna inteligencja ‒ możliwości są duże, ale czy można jej zaufać?
Za wszystkim stoi człowiek
Mamy tendencję do wyolbrzymiania. Szczególnie osiągnięć nauki i techniki, a wizja robotów przejmujących nad nami kontrolę wydaje się nam dość prawdopodobna, nawet jeżeli twarde dane skłaniają nas raczej do tezy, że prędzej sami się wyeliminujemy.
Za każdym rozwiązaniem (oprogramowaniem, produktem z obszaru Internetu rzeczy) czy półproduktem stoi człowiek, który to „coś” wytworzył, ale także bierze za to odpowiedzialność. Często sprawuje też nad tym nadzór i kontrolę.
Weźmy przykład modelu sztucznej inteligencji odpowiedzialnego za segmentację klientów i dopasowywanie materiałów reklamowych do kategorii. Najpierw ktoś musiał opracować pewne założenia, następnie przygotować dane (które nota bene są generowane przez człowieka), wytrenować model i go zwalidować, podjąć decyzję o wdrożeniu, wdrożyć, stosować i nadzorować. Nawet jeżeli model nazywamy jest „autonomicznym”. Za każdym etapem stoi człowiek. Człowiek decyduje więc o celu i tym, czy wykorzysta go dla dobra ‒ kogo to już odrębna kwestia.
Człowiek decyduje też o tym, jak wykorzystać dostępne zasoby, także te naturalne, które nomen omen stanowią absolutny fundament każdej technologii. Nie ma komputerów, serwerów, oprogramowania i rozproszonych sieci bez zasobów naturalnych. Do produkcji lub utrzymania każdego z tych elementów wykorzystujemy trochę naszego środowiska (kojarzycie dyskusję w Parlamencie Europejskim na temat możliwego zakazu stosowania techniki Proof of Stake w sieciach rozproszonych?), ale także wykorzystujemy ludzi, którzy odpowiadają za utrzymanie, ale także tworzenie. Ludzie są także świadomymi lub nieświadomymi, bezpośrednimi lub pośrednimi, ofiarami stosowania wielu rozwiązań technologicznych. I to ofiarami w wielu wymiarach.
Za każdym rozwiązaniem (oprogramowaniem, produktem z obszaru Internetu rzeczy) czy półproduktem stoi człowiek, który to „coś” wytworzył, ale także bierze za to odpowiedzialność
I wcale nie chodzi tutaj o to, że tzw. sztuczna inteligencja zabierze im pracę, choć to też jest realny problem, choć bardziej odnosi się nie tyle do nieprzydatności, co utraty znaczenia. Ludzie stają się często niewolnikami superszybkich komputerów i algorytmów, które wywierają na nas presję ‒ czasu, efektywności czy nawet doskonałości. Rezygnujemy z naszych potrzeb, także tych fizjologicznych, aby „nakarmić” głodne algorytmy wołające o więcej.
Stajemy się też coraz mniej odporni na manipulację i wykorzystywanie naszych słabości, również w obszarze komercyjnym. A może nawet sami nie chcemy być na to odporni. W końcu wiele spraw może za nas załatwić wirtualny asystent czy algorytm platformy zakupowej. Zwalnia nas z myślenia i działania.
Czytaj także: Sztuczna inteligencja wkracza do naszego życia, czy się to nam podoba, czy nie; a co z etyką?
No właśnie. Problem polega na tym, że to nie algorytm. To człowiek
Przyzwyczailiśmy się do mówienia: „to algorytm podsunął mi ten produkt”, albo to „algorytm skłonił mnie do podjęcia takiej decyzji”. No jasne, że algorytm. W końcu to nie człowiek go zaprojektował, wdrożył i z niego korzysta (także z rezultatów jakie generuje), prawda?
Fakt, algorytmy i modele sztucznej inteligencji są na pierwszej linii i to one wchodzą z nami w bezpośrednie interakcje, choć często nie mamy nawet o tym pojęcia (chatboty, wirtualni asystenci, systemy IVR), ale jednak są to nadal narzędzia generujące dla kogoś „coś”. Człowiek bierze więc też za to odpowiedzialność. A przynajmniej powinien brać.
O nowych technologiach, jak i etyce, piszę dość dużo na Linkedin, choć tematyka ta niewątpliwie nie cieszy się tak dużą popularnością, jak inne tematy dotyczące zarówno #newtech, jak i #fintech, a jest to temat, który POWINIEN nabierać na znaczeniu. Mamy oczywiście coraz to nowe wytyczne, rekomendacje i opinie na temat tworzenia etycznej sztucznej inteligencji, ale raczej rzadko rozmawiamy w ogóle o wartościach i etyce w kontekście nowych technologii i cyfryzacji. Pewną namiastką są tzw. CSR czy ESG, które mają budować pewne pozytywne postawy również względem wykorzystania nowych technologii, a może bardziej precyzyjnie ‒ środowiska i społeczeństwa.
Często powtarzanym standardem jest „data protection and privacy by default and design” w kontekście tworzenia nowych rozwiązań, np. oprogramowania czy szeroko rozumianego Internetu rzeczy, ale dlaczego nie mówimy/piszemy o „ethics/values by default and design”? Mało atrakcyjne? Być może.
Do tego dochodzi przekonanie, że technologia i etyka nie idą ze sobą w parze, bo to drugie to przecież „jakieś filozofowanie”. Czy tak rzeczywiście jest?
Zależy jaką postawę przyjmiemy. Etyka sama w sobie może być traktowana jako dyscyplina naukowa o pewnej filozoficznej konotacji, choć jej zakres jest znacznie szerszy i obejmuje m.in. nauki społeczne czy ekonomię.
To podejście może nas jednak trochę zniechęcać, więc może warto spojrzeć na to z perspektywy pewnych wartości i fundamentalnych zasad? Stosowanie nowych rozwiązań technologicznych, nie tylko wspomnianej sztucznej inteligencji, musi opierać się na zasadach. Na szacunku do siebie, drugiego człowieka, środowiska i całego otoczenia. Na poszanowaniu godności, integralności, wolności innych i decyzyjności. Na tym samym, na czym opiera się nasze wspólne życie w społeczeństwie.
Nie ignorujmy więc etyki w kontekście nowych technologii i nie traktujmy jej jako zła koniecznego, ale podejdźmy do tego jako próby ochrony tego, co ludzkie i wartościowe
No, ale przecież to są „miękkie” postulaty odnoszone raczej do człowieka, a nie maszyny. Oczywiście, że tak. O to w tym chodzi. Etyka nowych technologii nie musi być li tylko dyscypliną inżynieryjną (choć niewątpliwie i taką jest), a nawet nie powinna nią być.
To multidyscyplinarne podejście do wartości, technologii i człowieka. Powinna być przedmiotem nauczanym od najmłodszych lat, bo spora część naszego ‒ młodszego ‒ społeczeństwa, to pokolenie cyfrowe, które będzie też kształtowało przyszłość następnych pokoleń. To, jaka będzie w tym rola pewnych zasad i norm, jest więc zależne od tych młodych.
Nie ignorujmy więc etyki w kontekście nowych technologii i nie traktujmy jej jako zła koniecznego, ale podejdźmy do tego jako próby ochrony tego, co ludzkie i wartościowe. Budowanie rozwiązań opartych o pewne wartości nie musi być wcale kosztowne, a już na pewno będzie procentować w dłuższym terminie. Wystarczy pamiętać o kilku fundamentach. Te fundamenty to człowiek i środowisko. Tylko tyle i aż tyle.
Tyle tylko, że to tylko ogólny frazes. W praktyce wymaga on nieco więcej. A czego? Dowiecie się z kolejnego „odcinka”.
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.