Jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i sztucznej inteligencji?

Jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i sztucznej inteligencji?
Michał Nowakowski. Źródło: NGL Advisory, NGL Legal
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Rozwój nowych technologii ‒ niekoniecznie przełomowych ‒ powoduje, że stykamy się z coraz nowymi zagrożeniami, o których nawet nie mamy pojęcia, lub których skalę bagatelizujemy. Rozwój takich obszarów jak uczenie maszynowe i głębokie przetwarzanie danych biometrycznych, w tym behawioralnych, czy też popularyzacja finansów zdecentralizowanych, opartych o technologię rozproszonego rejestru i łańcucha bloków, ma jednak dla nas ‒ poszczególnych jednostek i całego społeczeństwa ‒ olbrzymie znaczenie. Bowiem z jednej strony daje szansę na lepsze życie, a z drugiej, być może bardziej prawdopodobne ‒ może wpędzić nas w prawdziwe tarapaty. Czy zastanawialiście się chociażby jak wiele tracimy zyskując na rozwoju chmury obliczeniowej i tzw. sztucznej inteligencji? Czy zastanawialiście jakie są koszty takiego rozwoju? I przede wszystkim: kto za tym wszystkim stoi? ‒ komentarz Michała Nowakowskiego.

Spokojnie. Nie mam zamiaru pisać tutaj o różnych teoriach spiskowych, ani też przedstawiać twardych danych na poparcie moich przemyśleń, ale chciałbym skłonić do refleksji nad kierunkiem zmian, które zachodzą w naszym społeczeństwie i środowisku, a które wymagają spojrzenia poza techniczne i biznesowe walory stosowanych rozwiązań, które choć mają znaczenie, nie mogą stanowić jedynej podstawy tego rozwoju.

I celu samego w sobie.

Czytaj także: Sztuczna inteligencja ‒ możliwości są duże, ale czy można jej zaufać?

Za wszystkim stoi człowiek

Mamy tendencję do wyolbrzymiania. Szczególnie osiągnięć nauki i techniki, a wizja robotów przejmujących nad nami kontrolę wydaje się nam dość prawdopodobna, nawet jeżeli twarde dane skłaniają nas raczej do tezy, że prędzej sami się wyeliminujemy.

Za każdym rozwiązaniem (oprogramowaniem, produktem z obszaru Internetu rzeczy) czy półproduktem stoi człowiek, który to „coś” wytworzył, ale także bierze za to odpowiedzialność. Często sprawuje też nad tym nadzór i kontrolę.

Weźmy przykład modelu sztucznej inteligencji odpowiedzialnego za segmentację klientów i dopasowywanie materiałów reklamowych do kategorii. Najpierw ktoś musiał opracować pewne założenia, następnie przygotować dane (które nota bene są generowane przez człowieka), wytrenować model i go zwalidować, podjąć decyzję o wdrożeniu, wdrożyć, stosować i nadzorować. Nawet jeżeli model nazywamy jest „autonomicznym”. Za każdym etapem stoi człowiek. Człowiek decyduje więc o celu i tym, czy wykorzysta go dla dobra ‒ kogo to już odrębna kwestia.

Człowiek decyduje też o tym, jak wykorzystać dostępne zasoby, także te naturalne, które nomen omen stanowią absolutny fundament każdej technologii. Nie ma komputerów, serwerów, oprogramowania i rozproszonych sieci bez zasobów naturalnych. Do produkcji lub utrzymania każdego z tych elementów wykorzystujemy trochę naszego środowiska (kojarzycie dyskusję w Parlamencie Europejskim na temat możliwego zakazu stosowania techniki Proof of Stake w sieciach rozproszonych?), ale także wykorzystujemy ludzi, którzy odpowiadają za utrzymanie, ale także tworzenie. Ludzie są także świadomymi lub nieświadomymi, bezpośrednimi lub pośrednimi, ofiarami stosowania wielu rozwiązań technologicznych. I to ofiarami w wielu wymiarach.

Za każdym rozwiązaniem (oprogramowaniem, produktem z obszaru Internetu rzeczy) czy półproduktem stoi człowiek, który to „coś” wytworzył, ale także bierze za to odpowiedzialność

I wcale nie chodzi tutaj o to, że tzw. sztuczna inteligencja zabierze im pracę, choć to też jest realny problem, choć bardziej odnosi się nie tyle do nieprzydatności, co utraty znaczenia. Ludzie stają się często niewolnikami superszybkich komputerów i algorytmów, które wywierają na nas presję ‒ czasu, efektywności czy nawet doskonałości. Rezygnujemy z naszych potrzeb, także tych fizjologicznych, aby „nakarmić” głodne algorytmy wołające o więcej.

Stajemy się też coraz mniej odporni na manipulację i wykorzystywanie naszych słabości, również w obszarze komercyjnym. A może nawet sami nie chcemy być na to odporni. W końcu wiele spraw może za nas załatwić wirtualny asystent czy algorytm platformy zakupowej. Zwalnia nas z myślenia i działania.

Czytaj także: Sztuczna inteligencja wkracza do naszego życia, czy się to nam podoba, czy nie; a co z etyką?

No właśnie. Problem polega na tym, że to nie algorytm. To człowiek

Przyzwyczailiśmy się do mówienia: „to algorytm podsunął mi ten produkt”, albo to „algorytm skłonił mnie do podjęcia takiej decyzji”. No jasne, że algorytm. W końcu to nie człowiek go zaprojektował, wdrożył i z niego korzysta (także z rezultatów jakie generuje), prawda?

Fakt, algorytmy i modele sztucznej inteligencji są na pierwszej linii i to one wchodzą z nami w bezpośrednie interakcje, choć często nie mamy nawet o tym pojęcia (chatboty, wirtualni asystenci, systemy IVR), ale jednak są to nadal narzędzia generujące dla kogoś „coś”. Człowiek bierze więc też za to odpowiedzialność. A przynajmniej powinien brać.

O nowych technologiach, jak i etyce, piszę dość dużo na Linkedin, choć tematyka ta niewątpliwie nie cieszy się tak dużą popularnością, jak inne tematy dotyczące zarówno #newtech, jak i #fintech, a jest to temat, który POWINIEN nabierać na znaczeniu. Mamy oczywiście coraz to nowe wytyczne, rekomendacje i opinie na temat tworzenia etycznej sztucznej inteligencji, ale raczej rzadko rozmawiamy w ogóle o wartościach i etyce w kontekście nowych technologii i cyfryzacji. Pewną namiastką są tzw. CSR czy ESG, które mają budować pewne pozytywne postawy również względem wykorzystania nowych technologii, a może bardziej precyzyjnie ‒ środowiska i społeczeństwa.

Często powtarzanym standardem jest „data protection and privacy by default and design” w kontekście tworzenia nowych rozwiązań, np. oprogramowania czy szeroko rozumianego Internetu rzeczy, ale dlaczego nie mówimy/piszemy o „ethics/values by default and design”? Mało atrakcyjne? Być może.

Do tego dochodzi przekonanie, że technologia i etyka nie idą ze sobą w parze, bo to drugie to przecież „jakieś filozofowanie”. Czy tak rzeczywiście jest?

Zależy jaką postawę przyjmiemy. Etyka sama w sobie może być traktowana jako dyscyplina naukowa o pewnej filozoficznej konotacji, choć jej zakres jest znacznie szerszy i obejmuje m.in. nauki społeczne czy ekonomię.

To podejście może nas jednak trochę zniechęcać, więc może warto spojrzeć na to z perspektywy pewnych wartości i fundamentalnych zasad? Stosowanie nowych rozwiązań technologicznych, nie tylko wspomnianej sztucznej inteligencji, musi opierać się na zasadach. Na szacunku do siebie, drugiego człowieka, środowiska i całego otoczenia. Na poszanowaniu godności, integralności, wolności innych i decyzyjności. Na tym samym, na czym opiera się nasze wspólne życie w społeczeństwie.

Nie ignorujmy więc etyki w kontekście nowych technologii i nie traktujmy jej jako zła koniecznego, ale podejdźmy do tego jako próby ochrony tego, co ludzkie i wartościowe

No, ale przecież to są „miękkie” postulaty odnoszone raczej do człowieka, a nie maszyny. Oczywiście, że tak. O to w tym chodzi. Etyka nowych technologii nie musi być li tylko dyscypliną inżynieryjną (choć niewątpliwie i taką jest), a nawet nie powinna nią być.

To multidyscyplinarne podejście do wartości, technologii i człowieka. Powinna być przedmiotem nauczanym od najmłodszych lat, bo spora część naszego ‒ młodszego ‒ społeczeństwa, to pokolenie cyfrowe, które będzie też kształtowało przyszłość następnych pokoleń. To, jaka będzie w tym rola pewnych zasad i norm, jest więc zależne od tych młodych.

Nie ignorujmy więc etyki w kontekście nowych technologii i nie traktujmy jej jako zła koniecznego, ale podejdźmy do tego jako próby ochrony tego, co ludzkie i wartościowe. Budowanie rozwiązań opartych o pewne wartości nie musi być wcale kosztowne, a już na pewno będzie procentować w dłuższym terminie. Wystarczy pamiętać o kilku fundamentach. Te fundamenty to człowiek i środowisko. Tylko tyle i aż tyle.

Tyle tylko, że to tylko ogólny frazes. W praktyce wymaga on nieco więcej. A czego? Dowiecie się z kolejnego „odcinka”.

Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Head of NewTech w NGL Advisory oraz Counsel w NGL Legal, założyciel www.finregtech.pl, wykładowca studiów podyplomowych SGH: FinTech ‒ nowe zjawiska i technologie na rynku finansowym. Adres e-mail: michal.nowakowski@ngladvisory.com
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: aleBank.pl