Ma być bezpiecznie, etycznie, ale i dynamicznie oraz innowacyjnie, czy nowe technologie potrzebują etyki i silniejszej ochrony?

Ma być bezpiecznie, etycznie, ale i dynamicznie oraz innowacyjnie, czy nowe technologie potrzebują etyki i silniejszej ochrony?
Michał Nowakowski. Źródło: MN
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Kto ma dane, ten ma władzę. W tych coraz bardziej dynamicznych czasach nie mamy już wątpliwości, że technologia odgrywa bardzo ważną i znaczącą rolę w naszym życiu, a poziom "penetracji" tych technologii naszego życia będzie się tylko zwiększał. Te rozwiązania w znacznej mierze bazują na naszych danych, bo coraz ważniejszy dla nas jest produkt spersonalizowany, a nie masowy. Doceniamy odpowiednie doświadczenia z użytkowania, które poznać nie jest łatwo (a może jednak?). Dostrzegamy też, że nasze dane mają wartość i trzeba je chronić, bo o potknięcie nie jest trudno, a (czasowa) utrata tożsamości to bolesna nauczka, np. finansowa ‒ podkreśla Michał Nowakowski, Finregtech.Pl.

Dlatego też coraz częściej mówimy o potrzebie zwiększania tej ochrony. Mamy zwolenników luzowania i bardziej innowacyjnego podejścia do tej kwestii (do nich zaliczam się i ja) oraz tych, którzy chcieliby jeszcze więcej.

Nie wchodząc w dyskusję kto ma rację, bo każde z tych podejść ma określone fundamenty i cele, a wybór właściwej drogi to indywidualna decyzja społeczeństwa, nie ma wątpliwości, że jak nigdy potrzebujemy teraz nowego (a może wcale nie) podejścia, tj. ethics by default and design przy tworzeniu nowych rozwiązań.

Ta etyka, to nie tylko sztuczna inteligencja czy poprawniej – wykorzystanie automatyzacji, np. w kontekście AI godnej zaufania czy problematyki stronniczości algorytmów i dyskryminacji, ale także potrzeba takiego projektowania rozwiązań technologicznych czy aplikacji, które stawiają na ochronę danych i prywatności, o czym wspominała m.in. ENISA w kontekście internetu rzeczy (IoT), czyli data protection and privacy by default and design.

Jak nigdy potrzebujemy teraz nowego (a może wcale nie) podejścia, tj. ethics by default and design przy tworzeniu nowych rozwiązań

Oznacza, to ni mniej, ni więcej, że na każdym etapie rozwoju produktu czy usługi musimy myśleć o tym, jak możemy zabezpieczyć interesy użytkowników, którzy mogą wiele stracić, np. wskutek ataku strony trzeciej (cybersecurity) czy np. niewłaściwego (nieetycznego) wykorzystania przez operatora algorytmu czy innego rozwiązania.

Czytaj także: ZBP: laureat Konkursu Etyka w finansach ‒ autorem książki o standardach etycznych obsługi klientów

Nie zawsze będziemy w stanie tego uniknąć, bo:

1.    Prawo i regulacje nie zawsze podążają za nowinkami technologicznymi, a oczekiwania je tworzące mogą być niekiedy nieco absurdalne;

2.    Nie zawsze się po prostu da – np. problem black boxa przy bardziej zaawansowanych rozwiązaniach;

3.    Nie wszyscy „aktorzy” w cyklu życia produktu będą należycie wyedukowani w kwestiach zapewnienia #ethicsbydesign, a to rodzi ryzyko błędów – często zupełnie niezamierzonych;

4.    Wytyczne są bardzo niejasne, a neutralność technologiczna nie zawsze gwarantuje właściwe jej zastosowanie;

5.    Risk-based approach, czyli podejście oparte o ryzyko, nie zawsze jest „bezpieczne”, bo poziom apetytu na ryzyko może być bardzo zróżnicowany.

etyka, ankieta
Źródło: Finregtech.Pl

W konsekwencji możemy jednak sporo stracić, bo nie chodzi tylko o ewentualne sankcje ze strony organów nadzoru (nie będzie to tylko UODO, GIIF, ale także nowe organy, które mają powstać na bazie różnych projektów aktów – w tym Data Governance Act czy NIS2 oraz regulatorzy sektorowi), lecz także o odpowiedzialność odszkodowawczą czy utratę reputacji, a także pozycji rynkowej. A pamiętajmy, że reputacji nie da się tak łatwo odzyskać. Szczególnie, jeżeli utracimy ją na skutek np. wycieku danych czy jakiejś formy dyskryminacji użytkownika.

Etyka ma jednak jeszcze szerszy kontekst. Nawet, jeżeli wykorzystujemy pewne dane na bazie – choćby najbardziej świadomej zgody ich właściciela – to na nas ciąży, aby wykorzystywać je w sposób etyczny – niewykraczający poza pewne ramy społeczne czy ewentualne ograniczenia o miękkim charakterze.

Dlatego też Unia Europejska zdecydowała się na wprowadzenie nowych rozwiązań jak Digital Markets czy Digital Services Act oraz rozporządzenie w sprawie e-Privacy.

Etyka ma jednak szerszy kontekst. Nawet, jeżeli wykorzystujemy pewne dane na bazie – choćby najbardziej świadomej zgody ich właściciela – to na nas ciąży, aby wykorzystywać je w sposób etyczny

Same akty prawne czy regulacje nie uchronią jednak przed takimi nieetycznymi zachowaniami ludzi, którzy stoją za projektowaniem określonych technologicznych rozwiązań – czy to dla zysku, sławy, czy też z innych pobudek.

Czytaj także: Etyka, banki i sztuczna inteligencja

Dlatego tak ważna jest edukacja. I to na różnych poziomach i w różnych obszarach. Nie jesteśmy wprawdzie w stanie zmienić czyjejś moralności, bo to decyzja każdego człowieka, ale możemy kreować pewne wartości jako wartości naczelne i „aplikowalne” dla całego społeczeństwa. Możemy też wymagać pewnych zachowań lub chociaż rekomendować ich stosowanie, dając określone wskazówki.

Można to osiągnąć na wiele sposobów. Możemy szkolić i przeprowadzać warsztaty. Możemy wymagać uzupełniania wiedzy w tym zakresie. Możemy nakładać obowiązki. A możemy też po prostu uczulać na wrażliwe tematy. Ważny jest efekt końcowy.

Nie jesteśmy wprawdzie w stanie zmienić czyjejś moralności, bo to decyzja każdego człowieka, ale możemy kreować pewne wartości jako wartości naczelne i „aplikowalne” dla całego społeczeństwa

Przeprowadzając ostatnią ankietę w sprawie potrzeby edukowania z zakresu „technologicznych” i „biznesowych” regulacji i prawa nie spodziewałem się takich wyników. Ankietowani byli raczej zgodni, że w nowych – cyfrowych – czasach musimy i o tym pamiętać, bo etyka nabiera zupełnie innego wymiaru i znaczenia.

Nie jest już to tylko „dobra praktyka”, ale powoli staje się ona fundamentem naszego społeczeństwa. I jeżeli o to nie zadbamy, to za kilka lub kilkanaście lat możemy znaleźć się w zupełnie innym – niekoniecznie przyjaznym świecie.

Jednocześnie jednak musimy pamiętać o jednym – trzeba zrobić to rozsądnie, bo nakładanie masowych obowiązków czy ograniczanie możliwości stosowania pewnych rozwiązań, może przyczynić się do zahamowania rozwoju i innowacji (ostatnie wytyczne w sprawie Virtual Voice Assistants).

Etyka nabiera zupełnie innego wymiaru i znaczenia. Nie jest już to tylko „dobra praktyka”, ale powoli staje się ona fundamentem naszego społeczeństwa

A tego chyba nie chcemy, widząc chociażby jak nowe technologie mogą pomagać np. w ochronie zdrowia czy edukacji. Ma więc być bezpiecznie, etycznie, ale i dynamicznie oraz innowacyjnie.

To duże wyzwanie, wymagające globalnego podejścia, ale czy nie żyjemy już w jednej globalnej wiosce?

Michał Nowakowski,

https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.

Źródło: aleBank.pl