Facial recognition: Rada Europy rekomenduje ostrożność i wskazuje na ryzyko dyskryminacji

Facial recognition: Rada Europy rekomenduje ostrożność i wskazuje na ryzyko dyskryminacji
Fot. stock.adobe.com / Andrey Popov
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Kilka tygodni temu Rada Europy opublikowała bardzo ciekawe wytyczne dotyczące automatycznego przetwarzania danych osobowych w kontekście wykorzystania rozpoznania twarzy (biometria). Dokument jest o tyle ciekawy, że stanowi bardzo jasną deklarację co do kierunku, w którym może podążać Europa w kontekście szerszego wykorzystania rozpoznawania twarzy np. w przestrzeni publicznej. A konkluzja jest taka, że wizja rodem z Cyberpunk 2077 na razie nam nie grozi, bo jednostka jest najważniejsza ‒ komentuje Michał Nowakowski, FinregtechPL.

Rada Europy wyraźnie wskazuje, że technologie wykorzystujące rozpoznawanie twarzy należą do jednych z najbardziej wrażliwych i podatnych na naruszenie indywidualnych praw jednostki, w tym prawa do prywatności.

Dlatego, tak przynajmniej ja to odbieram, rekomendacją jest, aby państwa w ramach swoich demokratycznych procedur rozważyły możliwość zakazania stosowania facial recognition w niektórych przypadkach.

Ważne jest, aby algorytmy przetwarzania były przejrzyste i niestronnicze, a także zapewniały realizację podstawowych praw człowieka

Jednocześnie Rada wskazuje, że wykorzystanie tego typu rozwiązań do określenia koloru skóry, przynależności religijnej, płci, rasy i pochodzenia etnicznego, wieku, zdrowia oraz statusu społecznego powinno być co do zasady zakazane, a jeżeli już dozwolone to pod warunkiem zapewnienia odpowiednich rozwiązań prawnych niwelujących ryzyko dyskryminacji.

Nie oznacza to tym samym, że ma to być całkowita blokada rozwiązań, które mogą np. pomóc w wykrywaniu chorób. Ważne jest, aby algorytmy przetwarzania były przejrzyste i niestronnicze, a także zapewniały realizację podstawowych praw człowieka. Nie będzie łatwo, ale sztuczna inteligencja godna zaufania ‒ na tym właśnie polega.

Czytaj także: Biometryczne karty płatnicze zdobędą 15% globalnego rynku płatności do 2026 roku

To jednak nie wszystko

Rada „idzie” dalej w swoich rozważaniach. Przywołuje sytuacje, w których rozpoznawanie twarzy może posłużyć nam do oceny naszych cech, stanu emocjonalnego czy zdrowia psychicznego, np. w kontekście zatrudnienia. A to już jest potencjalnie niebezpieczne. Faktycznie. Czy nie powodowałoby to, że budowalibyśmy „idealne” społeczeństwo, a jednostki z „defektami” byłby odrzucane?

Jednocześnie nie jest tak, że facial recognition nie może być nigdy wykorzystane. Rada wskazuje tutaj, że przykładowo dla celów bezpieczeństwa państwo może zdecydować się na wprowadzenie tego typu rozwiązań, ale jest jedno „ale”.

Rada wspiera możliwość jej wykorzystania w obszarze bezpieczeństwa – np. w kontekście działania organów ścigania (np. do celów „wyłapywania” jednostek podejrzanych), choć jak pokazują różne sytuacje – i tutaj mogą pojawić się spore wątpliwości.

Dopuszczalne są także inne możliwości wykorzystania rozpoznawania twarzy w szeroko rozumianym sektorze publicznym, ale przy zachowaniu wszelkich gwarancji w zakresie praw jednostki

Przykładowo – czy człowiek raz skazany, po zatarciu skazania – nadal nie będzie widniał w bazie jako potencjalnie niebezpieczny? Pojawia się pytanie o to, jak zapewnić, że algorytmy nie będą stronnicze. Czy usuwamy w takiej sytuacji całą kartotekę?

Dopuszczalne są także inne możliwości wykorzystania rozpoznawania twarzy w szeroko rozumianym sektorze publicznym, ale przy zachowaniu wszelkich gwarancji w zakresie praw jednostki. No i konieczne jest przeprowadzenie testów „konieczności”.

Rada wskazuje tutaj przykładowo, że rozpoznawanie twarzy w szkołach czy innych budynkach publicznych, co do zasady, nie powinno być rozwiązaniem docelowym – a w pierwszej kolejności powinniśmy stosować rozwiązania alternatywne.

Czytaj także: Bankowość i Finanse | Technologie | Biometria i gospodarka zdalna w epoce pandemii

A co z sektorem prywatnym?

Nic nowego. Co do zasady zgoda – jak w RODO. Powoduje to, że wykorzystanie rozpoznawania twarzy może odbywać się jedynie w zamkniętym obiegu. Podmioty prywatne muszą także zadbać o to, aby zgoda użytkownika była „odpowiedniej jakości”, a więc m.in. zawierała jasne informacje dotyczące tego na jakie potrzeby wykorzystujemy czyjąś „twarz”.

To oczywiście zobowiązuje także do wykorzystania danych biometrycznych tylko w tym konkretnym przypadku. Rada podkreśla także, że jeżeli dane mają być transferowane do podmiotu trzeciego, to podmiot prywatny musi zadbać o kolejną zgodę.

Ważne jest przy tym to, że Rada podkreśliła w dokumencie, że facial recognition nie powinno być wykorzystywane np. w centrach handlowych, np. do celów marketingowych czy nawet private security. Ograniczenia są więc całkiem spore. Z drugiej strony czy to źle? Jak byśmy się czuli wiedząc, że jesteśmy pod ciągłym „obstrzałem”?

I jeszcze jedna istotna kwestia:

„Passing through an environment where facial recognition technologies are used cannot be considered as an explicit consent”

Kolejne ważne kwestie

W dużym skrócie. Rada Europy rekomenduje, aby każde państwo zapewniło, że przy tworzeniu rozwiązań prawnych wykorzystujących technologie rozpoznawania twarzy zaangażowane były organy odpowiedzialne za ochronę danych osobowych. Ważna będzie tutaj współpraca i koordynacja.

Ponadto, ustawodawcy powinni stosować różne mechanizmy zapewnienia odpowiedzialności twórców i dostawców usług facial recognition, w tym nawet poprzez utworzenie odpowiednich mechanizmów certyfikacji. Rada zwraca tutaj uwagę na kwestie wykorzystania sztucznej inteligencji dla celów facial recognition.

Twórcy wytycznych wskazali także, że bardzo istotne jest zwiększanie świadomości osób podlegających lub mogących podlegać rozpoznawaniu twarzy. Z tego względu ważne jest podejmowanie różnych inicjatyw, w tym kampanii edukacyjnych.

Rada Europy rekomenduje, aby każde państwo zapewniło, że przy tworzeniu rozwiązań prawnych wykorzystujących technologie rozpoznawania twarzy zaangażowane były organy odpowiedzialne za ochronę danych osobowych

Społeczeństwo powinno mieć też swój udział przy decydowaniu o wykorzystaniu tego typu technologii w szeroko rozumianej przestrzeni publicznej.

Michał Nowakowski
Michał Nowakowski, https://pl.linkedin.com/in/michal-nowakowski-phd-35930315, Counsel w Citi Handlowy, założyciel www.finregtech.pl.
Opinie wyrażone w artykule są osobistymi opiniami Autora i nie mogą być utożsamiane z jakąkolwiek instytucją, z którą Autor jest lub był związany.
Źródło: aleBank.pl