Czy rozwój sztucznej inteligencji zagrozi naszej prywatności?

Czy rozwój sztucznej inteligencji zagrozi naszej prywatności?
Fot. stock.adobe.com/NicoElNino
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
W najbliższych latach będziemy świadkami rozwoju metod manipulacji opartych na sztucznej inteligencji. Możliwe jest opracowanie algorytmów potrafiących perfekcyjnie udawać głos danej osoby (na podstawie kilkusekundowej próbki), a nawet generujących wideo osoby mówiącej swoim głosem i robiącej rzeczy, których nigdy nie zrobiła, ani nie powiedziała.

Czy rozwój #sztucznainteligencja zagrozi naszej prywatności? #AI

Chińska policja testuje okulary z wbudowaną kamerą, połączone z systemem AI (Artificial Intelligence) do rozpoznawania twarzy. Celem jest natychmiastowa identyfikacja osób poszukiwanych przez organy ścigania. Facebook niedawno wysłał do użytkowników zapytanie o zgodę na uruchomienie funkcji rozpoznawania twarzy. Rozwijanie tego typu technologii budzi sprzeciw nawet wśród tych, którzy je opracowują. Przykładowo, pracownicy firmy Amazon wyrazili protest wobec dostarczania algorytmów detekcji twarzy dla organów ścigania. Kilka tygodni temu ponad stu pracowników Microsoftu wysłało list, w którym sprzeciwiali się, aby firma dostarczała usługi z zakresu przetwarzania w chmurze oraz sztucznej inteligencji dla amerykańskiej służby celnej i imigracyjnej.

Wydaje się, że znowu mamy do czynienia z sytuacją, kiedy postęp technologiczny i jego nagła adaptacja wyprzedza zdroworozsądkową ostrożność. Rozwój sztucznej inteligencji i prywatność nie idą w parze. Algorytmy będą w stanie bez najmniejszego problemu rozpoznać nasz wizerunek, a nawet głos, dopasować i połączyć dane zgromadzone na rozmaitych portalach społecznościowych (oraz randkowych), rozbijając ostatecznie iluzję anonimowości w sieci. Należy też pamiętać o ryzyku związanym z coraz bardziej powszechnymi asystentami głosowymi – najczęściej ceną wygody jest prywatność i postępujące cyfrowe obnażanie się.

Nowe metody manipulacji

Prawdopodobnie w najbliższych latach będziemy świadkami rozwoju metod manipulacji opartych na sztucznej inteligencji. Możliwe jest opracowanie algorytmów potrafiących perfekcyjnie udawać głos danej osoby (na podstawie kilkusekundowej próbki), a nawet generujących wideo osoby mówiącej swoim głosem i robiącej rzeczy, których nigdy nie zrobiła, ani nie powiedziała. To bardzo potężne narzędzia, które mogłyby trafić w ręce zarówno pospolitych oszustów, jak i agencji państwowych manipulujących opinią publiczną. Odróżnienie prawdy od fałszywej informacji (fake news) będzie coraz trudniejsze, może nawet niemożliwe.

Należy pamiętać, że twórcy rozwiązań wykorzystujących sztuczną inteligencję kierują się dobrymi intencjami, a ich motywacją jest zapewnienie wsparcia dla człowieka na różnych płaszczyznach życia. Możliwość podyktowania treści maila lub listy zakupów nawet w trakcie jazdy samochodem, zidentyfikowanie twarzy poszukiwanych przestępców dzięki inteligentnym systemom monitoringu czy odnalezienie starego przyjaciela – to tylko część funkcjonalności, które mają szansę poprawić naszą wydajność, bezpieczeństwo publiczne oraz kontakty międzyludzkie.

Zanim jednak inteligentne systemy staną się nieodzowną częścią naszego życia, warto rozważyć zarówno korzyści, jak i zagrożenia oraz upewnić się, że poświęcamy należytą uwagę środkom bezpieczeństwa. Obecnie większość technologii AI ma jedynie włącznik – używamy ich na sto procent albo wcale. Z czasem możemy się spodziewać rosnącej liczby ustawień pozwalających określić, jak dużo informacji o sobie chcemy udostępniać. Jako użytkownicy powinniśmy wymagać takiej możliwości od dostawców rozwiązań. Wtedy po dwóch stronach na szali stanie użyteczność oraz prywatność – istotne jest to, abyśmy sami mogli decydować o przechyleniu tej szali.

Źródło: F-Secure