Czy jest potrzebny nowy, pozbawiony dezinformacji Internet?
W swojej prezentacji dr Konrad Maj przedstawiał przykłady zmanipulowanych przekazów tworzonych przez AI. Były to informacje głosowe, materiały wideo zawierające sztucznie przetworzone wizerunki osób mówiących zdania, których nigdy by nie wypowiedziały, a nawet fałszywe dowody osobiste, które nie wzbudziły zastrzeżeń na lotniskach.
Pytany jak należy się zachowywać w sytuacji, kiedy nie potrafimy stwierdzić czy to co widzimy na platformach cyfrowych czy w mediach społecznościowych jest prawdą czy nie – odparł, że tzw. krytyczne myślenie nie jest w takich sytuacjach przydatne, ponieważ nie jesteśmy w stanie zweryfikować wytworów sztucznej inteligencji. Podobnie działania edukacyjne na niewiele się w tej sytuacji zdadzą.
Jego zdaniem są konieczne działania prawników i regulatorów.
„Trzeba się wziąć za niektóre aplikacje, które umożliwiają generowanie tego typu treści” – powiedział.
Dodał, że deepfakes mogą być niebezpieczne dla naszego zdrowia i dla naszego bezpieczeństwa.
Czytaj także: Kongres FTB o AI Act
Zbudować równoległy Internet?
„Jestem zdania, że chyba jedyną nadzieją jest stworzenie jakiegoś zupełnie nowego Internetu, gdzie wejście w ten nowy Internet dla firm, instytucji czy osób będzie wymagało naprawdę mocnego uwiarygodnienia się, gdzie będą pewne jasne reguły, gdzie będzie również i prawo rządziło, i rzeczywiście będą interwencje prawne” – powiedział dr Konrad Maj.
„Jestem zdania, że na przykład platformy społecznościowe powinny działać na takich zasadach na jakich np. odbywa się podróż autobusem. Kiedy wsiadamy do autobusu to oczekujemy, że kierowca będzie trzeźwy. Oczekujemy, że ciśnienie w oponach będzie odpowiednie, że samochód będzie sprawny i my wchodząc na przykład na Facebooka czy na inne platformy powinniśmy mieć też pewność, że nic nam się złego nie stanie” – dodał.
Jak zauważył obecnie w mediach społecznościowych nie ma żadnej odpowiedzialności, żadnych kar za rozpowszechnianie fałszywych treści.
Tymczasem modele biznesowe niektórych platform cyfrowych są nakierowane na jak największy ruch, który generują w znacznym stopniu fałszywe treści. Platformy zwlekają z usuwaniem takich treści albo często w ogóle nie reagują na żądania ich usunięcia.
„Platformy internetowe mają swój biznes w tym wszystkim, żeby tam się dużo działo, żeby tętniły życiem. Aby były emocje muszą być właśnie rozmaite fejki, dezinformacje, bo wtedy ludzie się angażują, jest jakaś bijatyka” – mówił.
Zauważył, że część odbiorców dostrzega te wady mediów społecznościowych i nie chce się w nie angażować. Jego zdaniem pojawia się przestrzeń na to, żeby powstawały wiarygodne platformy informacyjne.
„I być może ludzie będą się przenosić na te nowe platformy, a na tych platformach tradycyjnych pozostaną sami hejterzy, osoby, które są pełne nienawiści, emocji. Może wtedy właściciele tych platform zorientują się, że to nie jest najlepsza strategia biznesowa, że być może jednak trzeba bardziej te platformy kontrolować, selekcjonować treści, penalizować za fałszywe treści” – zastanawiał się dr Konrad Maj.
Czytaj także: Deepfake jednym z głównych wyzwań w cyberświecie
Potrzebne regulacje i kary za ich nieprzestrzeganie
Pytany czy planowane wprowadzenie w Unii Europejskiej odpowiednich przepisów regulujących funkcjonowanie Internetu, platform cyfrowych i AI może przynieść dobre efekty odpowiedział, że słusznym jest, aby regulacje nakładały odpowiedzialność na podmioty, które w przestrzeni internetowej tworzą platformy do przekazywania informacji.
Tym razem nasz rozmówca posłużył się przykładem przepisów obowiązujących na autostradzie.
„Na autostradę nie wpuścimy wszystkich chętnych. Wiemy kto może wjechać i jak ma jechać. Jakimi ma się kierować zasadami, ma się trzymać pewnego swojego pasa. Nie może cofać samochodu. Są jakieś znaki, reguły. Wszystko jest jasne, przejrzyste.
I są konsekwencje prawne za nieprzestrzeganie tych zasad. Dokładnie taką autostradą do przekazywania informacji są media społecznościowe” – podsumował dr Konrad Maj.