ChatGPT 4.0 to nie rewolucja, to wezwanie do działania

ChatGPT 4.0 to nie rewolucja, to wezwanie do działania
Fot. stock.adobe.com
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Tworzenie treści o dowolnej strukturze i zawartości, wierne odtworzenie głosu czy filmy na których występują osoby nieistniejące w rzeczywistości - to tylko przykłady zastosowań tzw. generatywnej sztucznej inteligencji. Uruchomienie projektu ChatGPT 4.0 budziło spore emocje od kilku tygodni aż w końcu ujrzał on światło dzienne, pozwalając na testowanie go w realnym środowisku. To rozwiązanie, jak i wiele mu podobnych, może w istotny sposób wpłynąć na jakość naszej pracy, być może i życia w niektórych aspektach, ale może być także źródłem wielu zagrożeń, na które dzisiaj nie jesteśmy jeszcze przygotowani. Także w kontekście etyki, prawa i regulacji, pisze dr Michał Nowakowski, prezes PONIP.

W debacie publicznej coraz częściej pojawiają się informacje o wykorzystywaniu sztucznej inteligencji do tworzenia treści czy obrazów, które nie powinny znaleźć się w cyfrowym świecie. Mowa tutaj przede wszystkim o deep fake’ach, czyli po prostu praktycznie wiernemu odtworzeniu „czegoś” lub „kogoś”, jak również informacjach, które zostały wygenerowane na bazie nieprawdziwych informacji.

To oczywiście nie jedyne przykłady. Ich zastosowanie może mieć istotne – i przede wszystkim negatywne – konsekwencje dla osób, które w jakiś sposób zostaną nimi dotknięte, np. poprzez wykorzystanie wizerunku do szerzenia propagandowych i fałszywych treści czy „usadowienia” takiej osoby w kontrowersyjnej sytuacji. Naruszenie dóbr osobistych w takim przypadku wydaje się – raczej – oczywiste, a droga do odszkodowania powinna być otwarta i stosunkowo łatwa. Teoretycznie.

ChatGPT 4.0 jest i działa w realu, a regulacji nie ma

Dzisiaj zarówno w Unii Europejskiej, jak w krajowym systemie prawnym brakuje rozwiązań, które porządkowałyby kwestie wykorzystania w ogóle tego co nazywamy „sztuczną inteligencją”, zarówno w sferze wymagań, np. w odniesieniu do jakości danych czy nadzoru człowieka, jak i kwestii odpowiedzialności za działanie takich produktów i usług.

Takie braki mamy także w przestrzeni międzynarodowej, choć niektóre państwa zaczynają budować swoje ramy prawne (jak np. Stany Zjednoczone czy niektóre państwa członkowskie UE), które w przyszłości mogą stanowić fundamenty dla międzynarodowych traktatów, a które muszą zostać opracowane i przyjęte, jeżeli chcemy odpowiednio zarządzać ryzykiem związanym ze stosowaniem nie tylko generatywnej AI, ale w ogóle sztucznej inteligencji.

Dzisiaj wdrażanie i oferowanie takich systemów nie podlega zasadniczo żadnym – specyficznym – wymogom, a więc zastosowanie mogą mieć wyłącznie te przepisy, które obowiązują np. w relacjach kontraktowych. Jest to na tyle niebezpieczne, że choć systemy AI nie są tym do czego przyzwyczaiły nas hollywoodzkie produkcje, to jednak mają swoją odrębność, dotyczącą chociażby tego jak przetwarzane są dane, co na ich podstawie można osiągnąć, jak można uzyskać wyjaśnienie działania takiego rozwiązania czy tego w jaki sposób należy sprawować nad nimi nadzór.

Nie mogą więc – w dłuższej perspektywie – pozostać bez odpowiedniego uregulowania w sferze wymogów, jak i odpowiedzialności.

Czytaj także: Raport Specjalny | Horyzonty Bankowości 2023 | Bezpieczeństwo jest wartością biznesową samą w sobie

Ryzyko vs. globalne korzyści

Z drugiej strony pojawia się pytanie o nasz apetyt na ryzyko i ile jesteśmy (chcemy) poświęcić na rzecz rozwoju takich systemów. Rozwiązania w zakresie uczenia maszynowego i głębokiego, przetwarzania języka naturalnego czy nawet „tradycyjne” metody statystyczne mogą mieć bardzo pozytywny wpływ na społeczeństwo, np. w obszarze medycyny, „przewidywania” wystąpienia katastrof naturalnych czy zarządzania zasobami i logistyką.

Możliwości jest oczywiście znacznie więcej. Nawet wspomniana generatywna sztuczna inteligencja może być „dobra” i pomocna, a także przynosić konkretne korzyści biznesowe, np. różnego rodzaju asystenci czy marketing. Wszystko zależy jednak od tego w jaki sposób będą one tworzone, a także – a może przede wszystkim – w jaki sposób będą monitorowane i nadzorowane.

Pewna sfera autonomii systemów sztucznej inteligencji, którą powinniśmy wiązać przede wszystkim z procesem uczenia wiąże się z koniecznością ciągłej weryfikacji tego „co wchodzi i co wychodzi” w ramach jego funkcjonowania w przestrzeni oraz interakcji z człowiekiem. Brak takiej kontroli może być źródłem wielu zagrożeń, o czym mieliśmy okazję przekonać się na przestrzeni ostatnich lata.

Czytaj także: Co oznacza dla świata uruchomienie ChatGPT?

Na początek – definicja AI

Dziś, przynajmniej w ramach Unii Europejskiej, prowadzone są intensywne prace dotyczące wymogów dla niektórych systemów sztucznej inteligencji, odpowiedzialności za te systemy czy dopuszczalności udostępniania i wykorzystania określonych danych, w tym osobowych, na potrzeby ich trenowania oraz stosowania produkcyjnego.

Ostatnio na poziomie UE przyjęto ważny – choć nie pozbawiony wad – konsensus w zakresie przyjęcia definicji systemów AI, zgodnie z którą taki system oznacza system oparty na maszynie, który został zaprojektowany do działania ze zmiennym poziomem autonomii, i który może dla celów wyraźnych lub ukrytych, generować dane wyjściowe, takie jak przewidywania, zalecenia lub decyzje wpływające na środowisko fizyczne lub wirtualne. Definicja nie jest doskonała.

Dodatkowo trwają dyskusję nad potrzebą zdefiniowania pojęcia systemów sztucznej inteligencji ogólnego przeznaczenia czy generatywnej AI. Dopiero w chwili, kiedy unijny prawodawca będzie miał pewność co do tych elementów, będziemy mogli podjąć decyzję co do kierunku dalszych zmian legislacyjnych. Jest to więc tematyka, która dzisiaj stanowi jedno z fundamentalnych zagadnień do rozstrzygnięcia.

Samo prawne uporządkowanie tych kwestii zajmie jednak co najmniej kilka lat i może wymagać dostosowania także przepisów krajowych, np. w zakresie odpowiedzialności pozakontraktowej.

Do tego czasu niewątpliwie będzie istniał stan dużej niepewności (także biznesowej), ale i brakować będzie odpowiednich instrumentów do przeciwdziałania nadużyciom, które niewątpliwie będą się pojawiały.

Dużą rolę będą tutaj pełniły wyjaśnienia, opinie i rekomendacje organów regulacyjnych i nadzorczych, także w aspekcie etycznego wykorzystania takich narzędzi, ale także sądy, które będą musiały poszukiwać odpowiedzi w przepisach, które niekoniecznie odpowiadają specyfice AI.

Pewnej ochrony można poszukiwać w Karcie Praw Podstawowych czy przyjętej niedawno deklaracji w sprawie praw i zasad cyfrowych, a także przepisach o ochronie danych osobowych czy związanych z rynkiem cyfrowym.

Na dzisiaj wydaje się jednak, że jest to jedynie zalążek i potrzeba głębszej ochrony prawnej będzie niezbędna wraz z coraz dynamiczniejszym rozwojem rozwiązań opartych o sztuczną inteligencję. Kluczowa będzie też edukacja, także kadr organów sektora publicznego.

Czeka nas więc niewątpliwie jeszcze dużo pracy, która jednak musi być wykonana, jeżeli chcemy czuć się bezpiecznie w świecie cyfrowym, w którym spędzamy coraz większą część naszego życia.

Czytaj także: O sztucznej inteligencji, definicjach i przyszłości biznesu AI

Dr Michał Nowakowski prezes Zarządu PONIP.
Dr Michał Nowakowski, prezes Zarządu PONIP. Źródło: PONIP

Poglądy i opinie wyrażone w niniejszym artykule stanowią wyłącznie osobiste poglądy autora i nie mogą być utożsamiane z poglądami lub opiniami instytucji, z którą autor jest lub był związany.

Źródło: BANK.pl