Nowa regulacja UE dotycząca sztucznej inteligencji, drakońskie kary za naruszenie przepisów

Nowa regulacja UE dotycząca sztucznej inteligencji, drakońskie kary za naruszenie przepisów
Fot. stock.adobe.com/bluebackimage
Udostępnij Ikona facebook Ikona LinkedIn Ikona twitter
Komisja Europejska ogłosiła projekt rozporządzenia w sprawie sztucznej inteligencji w Unii Europejskiej. To pierwsze podejście do ogólnego uregulowania tego zagadnienia, pisze Piotr Gałązka, adwokat, ekspert ds. Unii Europejskiej, pełniący funkcję dyrektora Przedstawicielstwa Związku Banków Polskich w Brukseli.

W ramach pakietu legislacyjnego „Europa na miarę ery cyfrowej” zaproponowano przepisy, które mają zagwarantować bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw, a także wpłynąć na upowszechnienie sztucznej inteligencji w całej UE.

Nowe przepisy mają zatem przede wszystkim za zadanie wykorzystać wartość dodaną, którą niesie za sobą sztuczna inteligencja przy jednoczesnym ostrożnym podejściu mającym na celu zwalczanie ryzyk związanych z korzystaniem z AI.

Zakazy i kary

Widać wyraźnie podobieństwo przepisów nowych przepisów do rozporządzenia RODO – Komisja chce uregulować sztuczną inteligencję w podobnym duchu, tworząc projekt rozporządzenia zgodnie z podejściem opartym na ryzyku (risk based approach), nie zaś na legalistycznym wyznaczaniu sztywnych ram regulacyjnych.

Projekt rozporządzenia zawiera zakazy niektórych zastosowań systemów sztucznej inteligencji wysokiego ryzyka i zezwala na wprowadzanie na rynek wewnętrzny UE ryzykownych technologii sztucznej inteligencji tylko wtedy, gdy zostaną one zweryfikowane i uznane za akceptowalne i wartościowe.

Naruszenia przepisów mogą skutkować nałożeniem kar finansowych w wysokości – tak jak w RODO – do 20 milionów euro lub 4 procent ich całkowitego rocznego obrotu na świecie danego podmiotu.

Zakazany social scoring

Przepisy projektu wprowadzają zakazy stosowania sztucznej inteligencji, która może być zagrożeniem dla bezpieczeństwa, źródeł utrzymania i praw obywateli.

Przykładem takich systemów mogą być aplikacje wykorzystujące sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników, w tym dzieci, a także oraz systemy oceny punktowej obywateli (tzw. social scoring).

Systemy o ograniczonym i niskim ryzyku będą mogły funkcjonować w łagodniejszym rygorze, przy zachowaniu zasad transparentności

Ponadto, projekt określa systemy, które uznawane są za wysoce ryzykowne – dotyczące m.in. infrastruktury krytycznej, zasad zatrudnienia, bezpieczeństwa publicznego czy egzekwowania prawa. Systemy wysokiego ryzyka będą musiały spełniać wyższe wymogi przed ich wprowadzeniem do obrotu, w tym nadzór przez ludzi czy prowadzenie szczegółowej dokumentacji.

Systemy o ograniczonym i niskim ryzyku będą mogły funkcjonować w łagodniejszym rygorze, przy zachowaniu zasad transparentności.

Nadzór – również podobnie jak w RODO – będzie funkcjonował na poziomie krajowym, koordynowany w UE przez Europejską Radę ds. Sztucznej Inteligencji. Projekt przewiduje także tworzenie tzw. piaskownic regulacyjnych w celu oceny i monitorowania nowych technologii.

Źródło: aleBank.pl