Nowa regulacja UE dotycząca sztucznej inteligencji, drakońskie kary za naruszenie przepisów
W ramach pakietu legislacyjnego „Europa na miarę ery cyfrowej” zaproponowano przepisy, które mają zagwarantować bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw, a także wpłynąć na upowszechnienie sztucznej inteligencji w całej UE.
Nowe przepisy mają zatem przede wszystkim za zadanie wykorzystać wartość dodaną, którą niesie za sobą sztuczna inteligencja przy jednoczesnym ostrożnym podejściu mającym na celu zwalczanie ryzyk związanych z korzystaniem z AI.
Zakazy i kary
Widać wyraźnie podobieństwo przepisów nowych przepisów do rozporządzenia RODO – Komisja chce uregulować sztuczną inteligencję w podobnym duchu, tworząc projekt rozporządzenia zgodnie z podejściem opartym na ryzyku (risk based approach), nie zaś na legalistycznym wyznaczaniu sztywnych ram regulacyjnych.
Projekt rozporządzenia zawiera zakazy niektórych zastosowań systemów sztucznej inteligencji wysokiego ryzyka i zezwala na wprowadzanie na rynek wewnętrzny UE ryzykownych technologii sztucznej inteligencji tylko wtedy, gdy zostaną one zweryfikowane i uznane za akceptowalne i wartościowe.
Naruszenia przepisów mogą skutkować nałożeniem kar finansowych w wysokości – tak jak w RODO – do 20 milionów euro lub 4 procent ich całkowitego rocznego obrotu na świecie danego podmiotu.
Zakazany social scoring
Przepisy projektu wprowadzają zakazy stosowania sztucznej inteligencji, która może być zagrożeniem dla bezpieczeństwa, źródeł utrzymania i praw obywateli.
Przykładem takich systemów mogą być aplikacje wykorzystujące sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników, w tym dzieci, a także oraz systemy oceny punktowej obywateli (tzw. social scoring).
Systemy o ograniczonym i niskim ryzyku będą mogły funkcjonować w łagodniejszym rygorze, przy zachowaniu zasad transparentności
Ponadto, projekt określa systemy, które uznawane są za wysoce ryzykowne – dotyczące m.in. infrastruktury krytycznej, zasad zatrudnienia, bezpieczeństwa publicznego czy egzekwowania prawa. Systemy wysokiego ryzyka będą musiały spełniać wyższe wymogi przed ich wprowadzeniem do obrotu, w tym nadzór przez ludzi czy prowadzenie szczegółowej dokumentacji.
Systemy o ograniczonym i niskim ryzyku będą mogły funkcjonować w łagodniejszym rygorze, przy zachowaniu zasad transparentności.
Nadzór – również podobnie jak w RODO – będzie funkcjonował na poziomie krajowym, koordynowany w UE przez Europejską Radę ds. Sztucznej Inteligencji. Projekt przewiduje także tworzenie tzw. piaskownic regulacyjnych w celu oceny i monitorowania nowych technologii.