
Komisja Europejska 21 kwietnia 2021 roku opublikowała długo oczekiwany projekt rozporządzenia ustanawiającego zharmonizowane zasady dotyczące sztucznej inteligencji ( tzw. ustawa o sztucznej inteligencji). Ustawa nie została oficjalnie przyjęta i nadal trwają prace nad jej poprawkami.
Celem ustawy jest zapewnienie jednolitych ram prawnych dla tworzenia, wprowadzenia do obrotu i korzystania z systemów sztucznej inteligencji. Sztuczna inteligencja jest coraz częściej wykorzystywana do podejmowania ważnych decyzji dotyczących życia ludzi, a do tej pory sprawowany jest niewielki nadzór nad jej działaniami, co prowadzić może do poważnych konsekwencji – niesłusznych aresztowań czy dyskryminacji.
Definicja sztucznej inteligencji

Ustawa o SI definiuje “system sztucznej inteligencji” jako oprogramowanie, które spełnia dwa następujące warunki:
- jest opracowane przy użyciu co najmniej jednej z technik i podejść wymienionych w Załączniku I do ustawy o SI (czyli np. uczenie maszynowe);
- może, dla danego zestawu celów określonych przez człowieka, generować wyniki takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję.
Proponowana definicja sztucznej inteligencji jest szeroka oraz neutralna pod względem technologicznym, w związku z tym wydaje się, że będzie mogła obejmować swoim zakresem wiele systemów.
Podejście oparte na ryzyku
Komisja Europejska zaproponowała podział systemów sztucznej inteligencji według ryzyka, jakie może spowodować dla człowieka:

- ryzyko niedopuszczalne – to wszelkie systemy, które mogą stanowić zagrożenie dla obywateli UE i są zakazane; do tej kategorii należą wszelkie systemy, które wykorzystują techniki podprogowe, będące poza świadomością ludzi, bądź systemy używane do celów wojskowych, a także systemy używane w Chinach do oceny społeczeństwa;
- wysokie ryzyko – systemy AI, które mogą wpływać na bezpieczeństwo ludzi lub ich podstawowe prawa, mają podlegać ścisłej regulacji, np. technologia stosowana w infrastrukturach krytycznych (np. transporcie), w usługach publicznych i prywatnych, w zarządzaniu migracją, azylem i kontrolą graniczną (np. weryfikacja autentyczności dokumentów podróży);
- ograniczone ryzyko – mogą one wywoływać pewne skutki, obowiązywać będą wymogi dotyczące przejrzystości, np. użytkownicy będą musieli być informowani, że rozmawiają z maszyną lub są przez nią obsługiwani, np. podczas rozmowy z chatbotem;
- minimalne ryzyko – pozostałe systemy, dla których nie przewidziano dodatkowych obowiązków, np. gry video, zdecydowana większość systemów AI stosowanych obecnie w UE należy do tej kategorii.
Systemy wysokiego ryzyka

Systemy SI objęte wysokim ryzykiem mogą być wprowadzone do obrotu, tylko wtedy, gdy będą spełniać określone wymogi:
- będą wyposażone w system zarządzania ryzykiem,
- spełnione zostaną kryteria jakościowe dla danych wykorzystywanych do szkolenia tych systemów,
- zostanie sporządzona i będzie aktualizowana dokumentacja techniczna tego systemu;
- zapewniona zostanie przejrzystość działania AI,
- a przede wszystkim – człowiek ma sprawować nadzór nad maszyną, która powinna być wyposażona w narzędzia pozwalające człowiekowi zatrzymać system bądź unieważnić decyzje SI.
System sztucznej inteligencji wysokiego ryzyka, zanim zostanie wprowadzony do użytku musi przejść procedurę oceny zgodności, następnie dopiero jak przejdzie testy zostanie opatrzony odpowiednim oznakowaniem CE. Niektóre systemy zostaną również objęte obowiązkiem rejestracji w bazie danych Komisji Europejskiej. Taki system będzie również poddany ciągłemu monitorowaniu, a wszelkie niezgodności systemu zostaną przekazane organom krajowym.
Pozostałe systemy
Do pozostałych systemów zastosowanie znajdą podstawowe zasady przejrzystości. Użytkownicy będą musieli zostać powiadomieni o tym, że wchodzą w interakcje z systemem sztucznej inteligencji, np. chatbotem, czy treściami generowanymi maszynowo (deepfakes).
Przewidziano pewne wyjątki od tego obowiązku, np. jeśli fakt interakcji z SI jest oczywisty na podstawie okoliczności i kontekstu użytkowania.
Nowe organy

Na mocy ustawy o sztucznej inteligencji powołana zostanie Europejska Rada ds. Sztucznej Inteligencji, w skład której wejdą przedstawiciele odpowiednich organów regulacyjnych z każdego kraju członkowskiego i która będzie odpowiedzialna za doradztwo, a także Europejski Inspektor Ochrony Danych i Komisja. Członkowie UE będą musieli również wyznaczyć organy krajowe, które będą miały za zadanie egzekwowanie przepisów ustawy o AI i zostaną one wyposażone w uprawnienia do nakładania kar administracyjnych.
Największe wyzwania

Ustawa ma chronić obywateli przed skutkami ubocznymi działania sztucznej inteligencji, poprzez zapewnienie odpowiedniego poziomu kontroli i odpowiedzialności. Dzięki temu ma powstać sztuczna inteligencja, która będzie budzić zaufanie wśród społeczeństwa. Proponowana regulacja, choć obowiązywać ma tylko w Unii Europejskiej, może posłużyć państwom spoza Wspólnoty jako wzór do tworzenia przyszłych regulacji.
Na ten moment niektóre z wymogów ustawy mogą być technicznie niemożliwe do spełnienia (np. obowiązek, by zbiory danych były wolne od błędów – zbiory danych wykorzystywane do uczenia AI są ogromne i praktycznie niemożliwe do zweryfikowania przez człowieka, co więcej sieci neuronowe, które są wbudowane w SI są tak złożone, że nawet ich twórcy nie do końca rozumieją, jak system dochodzi do określonych wniosków).
Poprawki do ustawy

W dalszym ciągu trwają dyskusję nad ustawą i wiele państw proponuje wprowadzenie poprawek. Do tej pory na etapie konsultacji społecznych otrzymano ponad 300 propozycji, od zainteresowanych stron z branży, organizacji pozarządowych, środowisk akademickich i innych, co wskazuje na znaczne zainteresowanie proponowanym rozporządzeniem w sprawie AI.
W styczniu 2022 roku, Francja zaproponowała zmiany w zakresie systemów zarządzania ryzykiem, zarządzania danymi, dokumentacji technicznej, prowadzenia rejestrów, przejrzystości i dostarczania informacji użytkownikom, nadzoru ludzkiego, dokładności, solidności i cyberbezpieczeństwa.
Z kolei Czechy w lipcu 2022 roku zaproponowały, by wprowadzić węższą definicję sztucznej inteligencji, zmieniony i skrócony wykaz systemów wysokiego ryzyka oraz wzmocnioną rolę Rady ds. AI.
Ostateczny tekst ustawy nadal nie został ustalony i pewnie minie jeszcze kilka lat zanim przedsiębiorstwa będą musiały się do ustawy dostosować. Aby akt ten stał się prawnie wiążący, musi przejść przez zwykłą procedurę ustawodawczą UE, która wymaga rozpatrzenia i zatwierdzenia proponowanego rozporządzenia przez Radę i Parlament Europejski.
Po przyjęciu, Akt o AI wejdzie w życie dwadzieścia dni po jego opublikowaniu w Dzienniku Urzędowym. W projekcie zaproponowano jednak okres 24 miesięcy, zanim ustawa zacznie obowiązywać.
Ustawa o AI będzie stosowana bezpośrednio we wszystkich krajach UE i nie będzie wymagała implementacji do prawa lokalnego państw członkowskich
Autor: Agata Konieczna
Credits: Robot icons created by Freepik – Flaticon
Risk icons created by mynamepong – Flaticon
Meeting icons created by juicy_fish – Flaticon