Analizę AI Act rozpocząć należy od zrozumienia zakresu tej regulacji. Pierwszy wpis z serii „Sezon na AI” (tutaj) przedstawił ogólny cel i zakres nowej regulacji z perspektywy człowieka, który jest odbiorcą sztucznej inteligencji. Nie wskazano przy tym czy akt ten dotyczy każdego systemu sztucznej inteligencji (AI), który wchodzi w interakcję z człowiekiem, czy tylko systemów konkretnych.
Prawodawca unijny dokonuje hierarchizacji systemów AI ze względu na ryzyko, które wiąże się z jego wykorzystaniem. Ryzyko na rzecz tej regulacji definiowane jest jako „połączenie prawdopodobieństwa wystąpienia szkody oraz jej dotkliwości”. Patrząc przez pryzmat celu tego aktu, a zatem regulacji stosunku sztuczna inteligencja – człowiek, ryzyko dotyczy szkody na człowieku oraz jej dotkliwości a zatem ogólnego, negatywnego wpływu sztucznej inteligencji na człowieka.
AI Act, różnicując systemy AI według powyższej reguły dzieli je na cztery kategorie:
1.Systemy AI niedopuszczalnego ryzyka
Pierwszą kategorię systemów AI definiuje art. 5 AI Act, który wprost zaznacza, że są to systemy oparte na zabronionych tym aktem praktykach. Tym samym systemy AI, które niosą ze sobą niedopuszczalne ryzyko, a tj. niedopuszczalnie wysokie prawdopodobieństwo wystąpienia szkody na człowieku, która mogłaby być niedopuszczalnie dotkliwa, są zabronione – zakazane jest ich wprowadzanie do obrotu, oddawanie do użytku lub jakiekolwiek wykorzystywanie.
Systemy te należy pojmować szeroko jako te, które naruszają prawa podstawowe człowieka, pośród których wyróżnić można przede wszystkim systemy, które potocznie można nazwać „manipulatorami”, które manipulują samą jednostką, na szkodę której działają albo odbiorcami tego systemu. Systemy takie stosują techniki podprogowe oraz wykorzystują słabości człowieka, np. w celu niekorzystnej dla niego zmiany zachowania, podjęcia decyzji, czy jego niekorzystnego traktowania. Zakazany jest zatem tzw. scoring społeczny w modelu chińskim, czyli system oceny społeczeństwa na podstawie zachowań społecznych poszczególnych jednostek, które prowadzą do ich nieadekwatnego pokrzywdzenia; nieadekwatnego ze względu na wagę ich zachowania – małe przewinienie powodowałoby ogromne pokrzywdzenie dla jednostki, jak i kontekstu – informacje o jednostce pozyskane w danej dziedzinie życia przykładałyby się w sposób dla niej krzywdzący na inną niepowiązaną dziedzinę życia. Przykładowo zatem przejście na czerwonym świetle powodowałoby utratę możliwości pozyskania pracy w zawodzie zaufania publicznego.
Zakazane jest również co do zasady wykorzystywanie systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw. Sztuczna inteligencja również nie może służyć prognozowaniu przestępczości na podstawie cech charakterystycznych osób, takich jak narodowość, rasa, wyznanie czy orientacja seksualna, ale również miejsce zamieszkania czy rodzaj samochodu. Osoby zatem nie mogą być oceniane na podstawie prognozowanych przez system AI zachowań a jedynie na podstawie zachowań faktycznych i dokonanych.
2.Systemy AI wysokiego ryzyka
System AI wysokiego ryzyka rozumiany będzie odpowiednio przez ten akt jako system, który niesie ze sobą wysokie prawdopodobieństwo wystąpienia szkody, której dotkliwość będzie dla człowieka wysoka. Są to systemy dozwolone, natomiast ze względu na możliwość spowodowania przez nie dotkliwej szkody, wymagają one szczególnej regulacji, tak by skutecznie ograniczyć możliwość jej wystąpienia.
To te systemy stanowią główny przedmiot regulacji AI Act, ponieważ dotyczą kluczowych dziedzin życia człowieka w sferze publicznej. Systemy te wykorzystywane są w obszarach, które chronią obywateli w dziedzinie zdrowia, bezpieczeństwa i praw podstawowych.
Systemy te wykorzystywane są obszarach związanych z:
- infrastrukturą krytyczną, np. transportem, obiegiem wody, gazu i prądu;
- dozwoloną przez prawo unijne biometrią, np. systemy do zdalnej identyfikacji;
- ściganiem przestępstw, np. wariograf; oraz wymiarem sprawiedliwości, np. systemy wykorzystywane przez sędziów do interpretacji stanów faktycznych i przepisów prawa;
- zarządzaniem kontrolą graniczną, migracją i azylem, np. systemy dotyczące rozpatrywania wniosków o udzielenie azylu.
Nie są to natomiast jedyne obszary, w których systemy AI wysokiego ryzyka są wykorzystywane. Systemy AI wysokiego ryzyka wykorzystywane mogą być również w dziedzinach znacznie bliższych człowiekowi na co dzień, a mianowicie w związku z:
- kształceniem i szkoleniem zawodowym, np. systemy oceny kandydatów na studia wyższe;
- zatrudnieniem, zarządzaniem pracownikami i dostępem do samozatrudnienia, np. systemy oceny kandydatów do pracy, oceny ich CV.
Prawodawca unijny zaznacza jednak, że dokonując analizy systemu, zanim zaklasyfikujemy go do systemów AI wysokiego ryzyka, powinniśmy powrócić do definicji słowa ryzyko. Jeżeli nie stwarza on wysokiego prawdopodobieństwa wystąpienia szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, ponieważ np. wykonuje on jedynie wąsko określone zadanie proceduralne albo jedynie poprawia wyniku pracy dokonanej uprzednio przez człowieka, to nie będzie on stanowił systemu AI wysokiego ryzyka. Chyba że system ten dokonuje profilowania osób fizycznych; wtedy samo wykorzystanie go w powyższych obszarach decyduje o jego kwalifikacji jako systemu AI wysokiego ryzyka.
3.Systemy AI ograniczonego ryzyka
Systemy zaliczane do tej kategorii niosą ze sobą ograniczone ryzyko wystąpienia szkody. Prawdopodobieństwo jego wystąpienia nie jest natomiast wysokie, tak jak i jej ewentualna dotkliwość. Nie stanowią one zatem systemu AI wysokiego ryzyka.
Do kategorii tej zaliczane są systemy, których używanie związane jest z możliwością wprowadzenia użytkownika w błąd lub jego manipulacją. Przede wszystkim zaliczane są do nich generatywne systemy AI, takie jak ChatGPT. Nie obejmą ich zatem szczególne regulacje przewidziane dla systemów wysokiego ryzyka, natomiast ich wprowadzenie obwarowane będzie spełnieniem wymogów transparentności. Osoba korzystająca z takiego systemu musi być poinformowana wprost, że wchodzi w interakcję z systemem AI, chyba że jest to oczywiste.
4.Systemy AI minimalnego ryzyka (w tym braku ryzyka)
Systemy te niosą ze sobą minimalne prawdopodobieństwo wystąpienia szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, bądź w ogóle go nie stwarzają. Przykładowo za system taki uznać należy podstawowy filtr spamu na skrzynce mailowej. Systemy te nie podlegają żadnym regulacjom AI Act.
Autor:
aplikantka radcowska