21 maja 2024 r., po ponad trzech latach prac, Rada Europejska oficjalnie przyjęła akt ws. sztucznej inteligencji – AI Act.
AI Act to rozporządzenie Parlamentu Europejskiego i Rady UE, którego celem jest zharmonizowanie przepisów dotyczących sztucznej inteligencji, tak by „AI była godna zaufania i bezpieczna oraz rozwijana i wykorzystywana w sposób zgodny z obowiązkami wynikającymi z praw podstawowych” (motyw 3 preambuły). Zgodnie z zamysłem prawodawcy unijnego, akt ten miał wyprzedzić krajowe regulacje tej dziedziny, żeby zapobiec chaosowi prawnemu wewnątrz Unii – jako że AI Act jest rozporządzeniem, ma być on stosowany bezpośrednio we wszystkich państwach członkowskich Unii Europejskiej.
Jakie problemy prawne w Unii Europejskiej rodzi sztuczna inteligencja?
Sztuczna inteligencja dotyka wielu dziedzin życia – ochrony zdrowia, edukacji ale również codziennego życia prywatnego każdego z nas. Głównymi zasadami kierującymi każdą z nich są prawa podstawowe człowieka, za którymi w Unii Europejskiej stoi Karta Praw Podstawowych Unii Europejskiej (Dz.U. C 202 z 7.6.2016, s. 389). Akt ten stanowi gwarancję i ochronę dla godności człowieka, prawa do życia, szeroko pojętej wolności i równości oraz wielu innych praw. Sztuczna inteligencja, która w zamyśle prowadzić miała do poszerzania naszego życiowego komfortu, do pewnego rodzaju uniezależniania od drugiego człowieka, końcowo nie doprowadziła do poszerzenia naszej wolności, a zaczęła jej bezpośrednio zagrażać.
Karta Praw Podstawowych przedstawia dwanaście różnych przejawów wolności, dla których jest ochroną. Pośród nich wymienia poszanowanie życia prywatnego i rodzinnego, ochronę danych osobowych oraz wolność wypowiedzi i informacji. Rozwój sztucznej inteligencji pokazał w jak dużym stopniu może ona w sposób de facto legalny wpłynąć negatywnie na te wolności, znacząco je ograniczając.
W tym zakresie na szczególne ryzyko wystawiona jest ochrona danych osobowych. Sztuczna inteligencja zdolna jest bowiem do gromadzenia nieograniczonej ilości danych o jednostce i wykorzystywania tych danych w celu podjęcia interakcji z jednostką. Aktualnie nie dziwi już fakt dobierania przez sztuczną inteligencję konkretnych reklam pod potrzeby i zainteresowania jednostki. Niebezpieczeństwem z tego wynikającym jest możliwość manipulowania decyzjami obserwowanej jednostki przez sztuczną inteligencję.
Zagrożenie dla ochrony danych osobowych ujawnione zostało przez włoski urząd ochrony danych osobowych (GPDP), który w marcu 2023 roku wszedł w spór z firmą OpenAI i nakazał tymczasowego zaprzestania świadczenia usług dla obywateli Włoch przez tę firmę, która jest właścicielem usługi ChatGPT. Niejasną stała się przede wszystkim podstawa gromadzenia danych osobowych przez ChatGPT, które składały się na jego „bazę treningową”.
Sztuczna inteligencja wraz ze swoim rozwojem stawia nowe wyzwania również w dziedzinie prawa autorskiego. Podstawową kontrowersją w tym zakresie jest kwestia przypisania autorstwa wytworowi stworzonemu przez sztuczną inteligencję a tym samym czy wytwór wygenerowany przez AI jest w ogóle utworem, zgodnie z definicją zawartą w art. 1 ust. 1 ustawy o prawie autorskim. Ponadto pod znakiem zapytania staje również źródło pozyskiwanych przez sztuczną inteligencję utworów do wspomnianej wcześniej „bazy treningowej” – czy działania te nie naruszają tym samym praw autorów, których utwory stają się częścią tego „źródła wiedzy”.
W jaki sposób AI Act odpowiada na potrzeby prawne Unii Europejskiej?
Według unijnych ustawodawców AI Act w sposób kompleksowy podejmuje tematykę sztucznej inteligencji. Na ten moment nie możemy oczywiście ocenić na ile regulacja ta będzie skuteczna, ale na pewno jest ona kompleksowym wprowadzeniem do dalszej pracy nad koegzystencją sztucznej inteligencji z człowiekiem żyjącym w ładzie prawnym Unii Europejskiej.
Wraz z publikacją pierwszych projektów tekstu AI Act, pojawiły się spore wątpliwości co do jego kompatybilności z RODO. Podnoszono wówczas, że pomimo założenia o wzajemnym uzupełnianiu się tych dwóch aktów, AI Act był sprzeczny z przepisami RODO. Zastrzeżenia te zostały wysłuchane i już w treści sprostowania z 17.04.2024 r. czytamy: „Niniejsze rozporządzenie nie ma wpływu na rozporządzenia (UE) 2016/679 [dop. RODO] lub (UE) 2018/1725, ani na dyrektywy 2002/58/WE lub (UE) 2016/680, bez uszczerbku dla art. 10 ust. 5 i art. 59 niniejszego rozporządzenia.” (art. 2 ust. 7). Pierwotna wersja tekstu w ogóle nie przewidywała takiego zapisu.
Mimo tych zmian wprowadzone zostaje na nowo pojęcie „danych biometrycznych”, które definiowane jest szerzej niż w RODO, ponieważ według AI Actu nie jest koniecznym, aby dane identyfikowane jako biometryczne „umożliwiały lub potwierdzały jednoznaczną identyfikację tej osoby” (art. 3 ust. 34), co wymagane jest przez RODO. Dalej natomiast, AI Act postrzega, zarówno pojęcie „szczególnych kategorii danych osobowych”, jak i samych „danych osobowych” jako tożsame z definicjami RODO. Wprowadzone przy tym zostały nowe pojęcia „identyfikacji biometrycznej” i „weryfikacji biometrycznej”. Przykład ten nie przekreśla kompatybilności AI Actu z RODO, jednakże obrazuje możliwą mniejszą przejrzystość przepisów w tej materii.
Istotnym jest również fakt bezwzględnego ukierunkowania przez AI Act rozwoju sztucznej inteligencji zorientowaniem na człowieka, a więc żeby służyła jako narzędzie dla ludzi, „którego ostatecznym celem jest zwiększenie dobrostanu człowieka” (motyw 6). AI Act wzmacnia ochronę praw podstawowych wprowadzając konkretne rozwiązania, które mają na celu dostosowanie tej ochrony do realiów sztucznej inteligencji; regulacje w tym zakresie wychodzą naprzeciw wielu scenariuszom, w których AI mogłoby te prawa naruszyć. Scenariuszy takich jest wiele, natomiast przepisy nie konkretyzują zamkniętej listy takich przypadków a nakładają obowiązek na podmioty stosujące AI wysokiego ryzyka, do przeprowadzenia oceny danego systemu pod kątem gwarancji praw podstawowych odbiorców, zanim ten zostanie docelowo wykorzystany. Oznacza to, że wprowadzenie jakiegokolwiek systemu AI wysokiego ryzyka na rynek uzależnione będzie od dowiedzenia respektowania przez niego praw podstawowych człowieka.
AI Act nie pozostaje również ślepy na tematykę prawno-autorską, pomimo że nie rozstrzyga o autorstwie wytworu wygenerowanego przez sztuczną inteligencję, to sygnalizuje problematykę „źródła wiedzy sztucznej inteligencji” i czerpania przez nią inspiracji z utworów dla niej łatwo dostępnych. Dużą nowością staje się obowiązek ujawnienia („w stosownych przypadkach”) informacji dotyczących wykorzystanych zbiorów danych treningowych, walidacyjnych i testowych. Tym samym systemy AI mają stać się transparentne, tak by każdy odbiorca wiedział na jakiej podstawie dany system się „uczył” i czy nie naruszył tym samym praw autorskich twórców treści, na której się opiera. Tym samym otworzy autorom drogę do dochodzenia ewentualnych roszczeń względem twórców systemu AI.
Co ważne, wydaje się, że AI Act stawia na konkretne rozwiązania, które mają odpowiadać wprost na przedstawione w preambule problemy. Przykładem takim jest na pewno obowiązek oznaczenia treści sztucznie wygenerowanych lub zmanipulowanych jako tak zwany „deepfake”. Doczekaliśmy się tym samym ustawowej definicji pojęcia „deepfake” (art. 3 ust. 60). Podnosi się jednak, że definicja ta dalej nie będzie wystarczająca i nie obejmie swym działaniem wszystkich sytuacji manipulacji odbiorcą. Mianowicie aktualne brzmienie tej definicji nie obejmuje swym zakresem wszystkich treści a jedynie: „obrazy, treści dźwiękowe lub treści wideo”, wykluczając tym samym treści tekstowe.
AI Act – pierwszy, ale czy nie ostatni?
AI Act jest pierwszym na świecie aktem prawnym, który kompleksowo reguluje materię dotyczącą sztucznej inteligencji, jak wynika to z oficjalnej strony Parlamentu Europejskiego[1]. Faktem jest natomiast, że to Chiny jako pierwsze wprowadziły regulacje dotyczące sztucznej inteligencji. Jednakże obu regulacjom przyświecają skrajnie różne cele. Unia Europejska dąży do regulacji minimalizującej szkody ponoszone przez społeczeństwo w wyniku zbyt szybkiego i niekontrolowanego rozwoju sztucznej inteligencji przy jednoczesnym wsparciu dalszej innowacji technologicznej. Zgodnie z motywem 8 preambuły:
„Ustanawiając te przepisy, a także środki wspierające innowacje, […], niniejsze rozporządzenie wspiera realizację celu, jakim jest promowanie europejskiego zorientowanego na człowieka podejścia do AI i znalezienie się przez Unię w światowej czołówce, jeśli chodzi o rozwój bezpiecznej, godnej zaufania i etycznej AI. […]”
Chiny natomiast motywują wprowadzanie regulacji chęcią legalizacji państwowej kontroli treści przekazywanej obywatelom. Są one zatem z założenia zupełnie innymi aktami prawnymi.
Oczywiście inne kraje również dostrzegają konieczność regulacji sztucznej inteligencji, jednakże nie wypracowały one do tej pory sektorowego kompromisu, który pozwoliłby na wprowadzenie nowego prawa. Przykładowo Wielka Brytania w 2023 r. podjęła się prac mających na celu wdrożenie systemowych regulacji sztucznej inteligencji w kraju. W przeciwieństwie do AI Actu, rząd Wielkiej Brytanii opracowuje ramy oparte na zasadach, które istniejące organy regulacyjne będą interpretować i stosować w swoich sektorach. Na tym etapie określone zostało pięć międzysektorowych zasad, co do których organy mają się stosować w zakresie wykorzystywania sztucznej inteligencji. Tym samym nie można na tym etapie mówić już o kompleksowej regulacji AI w Wielkiej Brytani a jedynie wstępnych rozmowach w jej zakresie.
Stany Zjednoczone nie podjęły się na razie stworzenia takiej legislacji, odrzucając przy tym zarówno regulację zaproponowaną przez Unię Europejską jak i Chiny. Tutaj najczęściej podnoszone jest stanowisko, że Stany Zjednoczone są krajem z największym rynkiem sztucznej inteligencji, którego zbyt pochopna regulacja może przekreślić dalszą innowację. Kongres Stanów Zjednoczonych stanął w związku z tym przed nie lada wyzwaniem legislacyjnym, jakim jest zapewnienie „otwartego i konkurencyjnego ekosystemu AI” przy jednoczesnej minimalizacji szkody społeczeństwa i przeciwstawieniu się założeniom chińskim. Dlatego też w Stanach Zjednoczonych podkreśla się, że regulacja taka musi powstać, jednakże będzie jednym z największych wyzwań legislacyjnych w historii kraju.
Tak jak zostało to przedstawione powyżej, AI Act jest bardzo rozległym i bogatym w nowe definicje aktem prawnych. Jego publikacja zaplanowana została na przełom czerwca i lipca 2024 r. a dopiero 20 dni później akt oficjalnie wejdzie w życie. W tym też czasie wprowadzimy Państwa szczegółowo w najważniejsze zagadnienia tego aktu, które wstępnie poruszone zostały w tej publikacji.
Autor:
aplikantka radcowska
[1] https://www.europarl.europa.eu/topics/pl/article/20230601STO93804/akt-ws-sztucznej-inteligencji-pierwsze-przepisy-regulujace-ai, dostęp 08.06.2024