AI Act – próba uregulowania sztucznej inteligencji
Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji (dalej jako „AI Act”, „Akt w sprawie sztucznej inteligencji, „Rozporządzenie”), które zostało opublikowane w Dzienniku Urzędowym UE w dniu 12 lipca 2024 r., to obecnie najnowsza i najbardziej kompleksowa regulacja, dotycząca sztucznej inteligencji, na świecie. Akt ten ustanawia jednakowe ramy prawne w zakresie powstawania sztucznej inteligencji oraz korzystania z jej rozmaitych systemów i rozwiązań.
Niniejszy tekst ma na celu zwięzłe przedstawienie nowych rozwiązań prawnych, wprowadzonych mocą AI Act, a także wynikających stąd obowiązków dla przedsiębiorców.
Do kogo skierowany jest AI ACT? Czy są jakieś wyłączenia od jego stosowania?
Nowe regulacje kierowane są przede wszystkim do przedsiębiorców, którzy wprowadzają do obrotu, oddają do użytku lub stosują systemy AI, działających na terenie Unii Europejskiej. Wedle terminologii AI Act, wskazane podmioty nazywamy łącznie „operatorami” – co obejmuje zbiorczo: dostawców, upoważnionych przedstawicieli, importerów, dystrybutorów, producentów produktów uwzględniających systemy AI oraz podmioty stosujące takie systemy w ramach własnej działalności.
Rozporządzenie stosuje się przy tym nie tylko do podmiotów, które mają siedzibę w UE, ale też pozostałych – w przypadku, gdy dana działalność, związana z systemami AI (w tym: wprowadzanie do obrotu, oddawanie do użytku lub stosowanie), prowadzona jest w obrębie Wspólnoty (zob. art. 2 ust. 1 AI Act).
Oczywiście, Rozporządzenie przewiduje liczne przypadki, gdy jego przepisy nie znajdują zastosowania. Dotyczy to zwłaszcza:
- systemów AI lub modeli AI, w tym ich wyników – rozwiniętych i oddanych do użytku wyłącznie do celów badań naukowych i rozwojowych (art. 2 ust. 6 AI Act).
- działalności badawczej, testowej ani rozwojowej dotyczącej systemów AI lub modeli AI przed wprowadzeniem ich do obrotu lub oddaniem ich do użytku – z zastrzeżeniem testów w warunkach rzeczywistych (art. 2 ust. 8 AI Act)
- osób fizycznych, które korzystają z systemów AI w ramach czysto osobistej działalności pozazawodowej (art. 2 ust. 10 AI Act).
- systemów AI udostępnianych na podstawie bezpłatnych licencji otwartego oprogramowania, chyba że systemy te są wprowadzane do obrotu lub oddawane do użytku jako systemy AI wysokiego ryzyka, systemy AI ograniczonego ryzyka (z art. 50 Rozporządzenia) lub stanowią zakazane praktyki w zakresie AI (zob. art. 2 ust. 12 AI Act).
Jakie są cele AI Act?
Celem AI Act jest poprawa funkcjonowania rynku wewnętrznego, promowanie upowszechniania zorientowanej na człowieka i godnej zaufania sztucznej inteligencji (AI), przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych oraz wspieranie innowacji – ze szczególnym uwzględnieniem mikro-, małych i średnich przedsiębiorstw (MŚP), w tym przedsiębiorstw typu Startup (zob. art. 1 ust. 1 i 2 AI Act).
Rozporządzenie zakłada, że „AI powinna być technologią zorientowaną na człowieka. Powinna ona służyć jako narzędzie dla ludzi, którego ostatecznym celem jest zwiększenie dobrostanu człowieka” (Motyw 6 AI Act). Aby to osiągnąć, AI powinna spełniać siedem zasad etycznych, na które składa się: „przewodnia i nadzorcza rola człowieka; solidność techniczna i bezpieczeństwo; ochrona prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminacja i sprawiedliwość; dobrostan społeczny i środowiskowy oraz odpowiedzialność” (zob. Motyw 27 AI Act).
Ambicją AI Act jest „promowanie europejskiego zorientowanego na człowieka podejścia do AI i znalezienie się przez Unię w światowej czołówce, jeśli chodzi o rozwój bezpiecznej, godnej zaufania i etycznej AI” (Motyw 8 AI Act).
Czym jest sztuczna inteligencja w znaczeniu AI ACT? Jaka jest różnica pomiędzy systemem AI a modelem AI?
Co ciekawe, ustawodawca europejski nie pokusił się o zdefiniowanie pojęcia „sztucznej inteligencji” jako takiej. W to miejsce, AI Act operuje następującymi, kluczowymi pojęciami:
- „system AI” – oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne (art. 3 pkt. 1 AI Act).
- „model AI ogólnego przeznaczenia” oznacza model AI, w tym model AI trenowany dużą ilością danych z wykorzystaniem nadzoru własnego na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model ten jest wprowadzany do obrotu, i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla – z wyłączeniem modeli AI, które są wykorzystywane na potrzeby działań w zakresie badań, rozwoju i tworzenia prototypów przed wprowadzeniem ich do obrotu (art. 3 pkt. 63 AI Act).
- „system AI ogólnego przeznaczenia” oznacza system AI oparty na modelu AI ogólnego przeznaczenia, który to system może służyć różnym celom, nadający się zarówno do bezpośredniego wykorzystania, jak i do integracji z innymi systemami AI (art. 3 pkt. 63 AI Act).
Centralnym pojęciem AI Act jest „system AI”, który w pewnym uproszczeniu należy rozumieć jako program komputerowy, charakteryzujący się autonomią i zdolnością do adaptacji po wdrożeniu, mogący generować wyniki w oparciu o wprowadzane dane wejściowe. Zgodnie z Motywem 12 AI Act „Systemy AI mogą być wykorzystywane jako samodzielne rozwiązania lub jako element produktu, niezależnie od tego, czy system jest fizycznie zintegrowany z produktem (wbudowany), czy też służy realizacji funkcji produktu, choć nie jest z nim zintegrowany (niewbudowany)”.
AI Act w odniesieniu do systemów AI określa: zakazane praktyki (Rozdział II), a także regulacje dot. systemów AI wysokiego ryzyka (Rozdział III) oraz systemów AI ograniczonego ryzyka (tzw. obowiązki w zakresie przejrzystości, uwzględnione w Rozdziale IV).
Z kolei „model AI ogólnego przeznaczenia” to termin wprowadzony do AI Act w odpowiedzi na gwałtowny rozwój tzw. dużych modeli językowych (LLM – Large Language Models), takich jak Chat GPT. Zgodnie z Motywem 97 Rozporządzenia „Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika”. AI Act przewiduje więc, że konstytutywną cechą omawianych modeli jest ich szeroki zakres zastosowania i możliwość integracji z systemami niższego szczebla. Owocem takiej integracji może być „system AI” służący określonym celom (np. ocenie kandydatów do pracy) lub „system AI ogólnego przeznaczenia”, mający potencjalnie rozmaite zastosowania – który nadaje się do bezpośredniego użycia, jak również łączenia z bardziej wyspecjalizowanymi systemami.
AI Act w odniesieniu do modeli AI ogólnego przeznaczenia przewiduje odrębny zakres obowiązków, określony w Rozdziale V.
Warto też dodać, że jeżeli dostawca modelu AI ogólnego przeznaczenia zdecyduje się udostępnić go na rynku w połączeniu z systemem AI – to obciążają go łącznie obowiązki z Rozdziałów II-IV i z Rozdziału V (zob. Motyw 97 AI Act).
Treść powyższych obowiązków omawiamy szerzej w kolejnych punktach opracowania.
Kto jest kim w AI Act? Jak odróżnić „dostawcę” systemu od „importera”, „dystrybutora” i „podmiotu stosującego”?
Chcąc przejść do omówienia bardziej szczegółowych zagadnień – warto przybliżyć zasadniczą terminologię, stosowaną w AI ACT. I tak:
- Dostawca – to podmiot mający siedzibę w Unii lub poza Unią, który rozwija system AI (bezpośrednio lub za pomocą osoby trzeciej), a także „wprowadza go do obrotu” lub „oddaje do użytku” na terenie UE pod własną nazwą lub własnym znakiem towarowym.
- Importer – to podmiot mający siedzibę w Unii, który „wprowadza do obrotu” w UE system AI opatrzony nazwą lub znakiem towarowym osoby mającej siedzibę w państwie trzecim (poza UE).
- Dystrybutor – to podmiot, który „udostępnia system AI na rynku” UE, inny niż dostawca lub importer:
UWAGA: przez „wprowadzenie do obrotu” oraz „oddanie do użytku” rozumiemy na gruncie AI Act odpowiednio „udostępnienie” (w ramach działalności handlowej) lub „użycie bezpośrednie” (przez podmiot stosujący) danego systemu AI po raz pierwszy na terenie UE. Z kolei „udostępnienie na rynku” to każdorazowe dostarczenie systemu AI celem jego dystrybucji.
Oznacza to więc, że podmiot, który jako pierwszy wprowadza system AI do obrotu lub oddaje go do użytku w UE – będzie zawsze „dostawcą” lub „importerem” tego systemu. Natomiast kolejne podmioty w łańcuchu dostaw (np. resellerzy) to już „dystrybutorzy”.
Przedmiotowe rozróżnienie ma kluczowe znaczenie z perspektywy zakresu obowiązków, które spożywają na poszczególnych uczestnikach obrotu (operatorach systemów AI).
Czy AI Act przewiduje takie same obowiązki co do wszystkich systemów AI?
W Rozporządzeniu dokonano podziału systemów AI wedle podejścia opartego na analizie ryzyka (j. ang. risk-based approach), którego istotą jest dostosowanie przepisów do intensywności i zakresu ryzyka, jakie mogą powodować systemy AI (zob. Motyw 26 AI Act). W konsekwencji wyodrębniono:
- Zakazane praktyki w zakresie AI (zob. art. 5 AI Act)– których stosowanie jest bezwzględnie niedopuszczalne. Przykład: niektóre systemy, służące do klasyfikacji osób fizycznych na podstawie zachowania społecznego (social scoring).
- Systemy AI wysokiego ryzyka – których stosowanie jest dopuszczalne pod warunkiem spełnienia rygorystycznych wymogów, ustanowionych przepisami Rozporządzenia (zob. art. 6 i nast. AI Act oraz Załącznik III AI Act). Przykład: systemy z obszaru zatrudniania i zarządzania pracownikami, wykorzystywane do celów rekrutacji lub wyboru osób fizycznych, w szczególności do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania podań o pracę oraz do oceny kandydatów
- Systemy AI ograniczonego ryzyka – odnośnie do których Rozporządzenie wprowadza tylko określone obowiązki w zakresie przejrzystości (zob. art. 50 i nast. AI Act). Przykład: systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z człowiekiem, w tym systemy generujące treści w postaci obrazów, wideo lub tekstu (np. ChatGPT).
- Systemy AI niskiego ryzyka – których działalność nie została uregulowana w wyraźny sposób, w związku z czym nie wprowadzono w stosunku do nich żadnych szczególnych obowiązków. Przykład: filtry spamu.
Dla porządku należy dodać, że pojęcia „zakazanych praktyk w zakresie AI” oraz „systemów wysokiego ryzyka” zostały w sposób wyraźny wprowadzone w AI Act. Natomiast „Systemy ograniczonego ryzyka” i „Systemy niskiego ryzyka” to terminy wprowadzone przez praktykę.
Czym są zakazane praktyki w zakresie AI?
Szczegółową listę zakazanych praktyk zakresie AI określa art. 6 Rozporządzenia. Do tej kategorii zaliczamy wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywania systemów AI, które:
- stosują techniki podprogowe lub celowe techniki manipulacyjne celem doprowadzenia do podjęcia przez daną osobę (lub grupę osób) decyzji, której w innym wypadku by nie podjęła, w sposób, który wyrządza lub może wyrządzić u tej osoby lub innych osób poważną szkodę.
- wykorzystują słabość danej osoby (lub grupy osób) ze względu na wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, czego celem lub skutkiem jest znacząca zmiana zachowania danej osoby, która wyrządza lub może uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub innych osób poważną szkodę.
- wprowadzają systemy oceny lub klasyfikacji osób fizycznych lub grup osób na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych (tzw. social scoring), prowadzące do krzywdzącego lub niekorzystnego traktowania: a) w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zebrano dane lub b) jest nieuzasadnione lub nieproporcjonalne do danego zachowania społecznego.
- służą do przeprowadzania ocen ryzyka w odniesieniu do osób fizycznych, by ocenić lub przewidzieć ryzyko popełnienia przestępstwa przez taką osobę, wyłącznie na podstawie profilowania oceny jej cech osobowości i cech charakterystycznych.
- tworzą lub rozbudowują bazy danych służące rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie (ang. untargeted scraping) wizerunków twarzy z internetu lub nagrań z telewizji przemysłowej.
- służą do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa.
- systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje wrażliwe, to jest informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej.
- wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw, chyba że jest to bezwzględnie konieczne do celów poszukiwania osób zaginionych, przewidywania ataków terrorystycznych lub lokalizowania i identyfikacji osób podejrzanych o popełnienie określonych, kwalifikowanych przestępstw (zasadniczo: zagrożonych karą pozbawienia wolności przez okres, którego górna granica to co najmniej 4 lata).
Zakazane praktyki, jak sama nazwa wskazuje, są niedopuszczalne – a w przypadku ich stosowania AI Act przewiduje możliwość naliczenia wysokich kar administracyjnych.
UWAGA: należy mieć na uwadze, że celem powyższego wyliczenia jest zarysowanie kluczowych elementów zakazanych praktyk. Dla jasności niekiedy pominięto fragmenty ich definicji lub wyjątki wskazane w treści Rozporządzenia. Konkretna ocena danej praktyki każdorazowo wymaga indywidualnej analizy.
Czym są systemy AI wysokiego ryzyka?
Definicja systemów AI wysokiego ryzyka, zawarta w Rozporządzeniu, ma dwojaki charakter. Za takie systemy uznaje się więc:
I. systemy AI, wskazane art. 6 ust. 1 AI Act, które:
- stanowią produkt objęty unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I do Rozporządzenia.
- stanowią element związany z bezpieczeństwem ww. produktu, rozumiany jako „element produktu lub systemu AI, który spełnia funkcję bezpieczeństwa w przypadku tego produktu lub systemu AI lub którego awaria bądź nieprawidłowe działanie zagrażają zdrowiu i bezpieczeństwu osób lub mienia” (zob. art. 3 pkt. 14 Rozporządzenia).
- zgodnie z unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku I do Rozporządzenia – podlegają, jako produkt lub element związany z bezpieczeństwem produktu, ocenie zgodności przez stronę trzecią w związku z wprowadzeniem tego produktu do obrotu lub oddaniem go do użytku.
II. systemy AI, wskazane art. 6 ust. 2 AI Act, które zostały uznane za systemy AI wysokiego ryzyka w treści załącznika III do Rozporządzenia. Dotyczy to systemów z obszarów:
- Biometria – co obejmuje: a) systemy zdalnej identyfikacji biometrycznej, b) systemy AI przeznaczone do wykorzystania przy kategoryzacji biometrycznej, według wrażliwych lub chronionych atrybutów oraz c) systemy AI przeznaczone do wykorzystania przy rozpoznawaniu emocji.
- Infrastruktura krytyczna – systemy AI przeznaczone do wykorzystywania jako związane z bezpieczeństwem elementy procesów zarządzania infrastrukturą krytyczną.
- Kształcenie i szkolenie zawodowe – systemy AI wykorzystywane m.in. do podejmowania decyzji o przyjęciu do instytucji edukacyjnych, oceny efektów kształcenia oraz monitorowania niedozwolonych zachowań.
- Zatrudnienie i zarządzanie pracownikami – systemy AI wykorzystywane m.in. do oceny kandydatów w trakcie rekrutacji, a także podejmowania decyzji o warunkach zatrudnienia (np. awansach, przydziale zadań itd.).
- Dostęp do podstawowych usług prywatnych oraz podstawowych usług i świadczeń publicznych – systemy AI wykorzystywane m.in. do podejmowania decyzji o przyznaniu świadczeń publicznych (np. opieki zdrowotnej), oceny zdolności kredytowej, oceny ryzyka i ustalaniu warunków ubezpieczenia na życie i ubezpieczenia zdrowotnego, a także ustalania priorytetów w zakresie wysyłania służb publicznych (w tym policji, straży pożarnej i pomocy medycznej).
- Ściganie przestępstw – systemy AI przeznaczone do wykorzystywania przez organy ścigania, w szczególności: a) celem oceny ryzyka, że dana osoba stanie się ofiarą przestępstwa lub popełni przestępstwo, b) jako wariografy, c) do oceny dowodów, d) celem profilowania w toku wykrywania i ścigania przestępstw.
- Zarządzanie migracją, azylem i kontrolą graniczną – systemy AI przeznaczone do wykorzystywania przez właściwe organy publiczne, w szczególności: a) jako wariografy, b) do celów oceny ryzyka stwarzanego przez osobę fizyczną, która wjechała lub zamierza wjechać do państwa członkowskiego, c) cele wspierania przy rozstrzygania wniosków o azyl, wydanie wizy lub dokumentów pobytowych.
- Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne – systemy AI, które: a) wspierają organy wymiaru sprawiedliwości w badaniu i interpretacji stanu faktycznego i przepisów prawa oraz w stosowaniu prawa lub b) są przeznaczone do wywierania wpływu na wynik wyborów lub referendów.
Rozporządzenie zawiera w art. 6 ust. 3 istotne zastrzeżenie, iż „systemu AI, o którym mowa w załączniku III, nie uznaje się za system wysokiego ryzyka, w przypadku, gdy nie stwarza on znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, w tym poprzez brak znaczącego wpływu na wynik procesu decyzyjnego”. Przepis precyzuje to pojęcie poprzez wskazanie szeregu przypadków, gdy ma ono zastosowanie, co obejmuje zwłaszcza systemy AI przeznaczone do wykonywania wąsko określonego zadania proceduralnego, a także do czynności realizowanych już po podjęciu decyzji lub wymagających weryfikacji przez człowieka. Nadto, zastrzega, iż omawiane wyłączenie nie znajduje zastosowania do systemów dokonujących profilowania osób fizycznych.
Dostawca uznający, iż dany system nie stanowi systemu AI wysokiego ryzyka w trybie omówionego art. 6 ust. 3 AI Act ma jednak obowiązek sporządzenia stosownej oceny (która może podlegać weryfikacji przez właściwe organy krajowe), a także rejestracji systemu w bazie danych UE (zob. art. 6 ust. 4 w zw. z art. 49 ust. 2 i art. 71 AI Act).
UWAGA: należy mieć na uwadze, że celem powyższego wyliczenia jest zarysowanie kluczowych cen systemów AI wysokiego ryzyka. Dla jasności niekiedy pominięto fragmenty ich definicji lub wyjątki wskazane w treści Rozporządzenia. Konkretna ocena danego systemu każdorazowo wymaga indywidualnej analizy.
Jakie obowiązki spoczywają na dostawcach systemów AI wysokiego ryzyka?
Zakres obowiązków operatora uzależniony jest od jego statusu. W przypadku dostawców obowiązki te są najszersze i zgodnie z art. 16 Rozporządzenia obejmują w szczególności:
- zapewnienie zgodności systemu z wymogami art. 8 i nast. Rozporządzenia (Rozdział III Sekcja 2), co zasadniczo oznacza:
- W przypadku gdy produkt zawiera system AI, do którego mają zastosowanie wymogi unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A (stanowiącego tzw. nowe ramy prawne) – zapewnienie zgodności ze wspomnianym prawodawstwem (zob. art. 8 AI Act).
- wdrożenie, udokumentowanie i obsługę systemu zarządzania ryzykiem (zob. art. 9 AI Act).
- w przypadku systemów, które wykorzystują techniki obejmujące trenowanie modeli AI z wykorzystaniem danych – korzystanie ze zbiorów danych treningowych, walidacyjnych i testowych spełniających kryteria jakości, o których mowa w art. 10 AI Act. Oznacza to w szczególności, że „Zbiory danych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego otoczenia geograficznego, kontekstualnego, behawioralnego lub funkcjonalnego, w którym ma być wykorzystywany system AI wysokiego ryzyka” (art. 10 ust. 4 AI Act).
- projektowanie i rozwijanie systemu w sposób zapewniający przejrzystość działania, w tym poprzez stworzenie instrukcji obsługi (art. 13 AI Act).
- wyposażenie systemu w techniczne możliwości automatycznego rejestrowania zdarzeń (tzw. „rejestr zdarzeń”) w całym cyklu życia danego systemu (art. 12 AI Act).
- zapewnienie odpowiednich narzędzi interfejsu człowiek-maszyna, tak aby system mógł być skutecznie nadzorowane przez osoby fizyczne (art. 14 AI Act), a także dokładności, solidności i cyberbezpieczeństwa systemu (art. 15 AI Act).
– w sposób umożliwiający wykazanie dochowania ww. wymogów (w ramach procesu tzw. „oceny zgodności”).
- Podanie w systemie AI wysokiego ryzyka lub – przypadku, gdy nie jest to możliwe – na jego opakowaniu lub w dołączonej do niego dokumentacji, stosownie do przypadku, nazwy dostawcy, jego zarejestrowanej nazwy handlowej lub zarejestrowanego znaku towarowego i adresu, pod którym można się z nimi skontaktować;
- Wdrożenie systemu zarządzania jakością (zob. art.17 AI Act) .
- Prowadzenie przez okres 10 lat od wprowadzenia systemu AI wysokiego ryzyka do obrotu lub oddania go do użytku dokumentacji systemu w zakresie określonym w art. 18 AI Act, co obejmuje zwłaszcza dokumentację techniczną (zob. art. 11 i Załącznik IV AI Act).
- Zapewnienie, aby system przed wprowadzeniem do obrotu lub oddaniem do użytku został poddany odpowiedniej procedurze oceny zgodności, a także sporządzenie deklaracji zgodności UE, opatrzenie systemu (lub jego opakowania bądź dokumentacji) oznakowaniem CE i dokonanie rejestracji systemu w bazie danych UE – zgodnie z art. 43 i nast. AI Act.
Jak widać, powyższy katalog obowiązków dostawcy jest rozległy. Uznanie, iż dany system spełnia definicje systemu AI wysokiego ryzyka ma więc w praktyce daleko idące konsekwencje.
Czy operator systemu AI wysokiego ryzyka, który pierwotnie nie był dostawcą (np. importer lub dystrybutor), może nabyć ten status po wprowadzeniu systemu do obrotu lub oddaniu go do użytku?
Tak. Artykuł 25 Rozporządzenia wprowadza tzw. zasadę odpowiedzialności w całym łańcuchu wartości AI. Jej istotą jest, że za dostawcę uznaje się nie tylko podmiot, który pełni tą rolę wedle definicji zawartej w Rozporządzeniu (a więc rozwija system AI, a także „wprowadza go do obrotu” lub „oddaje do użytku” na terenie UE pod własną nazwą lub własnym znakiem towarowym – zob. omówienie we wcześniejszym punkcie), ale też każdego dystrybutora, importera, podmiot stosujący lub inną stronę trzecią, jeżeli zachodzi którakolwiek z następujących okoliczności:
- umieszczają oni swoją nazwę lub znak towarowy w systemie AI wysokiego ryzyka, który został już wprowadzony do obrotu lub oddany do użytku,
- we wprowadzonym już do obrotu lub oddanym do użytku systemie AI wysokiego ryzyka dokonują oni istotnej zmiany w taki sposób, że pozostaje on systemem AI wysokiego ryzyka. Przez „istotną zmianę” należy przy tym rozumieć „modyfikację w systemie AI po jego wprowadzeniu do obrotu lub oddaniu do użytku, która nie została przewidziana lub zaplanowana przy początkowej ocenie zgodności przeprowadzonej przez dostawcę i która ma wpływ na zgodność systemu AI z wymogami ustanowionymi w rozdziale III sekcja 2, lub która powoduje zmianę przeznaczenia, w odniesieniu do którego oceniono system AI” (art. 3 pkt. 23 AI Act),
- zmieniają oni przeznaczenie systemu AI, w tym systemu AI ogólnego przeznaczenia, który nie został zaklasyfikowany jako system AI wysokiego ryzyka i który został już wprowadzony do obrotu lub oddany do użytku, w taki sposób, że dany system AI staje się systemem AI wysokiego ryzyka.
Jakie obowiązki spoczywają na importerach i dystrybutorach systemów AI wysokiego ryzyka?
Obowiązki operatorów systemów AI wysokiego ryzyka, innych niż dostawca – odnoszą się przede wszystkim do weryfikacji, czy dostawca zrealizował w pełni wymogi Rozporządzenia.
Importer systemu AI wysokiego ryzyka, zgodnie z art. 23 AI Act, ma w szczególności obowiązek:
- zapewnić zgodność systemu z AI Act poprzez sprawdzenie czy: a) dostawca sporządził dokumentację techniczną zgodnie z art. 11 i załącznikiem IV AI Act; b) dostawca przeprowadził odpowiednią procedurę oceny zgodności, o której mowa w art. 43 AI Act oraz c) system opatrzono wymaganym oznakowaniem CE oraz dołączono do niego deklarację zgodności UE, o której mowa w art. 47 Rozporządzenia, oraz instrukcję obsługi.
- podać w systemie AI wysokiego ryzyka, na opakowaniu tego systemu lub, w stosownych przypadkach, w dołączonej do niego dokumentacji swoją nazwę, zarejestrowaną nazwę handlową lub zarejestrowany znak towarowy i adres, pod którym można się z nimi skontaktować.
- przez okres 10 lat od wprowadzenia systemu do obrotu lub oddania go do użytku – przechowywać kopię certyfikatu wydanego przez jednostkę notyfikowaną, w stosownych przypadkach, kopię instrukcji obsługi oraz deklaracji zgodności UE.
- w przypadku gdy ma wystarczające powody, aby uważać, że system AI wysokiego ryzyka jest niezgodny z Rozporządzeniem lub został sfałszowany lub sfałszowana została dołączona do niego dokumentacja – nie wprowadza tego systemu do obrotu, dopóki nie zostanie zapewniona jego zgodność z Rozporządzeniem.
- w przypadku gdy system AI wysokiego ryzyka stwarza ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych osób (w rozumieniu art. 79 ust. 1 Rozporządzenia) – informuje o tym dostawcę systemu, upoważnionych przedstawicieli oraz organy nadzoru rynku.
Dystrybutor systemu AI wysokiego ryzyka, zgodnie z art. 24 AI Act, ma w szczególności obowiązek sprawdzenia, przed udostępnieniem na rynku systemu AI wysokiego ryzyka, czy:
- system został opatrzony wymaganym oznakowaniem zgodności CE,
- dołączono do niego kopię deklaracji zgodności UE, o której mowa w art. 47 Rozporządzenia, i instrukcję obsługi oraz
- dostawca oraz – w stosownych przypadkach – importer tego systemu spełnili swoje obowiązki w zakresie podania swoich danych w systemie (lub w stosownym wypadku na opakowaniu systemu bądź w jego dokumentacji).
- w przypadku gdy ma wystarczające powody, aby uważać, że system AI wysokiego ryzyka nie jest zgodny z wymogami ustanowionymi w Rozdziale III sekcji 2 Rozporządzenia (omówionymi szerzej w niniejszym opracowaniu przy wyliczeniu obowiązków dostawcy) – nie wprowadza tego systemu do obrotu, dopóki nie zostanie zapewniona jego zgodność z tymi wymogami.
- w przypadku gdy system AI wysokiego ryzyka stwarza ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych osób (w rozumieniu art. 79 ust. 1 Rozporządzenia) – informuje o tym stosownie do przypadku dostawcę lub importera systemu.
Jak widać z powyższego – obowiązki importera są znacznie szersze niż obowiązki dystrybutora (istotniejsze różnice zostały zaznaczone podkreśleniami).
Jakie obowiązki spoczywają na podmiotach stosujących systemy AI wysokiego ryzyka?
W przypadku podmiotów stosujących systemy AI wysokiego ryzyka – katalog obowiązków określa zasadniczo art. 26 Rozporządzenia. Obowiązki te odnoszą się do prawidłowej eksploatacji takich systemów i obejmują w szczególności:
- podejmowanie odpowiednich środków technicznych i organizacyjnych w celu zapewnienia, aby system AI wysokiego ryzyka był wykorzystywany zgodnie z dołączoną do nich instrukcją obsługi (art. 26 ust. 1 AI Act).
- powierzanie sprawowania nadzoru ze strony człowieka osobom fizycznym, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie (art. 26 ust. 2 AI Act).
- monitorowanie działania systemu AI wysokiego ryzyka w oparciu o instrukcję obsługi i w stosownych przypadkach informowanie dostawcy – w ramach tzw. systemu monitorowania po wprowadzeniu do obrotu (art. 26 ust. 5 w zw. z art. 72 AI Act).
- w przypadku gdy podmiot stosujący ma powody uważać, że wykorzystanie systemu AI wysokiego ryzyka zgodnie z instrukcją obsługi może powodować, że ten system AI będzie stwarzał ryzyko dla zdrowia i bezpieczeństwa lub praw podstawowych osób (w rozumieniu art. 79 ust. 1 Rozporządzenia) – poinformowanie o tym bez zbędnej zwłoki dostawcy lub dystrybutora oraz odpowiedniego organu nadzoru rynku i zawieszenie wykorzystywania systemu.
- przechowywanie generowanego automatycznie przez system AI wysokiego ryzyka rejestru zdarzeń – w zakresie, w jakim rejestry te znajdują się pod kontrolą podmiotu stosującego – przez stosowny ze względu na przeznaczenie danego systemu AI wysokiego ryzyka okres, wynoszący co najmniej sześć miesięcy.
- przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy – poinformowanie przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka.
- w przypadku systemów wysokiego ryzyka, o których mowa w Załączniku III do Rozporządzenia, przy użyciu których podmiot stosujący podejmuje decyzje lub uczestniczy w podejmowaniu decyzji dotyczących osób fizycznych – poinformowanie osób fizycznych o tym, że jest w stosunku do nich wykorzystywany system AI wysokiego ryzyka.
Czym są systemy AI ograniczonego ryzyka? Jakie obowiązki spoczywają na dostawcach i podmiotach stosujących takie systemy?
Przez systemy AI ograniczonego ryzyka rozumiemy w niniejszym opracowaniu systemy objęte obowiązkami w zakresie przejrzystości, o których mowa w art. 50 Rozporządzenia. Chodzi tutaj więc o systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi.
Zgodnie z AI Act, dostawcy ww. systemów zapewniają, aby „zainteresowane osoby fizyczne były informowane o tym, że prowadzą interakcję z systemem AI, chyba że jest to oczywiste z punktu widzenia osoby fizycznej, która jest dostatecznie poinformowana, uważna i ostrożna, z uwzględnieniem okoliczności i kontekstu wykorzystywania” (art. 50 ust. 1 AI Act). Przepisy przewidują, że:
1. Dostawcy systemów AI, w tym systemów AI ogólnego zastosowania, generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu (do której to kategorii zaliczamy systemy tzw. generatywnej sztucznej inteligencji, jak np. Chat GPT itd.), zapewniają, aby wyniki systemu AI zostały oznakowane w formacie nadającym się do odczytu maszynowego i były wykrywalne jako sztucznie wygenerowane lub zmanipulowane (art. 50 ust. 2 AI Act).
2. Podmioty stosujące systemy rozpoznawania emocji lub systemy kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania (art. 50 ust. 3 AI Act) – przy czym:
- przez „system rozpoznawania emocji” należy rozumieć „system AI służący do identyfikacji lub wywnioskowania emocji lub zamiarów osób fizycznych na podstawie danych biometrycznych tych osób”, a więc danych które są „wynikiem specjalnego przetwarzania technicznego, które dotyczą cech fizycznych, fizjologicznych lub behawioralnych osoby fizycznej, takich jak wizerunek twarzy lub dane daktyloskopijne” (zob. art. 3 pkt. 34 i 39 AI Act).
- przez „system kategoryzacji biometrycznej” należy rozumieć „system AI służący do przypisywania osób fizycznych do określonych kategorii na podstawie danych biometrycznych tych osób, oprócz przypadków, gdy taki system pełni funkcję pomocniczą w stosunku do innej usługi komercyjnej i jest bezwzględnie konieczny z obiektywnych względów technicznych” (zob. art. 3 pkt. 40 AI Act).
3. Podmioty stosujące system AI, który generuje obrazy, treści audio lub wideo stanowiące treści deepfake lub który manipuluje takimi obrazami lub treściami, ujawniają, że treści te zostały sztucznie wygenerowane lub zmanipulowane (art. 50 ust. 4 AI Act). Przez deepfake należy przy tym rozumieć „wygenerowane przez AI lub zmanipulowane przez AI obrazy, treści dźwiękowe lub treści wideo, które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe” (art. 3 pkt. 60 AI Act).
UWAGA:
- Należy podkreślić, iż w przypadku systemów rozpoznawania emocji, systemów kategoryzacji biometrycznej oraz systemów generujących treści deepfake – obowiązki w zakresie przejrzystości spoczywają na podmiotach stosujących dany system (a nie tylko dostawcach), a więc na każdym użytkowniku.
- Jak już wskazano, systemy AI ograniczonego ryzyka będą w praktyce często systemami generatywnej sztucznej inteligencji, opartymi na modelach AI ogólnego przeznaczenia. Oznacza to, że dostawcy takich systemów będą często zobligowani nie tylko do przestrzegania obowiązków omówionych w bieżącym punkcie, ale też obowiązków dedykowanych dostawcom wspomnianych modeli.
Jakie obowiązki spoczywają na dostawcach modeli AI ogólnego przeznaczenia?
Jak już wskazano wcześniej, kluczową cechą modeli AI ogólnego przeznaczenia jest ich szeroki zakres zastosowania i możliwość integracji z systemami niższego szczebla, często dostarczanych przez osoby trzecie (dostawców niższego szczebla) – które „wymagają dobrego zrozumienia modeli i ich zdolności, zarówno by umożliwić integrację takich modeli z ich produktami, jak i by spełniać obowiązki ustanowione w niniejszym rozporządzeniu lub innych przepisach” (Motyw 101 AI Act). Z tego względu, Rozporządzenie kładzie nacisk na zapewnienie przez dostawców modeli stosownej przejrzystości.
Zgodnie z art. 53 ust. 1 Rozporządzenia AI, dostawcy modeli AI ogólnego przeznaczenia:
- sporządzają i aktualizują dokumentację techniczną modelu, w tym proces jego trenowania i testowania oraz wyniki jego oceny, zawierającą co najmniej informacje określone w załączniku XI do celów przekazania ich, na wniosek, Urzędowi ds. AI i właściwym organom krajowym;
- sporządzają, aktualizują i udostępniają informacje i dokumentację dostawcom systemów AI, którzy zamierzają zintegrować model AI ogólnego przeznaczenia ze swoimi systemami AI. Dokumentacja powinna umożliwiać dobre zrozumienie możliwości i ograniczeń danego modelu AI, a także zawierać co najmniej elementy określone w załączniku XII AI Act.
- wprowadzają politykę służącą zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych (o czym więcej w dalszych punktach opracowania).
- sporządzają i podają do wiadomości publicznej wystarczająco szczegółowe streszczenie na temat treści wykorzystanych do trenowania danego modelu AI ogólnego przeznaczenia, zgodnie ze wzorem dostarczonym przez Urząd ds. AI.
– przy czym z obowiązków wskazanych w ad. 1 i 2 zwolnieni są dostawcy modeli AI, które są udostępniane na podstawie bezpłatnej licencji otwartego oprogramowania (z zastrzeżeniem modeli AI ogólnego przeznaczenia z ryzykiem systemowym).
Z perspektywy podmiotów stosujących modele oraz dostawców systemów niższego szczebla – istotnym jest więc, że mogą zgłosić się do dostawców modeli AI ogólnego przeznaczenia o udostępnienie dedykowanej im części dokumentacji.
Czym są modele AI ogólnego przeznaczenia z ryzykiem systemowym? Czy na dostawcach takich modeli spoczywają dodatkowe obowiązki?
Pojęcie „ryzyka systemowego” na gruncie Rozporządzenia definiowane jest jako „ryzyko, które jest charakterystyczne dla modeli AI ogólnego przeznaczenia posiadających zdolności dużego oddziaływania i ma znaczący wpływ na rynek Unii ze względu na zasięg tych modeli lub rzeczywiste lub dające się racjonalnie przewidzieć negatywne skutki dla zdrowia publicznego, porządku publicznego, bezpieczeństwa publicznego, praw podstawowych lub całego społeczeństwa, mogące rozprzestrzenić się na dużą skalę w całym łańcuchu wartości” (art. 3 pkt. 65 AI Act).
Modelem AI ogólnego przeznaczenia z ryzykiem systemowym jest taki modeli AI, który spełnia dowolną z przesłanek określonych w art. 51 AI Act, w tym:
1) ma zdolności dużego oddziaływania, rozumiane jako „zdolności, które dorównują zdolnościom zapisanym w najbardziej zaawansowanych modelach AI ogólnego przeznaczenia lub je przewyższają” – ocenione w oparciu o odpowiednie narzędzia i metodologie techniczne, w tym wskaźniki i poziomy odniesienia (art. 51 ust. 1 w zw. z art. 3 pkt. 64 AI Act). Istnienie dużego oddziaływania domniemywa się w przypadku, gdy łączna liczba obliczeń wykorzystywanych do trenowania modelu, mierzona w operacjach zmiennoprzecinkowych, jest większa niż 1025 (art. 51 ust. 2 AI Act).
2) w oparciu o decyzję Komisji – wydawaną w przypadku, gdy model posiada zdolności równoważne ze wskazanymi w punkcie poprzedzającym, przy uwzględnieniu kryteriów określonych w załączniku XIII AI Act.
Dostawcy modeli AI ogólnego przeznaczenia z ryzykiem systemowym, oprócz obowiązków wskazanych w punkcie poprzedzającym, dodatkowo:
- dokonują oceny modelu zgodnie ze znormalizowanymi protokołami i narzędziami odzwierciedlającymi najaktualniejszy stan wiedzy technicznej, w tym przeprowadzają i dokumentują kontradyktoryjne testy modelu z myślą o zidentyfikowaniu ryzyka systemowego i jego ograniczenia;
- oceniają i ograniczają ewentualne ryzyko systemowe na poziomie Unii, w tym jego źródła, które może wynikać z rozwoju, wprowadzania do obrotu lub wykorzystywania modeli AI ogólnego przeznaczenia z ryzykiem systemowym;
- rejestrują, dokumentują i niezwłocznie zgłaszają Urzędowi ds. AI oraz, w stosownych przypadkach, właściwym organom krajowym odpowiednie informacje dotyczące poważnych incydentów i ewentualnych środków naprawczych służących zaradzeniu im;
- zapewniają odpowiedni poziom cyberochrony modelu AI ogólnego przeznaczenia z ryzykiem systemowym oraz infrastruktury fizycznej tego modelu.
Czy i w jaki sposób AI Act odnosi się do praw autorskich i praw pokrewnych – zwłaszcza w kontekście danych wejściowych, używanych do trenowania systemów AI, a także generowanych przezeń wyników?
Zagadnienie, z uwagi na jego obszerność, omawiamy w odrębnym tekście, dostępnym TUTAJ.
Co grozi za naruszenie Rozporządzenia?
Główną sankcją, jaka może być nałożona w razie naruszenia przepisów Rozporządzenia, są kary pieniężne, których wysokość, zgodnie z art. 99 AI Act, uzależniona jest od rodzaju uchybienia:
- Nieprzestrzeganie zakazu praktyk w zakresie AI -> podlega karze w wysokości do 35 000 000 EUR lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – do 7 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.;
- Nieprzestrzeganie któregokolwiek z przepisów dotyczących operatorów lub jednostek notyfikowanych, inne niż wskazane w poprzedzającym punkcie (do której to kategorii zapewne zaliczać się będzie większość przypadków) -> podlega karze w wysokości do 15 000 000 EUR lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 3 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
- Dostarczanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym lub właściwym organom krajowym w odpowiedzi na ich wniosek -> podlega karze w wysokości do 7 500 000 EUR lub – jeżeli sprawcą naruszenia jest przedsiębiorstwo – w wysokości do 1 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
Co ciekawe, w przypadku MŚP, w tym przedsiębiorstw typu startup, wysokość kary nie przekracza wartości procentowej lub kwoty, o których mowa powyżej, w zależności od tego, która z tych kwot jest niższa (zob. art. 99 ust. 6 AI Act). Regulacja ta, jak się zdaje, może się w praktyce okazać istotna zwłaszcza dla podmiotów o niskich przychodach.
Od kiedy obowiązują przepisy AI Act?
Rozporządzenie wiąże w całości i jest bezpośrednio stosowane we wszystkich Państwach członkowskich. Niemniej, art. 113 AI Act wprowadza poszczególne daty początkowe, od momentu których będą zaczynały obowiązywać poszczególne przepisy. Harmonogram przedstawia się następująco:
- 2 luty 2025 r. – początek stosowania przepisów ogólnych oraz przepisów dot. zakazanych praktyk w zakresie AI (tj. rozdziału I i II);
- 2 sierpnia 2025 r. – początek stosowania. przepisy dot. m.in. modeli AI ogólnego przeznaczenia oraz kar (tj. rozdziału III sekcja 4 oraz rozdziałów: V, VII, XII oraz artykułu 78);
- 2 sierpnia 2026 r. – AI Act zacznie być stosowany (prawie) w pełni;
- 2 sierpnia 2027 r. – początek stosowania przepisów dot. systemów AI wysokiego ryzyka.
Czy AI Act wymaga implementacji do polskiego porządku prawnego – w szczególności w formie ustawy?
AI Act, jako rozporządzenie unijne, ma moc wiążącą w Polsce i stosuje się w sposób bezpośredni. Niezależnie od tego, pewne kwestie, wskazane w treści Rozporządzenia, w tym zagadnienia proceduralne oraz pozostawione do uznania krajowego ustawodawcy – wymagają doprecyzowania ustawą.
Dnia 16 października 2024 r. Ministerstwo Cyfryzacji opublikowało na stronie Rządowego Centrum Legislacji projekt ustawy o systemach sztucznej inteligencji. Projekt ustawy przeszedł już etap konsultacji społecznych, który trwał ponad 30 dni, a zakończył się w połowie grudnia. Był to czas na zgłaszanie uwag przez zarówno obywateli, firmy jak i instytucje publiczne. Po zakończeniu prac, projekt w nowej wersji, uwzględniający zgłoszone uwagi, będzie opublikowany na stronach Rządowego Centrum Legislacji.
Obszary regulacji na jakich skupia się polski ustawodawca to:
- powołanie Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji – organu, którego zadaniem będzie wspieranie przedsiębiorców oraz Rady Społecznej – organu opiniodawczego, który składać się będzie z przedstawicieli organizacji pozarządowych, związków zawodowych i przedsiębiorców;
- upowszechnianie stosowania systemów AI – poprzez zapewnienie szerokiego dostępu do technologii oraz tworzenie tzw. piaskownic regulacyjnych;
- zapewnienie sporządzania interpretacji generalnych oraz indywidualnych dla firm – by zapewnić przewidywalność i pewność działalności przedsiębiorstw;
- coroczne przekazywanie informacji o mocach obliczeniowych i energii na potrzeby AI – celem zapewnienia przejrzystości oraz planowania inwestycji w zakresie AI;
- rekomendowane najlepsze praktyki w wykorzystaniu AI, promowanie wdrażania nowych technologii w poszczególnych sektorach.
Przedsiębiorco, jeżeli planujesz wdrożyć systemy AI albo zastanawiasz się:
- Czy oferując konkretne produkty lub usługi w Twoim przedsiębiorstwie korzystasz z systemów AI,
- Jaka jest Twoja rola w stosunku do systemów AI, a więc w którym miejscu łańcucha dostarczania system AI się znajdujesz – dostawca, producent, a może importer,
- Z jakim ryzykiem wiąże się korzystanie z systemów AI w Twoim przedsiębiorstwie,
- Czy spełniasz przewidziane wymogi regulacyjne,
- Czy uwzględniłeś w swoim przedsiębiorstwie także inne regulacje, np. w zakresie ochrony danych osobowych,
- Jak odpowiednio poinformować i przeszkolić personel zatrudniony w Twoim przedsiębiorstwie w zakresie nowych regulacji i obowiązków,
- a także jeżeli chciałbyś dowiedzieć się więcej o poruszanych wyżej kwestiach,
– chętnie odpowiemy na Twoje wszystkie pytania. Zapraszamy do kontaktu!