AI ACT a prawa autorskie i pokrewne
Tytułem wstępu zaznaczamy, że ogólne kwestie, związane z AI ACT, w tym definicje poszczególnych pojęć, stosowanych na gruncie Rozporządzenia – omówiliśmy już w odrębnym tekście. W tym miejscu skupiamy się zaś na zagadnieniach związanych z prawem autorskim i prawami pokrewnymi – w tym: dopuszczalności wykorzystania treści chronionych do trenowania systemów AI, a także zasad ochrony wyników wytwarzanych przez AI.
Korzystanie z treści chronionych jako danych wejściowych – do trenowania systemów AI
Rozporządzenie podejmuje kwestię praw autorskich i praw pokrewnych wyłącznie w kontekście modeli AI ogólnego przeznaczenia. Kluczowy jest tutaj Motyw 105, zgodnie z którym:
„Rozwój i trenowanie takich modeli wymaga dostępu do ogromnych ilości tekstów, obrazów, materiałów wideo i innych danych. Techniki eksploracji tekstów i danych mogą być w tym kontekście szeroko wykorzystywane do wyszukiwania i analizy takich treści, które mogą być chronione prawem autorskim i prawami pokrewnymi. Każde wykorzystanie treści chronionych prawem autorskim wymaga zezwolenia danego podmiotu praw, chyba że zastosowanie mają odpowiednie wyjątki i ograniczenia dotyczące praw autorskich. Na mocy dyrektywy (UE) 2019/790 wprowadzono wyjątki i ograniczenia umożliwiające, pod pewnymi warunkami, zwielokrotnianie i pobieranie utworów lub innych przedmiotów objętych ochroną do celów eksploracji tekstów i danych. Zgodnie z tymi przepisami podmioty uprawnione mogą zastrzec swoje prawa do swoich utworów lub innych przedmiotów objętych ochroną, aby zapobiec eksploracji tekstów i danych, chyba że odbywa się to do celów badań naukowych. W przypadku gdy prawo do wyłączenia z eksploracji zostało w odpowiedni sposób wyraźnie zastrzeżone, dostawcy modeli AI ogólnego przeznaczenia muszą uzyskać zezwolenie od podmiotów uprawnionych, jeżeli chcą dokonywać eksploracji tekstów i danych odnośnie do takich utworów”.
Powyższe stanowi punkt wyjścia dla kilku istotnych wniosków:
1.
Rozporządzenie wprost przyznaje, że korzystanie z utworów celem trenowania modeli AI ogólnego przeznaczenia wkracza w zakres autorskich praw majątkowych lub pokrewnych. Oznacza to więc że eksploatacja taka jest dopuszczalna wyłącznie za zgodą uprawnionego lub na podstawie ustawy – w ramach tzw. dozwolonego użytku (zwanego na gruncie Rozporządzenia jako „wyjątki i ograniczenia dotyczące praw autorskich”). Należy tutaj dodać, że w Polsce dozwolony użytek uregulowany jest w art. 23 i nast. ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych (t.j. Dz. U. z 2022 r. poz. 2509 z późn. zm.; dalej: pr. aut.).
2.
AI Act nie ustanawia przy tym nowej kategorii dozwolonego użytku, dedykowanej wprost trenowaniu systemów AI. W to miejsce, odwołuje się do prawa „eksploracji tekstów i danych”, o którym mowa w Dyrektywie Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym. Dyrektywa przewiduje mianowicie, że Państwa członkowskie powinny wprowadzić wyjątki lub ograniczenia dotyczące praw autorskich i pokrewnych (dozwolony użytek) w dwóch przypadkach, to jest:
-
w odniesieniu do zwielokrotnień i pobrań dokonywanych przez organizacje badawcze i instytucje dziedzictwa kulturowego w celu przeprowadzenia, do celów badań naukowych, eksploracji tekstów i danych na utworach lub innych przedmiotach objętych ochroną, do których mają zgodny z prawem dostęp (art. 3 ust. 1 Dyrektywy).
- w odniesieniu do zwielokrotnień i pobrań dostępnych zgodnie z prawem utworów i innych przedmiotów objętych ochroną do celów eksploracji tekstów i danych (a więc dokonywanych do innych celów, niż wskazane w punkcie poprzedzającym) – pod warunkiem że korzystanie z utworów i innych przedmiotów objętych ochroną, o których mowa w tym ustępie, nie zostało wyraźnie zastrzeżone przez podmioty uprawnione w odpowiedni sposób, na przykład za pomocą środków nadających się do odczytu maszynowego w przypadku treści, które zostały podane do publicznej wiadomości w internecie (art. 4 ust. 1 i 3 Dyrektywy).
3.
Przytoczony wcześniej Motyw 105 Rozporządzenia przesądza, że trenowanie systemów AI za pomocą utworów dostępnych w internecie stanowi postać ich „eksploracji”. Zasadniczo jest więc dopuszczalne – chyba, że uprawniony poczyni odpowiednie zastrzeżenie, w szczególności w kodzie danej witryny.
4.
Rozporządzenie wprowadza przy tym dodatkowe zabezpieczenia, które mają na celu ochronę interesów właścicieli praw. Dostawcy modeli AI ogólnego przeznaczenia, w ramach obowiązku przejrzystości, zobligowani są w szczególności do:
- Zawarcia w dokumentacji technicznej, a także dokumentacji tworzonej dla dostawców niższego szczebla (zob. art. 53 ust. 1 lit. a i b oraz Załączniki XI i XII do AI Act) – informacji na temat danych wykorzystywanych do trenowania, testowania i walidacji, w tym rodzaju i pochodzenia danych oraz metod porządkowania.
- Stworzenia dedykowanej polityki służącej zapewnieniu zgodności z prawem Unii dotyczącym prawa autorskiego i praw pokrewnych (zob. art. 53 ust. 1 lit. c AI Act) – która powinna uwzględniać zwłaszcza sposób, w jaki dany model AI ogólnego przeznaczenia identyfikuje przypadki, gdy uprawniony do danych treści zastrzegł zakaz ich „eksploracji” (wykorzystywania celem trenowania AI), zgodnie z art. 4 ust. 3 Dyrektywy 2019/79.
- sporządzania i podania do wiadomości publicznej wystarczająco szczegółowego streszczenie na temat treści wykorzystanych do trenowania danego modelu AI ogólnego przeznaczenia, zgodnie ze wzorem dostarczonym przez Urząd ds. AI (zob. art. 53 ust. 1 lit. d). Założeniem jest przy tym, że przedmiotowe streszczenie będzie miało charakter zwięzły i „nietechniczny”, tak aby było łatwo zrozumiałe dla ogółu społeczeństwa.
5.
Ustawa o zmianie pr. aut., mająca na celu implementację przepisów Dyrektywy 2019/790 została uchwalona 26 lipca 2024 r. (z ponad 4-letnim opóźnieniem) i opublikowana w Dzienniku Ustaw (Dz.U.2024.1254) w dniu 19 sierpnia 2024 r. – w związku z czym większość jej przepisów weszła w życie z dniem 19 września 2024 r. Dotyczy to zwłaszcza nowych art. 262 i art. 263 pr. aut, wedle których:
Art. 26(2) pr. aut.
- Instytucje dziedzictwa kulturowego, a także podmioty, o których mowa w art. 7 ust. 1 pkt 1, 2 i 4-8 ustawy z dnia 20 lipca 2018 r. – Prawo o szkolnictwie wyższym i nauce, mogą zwielokrotniać utwory w celu eksploracji tekstów i danych do celów badań naukowych, jeżeli czynności te nie są dokonywane w celu osiągnięcia bezpośredniej lub pośredniej korzyści majątkowej.
- Utwory zwielokrotnione zgodnie z ust. 1 mogą być przechowywane do celów badań naukowych, w tym weryfikacji wyników tych badań. Przechowywanie utworów odbywa się z zachowaniem poziomu bezpieczeństwa zapewniającego dostęp do tych utworów wyłącznie upoważnionym osobom, z uwzględnieniem procedur uwierzytelniających.
- Uprawniony, w celu zapewnienia bezpieczeństwa i integralności sieci i baz danych, w których utwory są przechowywane, może stosować wyłącznie środki niezbędne do osiągnięcia tego celu.
Art. 26(3) pr. aut.
- Wolno zwielokrotniać rozpowszechnione utwory w celu eksploracji tekstów i danych, chyba że uprawniony zastrzegł inaczej.
- Zastrzeżenia, o którym mowa w ust. 1, dokonuje się wyraźnie i odpowiednio do sposobu, w jaki utwór został udostępniony. W przypadku utworów publicznie udostępnionych w taki sposób, aby każdy mógł mieć do nich dostęp w miejscu i czasie przez siebie wybranym, zastrzeżenia dokonuje się w formacie przeznaczonym do odczytu maszynowego w rozumieniu art. 2 pkt 7 ustawy z dnia 11 sierpnia 2021 r. o otwartych danych i ponownym wykorzystywaniu informacji sektora publicznego (Dz. U. z 2023 r. poz. 1524) wraz z metadanymi.
- Utwory zwielokrotnione zgodnie z ust. 1 mogą być przechowywane wyłącznie w celu eksploracji tekstów i danych, tak długo, jak jest to konieczne do osiągnięcia tego celu.
Wydaje się, że powyższe przepisy odzwierciedlają w sposób prawidłowy treść Dyrektywy – przy czym, jak zawsze, weryfikację przyniesienie praktyka. Jednym z istotnych zagadnień, które nasuwają się już na pierwszy rzut oka, jest oczywiście forma, w jakiej należy dokonać skutecznego opt-outu z art. 26(3) ust. 1 pr. aut. Pierwszą chyba organizacją, która zmierzyła się z tym wyzwaniem w Polsce jest ZAiKS – który opublikował na swojej witrynie stosowne oświadczenie, a także zestaw instrukcji dla twórców, wskazujących metody zabezpieczenia witryn internetowych przed wykorzystaniem na potrzeby treningu AI. Należy się spodziewać, że w ślad za tym przykładem podążą wkrótce też inne instytucje.
Naszym zdaniem nowe zasady, wprowadzone art. 262 i art. 263 pr. aut., wydają się wystarczające z perspektywy właścicieli praw. Wprowadzają bowiem jasny mechanizm, pozwalający na objęcie treści publikowanych w internecie efektywną ochroną. Oczywiście, diabeł tkwi w szczegółach – w tym faktycznym dostosowaniu się dostawców modeli AI do nowych zasad. Obowiązki w zakresie przejrzystości, wprowadzone AI Act, powinny jednak znacząco utrudnić próby naruszeń na większą skalę.
Z drugiej strony, pewien niepokój budzi, iż w obecnym stanie prawnym modele AI ogólnego przeznaczenia, do których zastosowanie znajduje Rozporządzenie, często będą odcięte od znacznej części „jakościowych” treści – do których dostęp został obecnie zastrzeżony. Powstaje więc ryzyko, iż wyniki generowane przez generatywną AI, powstające w oparciu o dostępne dane wejściowe, również okażą się coraz mniej użyteczne, a nawet fałszywe.
Oczywiście, najpewniej spowoduje to powstanie oferty płatnych modeli, wytrenowanych w oparciu o szerszy zakres danych. Powstaje jednak pytanie, czy takie rozwiązanie jest faktycznie najlepszym możliwym z punktu widzenia ogółu społeczeństwa. Pewną alternatywą jawi się tutaj dalsze ograniczenie prawa „eksploracji tekstów i danych” – np. poprzez wyłączenie w tym zakresie praw autorskich, a w to miejsce wykreowanie praw pokrewnych (przysługujących np. podmiotowi dokonującemu pierwszego rozpowszechnienia), które zamiast zakazu zwielokrotnienia będą przewidywać tylko uprawnienie do określonego wynagrodzenia (analogicznie jak np. w przypadku prawa nadawania, reemitowania lub odtwarzania wprowadzonego do obrotu fonogramu lub wideogramu – zob. art. 94 ust. 5 pr. aut.).
Ochrona wyników działalności systemów AI
Rozporządzanie AI Act milczy w kwestii ochrony prawnoautorskiej wyników działania systemów AI. Punktem wyjścia dla wszelkich ustaleń jest tutaj treść art. 1 ust. 1 pr. aut., wedle którego „Przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia (utwór)”.
Przyjmuje się przy tym, że chodzi tutaj o zasadniczo o działalność człowieka – a nie np. maszyn, zwierząt czy przyrody.[1]
Ciekawym przykładem, jakkolwiek zaczerpniętym z praktyki zagranicznej, jest casus zdjęcia selfie, wykonanego przez małpę (a konkretnie: makaka) imieniem Naruto:
Sprawa dotyczyła roszczeń niejakiego Davida Slatera, który twierdził iż zdjęcie zostało wykonania za pomocą jego sprzętu – który dobrowolnie udostępnił „zaprzyjaźnionej” grupie zwierząt. Po tym, jak fotografia zyskała pewną popularność, Pan Slater pozwał Wikimedia Foundation o usunięcie jej z Wikipedii z uwagi na naruszenie praw autorskich. Sąd amerykański (US Court of Appeals for the 9th Circuit) finalnie oddalił jednak te roszczenia – przyjmując, iż zdjęcie stworzone przez małpę nie może być chronione jako utwór.[2]
Wydaje się, że analogiczne rozumowanie jest w pełni uprawnione także odnośnie wytworów sztucznej inteligencji, Zresztą, nawet gdyby przyjąć inaczej, pozostaje pytanie – komu miałyby przysługiwać ewentualne prawa autorskie do podobnych dzieł? Na wyniki generowane przez AI składa się bowiem:
- praca programistów, polegająca na stworzeniu systemu AI jako takiego;
- treści, za pomocą których system AI został wytrenowany (określone, zależnie od sytuacji, przez dostawcę systemu lub użytkownika – i pochodzące często od osób trzecich);
- wkład użytkownika – polegający na sformułowaniu zapytania (tzw. prompta). Nie wydaje się więc, aby określona forma wyniku mogła być w sposób zasady przypisana którejkolwiek ze wskazanych osób.
Jak wskazuje E. Laskowska-Litak: „Nie ma aktualnie na świecie wypracowanych instytucji normatywnych, które regulowałyby podmiotowość prawną obiektów takich jak sztuczna inteligencja. W jedynej jak dotąd sprawie odnoszącej do dzieła wygenerowanego przy pomocy programu komputerowego opartego na sztucznej inteligencji odmówiono kwalifikacji jako utwór (przedmiotem sporu była kompilacja książek telefonicznych powoda przez program komputerowy pozwanej spółki). Sąd pierwszej instancji w Singapurze podkreślił, że brak udziału ludzkiego na etapie generowania dzieła podważa status utworu takiej kompilacji, sąd drugiej instancji podtrzymał to stanowisko (Zob. Global Yellow Pages Ltd przeciwko Promedia Directories Pte Ltd [2016] SGHC 9, pkt 266–270 i 369; wyrok sądu drugiej instancji: Global Yellow Pages Ltd przeciwko Promedia Directories Pte Ltd i in. [2017] SGCA 28.). (…) Wobec coraz szerszego zainteresowania tematyką regulacji prawnej sztucznej inteligencji oraz coraz jej powszechniejszego wykorzystania w gospodarce temat ten wydaje się istotny do dyskusji przy okazji kolejnych reform prawa autorskiego na poziomie międzynarodowym”.[3]
Oczywiście, powyższe tworzy problemy praktyczne dla podmiotów stosujących systemy AI, w tym:
1.
po pierwsze, skoro wyniki działania tychże systemów nie podlegają ochronie jako utwory, to brak jest podstaw do żądania zaniechania korzystania z nich przez osoby trzecie w oparciu o przepisy pr. aut. Oczywiście, w konkretnym przypadku pozostaje zawsze możliwość odwołania się do ustawy z dnia 16 kwietnia 1993 r. o zwalczaniu nieuczciwej konkurencji (t.j. Dz. U. z 2022 r. poz. 1233). Nie mniej, pozycja podmiotu dochodzącego roszczeń będzie tutaj znacznie pogorszona.
2.
Po drugie zaś, nie można wykluczyć ryzyka, iż wyniki działania systemu AI będą na tyle zbliżone do danych wejściowych, stanowiących utwory, że mogą skutkować roszeniami uprawnionych. Należy bowiem przypomnieć, że odpowiedzialność tytułem naruszenia autorskich praw majątkowych, wedle art. 79 pr. aut., jest niezależna od winy – a więc może wystąpić także w przypadku nieświadomego powielenia dzieła osoby trzeciej.
Problem ten został zresztą dostrzeżony przez dostawców modeli AI, którzy niejednokrotnie oferują klientom ochronę przeciwko roszczeniom takich osób – oczywiście w ograniczonym zakresie.[4]
Podsumowanie
Jak widać, zagadnienia prawne, istniejące na styku prawa autorskiego z aktami regulującymi działanie sztucznej inteligencji (w tym AI Act) – dopiero się kształtują.
Można więc oczekiwać, że liczne luki prawne, istniejące w tym zakresie, zostaną z czasem uzupełnione, zarówno na skutek działania ustawodawców – jak i poprzez praktykę sądową.
Do tego czasu należy liczyć się z tym, że korzystania z systemów AI, w tym zwłaszcza trenowanych w oparciu o dane niepochodzące od użytkownika, będzie się wiązać z powstaniem pewnych ryzyk.
Kontakt
Jeżeli prowadzisz działalność, w ramach której tworzysz lub korzystasz z narzędzi opartych na technologię AI, to zapraszamy do kontaktu. Nasz zespół z chęcią doradzi, na co zwrócić uwagę, aby uniknąć potencjalnych zagrożeń.
Przypisy (kliknij żeby rozwinąć):
[1] Zob. zwłaszcza: E. Ferenc-Szydełko (red.), Ustawa o prawie autorskim i prawach pokrewnych. Komentarz. Wyd. 4, Warszawa 2021, komentarz do art. 1, akapit 4.
[2] Zob. https://ipkitten.blogspot.com/2018/04/breaking-9th-circuit-rules-that-naruto.html
[3] E. Laskowska-Litak [w:] Komentarz do ustawy o prawie autorskim i prawach pokrewnych [w:] Ustawy autorskie. Komentarze. Tom I, red. R. Markiewicz, Warszawa 2021, art. 1, teza 49.
[4] Dotyczy to np. Chata GPT (zob. https://openai.com/policies/business-terms/ ) oraz usługi Azure OpenAI Service oferowanej przez Microsoft (zob. https://blogs.microsoft.com/on-the-issues/2023/09/07/copilot-copyright-commitment-ai-legal-concerns/)