d
Follow us
  >  Ochrona danych osobowych   >  Sztuczna inteligencja w biznesie – o czym warto wiedzieć przed wdrożeniem narzędzi AI w firmie?

Sztuczna inteligencja w biznesie – o czym warto wiedzieć przed wdrożeniem narzędzi AI w firmie?

Sztuczna inteligencja (AI) znajduje coraz szersze zastosowanie w biznesie – od automatyzacji procesów marketingowych, przez analizę danych, aż po wsparcie w tworzeniu oprogramowania.

Włączenie narzędzi AI do codziennej pracy firmy to ogromna szansa na rozwój, zwiększenie produktywności czy poprawę jakości świadczonych usług.

Przedsiębiorstwa planujące wdrożenie AI powinny jednak uwzględnić istotne wyzwania prawne, zarówno w kontekście regulacji wewnętrznych, jak i relacji z klientami, aby uniknąć w tym zakresie poważnych konsekwencji.

Na co zwrócić uwagę przy wdrożeniu rozwiązań AI?

Na powyższe pytanie nie można odpowiedzieć jednoznacznie, ponieważ wiele zależy od kontekstu zastosowania narzędzi AI oraz ich roli w procesie tworzenia. Aby to zobrazować, przedstawiamy poniżej dwa typowe scenariusze wraz opisem związanych z nimi zagrożeń.

Scenariusz nr 1: AI jako narzędzie wspomagające proces twórczy

Pierwszy wariant dotyczy sytuacji, gdy generatywna AI pełni jedynie funkcję wspierającą proces tworzenia, a więc na przykład:

  • AI udziela programiście rekomendacji, z których może on skorzystać lub nie;
  • AI służy jedynie do weryfikacji poprawności tekstu napisanego przez człowieka;
  • AI tworzy jedynie niewielkie fragmenty treści, które następnie są modyfikowane przez człowieka.

W tym scenariuszu to człowiek przez wielokrotne promptowanie lub ręczne poprawki ma realny wpływ na ostateczny kształt dzieła. Człowiek pozostaje więc autorem utworu, a AI jest jedynie narzędziem, które w wspiera jego proces twórczy.

Nawet jednak przy tak wąskim zastosowaniu AI – pojawiają się istotne zagadnienia prawne, które wymagają uwzględnienia. Przede wszystkim należy więc uwzględnić, że:

1.

Treści wygenerowane przez AI mogą zawierać błędy, które często umykają uwadze człowieka. Wynika to stąd, że AI, chcąc zawsze udzielić odpowiedzi na zadane pytanie, niekiedy „halucynuje” – a więc zmyśla informację zwrotną. Wychwycenie tego rodzaju błędów może być stosunkowo trudne i wymaga dokładnego sprawdzenia źródeł danych – co nie zawsze jest w pełni możliwe.

2.

Istotą korzystania z generatywnej sztucznej inteligencji jest przesyłanie zapytań (tzw. promptów) celem uzyskania informacji zwrotnej. Niekiedy sformułowanie prawidłowego promptu wymaga zawarcia w nim informacji poufnych – w tym zwłaszcza stanowiących tajemnicę przedsiębiorstwa. Jest to związane z ryzykiem ujawnienia takich danych osobom trzecim, w tym dostawcy oraz innym użytkownikom systemu AI (o czym więcej w dalszej części tekstu).

W związku z powyższym, jeżeli decydujemy się na świadczenie usług z wykorzystaniem narzędzi AI – warto rozważyć wyraźne poinformowanie o tym klientów, a optymalnie też akceptację powiązanych ryzyk. Pozwoli to na minimalizację lub wręcz wyłączenie ryzyka odpowiedzialności za ewentualne naruszenia.

Co ważne – przepisy nie obligują do przekazywania klientowi takich informacji. W dużej mierze decyzja o informowaniu klientów powinna uwzględniać zakres, w jakim sztuczna inteligencja uczestniczy w produkcji końcowego rezultatu.

Scenariusz nr 2: AI jako podmiot tworzący „surowe” treści

Drugi wariant stanowi przypadek, gdy system AI samodzielnie lub w znacznym stopniu zautomatyzowany sposób generuje obszerne fragmenty kodu, dokumentów czy innych materiałów, które nie są poddawane weryfikacji ani modyfikacji przez człowieka.

Konsekwencją takiej sytuacji jest to, że obok zagrożeń wskazanych już w opisie Scenariusza 2 – pojawiają się także kolejne, jeszcze dalej idące:

Drugi wariant stanowi przypadek, gdy system AI samodzielnie lub w znacznym stopniu zautomatyzowany sposób generuje obszerne fragmenty kodu, dokumentów czy innych materiałów, które nie są poddawane weryfikacji ani modyfikacji przez człowieka.

Konsekwencją takiej sytuacji jest to, że obok zagrożeń wskazanych już w opisie Scenariusza 2 – pojawiają się także kolejne, jeszcze dalej idące:

a)

istnieje znaczne ryzyko, że dane wyjściowe (output) generowane przez AI mogą naruszać prawa osób, których dane zostały wykorzystane podczas treningu modelu. Narzędzia generatywne AI (szczególnie te oparte na dużych modelach językowych – LLM) powstają w oparciu o ogromne zbiory danych, w tym utwory chronione prawem autorskim (np. teksty, grafiki, fragmenty kodu). Istnieje zjawisko tzw. memoryzacji – AI może odtwarzać fragmenty kodu użyte do treningu, co skutkuje ryzykiem m.in. nieświadomego wkroczenia w zakres chronionego kodu osób trzecich czy roszczeń odszkodowawczych ze strony autorów pierwotnych utworów (np. autorów kodu, grafik czy tekstów). Może to prowadzić do poważnych konsekwencji biznesowych dla klienta.

b)

zgodnie z dominującym obecnie poglądem, treści generowane przez systemy sztucznej inteligencji nie podlegają ochronie prawnoautorskiej. Wynika to z faktu, że nie stanowią rezultatu twórczej działalności człowiek, a tym samym nie spełniają definicji „utworu” w rozumieniu ustawy o prawie autorskim i prawach pokrewnych. W związku z powyższym, jeżeli w ramach świadczonych przez nas usług tworzone i przekazywane są klientowi tego rodzaju treści – to nie jest możliwe przeniesienie na niego praw autorskich, których sami nie posiadamy.

W konsekwencji, w omawianym scenariuszu informowanie klienta o stosowaniu z narzędzi AI stanowi już nie tylko dobrą praktykę, ale biznesową konieczność – tak aby uniknąć w szczególności odpowiedzialności za wady prawne dostarczanych treści.

Jeśli interesują Państwa kwestie związane z prawami autorskimi i prawami pokrewnymi w kontekście sztucznej inteligencji, zapraszamy do zapoznania się z naszym artykułem, gdzie temat ten został szczegółowo omówiony.

Minimalizacja ryzyk – rekomendacje

Aby skutecznie ograniczyć ryzyka wskazane zarówno w scenariuszu nr 1, jak i scenariuszu nr 2, do wdrożenia systemów AI w firmie należy odpowiednio się przygotować. Proces ten obejmuje trzy istotne etapy.

Etap 1 – analiza umów z dostawcami rozwiązań

Na samym początku warto przeprowadzić analizę umów z potencjalnymi dostawcami systemów/narzędzi AI oraz warunków licencji, na podstawie których organizacja zamierza korzystać z rozwiązań sztucznej inteligencji, aby upewnić się, że są to godne zaufania i zgodne z prawem rozwiązania, respektujące prawa autorskie oraz ochronę danych osobowych, a także gwarantujące ochronę informacji poufnych. Rzetelna analiza pozwoli również zidentyfikować potencjalne ryzyka i opracować wewnętrzne regulacje, które będą te ryzyka minimalizowały.

Etap 2 – wdrożenie wewnętrznych procedur (regulaminu AI)

W dalszej kolejności, ważne jest wdrożenie jasnych i precyzyjnych kryteriów, określających zasady stosowania narzędzi i systemów AI w ramach przedsiębiorstwa. W tym celu warto opracować i wdrożyć wewnętrzny regulamin AI.

Tego typu dokument powinien zobowiązywać osoby świadczące pracę lub usługi na rzecz danej organizacji w szczególności do:

  • weryfikacji wyników AI w celu minimalizacji wystąpienia błędów oraz zapobiegania wystąpienia zjawiska „memoryzacji” (np. porównanie wygenerowanego kodu czy tekstu z repozytoriami publicznymi);
  • dokumentowania opracowanych promptów użytych w narzędziach AI oraz źródeł danych, które były bazą dla ich wygenerowania;
  • stosowania wyłącznie systemów AI wyraźnie dopuszczonych przez dany podmiot;
  • przestrzegania zasad promptowania systemów AI za pomocą danych chronionych, w tym informacji poufnych, danych osobowych czy danych wrażliwych takich dane medyczne, dane biometryczne czy klucze bezpieczeństwa.

Regulamin AI powinien być kompleksowym narzędziem, które nie tylko zabezpiecza organizację przed odpowiedzialnością prawną, ale również promuje odpowiedzialne i efektywne wykorzystanie sztucznej inteligencji w zgodzie z ustanowionymi standardami. Dzięki temu firmy mogą skutecznie minimalizować zagrożenia, jednocześnie maksymalizując korzyści wynikające z zastosowania AI.

Etap 3 – umowy z klientami

W dalszej kolejności, ważne jest wdrożenie jasnych i precyzyjnych kryteriów, określających zasady stosowania narzędzi i systemów AI w ramach przedsiębiorstwa. W tym celu warto opracować i wdrożyć wewnętrzny regulamin AI.

Tego typu dokument powinien zobowiązywać osoby świadczące pracę lub usługi na rzecz danej organizacji w szczególności do:

Po ustaleniu, jakie narzędzia i systemy AI mają zostać wdrożone w organizacji, a także po wprowadzeniu klarownych zasad dotyczących ich użytkowania – ostatnim, nie mniej ważnym etapem, jest odpowiednie dostosowanie umów z klientami, poprzez precyzyjne określenie narzędzi AI, które będą wykorzystywane w ramach świadczonych usług, oraz wskazanie ich celu i zakresu zastosowania.

W tym zakresie przeglądu wymagają zwłaszcza zapisy obejmujące: oświadczenia co do statusu tworzonych treści (jako stanowiących lub niestanowiących rezultaty działalności twórczej), zobowiązania w zakresie przeniesienia praw własności intelektualnej, klauzule NDA itd.

Podsumowanie

Wdrażanie narzędzi sztucznej inteligencji w biznesie niesie ze sobą znaczące korzyści – takiej jak: zwiększenie efektywności pracy, automatyzacja rutynowych zadań czy wsparcie twórczego procesu. Należy jednak pamiętać, że bezpieczne korzystanie z AI wymaga starannego przygotowania. Tylko kompleksowe podejście, które uwzględnia aspekty zarówno techniczne i organizacyjne, jak również prawne (szczególnie w aspekcie praw autorskich i danych klientów) pozwoli organizacji w pełni wykorzystać możliwości AI, minimalizując jednocześnie ryzyko sporów, kar administracyjnych czy utraty reputacji.

Kontakt

W razie potrzeby nasza kancelaria może udzielić wsparcia w przeprowadzeniu audytu, przygotowaniu szczegółowej listy kontrolnej oraz dokumentów niezbędnych do bezpiecznego korzystania z technologii AI.

Zapraszamy do kontaktu!

Daria Gil

Zapisz się do newslettera