Nowe Technologie i Branża IT
Aleksandra Maciejewicz
Aleksandra Maciejewicz
17 kwietnia 2023

SZTUCZNA INTELIGENCJA – PROBLEMY PRAWNE

Sztuczna inteligencja to ogrom możliwości i korzyści, ale również ryzyk. Dzisiaj pochylimy się nad wybranymi ryzykami prawnymi i wskażemy na co zwrócić uwagę korzystając z systemów opartych o AI. 

 

  • Ochrona danych

 

Weźmy pod uwagę chociażby regulamin OpenAI. OpenAI wprost wskazuje w nim, że firma może używać danych wprowadzanych przez użytkowników. Jednocześnie OpenAI nie zobowiązuje się, że będzie chroniło te dane oraz nie składa żadnych oświadczeń co do dochowania ich poufności. Dodatkowo, wprowadzane do ChatGPT dane mogą być przekazywane do USA, co – w kontekście braku następczyni Privacy Shield – również rodzi problemy prawne w kontekście RODO. Europejska Rada Ochrony Danych (i nie tylko) podnosi również inne wątpliwości w przedmiocie egzekwowania RODO przez OpenAI.

 

Wprowadzanie więc danych objętych ochroną prawną, w szczególności danych osobowych oraz poufnych danych do systemu sztucznej inteligencji, a więc do systemu – co do którego nie istnieje gwarancja wiarygodności i rękojmia zgodności z prawem – stanowi duże ryzyko. 

 

  • Prawa autorskie

 

Tutaj również – w ramach wstępu – pozwolę sobie zacząć od kwestii regulaminu OpenAI. Nie powinno zdziwić, że firma przerzuca odpowiedzialność za materiały – te zarówno stanowiące input, jak i te stanowiące output usług – na użytkownika. Tak więc użytkownik odpowiada za to, czy materiały nie naruszają jakichkolwiek praw, a wręcz zobowiązany jest do zapewnienia, aby ‘content’ nie naruszał żadnych praw. Jak to zrobić przy – podobno – bilionach parametrów, ChatGPT? No właśnie.

 

Pojawiają się więc kolejne kwestie związane ze sztuczną inteligencją – czy używanie przez nią materiałów objętych zapewne w większość prawami autorskimi jest legalne oraz do kogo należą prawa do obiektów wytworzonych przez AI. 

 

Jeżeli AI tylko by się inspirowała cudzymi materiałami, mieściłoby się to w granicach prawa. Jeżeli jednak do celów szkoleniowych materiały są kopiowane i przetwarzane – uważa się to za kolejne pole eksploatacji, do którego trzeba mieć co najmniej licencję. 

 

Co więcej, może dojść do sytuacji, kiedy sztuczna inteligencja stworzy utwór zależny (czyli opracowanie utworu pierwotnego), wówczas na korzystanie z takiego obiektu musielibyśmy mieć zgodę twórcy utworu pierwotnego. 

 

Kolejną kwestią jest, kto posiada prawa do dzieła (które nie jest utworem zależnym) – dostawca AI czy prompter, a może nikt i dzieło takie nie jest przedmiotem prawa autorskiego? Wiemy już, że AI nie może być twórcą w rozumieniu prawa autorskiego. Konieczne jest więc znalezienie linii demarkacyjnej, gdzie kończy się twórczość człowieka a gdzie zaczyna tworzenie przez AI. Tutaj pomocne mogą być wskazówki Urzędu ds. Praw Autorskich USA (U.S. Copyright Office) zawarte w jego polityce dotyczącej badania i rejestrowania dzieł zawierających materiały wygenerowane przy użyciu AI. Poniżej klika cytatów:

  1. Gdy sztuczna inteligencja otrzymuje wyłącznie prompt od człowieka i w odpowiedzi tworzy złożone „utwory” literackie, wizualne lub muzyczne, wówczas uznaje się, że dzieło określane jest i wykonywane przez technologię, a nie przez użytkownika.
  2. Kluczowe jest, że użytkownicy nie sprawują ostatecznej twórczej kontroli nad tym, jak takie systemy interpretują prompty i generują materiały. Zamiast tego, prompty działają bardziej jak instrukcje dla artysty na zlecenie – identyfikują, co prompter chciałby przedstawić, ale maszyna określa, w jaki sposób te instrukcje są implementowane w jej wynikach.
  3. Jednak w niektórych przypadkach, praca zawierająca materiał wygenerowany przez AI, będzie również zawierała taki wkład ludzki, który uzasadni istnienie praw autorskich. Na przykład człowiek może wybrać lub zaaranżować materiał wygenerowany przez sztuczną inteligencję w wystarczająco kreatywny sposób, aby „uzyskane w ten sposób dzieło – jako całość – stanowił autorski utwór”. Albo artysta może zmodyfikować materiał pierwotnie wygenerowany przez technologię AI w takim stopniu, że modyfikacje spełnią standardy ochrony praw autorskich.
  4. W takich przypadkach prawo autorskie chroni jedynie te aspekty pracy, które są autorstwa człowieka, które są „niezależne” i „nie wpływają” na status praw autorskich samego materiału wygenerowanego przez sztuczną inteligencję.

 

Krótko mówiąc, z jednej strony istnieją wątpliwości co do legalności korzystania z cudzych materiałów jako danych treningowych, z drugiej strony istnieje duże prawdopodobieństwo, że to, co wytworzy sztuczna inteligencja nie będzie chronione prawem autorskim lub będzie – ale tylko częściowo. Ani jedna, ani druga okoliczność nie jest oczywiście korzystna biznesowo.

 

Oraz pamiętajmy, że prawa autorskie są przedmiotem tzw. ochrony bezwzględnej. Co oznacza, że jako użytkownicy poniesiemy odpowiedzialność za ich naruszenie, nawet jeżeli dostawa zapewniał nas o legalności materiałów i działalności, a więc zostaliśmy wprowadzeni w błąd (co najwyżej możemy regresować np. kwotę odszkodowania, do takiego dostawcy).

 

  • Prawa własności przemysłowej

 

Od jakiegoś już czasu trwa również debata, czy możliwe jest opatentowanie tego, co wytworzy sztuczna inteligencja. Tutaj sytuacja będzie dość podobna do kwestii objęcia obiektu stworzonego z pomocą AI prawami autorskimi, gdyż za wynalazcę uważa się tylko człowieka. Co ciekawe, nie tak dawno amerykański urząd patentowy rozpoczął konsultacje publiczne, w których zapytuje między innymi, czy sztuczna inteligencja powinna być uznawana za współwynalazcę. 

 

  • AI Act i Dyrektywa w sprawie odpowiedzialności za sztuczną inteligencję

 

Na horyzoncie pojawiają się oczywiście kolejne kwestie prawne. Należałoby tutaj wspomnieć chociażby kwestię wejścia w życie dedykowanych sztucznej inteligencji unijnym aktom prawnym, tj. Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (tzw. AI Act) oraz implementacja Dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję.

 

Podsumowując, wiadomym jest, że systemy sztucznej inteligencji nie zawsze są bezpiecznym narzędziem do pracy, szczególnie biorąc pod uwagę niepewności prawne z tym związaną. Warto więc zaadresować te kwestie w swojej organizacji czy w ramach swojego projektu. Dobrym pomysłem jest wdrożenie dokumentu na wzór polityki bezpieczeństwa, który będzie drogowskazem dla współpracowników, co przyjęliście za dozwolone korzystanie ze sztucznej inteligencji albo pod jakimi warunkami. Jeżeli zaś jesteście wykonawcami korzystającymi z AI w ramach wykonywania zleceń, pamiętajcie o odpowiednich postanowieniach w swojej umowie. 

 

Artykuł powstał we współpracy z Fundacją Polska Innowacyjna i Innoshare Network 

Podziel się

Artykuły

Bądź na bieżąco ze zmianami w prawie

Zapisz się do naszego newslettera

facebook twitter linkedin search-icon close-icon