Oficjalnie termin „splątanie generatywne” nie istnieje, ale za to trafnie definiuje zjawiska, które wywołane przez generatywne modele sztucznej inteligencji rewolucyjnie zmieniają nasze życie w każdej niemal dziedzinie.

Wzajemne oddziaływanie na siebie i przenikanie się tego co prawdziwe, z tym co trudno ocenić pod względem prawdy lub fałszu, przy jednoczesnym kolosalnym wpływie sztucznej inteligencji na rozwój technologiczny, skłania do dokonania pierwszych poważnych podsumowań.

Zacznijmy od podstawowego pytania. Czym jest sztuczna inteligencja?

Przejście do świata, w którym sztuczna inteligencja, czyli systemy zbudowane na uczeniu maszynowym i głębokim przetwarzaniu danych są zdolne do rozumienia na ludzkim poziomie, konwersacji, mają nadludzkie moce asymilacji danych i są zdolne do samodzielnego rozpoznawania wzorców jest już faktem. Można oczekiwać, że w dalszej perspektywie będzie miało to wpływ na to jak będziemy pracować, organizować biznes i definiować rolę człowieka w codziennej korelacji z maszyną.  

Rozwój technologii na niespotykaną dotąd skalę nie pozostawia wątpliwości, że należy nadać mu ramy prawne. 

Czy prawna definicja pomoże?

Przyjęcie przez unijnego ustawodawcę ostatecznej prawnej definicji sztucznej inteligencji będzie momentem przełomowym dla uregulowania tego zjawiska. Z pomocą przychodzi unijny projekt rozporządzenia o sztucznej inteligencji – Artificial Intelligence Act (AI Act). Według rozporządzenia sztuczna inteligencja to „system oparty na maszynie, który jest zaprojektowany do działania na różnych poziomach autonomii i który może, w przypadku jawnych lub dorozumianych celów, generować dane wyjściowe, takie jak prognozy, zalecenia lub decyzje mające wpływ na środowiska fizyczne lub wirtualne”.

Po pierwszych analizach tej definicji nasuwają się wątpliwości co do kwalifikacji rozwiązań technologicznych jako AI.  Nieprecyzyjna i zbyt szeroka definicja sztucznej inteligencji może powodować problemy interpretacyjnie co do uznania danego rozwiązania za AI i poddania go regulacji.

Rozwój AI ma szansę pozytywnie wpłynąć na gospodarki, rynki i rozwój technologii na całym świecie. Dlatego należy uważać, żeby „twarde” regulacje nie zablokowały rozwoju innowacyjności jak i samej technologii. Potrzebne jest także wypracowanie zbioru zasad AI (te są proponowane w AI Act), które dadzą podstawę do rozwiązania już istniejących problemów związanych z korzystaniem ze sztucznej inteligencji.

Etyka, czyli szacunek do wartości

Sformułowanie problemów etycznych związanych ze sztuczną inteligencją pomoże unijnemu ustawodawcy na wypracowanie właściwych przepisów wyznaczających kierunki korzystania z AI.

Istotnym problemem jest trudność oceny, czy to co zostało wygenerowane przez AI jest prawdą. I to na poziomie trenowania AI jak i generowania tekstów przez użytkowników. Ostatnie badania pokazują, że wygenerowany tekst przez ChatGPT nie musi zawierać prawdziwych informacji. Jak pisze na swoim blogu Stephen Wolfram – brytyjski naukowiec, matematyk i założyciel wyszukiwarki Wolfram Alfa – AI nie potrafi weryfikować informacji. Produkuje je na podstawie wprowadzonych do niej danych. Chociaż naukowcy zajmujący się sztuczną inteligencją potrafią wyjaśnić mechanikę działania systemów AI, nie są w stanie powiedzieć co tak naprawdę się w nich dzieje. Jeśli treść nie jest prawdziwa może spowodować szkodę, naruszyć dobra osobiste lub renomę firmy poprzez publikację nieprawdziwych informacji.

Nieetyczne jest przypisanie sobie przez człowieka autorstwa tekstu w całości wygenerowanego przez ChatGPT lub grafik wygenerowanych przez Midjourney. Dynamicznie zwiększająca się ilość treści w Internecie, których nie można obiektywnie zweryfikować poprzez pryzmat tego jak zostały stworzone, wprowadza chaos i niepewność. Nie wiemy już co jest prawdą.  

Bezrefleksyjne korzystanie z AI to nadużywanie wartości etycznych, co widać już w interakcjach społecznych, procesach naukowych i dydaktycznych oraz w biznesie.

Prawa autorskie naruszone przez trenowanie AI?

Po pierwszej euforii jednych lub sceptycyzmie innych w związku z pojawieniem się narzędzi sztucznej inteligencji na niespotykaną dotąd skalę, przyszła kolej na definiowanie problemów prawnych, które są wyzwaniem dla prawników na całym świecie.

Pojawiło się pytanie czy trenowanie modeli sztucznej inteligencji narusza prawa autorskie? Czy producenci modeli Stability AI (UK) i Stable Diffusion, Midjourney i DeviantArt (USA) mogli pozyskiwać dane, treści i obrazy z Internetu w celu trenowania swoich modeli? Tu z odpowiedzią przyjdą wyroki sądów w USA i Wielkiej Brytanii w sprawach, które toczą się przeciwko tym producentom. Sądy będą musiały odpowiedzieć na szereg pytań takich jak: czy trenowanie modeli AI odbywa się na zasadzie amerykańskiego fair use, czyli dozwolonego użytku korzystania z utworów? Czy pobieranie i wykorzystanie tzw. „latent images” (ukrytych obrazów) w celu trenowania AI jest bezprawnym opracowaniem i zwielokrotnieniem utworów chronionych prawem autorskim?  Czy AI tworzy utwory zależne w odniesieniu do utworów użytych do trenowania AI? Czy użytkownik AI może stworzyć za pomocą narzędzia AI plagiaty cudzych prac i przez to naruszyć ich prawa autorskie? Czy producenci AI naruszają regulaminy serwisów internetowych i umów?

Na gruncie europejskim Dyrektywa o prawie autorskim na jednolitym rynku cyfrowym (prace nad implementacją Dyrektywy do polskiej ustawy o prawie autorskim i prawach pokrewnych już trwają) niesie zmiany wprowadzając nowe przepisy dla uczenia maszynowego.

Czy wyniki AI mogą być chronione prawem autorskim? 

Nie wszyscy zdają sobie sprawę, że korzystając z ChatGPT jednocześnie trenują ten model poprzez formułowanie pytań. Szczególnie powinny uważać firmy, które chronią swoje know-how i prawa autorskie, które służą rozwojowi biznesu i zawierają dane będące tajemnicą przedsiębiorstwa. Dane wprowadzone w formie pytań zadawanych chatbotowi nie są chronione i tracimy nad nimi kontrolę.

Problemem jest także sam wynik wygenerowany przez ChatGPT. Należy pamiętać o tym, że zgodnie z regulacjami TSUE oraz orzeczeniami sądów na całym świecie, twórcą utworu może być tylko człowiek, nie maszyna. Wynika z tego, że tekst lub grafika wygenerowane przez AI nie są chronione prawami autorskimi. To z kolei prowadzi do wniosku, że nie można takich praw przenieść na inne osoby lub udzielić licencji. Każdy także może wykorzystać i skopiować wygenerowany tekst bez zarzutu naruszenia prawa autorskiego.

Urząd ds. praw autorskich w USA – US Copyright Office – wydał oficjalne wytyczne w sprawie uznania praw autorskich do utworów zawierających elementy stworzone przez AI.  Czytamy, że ochronie podlegają tylko oryginalne, kreatywne, intelektualne wybory twórcze autora. 
Należy przy tym badać, czy dzieło jest autorstwa człowieka, a AI jest jedynie narzędziem pomocniczym, czy też „tradycyjne elementy” dzieła (literacki, artystyczny, muzyczny lub elementy selekcji, aranżacji etc.) zostały wymyślone i wykonane przez maszynę. 
W przypadku prac zawierających materiał wygenerowany przez AI należy rozważyć, czy wkłady AI są wynikiem jedynie „mechanicznej reprodukcji czy rezultatem własnej oryginalnej koncepcji myślowej autora, której nadał on widoczną formę. Jeśli „tradycyjne elementy” autorskie dzieła zostały wygenerowane przez maszynę, dzieło nie jest autorstwa człowieka. Jednak w przypadkach, gdy człowiek może wybrać lub zaaranżować materiał wygenerowany przez sztuczną inteligencję w wystarczająco kreatywny sposób, takie dzieło jako całość będzie stanowiło oryginalne dzieło autorskie. 

Ma to ogromne w skutkach znaczenie dla firm, dla których prawa własności intelektualnej są istotną częścią biznesu, czyli dla większości firm i branż działających w środowisku cyfrowym.

Czy AI Act rozwiąże problem?

AI Act to pierwszy akt prawny regulujący korzystanie ze sztucznej inteligencji w Unii Europejskiej.  Określa zharmonizowane zasady stosowania sztucznej inteligencji zgodnie z unijnymi wartościami, a ich celem ma być zapewnienie bezpieczeństwa użytkownikom i przejrzystość działania modeli AI, przy zachowaniu możliwości rozwoju innowacji. Uregulowanie rynków technologicznych ma nastąpić poprzez różnicowanie wysokości ryzyka jakie niesie ze sobą sztuczna inteligencja. Tym samym odpowiedzialność za działanie sztucznej inteligencji wysokiego ryzyka obciąży dostawców AI, którzy będą musieli zapewnić narzędzia do weryfikacji zakazanych praktyk. AI Act przewiduje także obowiązek wdrożenia systemów kontroli zarządzania ryzykiem, kontroli danych i cyberbezpieczeństwa, tak żeby możliwa była ocena oddziaływania rozwiązań sztucznej inteligencji na człowieka. 

Zapewnienie przejrzystości działania AI przez dostawców technologii i podstaw do oceny prawdziwości informacji generowanych przez AI jest dobrymi kierunkiem, chociaż budzi wątpliwość co do skuteczności jego wyegzekwowania.

Do nowych przepisów AI Act będą musiały się dostosować wszystkie firmy i organizacje wykorzystujące rozwiązania AI.

Nie ma wątpliwości, że regulacje działania sztucznej inteligencji są pilnie potrzebne. Perspektywa szybkości i łatwości tworzenia tekstów, obrazów, treści multimedialnych jest atrakcyjna, ale też niebezpieczna.  Szczególnie ważne jest zaprojektowanie skutecznych przepisów dotyczących odpowiedzialności za działania AI, bo prawo tylko wtedy ma sens, kiedy jest możliwe do wyegzekwowania. Już teraz warto uczyć się o potencjale korzystania z AI i prawnych możliwościach modelowania rozwiązań opartych o AI w biznesie, bo chociaż jest jeszcze wiele niewiadomych to technologie są przyszłością. To jest podróż w jedną stronę. Od sztucznej inteligencji nie ma odwrotu.

Anna Szymańska, radczyni prawna, CEO w Kancelarii Prawnej Media Law

Artykuł został opublikowany w numerze 5/2023 Security Magazine