AI ACT USA/UE



Artykuł nawiązuje do VIII Forum Prawa Autorskiego [10 września 2024], podczas którego szczegółowo omówione zostaną unijny AI Act oraz nowelizacja ustawy o prawie autorskim. Kluczowym zagadnieniem, na które organizatorzy zwracają uwagę, jest regulacja ram prawnych dotyczących sztucznej inteligencji (SI) w polskim porządku prawnym. Pytanie dotyczy lokalizacji przepisów dotyczących SI – czy znajdą się one w ustawie o prawie autorskim, czy też w odrębnym akcie prawnym.

Sztuczna inteligencja (ang. artificial intelligence, AI) rozwija się na naszych oczach, wprowadzając z miesiąca na miesiąc rewolucyjne zmiany. Dotyczą one m.in. przetwarzania danych, pracy z tekstem, grafiki, a ostatnio także przestrzeni wideo. Choć najnowsze rozwiązania w tym zakresie nie zostały jeszcze udostępnione użytkownikom końcowym, dostępne są już pierwsze próbki wideo. Za dynamicznym rozwojem technologii AI idzie równie szybkie dążenie do jej regulacji. W ciągu ostatniego roku intensywnie dyskutowano kwestie związane z bezpieczeństwem, zaufaniem do wyników pracy AI oraz etyką w jej zastosowaniach. Pojawia się pytanie, jak wyznaczyć ramy prawne dla jej działania i jak weryfikować wyniki przetwarzania danych, aby z jednej strony umożliwić korzystanie z AI, a z drugiej nie zatrzymać jej rozwoju. Ten rozwój niesie bowiem ze sobą ogromne możliwości. Jak zauważa wiele osób z branży AEC, w najnowszym raporcie AutoDesk, AI postrzegana jest jako nowe, szybkie narzędzie, a nie jako zagrożenie dla miejsc pracy, jak obawiano się na początku.

Jakie zmiany już zaszły i czego możemy spodziewać się w dalszej części 2024 roku w kontekście regulacji prawnych dotyczących AI? Wiele! Już teraz 30 października 2023 roku prezydent USA wydał rozporządzenie wykonawcze dotyczące sztucznej inteligencji, a 12 czerwca 2024 roku Parlament Europejski i Rada UE przyjęły regulacje dotyczące AI oraz znowelizowały akty prawne UE z lat 2008, 2013, 2014, 2018, 2019 i 2020. Proces ten przebiega błyskawicznie, adekwatnie do dynamiki rozwoju samej technologii AI. W innych krajach, od Chin po Arabię Saudyjską, również wprowadzane są zmiany prawne w tym zakresie, jednak w artykule skupiamy się na rozwiązaniach USA i UE, pozostając w ramach kultury europejskiej.

W swoim krótkim rozporządzeniu prezydent USA wydał polecenia poszczególnym departamentom dotyczące standaryzacji, określenia granic działania, monitorowania oraz etykietowania sztucznej inteligencji (AI). Termin na realizację tych działań określono na kilka miesięcy i lat od daty podpisania dokumentu. Oto najważniejsze wnioski, istotne dla użytkowników AI, wynikające z tego aktu prawnego:

1. Etykietowanie i pochodzenie treści: Zostaną opracowane skuteczne mechanizmy pozwalające na identyfikację, czy dana treść została wygenerowana przy użyciu AI, co umożliwi użytkownikom rozróżnianie treści pochodzącej z technologii AI i tej tworzonej przez ludzi.

2. Promowanie odpowiedzialnej innowacji: Inicjatywa zakłada wspieranie odpowiedzialnej innowacji, konkurencji oraz współpracy, aby USA mogły utrzymać pozycję lidera w dziedzinie AI.

3. Inwestycje w edukację i rozwój: Rozwój technologii AI wymaga inwestycji w edukację, szkolenia oraz badania. Równocześnie należy rozwiązywać kwestie związane z własnością intelektualną (IP), aby chronić twórców i wynalazców.

4. Odpowiedzialność za rozwój AI: Osoby odpowiedzialne za opracowywanie i wdrażanie AI muszą być pociągnięte do odpowiedzialności za przestrzeganie standardów, które chronią przed dyskryminacją i nadużyciami. Tylko wtedy Amerykanie będą mogli zaufać, że AI będzie wspierać prawa obywatelskie, wolności, równość i sprawiedliwość.

5. Ochrona konsumentów: Wykorzystanie AI nie zwalnia organizacji z przestrzegania zobowiązań prawnych, a ochrona konsumentów staje się szczególnie istotna w czasach zmian technologicznych. Dotyczy to m.in. nieuprawnionego wykorzystywania wizerunków osób publicznych, takich jak politycy, przedstawiciele rządu, gwiazdy filmowe czy muzyczne.

6. Odpowiedzialne wdrażanie technologii: Skuteczne przywództwo obejmuje także wprowadzanie systemów i zabezpieczeń potrzebnych do odpowiedzialnego wdrażania AI, a także promowanie tych standardów w skali globalnej.

7. Wytyczne dotyczące rozwoju AI: W celu wsparcia bezpiecznego rozwoju technologii AI, zostaną ustanowione odpowiednie wytyczne, takie jak poligony testowe, aby zapewnić tworzenie technologii godnych zaufania.

8. Ograniczanie ryzyka związanego z treściami syntetycznymi: W ciągu 240 dni od wydania rozporządzenia Sekretarz Handlu ma przedstawić sprawozdania identyfikujące istniejące standardy, narzędzia oraz metody dotyczące:
  • Uwierzytelniania treści i śledzenia jej pochodzenia,
  • Etykietowania treści syntetycznych, np. za pomocą znaków wodnych,
  • Wykrywania treści syntetycznych,
  • Zapobiegania tworzeniu przez AI generatywnych materiałów przedstawiających wykorzystywanie seksualne.
Całość aktu prezydenckiego składa się z szeregu sekcji, które wskazują na szeroki zakres regulacji dotyczących AI. Poniżej znajdują się tytuły tych sekcji, które ułatwią zrozumienie zakresu regulacji:
1. Zapewnienie bezpieczeństwa technologii AI.
2. Zarządzanie AI w infrastrukturze krytycznej i cyberbezpieczeństwie.
3. Ograniczenia ryzyka na styku zagrożeń CBRN i AI.
4. Ograniczanie ryzyka stwarzanego przez treści syntetyczne.
5. Pozyskiwanie opinii na temat modeli fundamentów podwójnego zastosowania z powszechnie dostępnymi wagami modelu.
6. Promowanie bezpiecznego uwalniania i zapobieganie złośliwemu wykorzystaniu federalnych danych do szkolenia AI.
7. Kierowanie opracowaniem Memorandum Bezpieczeństwa Narodowego.
8. Przyciąganie talentów w dziedzinie AI do USA.
9. Promowanie konkurencji.
10. Wspieranie pracowników.
11. Wspieranie równości i praw obywatelskich.
12. Ochrona praw obywatelskich w związku z programami i oświadczeniami rządowymi.
13. Wzmocnienie sztucznej inteligencji i praw obywatelskich w szerszej gospodarce.
14. Ochrona konsumentów, pacjentów, pasażerów i studentów.
15. Ochrona prywatności.
16. Udzielanie wskazówek dotyczących zarządzania AI.
17. Zwiększenie liczby talentów w dziedzinie AI w rządzie.
18. Wzmocnienie przywództwa USA na arenie międzynarodowej.

Rozporządzenie UE z 13 czerwca 2024 roku jest obszernym aktem prawnym, którego preambuła obejmuje aż 180 pozycji i stanowi około połowy dokumentu. Zawiera 68 definicji oraz 144 strony regulujące szczegółowo działania w zakresie sztucznej inteligencji (AI) w Europie, z naciskiem na prawa i obowiązki twórców technologii, jej dystrybutorów oraz użytkowników. Oto wybrane, kluczowe fragmenty z polskiej wersji językowej tego aktu:

1. Urząd ds. AI: Powierzono Komisji Europejskiej zadanie wdrażania, monitorowania i nadzorowania systemów i modeli AI.

2. Oznaczanie treści generowanych przez AI: Dostawcy systemów AI, w tym tych ogólnego przeznaczenia, generujących syntetyczne treści (audio, wideo, grafika, tekst), są zobowiązani do oznaczania wyników swoich systemów w formacie możliwym do odczytania maszynowego, umożliwiającym ich rozpoznanie jako sztucznie wygenerowane. Zobowiązanie to nie dotyczy systemów, które pełnią funkcję pomocniczą lub nie zmieniają znacząco danych wejściowych.

3. Deepfake: Wdrażający systemy AI generujące lub manipulujące obrazem, dźwiękiem lub treściami wideo muszą ujawniać, że treść została wygenerowana lub zmanipulowana. Obowiązek ten nie dotyczy sytuacji, w których treść jest częścią ewidentnie artystycznego, satyrycznego czy fikcyjnego dzieła.

4. Treści tekstowe generowane przez AI: W przypadku publikacji tekstów generowanych lub zmanipulowanych przez AI, które mają na celu informowanie opinii publicznej, użytkownicy są zobowiązani do ujawnienia, że treść została stworzona sztucznie, z wyjątkiem przypadków, gdy AI została poddana ludzkiej kontroli redakcyjnej.

5. Kodeksy postępowania: Biuro ds. AI wspiera tworzenie kodeksów postępowania na poziomie unijnym, aby zapewnić skuteczne wdrażanie zasad dotyczących wykrywania i oznaczania treści generowanych przez AI.

6. Piaskownice regulacyjne AI: Państwa członkowskie muszą stworzyć co najmniej jedną piaskownicę regulacyjną AI na poziomie krajowym do 2 sierpnia 2026 r. Piaskownice te będą miejscem testowania nowych technologii AI w bezpiecznych warunkach regulacyjnych, a Komisja może udzielać wsparcia technicznego i doradczego w ich tworzeniu.

7. Europejska Rada ds. Sztucznej Inteligencji: Zostaje powołana Rada, której zadaniem jest monitorowanie i koordynacja działań związanych z AI. Członkami forum doradczego są m.in. Agencja Praw Podstawowych, ENISA oraz europejskie komitety normalizacyjne CEN, CENELEC i ETSI.

8. Współpraca międzynarodowa: Biuro ds. AI zachęca do współpracy z międzynarodowymi partnerami, aby promować wspólne podejścia do regulacji AI.

Rozporządzenie to ustanawia nowe ramy prawne, mające na celu zapewnienie odpowiedzialnego i bezpiecznego rozwoju technologii sztucznej inteligencji w Europie, dbając o ochronę konsumentów, przestrzeganie praw obywatelskich oraz odpowiednią regulację rynku.

Porównując przytoczone akty prawne z USA i UE, można zauważyć, że dotychczasowe działania firm takich jak Google i Meta w zakresie monitorowania i oznaczania treści generowanych przez AI, zwłaszcza w serwisach takich jak YouTube czy Instagram, nie są wystarczające. Dobrowolność twórców w oznaczaniu treści pochodzących od sztucznej inteligencji właśnie dobiega końca. W ciągu najbliższych miesięcy i lat stanie się to prawnie regulowanym obowiązkiem zarówno dla użytkowników oprogramowania AI, jak i twórców tej technologii, których działalność będzie podlegała coraz ściślejszym regulacjom. Wprowadzenie tych regulacji z pewnością zmieni sposób funkcjonowania sektora technologii, narzucając twórcom i użytkownikom AI bardziej restrykcyjne standardy prawne. Kluczowe pozostaje jednak pytanie, czy te przepisy nie zahamują tempa innowacji. Pozostaje mieć nadzieję, że rozwój AI będzie kontynuowany, a nowe regulacje jedynie poprawią bezpieczeństwo i przejrzystość, zamiast ograniczać postęp technologiczny.

Jeśli miałbym coś zarekomendować Uczestnikom i Organizatorom VIII Forum Prawa Autorskiego jako użytkownik AI w zakresie tekstu, obrazu i wideo, to:
  • Obecna regulacja prawna dotycząca prawa autorskiego w kontekście AI jest niewystarczająca i wymaga dalszej rozbudowy. Należy przewidzieć zmiany, które dostosują prawo do dynamicznego rozwoju tej technologii.
  • Ustawa o prawie autorskim powinna jasno przypisywać prawa autorskie twórcom, którzy korzystają z AI jako narzędzia, a nie samej sztucznej inteligencji. Twórcy powinni zachować prawo do swoich dzieł, nawet jeśli powstały przy wsparciu AI. Prawdopodobnym krokiem będzie stworzenie nowego aktu prawnego regulującego kwestie związane z AI, co już widać w pracach USA.
  • AI wymusza zmianę w kwestii wynagrodzeń za korzystanie z danych, jednak powinno to odbywać się na zasadzie dobrowolności. Proponuję przyjęcie zasady, że publikacje online mogą być swobodnie cytowane lub przekształcane, o ile poziom podobieństwa do oryginału nie przekracza 15%. Dobrowolność mogłaby również dawać twórcom możliwość uzyskiwania mikrodochodów, na przykład poprzez system procentowych opłat od dystrybucji treści AI, jak to miało miejsce w programie mikrodochodów FIREFOX MOZILLA.
  • Odpowiedzialność za użycie AI powinna zostać ograniczona do obowiązku oznaczenia i wskazania zakresu, w jakim AI zostało wykorzystane, co pozwoliłoby konsumentom na świadome podejmowanie decyzji.

WNIOSKI KOŃCOWE: w zasadzie przedział regulacji można podzielić na obligatoryjne w UE i fakultatywne w USA ale z dużą różnicą do technologii. Platformy testowe dla AI w USA nazywane poligonami w akcie UE nazywamy piaskownicami. Regulacje dotyczące sztucznej inteligencji w USA i UE znacząco różnią się podejściem, ale oba systemy zmierzają w kierunku wprowadzenia obowiązkowych zasad w przyszłości. W zasadzie można podzielić te regulacje na obligatoryjne w Unii Europejskiej oraz fakultatywne w Stanach Zjednoczonych, choć te różnice dotyczą przede wszystkim specyfiki i zakresu technologii oraz tempa wdrażania norm.

W UE regulacje mają charakter bardziej szczegółowy i restrykcyjny. Obowiązkowe oznaczanie treści generowanych przez AI oraz rygorystyczne przepisy dotyczące ochrony danych i praw obywatelskich stają się fundamentem nowych regulacji. Europa stawia na ścisłe kontrolowanie technologii, od tworzenia po dystrybucję i użycie, co ma na celu minimalizowanie ryzyka wynikającego z niekontrolowanego rozwoju AI. "Piaskownice regulacyjne", które mają powstać do 2026 roku, to miejsca, gdzie firmy będą mogły testować nowe technologie w bezpiecznym, regulowanym środowisku. W USA, choć regulacje pozostają bardziej elastyczne i oparte na dobrowolności, presja na wprowadzenie obowiązkowych oznaczeń treści generowanych przez AI rośnie. Platformy testowe, zwane "poligonami", umożliwią rozwój nowych technologii w bardziej otwartym środowisku, z naciskiem na innowacje i konkurencyjność. Jednak nawet w USA zauważalny jest trend w kierunku bardziej uregulowanego podejścia, szczególnie w kontekście odpowiedzialności za użycie AI oraz monitorowania treści syntetycznych.

Podsumowując, choć podejścia USA i UE różnią się zakresem i tempem wdrażania przepisów, kierunek działań obu regionów jest jasny: sztuczna inteligencja musi być regulowana, a zarówno twórcy, jak i użytkownicy AI muszą dostosować się do nowych norm, które w perspektywie miesięcy i lat staną się nieodłącznym elementem tej dynamicznie rozwijającej się technologii.





WYGENEROWANE PRZY POMOCY NARZĘDZI AI: TREŚCI, OBRAZY, ANIMACJE i DŹWIĘKI ZOSTAŁY WYGENEROWANE SYNTETYCZNE, ZMODYFIKOWANE LUB/I ZMANIPULOWANE




BIBLIOGRAFIA:

  • Kwestionariusz - 8. Forum Prawa Autorskiego - Ministerstwo Kultury i Dziedzictwa Narodowego;

  • Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence; 

  • Federal Artificial Intelligence Risk Management Act of 2023;

  • Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r.; 

  • Biden administration aims to cut AI risks with executive order - REUTERS.COM

  • Obraz Ribhav Agrawal z Pixabay

  • [tłum. Google Translator]


Komentarze

YO.FAN

Popularne posty