Polskie środowisko aktorskie przechodzi do ofensywy wobec firm wykorzystujących sztuczną inteligencję. Trzy największe organizacje branżowe zawiązały wspólny front i żądają pilnych zmian w prawie, które mają chronić głos jako dobro osobiste i narzędzie pracy. Sprawa dotyczy nie tylko pojedynczych nadużyć, ale całego modelu funkcjonowania rynku audiowizualnego.
Związek Artystów Scen Polskich, Związek Zawodowy Twórców Dubbingu oraz Związek Zawodowy Aktorów Polskich ogłosiły powstanie wspólnej inicjatywy pod hasłem „Mój głos. Moja własność”. To odpowiedź na rosnącą skalę wykorzystywania technologii generatywnej sztucznej inteligencji w produkcjach reklamowych, filmowych i internetowych, często bez wiedzy i zgody twórców.
Organizacje podkreślają, że problem dotyczy nie tylko nielegalnego kopiowania głosu, ale także jego komercyjnego wykorzystania bez wynagrodzenia. W ich ocenie brak precyzyjnych regulacji prawnych sprawia, że twórcy pozostają bez realnych narzędzi ochrony.
Jak zaznacza prezes ZASP Jan Tomaszewicz: „Rozumiemy tempo rozwoju technologii, ale państwo nie może pozostawać bierne wobec nadużyć. Potrzebne są jasne przepisy gwarantujące twórcom kontrolę nad wykorzystaniem ich głosu oraz uczciwe wynagrodzenie”.
Głos jako dobro osobiste i fundament pracy zawodowej
W centrum sporu znajduje się status głosu jako elementu tożsamości artysty. Dla lektorów, aktorów dubbingowych i wykonawców audiowizualnych to podstawowe narzędzie pracy, budowane latami poprzez doświadczenie, warsztat i rozpoznawalność.
Eksperci prawa autorskiego coraz częściej wskazują, że głos powinien być traktowany analogicznie do wizerunku – jako dobro osobiste chronione przepisami cywilnymi. Tymczasem rozwój technologii deepfake i systemów klonowania głosu umożliwia tworzenie niemal idealnych kopii bez udziału pierwotnego wykonawcy.
Zjawisko to wpisuje się w szerszy globalny trend. W Stanach Zjednoczonych aktorzy zrzeszeni w związku SAG-AFTRA już w 2023 roku rozpoczęli protesty przeciwko wykorzystywaniu ich wizerunku i głosu przez AI bez odpowiednich zabezpieczeń. Podobne regulacje są obecnie analizowane w Unii Europejskiej w ramach prac nad AI Act.
Sprawa Jarosława Łukomskiego i precedens w Polsce
Najbardziej jaskrawym przykładem naruszeń w Polsce jest sprawa lektora Jarosława Łukomskiego, która trafiła przed Sąd Okręgowy w Warszawie. Artysta rozpoznał swój głos w reklamie, której nigdy nie nagrywał. Jak ustalono, wykorzystano syntetyczny model jego barwy głosu.
To pierwszy tak poważny przypadek w kraju, który może wyznaczyć standardy orzecznicze w zakresie ochrony głosu. Postępowanie dotyczy wykorzystania technologii bez zgody twórcy przez firmę działającą w branży wodno-kanalizacyjnej.
Sprawa ta pokazuje skalę problemu – generowane głosy pojawiają się już nie tylko w niszowych projektach, ale także w reklamach i kampaniach sprzedażowych. Co więcej, podobne praktyki obserwowane są również w produkcji audiobooków, gdzie AI odtwarza styl interpretacyjny znanych lektorów.
Systemowe zagrożenia dla rynku pracy i jakości produkcji
Środowisko artystyczne alarmuje, że bez odpowiednich regulacji rynek pracy może ulec gwałtownej destabilizacji. Wykorzystanie AI pozwala producentom znacząco obniżyć koszty, co prowadzi do presji na obniżanie stawek dla profesjonalnych wykonawców.
W dłuższej perspektywie może to oznaczać ograniczenie liczby zleceń, spadek jakości produkcji oraz marginalizację zawodu lektora i aktora dubbingowego. W ocenie ekspertów, automatyzacja w tej dziedzinie nie jest neutralna – wpływa bezpośrednio na standardy kultury i rynku medialnego.
Dodatkowym problemem jest brak transparentności w procesie trenowania modeli AI. Twórcy często nie wiedzą, czy ich nagrania zostały wykorzystane jako dane treningowe, ani na jakich zasadach.
Postulaty „Mój głos. Moja własność” wobec państwa i firm technologicznych
Koalicja przedstawiła konkretne propozycje zmian legislacyjnych. Wśród najważniejszych znalazły się:
- obowiązek uzyskania wyraźnej zgody na każde wykorzystanie głosu przez systemy AI,
- pełna jawność źródeł danych używanych do trenowania modeli,
- obowiązek oznaczania treści wygenerowanych przez sztuczną inteligencję,
- prawo do usunięcia danych głosowych z systemów,
- wprowadzenie realnej odpowiedzialności finansowej za naruszenia.
Organizacje postulują także wprowadzenie mechanizmów wspierających produkcje korzystające z pracy aktorów – m.in. poprzez system dotacji lub preferencji podatkowych.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu