Proces rusza w momencie, gdy narzędzia do syntezy mowy są powszechnie dostępne, a rynek reklamowy coraz chętniej sięga po rozwiązania obniżające koszty produkcji. Pełnomocnicy lektora podkreślają, że brak odrębnej ustawy o sztucznej inteligencji nie oznacza braku ochrony prawnej, a obowiązujące przepisy wystarczają do oceny takich naruszeń.

Precedensowy proces o głos wygenerowany przez AI

Pełnomocniczka Jarosława Łukomskiego mec. Wiktoria Stasiewicz wskazuje, że dotychczasowe orzecznictwo dotyczyło naruszeń wizerunku i głosu w klasycznym ujęciu, natomiast obecna sprawa dotyczy głosu „stworzonego i przekształconego przez AI (deepfake) i wykorzystanego komercyjnie”. – Sprawa będzie precedensowa, ponieważ pierwszy raz mamy do czynienia z takim stanem faktycznym – powiedziała PAP.

W ocenie pełnomocników, rozstrzygnięcie może wpłynąć na przyszły kierunek orzecznictwa. – Wierzymy, że to rozstrzygnięcie może mieć znaczenie systemowe, bo takich procesów po prostu nie było, a zasób wiedzy sądowej w tym zakresie jest ograniczony – dodała mec. Stasiewicz.

„Brak ustawy o AI” jako linia obrony pozwanej firmy

Mecenas Tomasz Ejtminowicz, reprezentujący lektora, wskazał, że stanowisko pozwanej spółki opiera się na tezie, iż sztuczna inteligencja nie została wprost uregulowana w polskim prawie, a więc brak jest podstaw do odpowiedzialności. – To twierdzenie jest absurdalne – zaznaczył.

– Nie ma czegoś takiego jak brak uregulowania jakiegoś wycinka rzeczywistości – powiedział. – Nawet jeżeli nie ma szczególnego aktu przypisanego bezpośrednio do sztucznej inteligencji, ochronę prawną można wyprowadzać z norm wyższego rzędu – na przykład z Kodeksu cywilnego, Kodeksu karnego, Prawa autorskiego czy przepisów o zwalczaniu nieuczciwej konkurencji – podkreślił Ejtminowicz, dodając, że nie każdy element życia musi być „ometkowany” własną ustawą.

Jak Jarosław Łukomski dowiedział się o reklamie z „jego” głosem?

Sam Jarosław Łukomski relacjonował, że o wykorzystaniu jego głosu dowiedział się przypadkowo. – Otworzyłem link i ku swojemu zdumieniu odkryłem, że rzeczywiście to brzmi jak ja, ale to nie są słowa, które kiedykolwiek wypowiedziałem, ani nie przypomina mi to zlecenia, jakie bym kiedyś od kogokolwiek otrzymał – mówił.

Chodziło o internetową reklamę szamb, w której pojawił się głos do złudzenia przypominający jego barwę i sposób mówienia, choć sam lektor nie brał udziału w nagraniu ani nie udzielił zgody na takie użycie.

Łukomski wyjaśnił, że około dwa lata temu wraz z grupą innych lektorów podpisał z firmą Mikrofonika, prowadzącą internetowy bank głosów, umowę dotyczącą próby stworzenia cyfrowego modelu jego głosu. – Wiedzieliśmy, że takie zjawisko kiedyś wystąpi i jeżeli wystąpi, to należy być pierwszym (…) i mieć kontrolę nad tym, w jaki sposób mój głos (…) może zostać w przyszłości użyty, przez kogo i na jakich zasadach – zaznaczył.

Projekt jednak nie został dokończony. – W międzyczasie ktoś, nie przejmując się specjalnie jakością (…), nie zapytawszy mnie, czy chciałbym wziąć udział w zleceniu, (…), nie zapytawszy nikogo o to, czy może istnieje gdzieś umowa na wyłączność na mój głos w wersji cyfrowej, po prostu stworzył cyfrowy model mojego głosu i użył go w celach komercyjnych – powiedział.

Roszczenia finansowe i zadośćuczynienie za naruszenie dóbr osobistych

Lektor zapowiedział, że będzie domagał się zapłaty wynagrodzenia odpowiadającego stawce, jaką otrzymałby za udział w reklamie, oraz dodatkowego zadośćuczynienia finansowego za naruszenie dóbr osobistych. Kluczowym elementem sporu ma być ocena, czy doszło do naruszenia prawa do głosu jako dobra osobistego oraz czy jego komercyjne wykorzystanie bez zgody uprawnionego jest bezprawne.

Pierwsza rozprawa została wyznaczona na piątek, 23 stycznia, w Wydziale Własności Intelektualnej warszawskiego Sądu Okręgowego.

Prawo do głosu jako dobro osobiste i „dźwięczny wizerunek”

Pełnomocnicy podkreślają, że zasadniczym naruszeniem jest ingerencja w prawo do głosu. Mec. Stasiewicz wyjaśniła, że w doktrynie funkcjonują dwa podejścia: traktowanie głosu jako elementu wizerunku – tzw. „dźwięcznego wizerunku” – albo jako odrębnego dobra osobistego. – Wnioski są jednak takie same: zarówno głos, jak i wizerunek podlegają ochronie na analogicznych zasadach – podkreśliła.

Pojęcie „dźwięcznego wizerunku” pojawia się w orzecznictwie Sąd Najwyższy. W wyroku z 3 października 2007 r. SN wskazał, że głos „powinien być chroniony w ramach prawa do wizerunku, stanowi bowiem jego element nie jako obraz fizyczny (wizualny) danej osoby, lecz jako jej obraz odbierany za pomocą słuchu”, pod warunkiem że jest rozpoznawalny dla osób trzecich.

Deepfake jako „typowy przykład ingerencji” w głos

W nowszym wyroku z 7 marca 2023 r. Sąd Najwyższy stwierdził, że „głos, podobnie jak np. wizerunek, jest dobrem obejmującym określony element tożsamości fizycznej człowieka i jednocześnie zindywidualizowanym z uwagi na niemal niepowtarzalną barwę i skalę”. SN zaznaczył, że fakt niewymienienia głosu w art. 23 Kodeksu cywilnego nie wyklucza jego ochrony, ponieważ katalog dóbr osobistych ma charakter otwarty.

W tym samym orzeczeniu wskazano, że „typowym przykładem ingerencji” w głos jako samodzielne dobro osobiste jest „jego przekształcenie za pomocą narzędzi cyfrowych w taki sposób, iż barwa dźwięku pozwala odbiorcy na identyfikację głosu innej osoby (…) – zjawisko tzw. deep fake”. To właśnie ten fragment orzecznictwa ma kluczowe znaczenie dla oceny sprawy Jarosława Łukomskiego.