DGP zadał takie pytanie prawnikom zajmującym się nowymi technologiami oraz specjalizującym się w ochronie danych osobowych. Ich zdaniem, pomocne mogą okazać się przepisy wynikające z AI Act, rozporządzenia o usługach cyfrowych (DSA) czy RODO.

Zagrożenia związane z personalizowanymi reklamami w ChatGPT

Prawnicy zwracają uwagę, że przejście przez OpenAI na sprzedaż reklam spersonalizowanych niesie duże zagrożenie dla użytkowników Chata GPT.

– Nie tylko dlatego, że de facto nie będziemy w stanie zrozumieć logiki działania algorytmów (lub ktoś nie będzie chciał nam udzielić stosownej informacji), ale także dlatego, że stajemy się coraz bardziej podatni na sugestie „asystentów”. Jeżeli będą oni nas „dobrze znali”, to ryzyko manipulacji staje się znaczące – uważa dr Michał Nowakowski, radca prawny, legal architect w GovernedAI.

Mec. Nowakowski zwraca uwagę, że rozporządzenie o usługach cyfrowych (DSA) wprowadza wiele ograniczeń (ale i praw po stronie użytkowników) w zakresie reklam, także targetowanych. Jak dodaje, chronić nas może w pewnym stopniu także AI Act, bo znajdziemy tam tzw. katalog praktyk zakazanych, wśród których – w dużym uproszczeniu – znajdziemy m.in. zakaz wykorzystywania systemów AI do manipulacji czy wykorzystywania naszych słabości. Dodatkowo, choć w odniesieniu do innych systemów, pojawiają się rozwiązania w zakresie możliwości złożenia skargi czy pozyskiwania dodatkowych informacji o wpływie systemów na naszą sytuację.

Prawnik zwraca uwagę, że chronią nas też przepisy o ochronie danych osobowych, bo dają nam chociażby możliwość żądania dodatkowych wyjaśnień.

– Tu jednak wracamy do kwestii etycznych (i trochę prawnych), bo pytanie jest o to co duże firmy technologiczne będą chciały nam ujawnić i jaki proc. całości informacji będzie to stanowić. Może być więc tak, że dopiero „duże sprawy” pokażą skalę zjawiska i być może „coś zmienią”, jeżeli okaże się, że rzeczywiście jest źle – tłumaczy mec. Nowakowski.

Prawne i etyczne wyzwania związane z reklamami w ChatGPT

Dr Gabriela Bar, radczyni prawna, specjalistka z zakresu prawa i etyki AI, uważa, że publikowanie reklam w chacie GPT jest dopuszczalne, ale w modelu, który komunikuje OpenAI, rodzi to poważne ryzyka prawne i etyczne.

Uważa, że nawet jeśli reklamodawcy nie mają dostępu do czatów, jak pisze OpenAI, to dochodzi do profilowania użytkowników w celu wyświetlania reklamy targetowanej. – Jest to oczywiście przetwarzanie danych osobowych, do którego OpenAI musi mieć odpowiednią podstawę prawną. W świetle tego, co organy ochrony danych, EROD i TSUE, już powiedziały na ten temat w kontekście Mety i jej portali społecznościowych, to dla OpenAI taką podstawą powinna być wyłącznie zgoda osoby, której dane dotyczą – mówi.

To, w ocenie radczyni prawnej, budzi dalsze wątpliwości. – ChatGPT nie jest platformą społecznościową. Można powiedzieć, że to pewnego rodzaju narzędzie poznawcze, a treści rozmów z AI często mają charakter rozmowy z przyjacielem lub ekspertem. Wprowadzanie reklam związanych z kontekstem rozmowy rodzi ryzyko zakwalifikowania tego działania jako zautomatyzowane podejmowanie decyzji z art. 22 RODO, ze względu na wpływ jakie wyświetlane reklamy mogą mieć na użytkownika – dodaje mec Bar.

ChatGPT jak wyszukiwarka

Problem zakwalifikowania ChatuGPT podnosi też Mateusz Kupiec, prawnik w kancelarii Traple Konarski Podrecki i Wspólnicy, badacz w Instytucie Nauk Prawnych PAN. Zauważa, że rozporządzenie DSA przewiduje szczególne obowiązki dotyczące przejrzystości reklamy oraz ograniczenia w zakresie profilowania, ale tylko wobec określonej kategorii podmiotów – dostawców platform internetowych.

W jego ocenie,podstawowa funkcjonalność ChatGPT – czyli przetwarzanie indywidualnego zapytania i wygenerowanie odpowiedzi skierowanej do konkretnego użytkownika – jest bliższa modelowi wyszukiwarki niż klasycznej platformy internetowej, ponieważ – podobnie jak wyszukiwarka w rozumieniu DSA – umożliwia użytkownikowi uzyskanie informacji w odpowiedzi na zapytanie w formie słowa kluczowego, frazy lub innej wartości wejściowej, bez elementu publicznego rozpowszechniania treści.

– Interakcja ma charakter jednostkowy i prywatny, nie polega na publicznym udostępnianiu treści nieograniczonemu kręgowi odbiorców. W tym sensie trudno mówić o typowym modelu platformowym znanym np. z mediów społecznościowych – tłumaczy Mateusz Kupiec.

Ważne

W ocenie prawnika, z dużym prawdopodobieństwem ChatGPT może zostać uznany za „usługę hostingu” w rozumieniu Aktu o Usługach Cyfrowych przynajmniej w odniesieniu do przechowywania zapytań użytkowników. – Sam fakt przechowywania treści zapytań (promptów) użytkownika nie przesądza jednak jeszcze o uznaniu usługi za platformę internetową; dla tej kwalifikacji kluczowe jest, czy dochodzi do publicznego rozpowszechniania informacji zamieszczanych przez użytkownika – dodaje.

Kupiec zwraca też uwagę, że w ramach niektórych funkcjonalności ChatGPT posiada również elementy platformowe. Dotyczy to zwłaszcza funkcjonalności pozwalających na tworzenie i udostępnianie tzw. custom GPT. – W sytuacji, w której użytkownik może stworzyć własną konfigurację i uczynić ją dostępną innym użytkownikom, pojawia się klasyczny element przechowywania i udostępniania treści publiczności. To właśnie te funkcjonalności – a nie samo tworzenia odpowiedzi na prompty przez model – są potencjalnie najistotniejsze z punktu widzenia kwalifikacji ChatGPT w świetle DSA – tłumaczy.

Wskazuje przy tym, że jeżeli ChatGPT zostałby uznany za platformę internetową, podlegałby ograniczeniom dotyczącym reklamy, w tym zakazowi wyświetlania reklam opartych na profilowaniu z wykorzystaniem szczególnych kategorii danych. – Jeżeli natomiast przyjąć, że nie jest platformą, te szczególne ograniczenia sektorowe nie znajdowałyby zastosowania, a ocena dopuszczalności przetwarzania danych osobowych w ramach modelu reklamowego opierałaby się przede wszystkim na przepisach RODO. Tym samym, nawet jeżeli uznać, że wymogi DSA dotyczące ograniczeń w profilowaniu odbiorców usługi w celach reklamowych nie znajdują zastosowania do ChatGPT, nie oznaczałoby to pełnej swobody spółki w zakresie wykorzystywania danych do celów marketingowych – tłumaczy.

Realna kontrola nad reklamami w ChatGPT: Co mówią prawnicy?

Mec. Bar również odnosi się do aktu o usługach cyfrowych. Jej zdaniem, OpenAI będzie musiała spełnić wymogi dotyczące oznaczania reklam i wyjaśniania, jakie parametry decydują o ich doborze, zakazu profilowania z wykorzystaniem szczególnych kategorii danych osobowych, takich jak informacje o zdrowiu, poglądach politycznych. Powinna też umożliwić użytkownikom realną kontrolę nad personalizacją.

Mec. Bar najbardziej niepokoi wpływ takiego rozwiązania na autonomię poznawczą użytkowników ChatGPT. – Reklamy w takim narzędziu to zupełnie inna kategoria etyczna. Powszechnie wiadomo, że reklamy wpływają na nasze decyzje zakupowe. W tym przypadku jednak, w powiązaniu z tematem rozmowy, mogą także wpływać szerzej na kierunek myślenia i dokonywane wybory, znacznie istotniejsze niż zakupy – mówi. Ekspertka podkreśla, że mimo deklaracji, że reklamy nie wpływają na odpowiedzi, to nie wiemy przecież, na ile OpenAI będzie w tym zakresie transparentna, czy będzie przeprowadzać jakieś zewnętrzne audyty dotyczące rozdziału warstwy modelu i warstwy monetyzacji oraz publikować ich wyniki.

Według mec. Bar nie można też nie zauważyć potencjalnego problemu dyskryminacji, skoro test będzie dotyczył użytkowników na poziomach subskrypcji Free i Go, a w subskrypcjach płatnych i biznesowych nie będzie reklam. To oznacza, że użytkownicy potencjalnie mniej zamożni są bardziej eksponowani na indoktrynację konsumpcjonizmu.

Z kolei Mateusz Kupiec zwraca uwagę, że rozpoczęcie przetwarzania danych osobowych użytkowników przez OpenAI na potrzeby wyświetlania reklam będzie dla tego podmiotu wiązało się z koniecznością precyzyjnego określenia podstawy prawnej takich działań w świetle RODO, w szczególności wtedy, gdy reklamy miałyby być dobierane w oparciu o profilowanie użytkowników.

Jego zdaniem, przetwarzanie danych do celów reklamy behawioralnej od lat pozostaje przedmiotem zwiększonej uwagi organów ochrony danych oraz debaty publicznej. – W świetle dotychczasowych stanowisk organów ochrony danych oraz EROD to właśnie zgoda jest najczęściej wskazywaną podstawą prawną w przypadku reklamy opartej na targetowaniu i profilowaniu użytkowników – mówi.

– Taka zgoda musi jednak spełniać wszystkie wymogi określone w RODO – być dobrowolna, konkretna, świadoma i jednoznaczna, a także możliwa do wycofania w każdym czasie. Co istotne, powinna ona zostać uzyskana przed rozpoczęciem profilowania w celach marketingowych, a jej zakres powinien precyzyjnie odpowiadać rzeczywistemu modelowi przetwarzania danych w ramach systemu reklamowego – tłumaczy nasz rozmówca.

Prawnik uważa, że na obecnym etapie nie sposób jednak przesądzać o zgodności ewentualnych działań OpenAI z RODO, bo nie są znane szczegółowe założenia dotyczące sposobu wyświetlania reklam użytkownikom z UE. Ocena, jego zdaniem, musi być ostrożna do czasu przedstawienia przez OpenAI rozwiązań organizacyjnych i technicznych dla rynku europejskiego. ©℗

Przetwarzanie jakich danych osobowych jest zabronione
ikona lupy />
Przetwarzanie jakich danych osobowych jest zabronione / Dziennik Gazeta Prawna - wydanie cyfrowe