Sztuczna inteligencja (AI) w coraz większym stopniu jest wykorzystywana w wielu branżach. Posiłkują się nią zarówno programiści, copywriterzy, jak i prawnicy. Zaprojektowany przez firmę Open AI ChatGPT okazał się prawdziwą bolączką europejskich organów nadzorczych. Nieustannie rozwijające się narzędzia oparte na AI zbierają terabajty danych osobowych, tworząc przy tym wiele pytań o prywatność użytkowników. Autor jest inspektorem ochrony danych, pracuje w Biurze Porad Prawnych Oskar Zacharski.

Globalna sensacja

Początki projektu, który stał się obecnie jednym z najgorętszych tematów na świecie dotyczących sztucznej inteligencji, możemy znaleźć w 2018 r. To wówczas firma OpenAI przygotowała pierwszy model swojego chatbota, który nosił nazwę GPT-1. Jego celem było udzielanie użytkownikowi odpowiedzi na pytania dotyczące szerokiego zakresu wiedzy oraz realne angażowanie się w rozmowę z nim. Z tego powodu chat bazował na ogromnych zbiorach danych.

Przez kolejne lata sztuczna inteligencja przeczesywała posty w sieci, fora tematyczne i książki. Zapoznawała się też z niektórymi danymi osobowymi, które udostępniasz na swój temat w internecie (już za późno, żeby je usunąć). Wszystko to, by nauczyć się sposobu komunikacji, zrozumieć język, rozumieć treści pytań i znać na nie odpowiedzi… albo przynajmniej umieć zgrabnie kłamać, ale o tym później.

Pierwsza wersja, do której dostęp mogli mieć użytkownicy, ujrzała światło dzienne pod koniec 2022 r. i osiągnęła spektakularny sukces. ChatGPT potrzebował zaledwie pięciu dni, by osiągnąć liczbę miliona założonych kont. Po dwóch miesiącach było ich już 100 razy tyle. Wynik ten zostawił daleko w tyle gigantów, takich jak: Netflix, Facebook czy TikTok. Chatbot nie powiedział jeszcze ostatniego słowa, przebijając niedawno 1,6 mld zarejestrowanych użytkowników. 12 maja 2023 r. pojawiła się jego kolejna wersja i… kolejne problemy.

Kości zostały rzucone

Włosi nie pozostali obojętni na czerwone flagi w zakresie prywatności, które były widoczne od dnia uruchomienia ChatGPT. Głównymi zarzutami były m.in. brak kontroli wieku rejestrujących się użytkowników, prawdopodobieństwo generowania błędnych informacji o osobach, a także – co najistotniejsze – brak podstaw prawnych przetwarzania danych osobowych.

W efekcie zlokalizowany w Rzymie Urząd Ochrony Danych Osobowych (Garante per la protezione dei dati personali) wezwał OpenAI do złożenia wyjaśnień w powyższych kwestiach. Brak ustosunkowania się do nich może skutkować nałożeniem na twórców kary finansowej, która może wynieść nawet 4 proc. rocznego światowego obrotu. We Włoszech ponownie przekroczony został Rubikon. Są one bowiem pierwszym zachodnim państwem, które zakazało (na razie tymczasowo) używania ChatGPT. W ślad za nim być może podążą kolejne kraje. Wiele zależy zapewne od wyjaśnień, które zostaną złożone regulatorowi przez firmę z San Francisco.

Wielki konfabulator

Niezaprzeczalnie GPT, poznając meandry językowe i gramatyczne oraz dysponując całkiem obszerną – i ogólnodostępną – internetową bazą danych, jest skłonny szybko i sprawnie ustosunkować się do zadawanych mu pytań. Problem polega jednak na tym, że z pozoru wiarygodne informacje po weryfikacji okazują się… kłamstwem.

Jak pokazują liczne przykłady, GPT ma spore skłonności do konfabulacji. Dzieje się tak głównie z uwagi na brak kompletności wiedzy oraz chęć usatysfakcjonowania użytkownika odpowiedzią, która będzie przynajmniej spełniała oczekiwania językowe. Jeżeli więc chatbot jeszcze się czegoś nie nauczył, to z całą pewnością zaserwuje nam jakiś zgrabnie złożony i przekonujący fake news.

AI-pokalipsa

ChatGPT od firmy OpenAI nie jest pierwszym ani jedynym narzędziem opartym na sztucznej inteligencji oddanym do użytku internautów. Giganci pokroju Google czy Microsoft inwestują w technologię AI od lat, a rynek ten rozwija się prężnie i nie zamierza zwalniać, nawet mimo potknięć. Nie tylko technicznych, lecz także prawnych i etycznych.

Poza oczywistymi benefitami, takimi jak możliwość szybkiego uzyskania informacji na interesujące nas kwestie w jednym miejscu czy wyręczanie nas w pisaniu rozległych tekstów, technologia AI ma także swoje cienie. Na dziś główne zagrożenia możemy dostrzec w obszarze prywatności użytkowników chatbotów. Aplikacje zbierają niejednokrotnie szeroki zakres danych (w tym numery telefonów) na niespotykaną dotąd skalę – w przypadku GPT przekraczającą 1,6 mld rekordów. Brak jest jednak wdrożonych rozwiązań prawnych i technicznych, jak privacy by design & by default (uwzględnienie ochrony danych już w fazie projektowania oraz domyślna ochrona danych), które zapewnią odpowiednie zabezpieczenie przetwarzania wykonywanego na tak dużą skalę. Brak jest także zapewnienia użytkownikom kompleksowej informacji w zakresie sposobów, celów i podstaw prawnych przetwarzania ich danych osobowych.

Ponadto pojawia się także duże zagrożenie rozprzestrzeniania się informacji nieprawdziwych, wygenerowanych przez chat oparty na sztucznej inteligencji, co może mieć negatywny wpływ na użytkownika. Tym bardziej że może nim być osoba przed 13. rokiem życia.©℗