Firmy będą musiały oznaczać interakcje z AI, ujawniać źródła danych i raportować przejrzystość działania systemów – pod rygorem kar sięgających 20 mln euro lub 4 proc. globalnego obrotu.

AI przestała być domeną technologicznych gigantów. Dziś niemal w każdej firmie korzystają z niej działy HR, marketingu, sprzedaży czy produkcji. Systemy rekrutacyjne oceniają kandydatów, chatboty odpowiadają klientom, a algorytmy analizują zachowania konsumentów. To duże ułatwienia i wygoda, ale też źródło nowych obowiązków. Bo każda interakcja, w której AI przetwarza dane osobowe, oznacza zastosowanie przepisów RODO. A od 2026 r. także AI Act, czyli unijnego rozporządzenia o sztucznej inteligencji, które nakłada na przedsiębiorców zupełnie nowe wymogi transparentności. Zostało ono opublikowane w lipcu 2024 r. Jego przepisy są wdrażane etapami: część dotycząca zakazów systemów o nieakceptowalnym ryzyku obowiązuje już od lutego br., a pozostałe – od sierpnia 2026 r.

Uwaga! Mimo że przepisy tego rozporządzenia działają bezpośrednio, to w Polsce i tak trwają prace nad krajową ustawą o systemach sztucznej inteligencji, która ma doprecyzować krajowy nadzór nad tymi systemami.

Dla firm oznacza to jedno: RODO i AI Act będą działać równolegle, obejmując zarówno dane osobowe, jak i sposób funkcjonowania technologii.

Dostawca czy użytkownik?

Pierwszym krokiem do zgodności z przepisami jest określenie roli w ekosystemie AI. AI Act wyróżnia dwie podstawowe:

  • dostawcy (providera) – jest to firma, która tworzy lub trenuje model sztucznej inteligencji, udostępnia go na rynku, rozwija jego funkcjonalność lub zleca jego budowę,
  • podmiotu stosującego (deployera) – to przedsiębiorstwo, które korzysta z gotowego rozwiązania AI w codziennej działalności (np. wykorzystuje Copilota w analizach, ChatGPT w marketingu czy systemu opartego na AI w rekrutacji).

Dostawca, który trenuje model na danych osobowych, staje się administratorem danych. Musi więc posiadać podstawę prawną przetwarzania, poinformować o celu i zakresie użycia danych oraz dokumentować proces uczenia modelu. To właśnie w tej sferze dochodziło do największych naruszeń. Przykładem jest OpenAI, ukarany przez włoski organ ochrony danych na kwotę 15 mln euro za to, że ChatGPT przetwarzał dane użytkowników bez wystarczającej informacji o tym, jakie dane i w jakim celu są wykorzystywane. Podobny los spotkał firmę Replika, która trenowała „emocjonalnego asystenta” na rozmowach użytkowników, w tym dzieci, bez ich wiedzy i zgody. Kara: ponad 5 mln euro.

Jeśli więc firma tworzy rozwiązanie oparte na uczeniu maszynowym, musi:

  • określić podstawę prawną przetwarzania (np. zgodę lub uzasadniony interes),
  • poinformować osoby o sposobie użycia ich danych,
  • być gotowa udokumentować proces treningu.

Natomiast podmiot stosujący nie tworzy modelu, ale odpowiada za jego wykorzystanie w praktyce. W kontekście RODO również staje się administratorem danych osobowych, które trafiają do systemu w ramach jego działalności. To oznacza, że jeśli firma korzysta z narzędzi AI w kontaktach z klientami, w procesach HR lub w analizie danych, powinna:

  • poinformować użytkowników, że ich dane są przetwarzane przez sztuczną inteligencję,
  • określić podstawę prawną,
  • zapewnić, że narzędzie nie narusza praw pracowników czy klientów.

Na przykład firma, która w procesie rekrutacji korzysta z AI do wstępnej selekcji kandydatów, musi wprost wskazać w ogłoszeniu o pracę, że CV kandydatów analizuje algorytm, a decyzję o zatrudnieniu podejmuje człowiek.

Obowiązki informacyjne i poziomy ryzyka

AI Act wprowadza cztery poziomy ryzyka, ale z perspektywy biznesu kluczowe są dwa:

  • ograniczone – np. chatboty, generatory treści czy asystenci sprzedażowi (wymóg jest prosty: trzeba uczciwie poinformować, że użytkownik rozmawia z AI, a jeśli firma publikuje treści generowane przez sztuczną inteligencję [grafiki, wideo, audio], powinna też wskazać, że powstały one z jej użyciem),
  • wysokie – technologie, które mogą wpływać na prawa i wolności osób, np. systemy oceny kredytowej, rekrutacyjne czy biometryczne.

Przy wysokim ryzyku obowiązek przejrzystości jest szczególnie surowy. Warto wspomnieć o przypadku Clearview AI. Firma tworzyła globalną bazę zdjęć pobieranych z internetu w celu doskonalenia technologii rozpoznawania twarzy. Europejskie organy (m.in. francuski CNIL i holenderski DPA) uznały, że to rażące naruszenie zasad przejrzystości i prywatności. Nałożyły na firmę kary, których łączna wysokość przekroczyła 50 mln euro
(dodatkowo w Austrii wszczęto przeciwko niej postępowanie karne).

Uwaga! W praktyce oznacza to, że każda firma używająca systemu biometrycznego, choćby do kontroli dostępu, rejestracji czasu pracy czy analizy emocji, musi jasno informować pracowników lub klientów, że ich wizerunek i zachowanie są analizowane przez AI – i w jakim celu.

Ochrona danych

AI Act nie zastępuje RODO – oba akty działają równolegle. Jeśli więc system AI przetwarza dane osobowe, obowiązki z RODO nadal są: podstawy prawne, cele, klauzule informacyjne, prawo do sprzeciwu czy dostępu do danych. Problem w tym, że w praktyce wiele modeli uczy się na ogromnych zbiorach danych pochodzących z internetu. W takim procesie trudno ustalić źródło, kontekst czy pierwotny cel przetwarzania danych, co może prowadzić do naruszenia podstawowych zasad RODO.

Dlatego Europejska Rada Ochrony Danych (EROD) zwraca uwagę, że powoływanie się na tzw. uzasadniony interes jako podstawę prawną dla trenowania modeli może być uwzględnione tylko w wyjątkowych przypadkach. Aby z tej przesłanki skorzystać, firma musi wykazać, że:

  • istnieje konkretny, zgodny z prawem interes,
  • przetwarzanie danych jest niezbędne do jego realizacji,
  • interes ten nie narusza praw ani wolności osób, których dane dotyczą.

W praktyce to ostatnie kryterium jest najtrudniejsze do spełnienia. Osoby publikujące dane w internecie zwykle nie spodziewają się, że ich dane zostaną wykorzystane do trenowania komercyjnych modeli AI. Tym samym masowe pozyskiwanie danych z sieci wciąż stanowi jedno z najpoważniejszych wyzwań dla zgodności z RODO. Dobitnie pokazuje to przykład X Corp (dawniej Twitter), wobec którego europejskie organy ochrony danych prowadzą postępowanie w sprawie wykorzystania danych użytkowników do trenowania modeli AI bez zgody i właściwej informacji. Jeśli zarzuty się potwierdzą, konsekwencje mogą mieć charakter nie tylko finansowy, lecz także reputacyjny.

Wnioski dla przedsiębiorców są jednoznaczne. Spełnienie wymogów AI Act nie zwalnia z obowiązków RODO.
AI Act reguluje sposób, w jaki technologia powinna być projektowana i nadzorowana, natomiast RODO przypomina, że w centrum tego procesu zawsze stoi człowiek i jego dane.

Ile zapłacą firmy za zaniechania

Za naruszenia przepisów związane ze sztuczną inteligencją i ochroną danych osobowych grożą surowe sankcje. Wynoszą one:

  • do 15 mln euro lub 3 proc. globalnego obrotu – za naruszenie obowiązków informacyjnych wynikających z AI Act;
  • do 20 mln euro lub 4 proc. obrotu – za naruszenie RODO (np. brak podstawy prawnej przetwarzania czy brak informacji dla osób, których dane dotyczą).

Najpoważniejsze konsekwencje dotyczą jednak przypadków, gdy model AI został wytrenowany na danych osobowych przetworzonych bez ważnej podstawy prawnej.

W takiej sytuacji organ nadzorczy może nie tylko nałożyć karę finansową, lecz także nakazać usunięcie danych treningowych, co w praktyce oznacza konieczność zniszczenia i ponownego wytrenowania całego modelu.

Dla firmy może to oznaczać paraliż projektu, utratę miesięcy pracy i znaczące koszty odtworzenia systemu.

Ważne! Odpowiedzialność nie spoczywa wyłącznie na twórcy modelu. Firma kupująca lub integrująca narzędzie AI, musi zweryfikować jego legalność oraz użytych
danych.

Wdrożenie systemu opartego na nielegalnie przetworzonych danych przenosi ryzyko współodpowiedzialności również na użytkownika, nawet jeśli nie uczestniczył on w procesie tworzenia technologii. ©℗