AI, takie jak ChatGPT, będą informować, że treści zostały wygenerowane przez sztuczną inteligencję. Posłowie UE gotowi do negocjacji przepisów

Chat GPT
Chat GPTshutterstock
14 czerwca 2023

Nie będzie można używać sztucznej inteligencji (SI) do nadzoru biometrycznego, rozpoznawania emocji i prognozowania kryminologicznego. Generatywne systemy sztucznej inteligencji, takie jak ChatGPT, będą musiały informować, że treści zostały wygenerowane przez sztuczną inteligencję -  przekazał Parlament Europejski.

W środę Parlament Europejski 499 głosami za, przy 28 przeciw i 93 wstrzymujących się, przyjął stanowisko negocjacyjne w sprawie aktu o sztucznej inteligencji. Teraz będzie prowadzić z państwami członkowskimi Unii negocjacje w sprawie ostatecznego jego kształtu. 

Przepisy miałyby zagwarantować, że sztuczna inteligencja opracowywana i wykorzystywana w Europie będzie w pełni zgodna z prawami i wartościami Unii. Uregulują kwestie sprawowania nadzoru przez człowieka, bezpieczeństwa, prywatności, przejrzystości, niedyskryminacji oraz dobrostanu społecznego i środowiskowego.

Proponowane zasady wynikają z podejścia opartego na ryzyku. Ustanawiają obowiązki dla dostawców i tych, którzy wdrażają systemy SI, w zależności od poziomu ryzyka, jakie może generować sztuczna inteligencja. Zabronione byłyby zatem systemy SI o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi, takie jak te wykorzystywane do oceny społecznej (klasyfikowanie ludzi na podstawie ich zachowań społecznych lub cech osobistych). 

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: gazetaprawna.pl

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.