ChatGPT kontra ochrona danych osobowych [ANALIZA]

sztuczna inteligencja AI ChatGPT
sztuczna inteligencja AI ChatGPTshutterstock
6 czerwca 2023

Sztuczna inteligencja (AI) w coraz większym stopniu jest wykorzystywana w wielu branżach. Posiłkują się nią zarówno programiści, copywriterzy, jak i prawnicy. Zaprojektowany przez firmę Open AI ChatGPT okazał się prawdziwą bolączką europejskich organów nadzorczych. Nieustannie rozwijające się narzędzia oparte na AI zbierają terabajty danych osobowych, tworząc przy tym wiele pytań o prywatność użytkowników. Autor jest inspektorem ochrony danych, pracuje w Biurze Porad Prawnych Oskar Zacharski.

 

Globalna sensacja

Początki projektu, który stał się obecnie jednym z najgorętszych tematów na świecie dotyczących sztucznej inteligencji, możemy znaleźć w 2018 r. To wówczas firma OpenAI przygotowała pierwszy model swojego chatbota, który nosił nazwę GPT-1. Jego celem było udzielanie użytkownikowi odpowiedzi na pytania dotyczące szerokiego zakresu wiedzy oraz realne angażowanie się w rozmowę z nim. Z tego powodu chat bazował na ogromnych zbiorach danych.

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.