Urząd ds. Konkurencji i Rynków (CMA) w Wielkiej Brytanii przedstawił propozycję reguł dla modeli generatywnych sztucznej inteligencji (foundation models – FM). Siedem zasad ma zapewnić ochronę konsumentów i konkurencyjność szybko rozwijającego się rynku.

– Sztuczna inteligencja w błyskawicznym tempie staje się częścią codziennego życia ludzi i firm. Niesie szansę zwiększenia produktywności i ułatwienia milionów codziennych zadań, ale nie możemy przyjmować za pewnik pozytywnego obrotu zdarzeń – stwierdza Sarah Cardell, dyrektor generalna CMA. Jak zastrzega, pozostaje realne ryzyko, że zastosowania sztucznej inteligencji rozwiną się w sposób podważający zaufanie konsumentów lub że ten rynek zostanie zdominowany przez kilku graczy. Jej zdaniem na takich szybko rozwijających się rynkach należy zapobiegać problemom, zamiast czekać, aż się pojawią.

Przed ustaleniem zasad dla ChatGPT i podobnych modeli generatywnych brytyjski urząd antymonopolowy zbadał rynek FM. W będącym jego wynikiem raporcie CMA ostrzega, że słaba konkurencja między twórcami zastosowań AI i nieprzestrzeganie przez nich praw konsumentów mogą zaszkodzić ludziom i przedsiębiorstwom – np. narazić ich na zalew fałszywych i wprowadzających w błąd informacji oraz oszustw. „W dłuższej perspektywie garstka firm mogłaby wykorzystać rynki finansowe do zdobycia lub ugruntowania pozycji siły rynkowej, nie oferując najlepszych produktów i usług” – stwierdza regulator.

Mają temu zapobiec zasady, na czele których regulator umieścił odpowiedzialność podmiotów tworzących i wdrażających modele generatywne za to, co dostarczają konsumentom. CMA chce także zapewnić nieograniczony dostęp do kluczowych rozwiązań w zakresie AI, różnorodność modeli biznesowych (w tym funkcjonujących na zasadzie „open source” – otwartego oprogramowania), szeroki wybór różnych opcji wdrażania FM oraz elastyczność przełączania się między nimi. Szóstą zasadą jest uczciwe postępowanie – tj. zakaz zachowań antykonkurencyjnych, np. preferowania przy sprzedaży własnych produktów powiązanych. Regulator stawia również na przejrzystość – konsumenci i firmy mają być informowani o zagrożeniach i ograniczeniach związanych z treściami generowanymi przez FM.

W najbliższych miesiącach CMA zamierza przedyskutować zasady dla modeli generatywnych z podmiotami krajowymi i zagranicznymi – m.in. ze związkami konsumentów, z firmami tworzącymi FM (jak Google, Meta, OpenAI i Microsoft), ekspertami, innymi regulatorami i rządami. Urząd zastrzega, że jego podejście do sprawy AI nie obejmuje takich kwestii jak prawa autorskie i własność intelektualna czy ochrona danych. Wielka Brytania w marcu tego roku zdecydowała się nie tworzyć odrębnego urzędu ds. AI – i zamiast tego odpowiedzialność podzielono między kilku regulatorów, w tym CMA.

Szeroko zakrojone prace nad uregulowaniem zastosowań tej technologii – w tym w modelach generatywnych – finiszuje już Unia Europejska. Rozporządzenie w sprawie sztucznej inteligencji (AI Act) jest obecnie prowadzone w trialogu między Europarlamentem, Komisją Europejską i Radą UE. Regulacja dzieli zastosowania AI według poziomu ryzyka, jakie niosą. Te z najwyższym (nieakceptowalnym) będą zakazane (np. biometryczna identyfikacja w czasie rzeczywistym), modele wysokiego ryzyka zostaną dopuszczone pod ścisłą kontrolą, a ograniczonego ryzyka będą podlegać obowiązkom informacyjnym.©℗