Nie wolno będzie używać sztucznej inteligencji do oceny punktowej obywateli przez rządy - to jeden z przedstawionych w środę przez Komisję Europejską elementów regulacji w sprawie stosowania technologii sztucznej inteligencji (AI).

W przepisach przyjęto podejście oparte na analizie ryzyka.

Oznacza to np., że systemy sztucznej inteligencji, które uznaje się za wyraźne zagrożenie dla bezpieczeństwa, źródeł utrzymania i praw obywateli, zostaną zakazane. Są to m.in. systemy lub aplikacje wykorzystujące sztuczną inteligencję do manipulowania ludzkimi zachowaniami w celu obejścia wolnej woli użytkowników (np. zabawki z wbudowanym asystentem głosowym zachęcające małoletnich do niebezpiecznych zachowań) oraz systemy oceny punktowej obywateli przez rządy.

Systemy AI uznane za systemy wysokiego ryzyka obejmują z kolei zastosowanie w infrastrukturze krytycznej, kształceniu lub szkoleniu zawodowym (np. ocena egzaminów), elementach bezpieczeństwa produktów (np. zastosowanie AI w chirurgii wspomaganej robotem), zatrudnieniu, zarządzaniu pracownikami i dostępie do samozatrudnienia (np. oprogramowanie do sortowania CV na potrzeby procedur rekrutacji), podstawowych usługach prywatnych i publicznych (np. ocena zdolności kredytowej, która może uniemożliwić obywatelom dokonanie pewnych inwestycji), egzekwowaniu prawa, co może kolidować z prawami podstawowymi obywateli (np. ocena wiarygodności dowodów), zarządzaniu migracją, azylem i kontrolą granic (np. ocena autentyczności dokumentów podróży), sprawowaniu wymiaru sprawiedliwości i procesach demokratycznych (np. stosowanie prawa do konkretnego zbioru faktów).

W tych przypadkach systemy sztucznej inteligencji będą musiały spełniać określone wymogi przed wprowadzeniem do użytku, takie jak m.in. odpowiednie systemy oceny i ograniczania ryzyka i odpowiednie środki nadzoru przez człowieka w celu zminimalizowania ryzyka.

Za systemy wysokiego ryzyka uznaje się wszystkie rodzaje zdalnej identyfikacji biometrycznej, które w związku z tym objęto ścisłymi wymogami. Korzystanie z nich w czasie rzeczywistym na potrzeby ochrony porządku publicznego w miejscach dostępnych publicznie jest co do zasady zabronione. Wyjątki od tej zasady są ściśle określone i uregulowane. Dotyczy to np. sytuacji, gdy korzystanie z takich technologii jest absolutnie niezbędne do poszukiwania zaginionego dziecka, zapobieżenia konkretnemu i bezpośredniemu zagrożeniu terrorystycznemu lub do wykrycia, zlokalizowania, zidentyfikowania lub ścigania sprawcy lub podejrzanego o popełnienie poważnego przestępstwa. Tego rodzaju zastosowanie wymaga uzyskania zezwolenia sądu lub innego niezależnego organu oraz musi być odpowiednio ograniczone w odniesieniu do czasu, zasięgu geograficznego i przeszukiwanych baz danych.

Systemy sztucznej inteligencji ograniczonego ryzyka to np. chatboty. Zgodnie z propozycjami KE użytkownicy powinni mieć świadomość, że wchodzą w interakcję z maszyną, tak aby mogli podjąć świadomą decyzję o kontynuowaniu lub przerwaniu interakcji.

Minimalne ryzyko dotyczy takich zastosowań jak gry wideo lub filtry spamu. Do tej kategorii należy zdecydowana większość systemów sztucznej inteligencji.

KE proponuje, aby nadzór nad stosowaniem nowych przepisów sprawowały właściwe krajowe organy nadzoru rynku.

"W dziedzinie sztucznej inteligencji zaufanie jest koniecznością, a nie tylko mile widzianym dodatkiem. Dzięki tym przełomowym przepisom UE obejmuje pozycję lidera w dziedzinie opracowywania nowych globalnych norm, które sprawią, że sztuczna inteligencja stanie się wiarygodną technologią. Ustanawiając standardy, możemy utorować drogę etycznym technologiom na całym świecie i zagwarantować, że UE pozostanie konkurencyjna. Nasze przepisy są dostosowane do przyszłych wyzwań, sprzyjają innowacjom i umożliwiają interwencję tam, gdzie jest to absolutnie potrzebne: gdy zagrożone są bezpieczeństwo i prawa podstawowe obywateli UE" - oświadczyła w środę Margrethe Vestager, wiceprzewodnicząca Komisji Europejskiej.