Jak powstaje prawo, dotyczące nowych technologii? Na czym polega nadrzędna i nadzorcza rola człowieka nad sztuczną inteligencją? Czy zastosowanie sztucznej inteligencji może budzić wątpliwości etyczne?

Trwa ładowanie wpisu

Sztuczna inteligencja, robotyka i powiązane z nimi technologie nie tylko rozwijają się w gwałtownym tempie, ale mają też bezpośredni wpływ na naszą codzienność oraz podstawowe zasady społeczne i ekonomiczne.

Czy unijne prawo nadąża za zmieniającą się rzeczywistością? Jak wypracować optymalny kształt regulacji, dotyczących nowych technologii? Czy prawo powinno spowalniać ich rozwój, chroniąc przede wszystkim obywateli?

Kwestie te wyjaśnia, w rozmowie z Grzegorzem Kowalczykiem (Dziennik Gazeta Prawna), Ewa Mikos – Dyrektor ds. Rozwoju Biznesu i Governmental Affairs w firmie Siemens. Zapraszamy do wysłuchania najnowszego odcinka "DGPtalk: Obiektywnie o biznesie".

Jak powstaje prawo, dotyczące nowych technologii?

Firma Siemens jest zrzeszona w wielu organizacjach, m.in. w Konfederacji Pracodawców. Jesteśmy włączeni i zaangażowani w opiniowanie aktów prawnych, które regulują sferę nowych technologii. Mam tu na myśli Ustawę o krajowym systemie cyberbezpieczeństwa, ale także regulacje unijne, dotyczące sztucznej inteligencji.

Myślę, że to jest właśnie podstawowy warunek, żeby w przygotowanie aktów prawnych, które regulują otoczenie funkcjonowania w nowej, cyfrowej rzeczywistości, angażować podmioty, które bezpośrednio są beneficjentami i użytkownikami tych rozwiązań. Dzięki temu, regulacje prawne na pewno podążą za wyzwaniami, z którymi mierzą się ci użytkownicy – zapewnia Ewa Mikos.

Kto powinien być zaangażowany w tworzenie prawa, dotyczącego sztucznej inteligencji?

Chciałabym podać konkretny przykład, jeśli chodzi o regulacje unijne, dotyczące sztucznej inteligencji. Jednym z punktów, tego dość obszernego dokumentu, była propozycja powołania rady doradczej, która będzie opiniować wszelkie zmiany i prace w obszarze regulacyjnym.

Nasza wewnętrzna grupa ekspertów, opiniująca tę propozycję, zarekomendowała, żeby w skład tej rady, na równych prawach, weszli zarówno przedstawiciele sektora publicznego, jak i sektora prywatnego, czyli po prostu przedsiębiorcy. Ponieważ to oni wiedzą najlepiej, co jest potrzebne i jak takie regulacje powinny być sformułowane, żeby mogły dobrze funkcjonować i ułatwiać im działanie.

Jako Siemens staramy się podchodzić do tematu pragmatycznie i rekomendować rozwiązania, które nie tylko, nie utrudnią rozwoju technologii, ale też nie przyczynią się do generowania nadmiernej biurokracji i nie spowodują, że ci, którzy powinni skupić się na rozwijaniu technologii, nagle ugrzęzną w działaniach administracyjno-biurokratycznych – podkreśla Ewa Mikos.

Czy zastosowanie sztucznej inteligencji może budzić wątpliwości etyczne?

Zagadnienia etyczne, związane z wykorzystaniem danych przez sztuczną inteligencję to obszar, który mógłby się stać tematem osobnej rozmowy, a nawet konferencji.

Na szczęście, zanim takie rozwiązania technologiczne zagoszczą na dobre w naszych firmach i zakładach produkcyjnych, zajmują się nimi, zarówno przedstawiciele krajów członkowskich Unii Europejskiej, jak i Komisja.

Dlatego też, wspólnie zdefiniowano podstawowe zasady, które mają sprawić, że stworzymy sztuczną inteligencję, która będzie godna zaufania. To jest dosłownie cytat: "naszym celem jest stworzenie sztucznej inteligencji, godnej zaufania".

Co ważne, jedną z podstawowych zasad, które zostały zdefiniowane, jest nadrzędna i nadzorcza rola człowieka. Ale podkreślono również takie aspekty, jak: niedyskryminacja i sprawiedliwość – wyjaśnia Mikos.

Na czym polega nadrzędna i nadzorcza rola człowieka nad sztuczną inteligencją?

Podczas tworzenia regulacji, dotyczących sztucznej inteligencji, wszystkie systemy, bazujące na jej algorytmach, zostały pogrupowane w zależności od poziomu ryzyka na cztery grupy: sztuczną inteligencję, która nie generuje ryzyka, taką o małym ryzyku, taką o wysokim ryzyku oraz o nieakceptowalnym poziomie ryzyka.

Co istotne, zostało to pogrupowane według sektorów. Na przykład, do systemów o sztucznej inteligencji wysokiego ryzyka zaliczono: obszar medycyny, obszar transportu, sferę prawną.

Siemens w odniesieniu do tej propozycji, zaproponował, żeby wejść głębiej w poszczególne obszary i klasyfikować sztuczną inteligencję pod względem poziomu ryzyka, nie według sektorów, ale patrząc na konkretne aplikacje. Podam przykład, ilustrujący, co mam na myśli.

Przykładowo, za obszar wysokiego ryzyka uznano obszar HR. Oczywiście, mówiąc o działaniach z tego obszaru, mamy do czynienia z takimi kwestiami, jak: przyjmowanie nowych pracowników czy przyznawanie awansów. Tutaj, zdecydowanie ważne jest, aby ostatnią instancją był człowiek.

Natomiast, jeśli wyobrazimy sobie pierwszy etap procesu rekrutacyjnego, zanim jeszcze zaczniemy umawiać się z kandydatami i próbować wyłonić tego optymalnego pracownika, może się okazać, że wpłynie do na nas kilkadziesiąt czy nawet kilkaset podań. Część z nich może zupełnie nie spełniać kryteriów formalnych. Ciężko jest oddelegować wiele osób, żeby przez określony czas, zajmowały się wyłącznie analizą spływających aplikacji pod kątem formalnym.

Tu na pewno sprawdziłoby się rozwiązanie, bazujące na algorytmach sztucznej inteligencji. Wstępna selekcja aplikacji mogłaby zostać przeprowadzona, bazując na takim właśnie rozwiązaniu. Natomiast kolejne etapy, a szczególnie etap finalny, opierałby się już na człowieku, jako najwyższej instancji.

Gdyby jednak przyjąć propozycję regulacji unijnej, która definiuje obszar HR jako obszar wysokiego ryzyka, wówczas, takie podejście nie byłoby możliwe – tłumaczy Mikos.

Co jest istotne przy tworzeniu prawa, dotyczącego sztucznej inteligencji?

Rekomendujemy pragmatyzm i analizę poszczególnych aplikacji sztucznej inteligencji. Rekomendujemy także odejście od sektorowego klasyfikowania ryzyka.

Na pewno ważnym aspektem, który powinien być brany pod uwagę przy ocenie, czy dany obszar powinien być uznany za taki o wysokim ryzyku, są kwestie takie jak: skutki niepożądane czy potencjalne obciążenia administracyjne, które dodatkowo się wygenerują. W mojej opinii, podejście hybrydowe może się okazać kluczem do optymalnego wypracowania kształtu tych regulacji prawnych – mówi Ewa Mikos.

Ewa Mikos – Dyrektor ds. Rozwoju Biznesu i Governmental Affairs w Siemens Sp. z o. o. Z firmą Siemens związana od 2001 roku. Jest odpowiedzialna za budowanie relacji oraz aktywną współpracę z sektorem publicznym, samorządami oraz uczelniami wyższymi. Reprezentuje Siemens w organizacjach oraz gremiach branżowych.