Jeżeli uważamy, że rozwój sztucznej inteligencji musi być przede wszystkim etyczny, to nie oszukujmy się, że kogokolwiek na świecie dogonimy.

Parlament Europejski kilka dni temu przyjął kolejną rezolucję w sprawie rozwoju sztucznej inteligencji (AI) w Unii Europejskiej. Aktywności europosłów należałoby przyklasnąć, gdyby nie fakt, że to już czwarty dokument w ostatnim kwartale bez żadnej mocy sprawczej. A o stworzeniu warunków do szybkiego i bezpiecznego rozwoju sztucznej inteligencji mówi się w UE co najmniej od kilku lat. W Chinach, Japonii czy USA już dawno to zrobiono.
Rzućmy okiem na liczby. Ameryka Północna inwestuje w sztuczną inteligencję ponad 15 mld euro rocznie. Azja – ok. 10 mld euro. Europa (nie tylko sama Unia) – od 2,5 do 3 mld euro rocznie. Z kolei z rodzimego dokumentu „Polityki dla rozwoju Sztucznej Inteligencji w Polsce od roku 2020” wynika, że PKB krajów budujących AI będzie rosło średnio o 1,5 proc. szybciej niż tych, które tego zaniechają lub się spóźnią.
Chiny – jako jeden z pierwszych krajów na świecie – już w lipcu 2017 r. ogłosiły swoją strategię rozwoju tego obszaru. Istotnym elementem ich planu były inwestycje w rodzime start-upy – w ciągu dwóch lat przeznaczono na ten cel ponad 1 mld dol., skupiając się na rozwiązaniach z zakresu opieki zdrowotnej. Bo robotyzacja ma opierać się nie tylko na rozwijaniu autonomicznych aut czy skomplikowanych mechanizmów obronnych, lecz przede wszystkim na tworzeniu usług dla obywateli. W Chinach uznano, że sztuczna inteligencja najbardziej jest potrzebna choćby przy budowaniu systemów opieki nad osobami starszymi, robotów-chirurgów czy rozwiązań drogowych, ukierunkowanych przede wszystkim na bezpieczeństwo ludzi. Tak, tak, ci źli Chińczycy, którzy inwestują majątek w rozwój sztucznej inteligencji, myślą przede wszystkim o ułatwieniu życia mieszkańcom. A zarazem, co oczywiste, o wzmocnieniu gospodarki, obniżeniu kosztów pracy i tworzeniu innowacji, którymi będzie można niebawem zalać świat.
Unijne propozycje – przypominam: na poziomie rezolucji, czyli niewiążących wskazań europarlamentu, co należałoby zrobić – wyglądają dość skromnie. Nie twierdzę, że to złe pomysły. Po prostu trudno uznać je za przełomowe. To będą raczej ułatwienia niż rewolucja, której potrzebujemy, by dogonić świat.
Europarlamentarzyści postulują przede wszystkim, by przy rozwoju sztucznej inteligencji nie pomijać aspektów etycznych. Silny nacisk ma być położony na określenie standardów prywatności. Ot, by np. dron zastępujący kuriera nie zaglądał nam w łazienkowe okno. Albo by robot pomagający przy operacji w swojej pamięci nie przechowywał danych pacjentów, którzy na stole leżeli 10 lat wcześniej. Inny pomysł to określenie zasad odpowiedzialności cywilnej za szkody wyrządzone przez urządzenia.
Europarlamentarzyści chcą, aby rozwiązania z zakresu sztucznej inteligencji podlegały ocenie ryzyka. I ostatecznie zawsze odpowiedzialność będzie spoczywała na producentach i użytkownikach urządzeń, a nie na samych urządzeniach (był taki pomysł w 2017 r.; wówczas go wyśmiewałem, twierdząc, że będzie trzeba stworzyć więzienia dla robotów). Propozycja Parlamentu Europejskiego przewiduje stosowanie zarówno odpowiedzialności na zasadzie ryzyka, jak i winy. Ta pierwsza byłaby stosowana w odniesieniu do ochrony najistotniejszych wartości, takich jak ludzkie zdrowie i życie. Ta druga, na zasadzie winy, do wszystkich pomniejszych wartości. Czyli np. producent robota operacyjnego odpowiadałby za stworzenie urządzenia, które uśmierciłoby kilku pacjentów. Ale już producent (lub operator – w zależności, czy urządzenie byłoby sterowane przez człowieka) drona, który mógłby zbić szybę w domu wskutek niedoskonałej obsługi lotu, odpowiadałby na zasadzie winy. Mówiąc najprościej: odpowiedzialność na zasadzie ryzyka jest dalej idąca i gorsza z punktu widzenia producentów, bo decydujący jest sam fakt, że wyprodukowali dane urządzenie. W przypadku zasady winy należy jeszcze wykazać, że popełniony został błąd.
Od 2017 r., kiedy wypracowano pierwszą koncepcję unijnego rozwoju sztucznej inteligencji, zaszła ważna zmiana w stosunku do tzw. osoby elektronicznej. Kilka lat temu unijni decydenci chcieli, by pojawiła się ona w prawie cywilnym państw członkowskich UE obok osoby fizycznej i osoby prawnej. Dziś pomysł uważany jest już za kuriozalny. I słusznie, bo nie wiadomo było, czemu miałaby służyć ta cywilistyczna nowość. Przecież ostatecznie za działania robotów – choćby konieczność wypłacenia odszkodowań – odpowiadać będą osoby fizyczne lub prawne. Albo – tu dobra jest najnowsza propozycja europosłów – ubezpieczyciele. W jednej z ostatnich rezolucji wskazano, że należy wyprowadzić obowiązkowy system ubezpieczeń, który objąłby przede wszystkim rozwiązania wysokiego ryzyka, czyli mogące spowodować głównie szkody na ludzkim zdrowiu. Jakkolwiek mamy w praktyce wiele dowodów na to, że walka poszkodowanych z ubezpieczycielami o pieniądze bywa trudna, to na pewno ta propozycja będzie korzystniejsza dla ofiar robotyzacji niż dochodzenie swoich praw od firm, które po dojrzeniu swych licznych błędów najpewniej ogłoszą upadłość.
Generalnie unijne pomysły są więc lepsze i gorsze, ale większość jest krokiem naprzód. Szkopuł w tym, że to krok zbyt drobny i bardzo spóźniony. W 2017 r. Mary Delvaux, europosłanka koordynująca wówczas prace nad prawem robotów, zapewniała, że jeśli w ciągu 2–3 lat nie przyjmiemy kompleksowych regulacji, to zostaniemy w tyle za Azjatami i Amerykanami na dziesięciolecia. I wiele wskazuje, że tak się stało. W znacznej mierze przez to, że w ciągu kilku ostatnich lat koncepcja rozwoju sztucznej inteligencji diametralnie się zmieniła. Jeśli błędna była poprzednia (a moim zdaniem tak właśnie było), to po prostu stracono czas. Dziś moglibyśmy być już na etapie wdrażania unijnego prawa przez poszczególne państwa członkowskie, a nie w fazie planowania konstrukcji przepisów.
Doktor Kamil Szpyt, radca prawny i adiunkt w Krakowskiej Akademii im. Andrzeja Frycza Modrzewskiego, na łamach DGP stwierdził, że gwałtowny rozwój sztucznej inteligencji jest możliwy tylko wówczas, gdy nie będzie się mu narzucać żadnych istotnych ograniczeń. I tak jest np. w Chinach. Jak zauważył, zdaniem Parlamentu Europejskiego unijne regulacje prawne nie powinny hamować postępu prac nad AI, ale od teorii do praktyki daleka droga. Nie da się gnać równie szybko, gdy przestrzega się narzuconych na siebie samego ograniczeń, np. w postaci daleko bardziej posuniętych niż gdziekolwiek indziej na świecie przepisów o prywatności i ochronie danych osobowych.
Jako Unia Europejska stoimy przed trudnym pytaniem: czy w kwestii robotyzacji chcemy ścigać tych, którzy nam uciekli? Jeśli tak, trzeba biec szybko i nie przejmować się znakami ostrzegawczymi, skoro konkurenci je lekceważą. Istnieje ryzyko wypadnięcia z trasy, ale jest też nadzieja, że po jakimś czasie dołączy się do peletonu. Jeżeli uważamy zaś, że rozwój sztucznej inteligencji musi być przede wszystkim etyczny, to nie oszukujmy się, że kogokolwiek dogonimy. Skromnym fiatem też można przyjemnie jechać, o ile nie próbuje się ścigać z lamborghini.