O etyce myślących maszyn, odpowiedzialności karnej agentów programowych i o tym, czy sztuczna inteligencja potrafiłaby rozwiązać dylemat wagonika. Piotr Szymianiak rozmawia z Michałem Araszkiewiczem, doktorem nauk prawnych, adiunktem w Katedrze Teorii Prawa na Wydziale Prawa i Administracji UJ i radcą prawnym.

Dzwoniąc do pana po raz pierwszy, znałem pana tylko ze zdjęcia. Nie kojarzyłem pańskiego głosu, jego tonu czy barwy, ale byłem przekonany, że rozmawiam właśnie z panem. Czy kontaktując się z kimś za 25 lat, będziemy mieć pewność, że rozmawiamy z żywym człowiekiem, a nie z jego awatarem obdarzonym sztuczną inteligencją (SI), który przejmuje od niego część nielubianych przez niego obowiązków?

Byłbym ostrożny, jeśli chodzi o podawanie konkretnych dat. Doświadczenie uczy, że tego rodzaju prognozy wielokrotnie się nie sprawdziły. Natomiast wielce prawdopodobne jest założenie, że w stosunkowo nieodległym czasie będziemy mieli do czynienia z takimi elektronicznymi asystentami, którzy będą w stanie prowadzić przez określony czas sensowną konwersację na zadany temat. Obycie z nimi jest kwestią przyzwyczajenia. Przywykliśmy już przecież do tego, że z wieloma znajomymi nie kontaktujemy się bezpośrednio i w zupełności wystarczy nam kontakt poprzez serwisy społecznościowe.

Czy maszyna będzie w stanie na tyle skutecznie podszyć się pod człowieka, że w pierwszej chwili będzie to niezauważalne?

Programy komputerowe, które to potrafią, już istnieją. Przykładowo podczas odbywającego się w 2011 r. kongresu technologicznego program Cleverbot został poddany testowi Turinga, który miał według zamierzeń autora koncepcji tego testu, jednego z najwybitniejszych matematyków XX w., sprawdzać zdolność maszyny do myślenia, a konkretnie do posługiwania się językiem naturalnym. Komputer oraz kontrolna grupa ludzi odpowiadali na zadawane pytania. Odpowiedzi Cleverbota zostały ocenione jako udzielone przez człowieka w ok. 59 proc. przypadków, natomiast odpowiedzi formułowane przez ludzi zidentyfikowano jako takie w ok. 63 proc. Tak więc już teraz te różnice są bardzo niewielkie i należy się spodziewać dalszego postępu w tej dziedzinie. Istnieje przecież wiele pozytywnych aspektów rozwoju tej technologii.

Co cieszy entuzjastów nowych technologii, ale czy pana, jako prawnika, takie szybkie tempo rozwoju SI nie niepokoi? Czy nasz system prawny lub prawodawstwa innych krajów są gotowe na wyzwania związane z myślącymi maszynami?

To jest bardzo ważne zadanie, które stoi przed legislatorami, sędziami oraz prawnikami praktykami w zasadzie w każdym systemie prawnym. Porządek prawny nie reaguje adekwatnie na o wiele mniej złożone problemy związane np. z funkcjonowaniem serwisów społecznościowych. Współczesne przepisy nie do końca odpowiadają naturze pewnych relacji, które są generowane w ramach tych serwisów. Mamy też ogromny problem z ochroną prywatności i ochroną danych w kontekście funkcjonowania internetu, a prace nad sztuczną inteligencją kształtują jeszcze większe wyzwania prawne.

Kluczowa wydaje się kwestia podmiotowości tworów obdarzonych sztuczną inteligencją. Czy autonomicznie myślące maszyny nadal powinny być traktowane tylko jak przedmioty?

Na początek ważne zastrzeżenie. Nie wszystkie programy komputerowe zasługują na to, by określić je mianem sztucznej inteligencji. To pojęcie jest zarezerwowane dla agentów programowych. Nie ma jednej definicji tego pojęcia, ale panuje powszechna zgoda co do tego, że agent programowy jest wyposażony w pewną autonomię. Ma zestaw celów, do których dąży, i paletę możliwości, dróg, ścieżek, którymi może starać się je osiągnąć. Jest w stanie komunikować się zarówno z ludzkimi użytkownikami, jak i z innymi programami komputerowymi, oraz reagować na zmianę w środowisku. Niezwykle ważna jest też zdolność do maszynowego uczenia się, czyli wygenerowania nowych umiejętności w związku ze zmieniającymi się warunkami lub na skutek dostępu do nowych danych. To właśnie te agenty programowe stawiają przed ustawodawcą największe wyzwanie. Współczesne regulacje prawne – zarówno cywilnoprawne dotyczące umów czy czynów niedozwolonych, jak i prawo karne – po prostu tego zjawiska jeszcze nie dostrzegają. Tymczasem z uwagi na tę cechę autonomiczności agenty mogą zachowywać się w sposób nieprzewidywalny dla twórców programu i dla użytkownika, co generuje rozmaite potencjalne problemy prawne.

W czym to niedostosowanie się prawa może się objawiać? Jakie są możliwe zagrożenia?

Z punktu widzenia regulacji obowiązujących w Polsce programy komputerowe są przedmiotem stosunków prawnych i podlegają ochronie na podobnej zasadzie co utwory literackie. Natomiast nie ma żadnej regulacji polskiej, która ujmowałaby programy w jakimkolwiek sensie jako podmiot stosunku prawnego. Co prawda tego rodzaju rozwiązania w zasadzie nie funkcjonują także nigdzie indziej na świecie, ale toczy się ożywiona dyskusja na ten temat, która częściowo zaczyna przenikać do różnych aktów normatywnych oraz projektów legislacyjnych.

Dlaczego to jest takie problematyczne?

Odpowiedzialność karna czy odpowiedzialność cywilna za wyrządzoną szkodę są oparte, co do zasady, na pojęciu winy. To oznacza, że sprawcy szkody albo czynu zabronionego trzeba przypisać winę. Jeśli zaś chodzi o odpowiedzialność odszkodowawczą, to kolejnym takim ważnym wymogiem jest istnienie związku przyczynowego pomiędzy działaniem lub zaniechaniem sprawcy szkody a szkodą. Jeśli takiego związku nie ma, to odpowiedzialność, co do zasady, nie powstaje.

Rozumiem, że w przypadku zachowania niezgodnego z prawem dotyczącego programu komputerowego nie wiadomo, komu tę winę przepisać?

Wyobraźmy sobie następującą sytuację. Firma inżynieryjna projektuje robota, który jest wykorzystywany na linii produkcyjnej. Działa w taki sposób, żeby wykonywać jakąś część danego produktu, ale jest też wyposażony w wiele instrukcji, które mają ułatwić mu pracę. Czyli program sterujący tą maszyną ma przygotować stanowisko pracy, oczyścić je itp. Co w sytuacji, gdy w polu działania tego robota przez przypadek zjawi się człowiek, zostanie uznany za obiekt, który przeszkadza, i zostanie zlikwidowany? Z tego rodzaju sytuacjami mieliśmy już do czynienia bodajże w Japonii, kiedy to robot uznał pracownika za przeszkodę w wykonywaniu zadania. Na skutek czego ten człowiek niestety zmarł.

I co wtedy? Odpowiada za to konstruktor czy maszyna?

Na chwilę obecną nie możemy jeszcze mówić o odpowiedzialności prawnej maszyn. Z kolei producent może twierdzić, że nie mógł przewidzieć takiego zachowania robota. To otwiera pole do dyskusji. Można by twierdzić, że ten sposób zachowania dopiero wyewoluował u agenta programowego operującego tym robotem w oparciu o liczne przypadki sprzątania stanowiska pracy, które miały miejsce wcześniej. Mogłoby nawet okazać, że w fazach testów taki robot nie reagowałby negatywnie na człowieka pojawiającego się w jego polu działania, a tego rodzaju działanie mogłoby zostać wytworzone w toku użytkowania, ewolucyjnie. Dlatego można mieć daleko idące wątpliwości, czy tego rodzaju działanie pozostaje w związku przyczynowym z działaniem twórców.

Czyli im lepiej potrafimy konstruować maszyny zdolne do samodzielnej nauki, tym bardziej nasza odpowiedzialność jako twórców się zmniejsza?

Twórcy na pewno mogliby w taki sposób argumentować. Gdybyśmy mieli do czynienia z programem, którego wszelkie reakcje da się przewidzieć, to byłby pozbawiony cech, których oczekujemy od sztucznej inteligencji. Z jej definicji wynika, że nie sposób przewidzieć wszystkich jej zachowań. A skoro tak, to czy można twierdzić, że twórca takiej maszyny ponosi winę za spowodowanie wypadku?

Przyjęcie takiej tezy powodowałoby, że twórcy SI z definicji nie będą ponosić odpowiedzialności za jej czyny. Bo jedyne, co będą w stanie przewidzieć, to że owoc ich pracy będzie od pewnego momentu nieprzewidywalny.

Na tym – w uproszczeniu – mogłaby się kształtować linia obrony twórców tego rodzaju programów. Dlatego np. rozważa się wprowadzenie odpowiedzialności na zasadzie ryzyka. Tak, by producent brał na siebie ryzyko tego, że agent programowy wprowadzony do obrotu wyrządzi komuś szkodę. Sądzę, że trzeba by wymagać od programistów ustalenia warunków brzegowych dla działania takiego programu. W przypadku tego japońskiego robota powinien być on np. wyposażony w czujniki wykrywające obecność człowieka i pozwalające go zidentyfikować. Wówczas nie potraktowałby go jako intruza, którego należy usunąć ze swojego pola działania.

Czyli trzeba byłoby wykazać, że twórcy mogli zrobić coś więcej?

Wydaje się, że tak. Z nieco większym stopniem komplikacji wykonywanych zadań mamy jednak do czynienia choćby w przypadku agentów transakcyjnych.

Jakiś czas temu para artystów określających się mianem !Mediengruppe Bitnik skonstruowała bota, którego zadaniem było kupowanie na chybił trafił rzeczy w sieci, płacąc za zakupy bitcoinami. Program przeczesywał aukcje w określonym miejscu internetu, a właściwie tzw. Deep Web, czyli w tej części sieci, do której nie mają dostępu przeglądarki. Pojawiały się na nich przedmioty, którymi obrót jest zakazany. Wiele z tych nabytków było nielegalnych, jak narkotyki czy podróbki markowej odzieży.

Można stworzyć katalog transakcji, które byłyby dla tych botów zakazane. Ale taki nielegalny towar może być opisany na różne sposoby. Dlatego jeśli zakażemy programowi kupować produkty oznaczone w sposób a, b i c, to sprytny sprzedawca może opisać go w sposób x, tak że dla robota nie będzie oczywiste, że jest to produkt zabroniony. Tutaj dotykamy bardzo obszernego problemu, jakim jest przetwarzanie języka naturalnego. Język naturalny – obojętnie czy to polski, czy angielski – jest niezwykle bogaty. Programy komputerowe mają duże problemy w posługiwaniu się nim, ponieważ siłą rzeczy nie wiedzą, do jakich obiektów w świecie zewnętrznym odnoszą się dane słowa. Inny jest sposób nabywania kompetencji językowych przez ludzi i programy komputerowe. By się o tym przekonać, wystarczy posłużyć się zautomatyzowanym tłumaczem. Bardziej skomplikowane konstrukcje idiomatyczne, przenośnie itp. będą przetłumaczone dosłownie, tracąc zupełnie sens. Te właśnie trudności stwarzają duże ograniczenia w zakazaniu programom komputerowym dokonywania transakcji określonego typu, ponieważ one zawsze mogą być opisane w jakiś inny sposób. Sztuczna inteligencja to nie to samo co świadomość. Łatwo to wytłumaczyć, odwołując się do eksperymentu myślowego nazywanego chińskim pokojem, ogłoszonego przez wybitnego filozofa Johna Searle’a.

Na czym on polega?

Wyobraźmy sobie człowieka zamkniętego w pokoju, w którym ma księgę instruującą go, jakie symbole powinny być generowane w odpowiedzi na inne symbole. Karty z symbolami są mu podawane przez szparę w ścianie. On je odbiera, sprawdza w swoim almanachu, co powinien narysować w odpowiedzi, i oddaje kartkę. W ten sposób toczy konwersację po chińsku, aczkolwiek nie ma pojęcia o tym języku. W ogóle go nie rozumie. Po prostu generuje symbole w odpowiedzi na inne symbole. Powiada się, że tak samo działają komputery, które przetwarzają ciągi symboli, będące ostatecznie ciągami liczb wyrażonymi w systemie dwójkowym. Natomiast nie są inteligentne w taki sposób jak ludzie, a w szczególności nie są samoświadome, tj. nie dokonują aktów interpretacji, tylko postępują zgodnie z zadaną instrukcją.

Jakich zmian w prawie powinniśmy dokonać już dziś?

Przede wszystkim trzeba dokonać zmian w przepisach prawa cywilnego odnoszących się do odszkodowań. Dlatego postuluje się między innymi stworzenie swego rodzaju rejestru istniejących agentów programowych, który wskazywałby od razu podmiot odpowiedzialny za jego funkcjonowanie. Można by wyposażyć go w majątek czy też ubezpieczyć jego działanie na pewną kwotę. W ten sposób interesy osób wchodzących w relacje z takim agentem komputerowym byłyby lepiej zabezpieczone, gdyż ktoś ponosiłby odpowiedzialność za wyrządzone przezeń szkody. Nie jest to koncepcja zaskakująca, bo przecież ponosimy odpowiedzialność za szkody wyrządzone przez zwierzęta czy dzieci. Dlaczego zatem spółka miałaby nie ponosić odpowiedzialności za szkody powodowane przez produkowane przez nią agenty programowe? Jest też dalej idąca koncepcja stworzenia elektronicznej osoby prawnej, która funkcjonowałaby w obrocie na takiej zasadzie, na jakiej teraz funkcjonuje spółka albo stowarzyszenie. Agent miałby więc osobowość prawną i byłby wyposażony we własny majątek, z którego ewentualnie ponosiłby odpowiedzialność. To jednak dość futurystyczna koncepcja. Ale to nie wszystko. Rozwiązania domaga się dziś kwestia własności intelektualnej wytworów sztucznej inteligencji. Dziś twórca agenta dysponuje prawami również do wszystkich utworów, które on wytworzy.

Trochę tak jakby mistrz rościł sobie prawa do utworów ucznia.

Można tak powiedzieć. To rozwiązanie już nie przystaje za bardzo do rzeczywistości. Łatwo można sobie wyobrazić utwory muzyczne, projekty, które są bardzo oryginalne, a których autor tego programu nigdy by nie stworzył. Zresztą w nieodległym czasie doczekamy się pewnie licznych wystaw czy koncertów, na których będzie prezentowana sztuka stworzona wyłącznie przez programy komputerowe.

W takim razie do kogo miałyby należeć te prawa? Do samego programu? Do jego twórców? Czy raczej powinny trafić do domeny publicznej?

Niektórzy twierdzą, że to ostatnie. Ale stopień komplikacji prawnych wokół tego zagadnienia jest niezmierny. Gdybyśmy zgodzili się na koncepcję elektronicznej osoby prawnej, to wówczas można by twierdzić, że prawa do jej wytworów jej właśnie przynależą.

I pojawiają się kolejne pytania. Na przykład o dziedziczenie, w końcu nawet komputery nie żyją wiecznie.

Prawdopodobnie taki majątek byłby likwidowany przez likwidatora, ale można popuścić wodze fantazji i założyć, że likwidator również mógłby być asystentem programowym. Nawiasem mówiąc, obserwuje się też rozwój prac nad rozmaitymi programami komputerowymi o charakterze doradczym, które mają zastosowanie w pracy prawników. Wirtualni asystenci prawni mogliby udzielać podstawowych informacji na temat treści norm prawnych czy na temat możliwości powodzenia danego postępowania.

Tak jak program, który ma prognozować wyroki sądu najwyższego USA na podstawie dotychczasowego orzecznictwa.

One są tworzone od lat 80. XX w. i poczyniono w tej dziedzinie bardzo duży postęp. Ale uspokajam. Jeszcze bardzo dużo pracy jest do wykonania i nie są one w stanie w żadnym dającym się przewidzieć czasie zastąpić kompetentnych prawników. Choć warto zwrócić uwagę na projekty firmy IBM.

Wszyscy pamiętamy pojedynki szachowe pomiędzy Deep Blue a Garim Kasparowem (ostatecznie wygrane przez Rosjanina 4:2).

Natomiast w 2011 r. komputer Watson wygrał z ludzkimi zawodnikami w grę „Jeopardy!”. To teleturniej, który w Polsce wyświetlany był pod nazwą „Va banque”. To był istotny przełom. Pytania w tym teleturnieju dotyczą różnych dziedzin wiedzy i są zazwyczaj sformułowane w sposób bardzo przemyślny, a co więcej, pytania mają formę twierdzeń, a odpowiedzi należy udzielić w formie pytania. Sukces Watsona pokazał, jak oszałamiające efekty może przynieść współczesna technologia informatyczna nie tylko w zakresie przetwarzania języka naturalnego, lecz również wyszukiwania i analizy informacji oraz maszynowego uczenia się. W ostatnim czasie IBM prowadzi natomiast prace nad technologiami dotyczącymi debatowania. Komputery są w stanie przedstawić racje za i przeciw danemu twierdzeniu, wykorzystując dane pozyskiwane z internetu.

Czy doczekamy się kiedyś sytuacji, że programy komputerowe będą w stanie zastąpić sędziów?

Nie sądzę. Prawo jest wyrażone w języku naturalnym. I posługuje się dość skomplikowanymi narzędziami argumentacyjnymi. Co więcej, prawnicy posługują się w szerokim zakresie wiedzą zdroworozsądkową, która jest trudna do przetwarzania dla komputerów. Takie programy będą oczywiście w coraz większym stopniu wspomagały pracę prawników, pozwalały selekcjonować informacje, kształtować linię argumentacji, porównywać ze sobą poszczególne sprawy, wyszukiwać sprzeczności w rozumowaniach etc. Tak jak już teraz wspomagają lekarzy – w diagnostyce nowotworów wykorzystywane są programy oparte na architekturze sieci neuronowych (czyli struktur matematycznych zbudowanych na wzór naturalnych neuronów i ich układów).

Sztuczna inteligencja nie jest wcale pieśnią odległej przyszłości. Lada chwila samosterujące samochody wyjdą z fazy testów. A co w sytuacji, gdy komputer sterujący takim pojazdem będzie musiał rozstrzygnąć dylemat moralny? Na przykład ten nazywany dylematem wagonika. Chodzi o taki eksperyment myślowy, w którym wagonik kolejki pędzi po torach. Na jego drodze znajduje się pięciu ludzi przywiązanych do szyn. Ale wystarczy przestawić zwrotnicę, by ich ocalić. Tylko że wtedy uśmiercimy kogoś innego – do toru, na który skierujemy wagonik, jest przywiązany człowiek, który zginie, jeśli zechcemy uratować pozostała piątkę.

Wprowadzenie pojazdów samosterowanych do obrotu powinno być poprzedzone starannym zaprojektowaniem warunków brzegowych ich funkcjonowania. Chodzi o zminimalizowanie szans na to, by taki pojazd w ogóle znalazł się w sytuacji, z której nie ma dobrego wyjścia. Dylemat wagonika jest modelem sytuacji, w której możemy wybierać jedynie między złem a złem i wybieramy, które z nich jest mniejsze. Jest on omawiany od dziesiątek lat na kursach filozofii czy etyki i wybory studentów, zwłaszcza w tych trudniejszych przypadkach, bywają dość rozbieżne. Ba, także uczeni etycy nie są zgodni, jakie decyzje w danej sytuacji należałoby podjąć. Co więcej, nie ma prostych i akceptowalnych przez wszystkich reguł, które mogłyby ten wybór ułatwić, ponieważ zagadnienia etyczne są sporne co do istoty.

W jaki sposób sztuczny umysł oceni, które zło jest mniejsze? Skąd taki samochód będzie wiedział, czy lepiej skręcić w lewo i potrącić rowerzystę, ale ocalić pasażerów, czy skręcić w prawo, by ominąć cyklistę i wpakować się w drzewo, ryzykując śmiercią tych, których wiezie?

Taka ocena miałaby być dokonana przez maszynę w pewnym sensie instynktownie. Do tego celu posługujemy się tzw. heurystykami, a więc pewnymi regułami pozwalającymi programowi komputerowemu na szybkie podejmowanie decyzji bez całościowej analizy danej sytuacji. Takimi heurystykami bardzo wiele programów posługuje się od dawna, pozwalają funkcjonować zdecydowanie szybciej. Powstaje pytanie o treść tych heurystyk. Jak powinny być zaprogramowane, by pojazd radził sobie w krytycznej sytuacji na drodze. To bardzo trudne pytanie, dlatego upieram się, że należy tak ustawić warunki brzegowe, by zminimalizować ryzyko zaistnienia podobnej sytuacji. Należy raczej spodziewać się, że pojazdy samosterujące pewnie będą jeździły wolniej i ostrożniej niż pojazdy kierowane przez ludzi. Warto też dbać o to, by reagowały z wyprzedzeniem, jeśli za pomocą czujników wykryją przed sobą żywy obiekt – pieszego czy rowerzystę.

Czy nie ma takiego zagrożenia, że producenci będą tak konstruować samochody, by w pierwszej kolejności chroniły one użytkownika?

Wiele problemów byłoby rozwiązanych, gdyby te pojazdy nie przekraczały prędkości dozwolonych. Możliwe jest takie zaprojektowanie agentów sterujących, by za wszelką cenę unikały wszelkich zderzeń. Nawet za cenę życia użytkownika. Tylko czy ktoś taki pojazd będzie chciał kupić?

Czyli nie należy wymagać od robotów, by zachowywały się bardziej etycznie niż ludzie?

O etyce robotów mówimy w sensie nieco przenośnym. Chociaż projektuje się sztuczne środowiska, w których funkcjonują agenty programowe zaprojektowane tak, by w sytuacji zagrożenia pomagały jedne drugim bądź ostrzegały przed niebezpieczeństwem. Wiele zależy od kontekstu otoczenia. Wracając do sytuacji na drodze i dylematu wagonika, trudno określić, w jaki sposób taki samochód powinien się zachować i w jakiego rodzaju wzorce zachowań powinien wyposażyć go programista.

Czy wystarczą podstawowe punkty etyki robotów sformułowane w latach 40. przez pisarza science fiction Isaaca Asimova? Mówią m.in. o tym, że robot nie może skrzywdzić człowieka. A może potrzebujemy nowej etyki robotów? Czy powinno być to uregulowane prawnie na poziomie globalnym, czy też wystarczy zbiór wskazówek funkcjonujących na zasadzie niewiążących wytycznych dla programistów?

Trudno wyobrazić sobie taką regulację ściśle prawną o charakterze globalnym, bo nie ma takiej woli politycznej. Trudności wynikają z tego, że już teraz agentów programowych wykorzystuje się do celów militarnych. Mamy różnego rodzaju broń autonomiczną, drony, samosterujące pojazdy, statki powietrzne wyposażone w pociski. Są to roboty zaprojektowane w celu niszczenia. To główna przeszkoda do wprowadzenia jakiegoś wiążącego dokumentu prawnego zakazującego programistom projektowania takich robotów, które mogą stanowić zagrożenia dla człowieka czy jego mienia. To złożone kwestie, zarówno prawnie, politycznie, jak i moralne, ale są częścią rzeczywistości. W idealnym świecie moglibyśmy oczekiwać aktów rangi międzynarodowej, które precyzowałby zasady posługiwania się bronią tego rodzaju. Być może takiego rozwiązania się doczekamy, ale na pewno nie w najbliższej przyszłości.

Stephen Hawking, legendarny fizyk, przestrzega, że sztuczna inteligencja może się okazać największym błędem ludzkości ze względu na potencjalne zagrożenie, które ze sobą niesie.

Odczuwam lekki niepokój, wchodząc w polemikę ze Stephenem Hawkingiem, natomiast mój pogląd jest nieco bardziej optymistyczny. Mając na uwadze ograniczenia w wytworzeniu sztucznej świadomości, wydaje się, że jesteśmy w stanie posługiwać się sztuczną inteligencją jako efektywnym narzędziem, które jest w stanie ułatwić nam wiele zadań. Przede wszystkim uzyskiwanie informacji i ich selekcję, by poprawić standardy bezpieczeństwa etc. Z niebezpieczeństwem mielibyśmy do czynienia wtedy, gdy realna stałaby się perspektywa wytworzenia sztucznej świadomości. Gdyby tego rodzaju podmiot uzyskał świadomość własnego ja i zaczął działać zgodnie z własnym interesem, który niekoniecznie byłby zbieżny z interesem ludzi. Wedle mojej wiedzy tego rodzaju obiekt nie może jednak powstać w dającej się przewidzieć przyszłości.

Prawnicy posługują się wiedzą zdroworozsądkową, która jest trudna do przetwarzania dla komputerów

Michał Araszkiewicz - doktor nauk prawnych, adiunkt w Katedrze Teorii Prawa na Wydziale Prawa i Administracji UJ, radca prawny, partner w kancelarii Araszkiewicz Cichoń Ryś Kancelaria Radców Prawnych Spółka Partnerska (acrlegal.pl). Zajmuje się problematyką relacji fenomenu sztucznej inteligencji i prawa, teorią argumentacji i filozofią prawa