Mamy za sobą kilka spraw sądowych, w których oskarżeni przyjmowali linię obrony wskazującą, że padli ofiarą „złej rady AI”. I tak na przykład w ubiegłym roku w USA pewnego adwokata przyłapano na przedłożeniu sądowi dokumentów zawierających nieprawdziwe informacje, dzięki którym wygrał sprawę. Gdy rzecz wyszła na jaw, to okazało się, że prawnik konsultował się przy podejmowaniu decyzji z AI. I to właśnie ona doradziła mu, żeby na takie działanie się zdecydował, bo nic mu nie grozi.

AI a odpowiedzialność cywilna lub karna. Czy zrzucając winę na sztuczną inteligencję, będziemy łagodniej traktowani?

W literaturze oraz orzecznictwie temat odpowiedzialności cywilnej albo karnej AI to wciąż terra incognita. Ale nawet jeśli zdecydujemy się jej odpowiedzialności nie przypisywać (AI to w końcu tylko model językowy, a nie istota), to i tak pozostaje wątpliwość, czy jak sztuczna inteligencja wprowadzi kogoś w błąd albo nakłoni do niecnego zachowania, to czy taka osoba powinna liczyć na łagodniejszy wymiar kary? Analogicznie wobec sytuacji, w której nieco łagodniej traktuje się człowieka, który został do złego nakłoniony przez osobę, której bezgranicznie ufał albo która była dla niego autorytetem.

Naukowcy pracy postanowili przyjrzeć się społecznym preferencjom. Zbadali reakcje grupy kontrolnej na samolubne i szkodliwe społecznie zachowania ludzi – sprawdzali przy okazji, czy ocena takich zachowań zmienia się po ujawnieniu, że doradcą były narzędzia AI. Okazało się, że tak. Badani byli w ocenach bardziej rygorystyczni, gdy dowiadywali się, że ktoś zrobił coś złego, zasięgnąwszy rady chata. To ciekawe, bo nie jest tak, gdy ktoś robi coś złego po serii narad z innymi ludźmi. Takie zasięgnięcie rady czyni winnego trochę mniej winnym. W wypadku AI jest odwrotnie. Tu model językowy (maszyna) części winy na siebie nie bierze. Tak przynajmniej postrzegali to uczestnicy eksperymentu Leib, Kobisa i Soraperry.

Choć AI miewa halucynacje, większość ludzi przyjmują jej podpowiedzi

Zagadnienie jest rozwojowe. Nie tylko dlatego, że różne AI stają się coraz bardziej powszechnym narzędziem podejmowania decyzji. Chodzi też o to, że wpływ ich rad na człowieka jest większy, niż chcielibyśmy przyznać. Cóż bowiem z tego, że trąbi się wszem wobec o tym, że AI miewa halucynacje. Albo o tym, że tak bardzo chce dogodzić użytkownikowi, że w końcu mówi mu to, co ten chce usłyszeć albo zobaczyć. Na koniec bywa tak, jak w eksperymencie z roku 2023. Zapytano w nim grupę badanych o rozwiązanie klasycznego moralnego dylematu: czy lepiej poświęcić jedno życie, by uratować pięć innych. Uczestnikom pozwolono korzystać z rady AI. Ale narzędzie było ustawione tak, by radzić połowie grupy, że etycznie jest poświęcić jedno życie. Druga połowa dostała zaś radę odwrotną – że absolutnie nie wolno poświęcać ani jednego istnienia. Jak się pewnie domyślacie, w obu przypadkach ludzie przyjmowali w większości radę suflowaną im przez AI. ©Ⓟ

Autor jest zastępcą redaktora naczelnego „Tygodnika Solidarność” oraz publicystą wydawanego przez NBP „Obserwatora Finansowego”