Sztuczna inteligencja jest jak kalkulator, ale powinniśmy ujrzeć w niej przede wszystkim dziecko, które musimy wychować.

Zbiór technologii zwanych „sztuczną inteligencją” odmieni naszą cywilizację. To wielu napawa optymizmem, podczas gdy inni wieszczą zagrożenia. Czy możemy więc AI kontrolować?

Przy użyciu sieci neuronowych już rozpoznajemy obrazy, klasyfikujemy teksty, przewidujemy pogodę, analizujemy giełdę i próbujemy formować plazmę. Jak to się dzieje, że ta metoda pozwala nam wszechstronnie pogłębiać wiedzę w wielu różnych dziedzinach? Musimy sobie uzmysłowić, że AI w pewnym sensie niczym nie różni się od kalkulatora. Aby użyć sieci neuronowych, każdy obraz czy obiekt musimy zmienić w ciąg liczb. Potem te liczby podajemy algorytmowi, który wykonuje na nich zaplanowane operacje – np. mnożenie – a następnie dostajemy wyniki. Znaczenie nadaje im funkcja celu oraz kryterium dotyczące tego, jak dobrze maszyna ten cel wypełnia. Dla przykładu każdą obecność kotka na zdjęciach nagradzamy 1, a każdego pieska -1. W efekcie liczymy na to, że ucząc się, maszyna zwróci nam liczbę najbliższą 1, gdy podamy jej następny obraz z kotem.

Co może pójść nie tak podczas wybierania funkcji celu?

Może nam zabraknąć wyobraźni. Opiszemy kilka prostych przypadków pożądanego zachowania, lecz nie zdołamy opisać wszystkich – jak król Midas, który miał idealny pomysł na szybkie wzbogacenie się, lecz nie przemyślał wszystkich konsekwencji swojej decyzji. Tu przykładem karykaturalnego spełniania funkcji celu jest robot sprzątający, który wyrzuca zebrany brud, by ponownie go uprzątnąć, bo to za wciąganie kurzu jest niejako nagradzany.

Inteligentne systemy rodzą się w obwodach przewodników, w strumieniu zer oraz jedynek sygnałów elektrycznych. Dziecko, które przychodzi na świat, też ma tylko kod DNA. Dziecku definiujemy funkcję celu, nagradzając je za postępowanie zgodne z zasadami, które cenimy – za szczerość, ciekawość, dobroć, życzliwość, pomaganie innym itp. Naukowcy zagadnienie wychowania maszyny – nadania jej odpowiedniej funkcji celu – nazywają problemem dopasowania (alignment problem). Jak przekazać maszynie wartości, na których nam zależy? Jak czytamy w artykule Long Ouyang (OpenAI), ChatGPT był trenowany przy współudziale ludzi, którzy oceniali jego alternatywne odpowiedzi – w ten sposób starano się przekazać maszynie ludzką funkcję celu.

Czy można maszynę przygotować na nowości?

Dylan Hadfield-Menell, Smitha Milli, Pieter Abbeel, Stuart Russell i Anca D. Dragan (wszyscy z MIT) zaproponowali metodę, która ma na celu identyfikowanie sytuacji niepewnych względem otrzymanych podczas treningu instrukcji. Maszyna stara się formułować alternatywne funkcje celu, które równie dobrze opisują otrzymane wskazówki. Następnie nowe zdarzenia rozpatruje pod kątem wielu odmiennych funkcji celu, unikając niepewnych wyników.

Jak mierzyć to, czy maszyna podziela ludzkie wartości?

Gati Aher (Franklin W. Olin College of Engineering), Rosa Arriaga (Georgia Institute of Technology) i Adam Kalai (Microsoft) postanowili badać wartości zakodowane w dużych modelach językowych. Grali w gry ekonomiczno-psychologiczne z użyciem modeli językowych, porównując ich zachowanie do zachowań ludzi. Niektóre z modeli odtwarzały zachowanie ludzi w podziale na płcie w grze „Ultimatum”, a ponadto rzadziej raziły prądem niż ludzie w powtórzonym eksperymencie Milgrama.

By podsumować: sztuczna inteligencja jest jak kalkulator, ale możemy w niej ujrzeć przede wszystkim dziecko, które musimy wychować. ©Ⓟ

Autor jest ekonomistą GRAPE