Sztuczna inteligencja śmiało wkracza na rynki finansowe. Systemy oparte na tej technologii stają się coraz bardziej autonomiczne – potrafią podejmować decyzje bez udziału człowieka. Pojawia się więc pytanie: czy możemy być pewni, że systemy te nie będą łamać regulacji kluczowych dla prawidłowego funkcjonowania instytucji finansowych?
Sztuczna inteligencje omija regulacje
Jednym z fundamentów gospodarki rynkowej jest zakaz zmowy cenowej. Firmom nie wolno wspólnie ustalać cen, bo to manipulacja szkodząca konsumentom. Ekonomiści zazwyczaj przyjmują, że warunkiem koniecznym do zmowy cenowej jest komunikacja między uczestnikami rynku. Dlatego regulatorzy skupiają się na monitorowaniu kontaktów między firmami i to w tej sferze szukają sygnałów niedozwolonej współpracy.
A jeśli zmowa jest możliwa bez komunikacji? Na taki trop naprowadzają badania Winstona Wei Dou i Itaya Goldsteina (Uniwersytet Pensylwanii) oraz Yan Ji (Uniwersytet Nauki i Technologii w Hongkongu). Naukowcy zasymulowali rynek finansowy, w którym głównymi graczami były systemy oparte na sztucznej inteligencji (spekulanci AI). Ku ich zaskoczeniu spekulanci AI, którym wyznaczono jeden cel: maksymalizację zysku, zaczęli stosować strategie handlowe przypominające zmowę cenową, i to bez komunikowania się ze sobą oraz bez jakiejkolwiek instrukcji w tym kierunku.
Każdy spekulant działał niezależnie. Mógł jedynie składać zlecenia kupna i sprzedaży oraz obserwować zmieniające się ceny aktywów. W eksperymencie wykorzystano algorytm Q-Learning, jedną z metod uczenia ze wzmocnieniem. Polega ono na tym, że agent podejmuje działania (tu: transakcje), obserwuje ich rezultaty i na tej podstawie uczy się, które strategie są korzystne. Początkowo wybory są losowe, ale z czasem, dzięki próbom i błędom, AI coraz lepiej rozumie, co się opłaca. Ten mechanizm uczenia jest wykorzystywany również przy projektowaniu sztucznej inteligencji, której zadaniem jest np. gra w szachy czy go.
Finanse zagrożone
W trakcie symulacji badacze zaobserwowali dwa mechanizmy budzące skojarzenia ze zmową cenową. Po pierwsze, agenci nauczyli się karać tych uczestników rynku, którzy próbowali działać na własną rękę. W efekcie systemy unikały ostrej konkurencji, by nie narażać się na sankcje. Po drugie, w niektórych sytuacjach algorytm nie wykorzystywał w pełni dostępnych informacji, co paradoksalnie prowadziło do bardziej kooperacyjnych, a więc zbliżonych do zmowy zachowań.
Oczywiście była to symulacja uproszczona, daleka od realiów prawdziwego rynku finansowego. Mimo to eksperyment pokazuje, że sztuczna inteligencja potrafi zachowywać się w sposób nieoczywisty – i nie zawsze w pełni pożądany. To kolejny argument za tym, by wdrażać rozwiązania zwiększające przejrzystość działania AI. ©Ⓟ