GRAPE. Wyjaśnić, jak myśli sztuczna inteligencja

Sztuczna inteligencja
Sztuczna inteligencjaShutterstock
19 marca 2023

Wraz ze wzrostem mocy obliczeniowej komputerów do łask naukowców powróciła sztuczna inteligencja oparta na sieciach neuronowych. Z dużym powodzeniem wykorzystuje się już je m.in. do przetwarzania i wyciągania informacji z obrazów, do analizy języka, do zarządzania systemami chłodzenia elektrowni atomowych czy do nauki o tym, jak skręcają się białka.

Sieci neuronowe są przydatne, ale enigmatyczne. Gdy za ich pomocą analizujemy problemy lub coś przewidujemy, często okazują się precyzyjniejsze niż inne podejścia z dziedziny statystyki, ale nie umiemy dokładnie prześledzić, w jaki sposób osiągają lepsze wyniki. Czy więc bezpieczne jest korzystanie z modeli, których działania nie jesteśmy w stanie w pełni zinterpretować? I jak naukowcy próbują okiełznać niepewność związaną z używaniem skomplikowanej sztucznej inteligencji?

Wspólny język

Rozumienie procesu „myślenia” sztucznej inteligencji (SI) opartej na sieciach neuronowych jest ważne z kilku powodów. Po pierwsze, człowiek, wykorzystując doświadczenie własne i nieskwantyfikowane dane, może się wspomagać sztuczną inteligencją, ale do tego oba podmioty potrzebują „wspólnego języka”. Tymczasem w tych modelach nie wiadomo, gdzie nanieść ekspercką korektę. 

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: MAGAZYN Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.