Modelowanie nowego rodzaju niewiadomych może mieć zastosowanie w medycynie.
Jednym z zadań statystyki jest precyzyjne oszacowanie niepewności wnioskowania (potrzebujemy wiedzy, jak nieprzewidywalne jest dane zjawisko). Owo modelowanie jest stosowane przy wyznaczaniu składki ubezpieczenia, raty kredytu, projektowaniu systemu zdrowia, dobieraniu materiałów w budownictwie, publikowaniu odkryć w naukach społecznych czy kosmologii. Modelowanie nowego rodzaju niepewności może mieć zastosowanie w medycynie.
Tradycyjne badania w medycynie opierają się na randomizowanych kontrolowanych eksperymentach. W sterylnym środowisku podajemy leki na podstawie zmierzonych cech pacjentów, losując, kto dostaje jaki specyfik. Badania są kosztowne, więc robi się je na małą skalę – w efekcie uzyskane informacje nie są spersonalizowane. Ten wniosek zyskał potwierdzenie w pracy Alexandra Luedtkego, Ekateriny Sadikovej i Ronalda C. Kesslera (wszyscy z Uniwersytetu Waszyngtońskiego).
Alternatywą jest wykorzystanie milionów danych obserwacyjnych – informacji ze szpitali, z klinik czy aplikacji w telefonie. Tu problemem jest jednak występowanie czynników zakłócających. Na przykład skuteczność leczenia zależy od tego, jak zachowuje się pacjent podczas wizyty u specjalisty, z jakiej klasy społecznej pochodzi i jaki jest jego ogólny stan zdrowia. Są to nierejestrowane czynniki. Poszukiwane są obecnie metody statystyczne służące temu, by jak najwięcej informacji z takich źródeł wydobyć (w tym dowiedzieć się, jak dużą niepewnością jest obarczone ich wykorzystanie).
Niepewność ma wiele odmian
Jest niepewność ontyczna – to cecha nieprecyzyjności obiektu (np. określenie, że w „pokoju jest ciepło”). Innym rodzajem jest niepewność epistemiczna – związana z brakiem wiedzy lub informacji o procesie. Kolejnym rodzajem jest niepewność aleatoryczna – która odnosi się do losowości i zmienności znanych zjawisk opisywanych przez prawdopodobieństwo. Nowym konceptem, wprowadzonym przez Alizée Pace, Hugo Yèche, Gunnara Rätscha (Politechnika Federalna w Zurychu), Bernharda Schölkopfa (Max Planck Institute for Intelligent Systems) i Guya Tennenholtza (Google), jest niepewność delficka.
Ta niepewność jest związana z nieznanymi lub niezaobserwowanymi zmiennymi, które mogą wpływać na obserwowane dane i prowadzić do błędnych wniosków. Jej badanie polega na analizowaniu wariacji między różnymi modelami świata, które są zgodne z obserwacjami. Wyobraźmy sobie, że przeprowadzamy badania nad lekiem na chorobę serca i w tym celu zbieramy dane ze szpitali. Niepewność epistemiczna wynika z niepełnej wiedzy na temat wszystkich mechanizmów działania specyfiku. Z perspektywy aleatorycznej reakcje pacjentów są losowe i różnią się w zależności od procesów zachodzących w ich organizmach. Z delfickiej perspektywy na wynik działania leku wpływają ich nawyki żywieniowe czy poziom stresu.
Zastosowanie sztucznej inteligencji
Autorzy badania dekomponują zmienność wartości strategii leczenia na sumę trzech niepewności: aleatoryczną, epistemiczną i delficką. Proponują zastosowanie generatywnej sztucznej inteligencji do tworzenia modeli rzeczywistości kompatybilnych z obserwacyjnymi danymi. Z ich pomocą możemy lepiej oszacować niepewność wniosków, a także sugerować algorytmom podejmowanie decyzji obarczonych mniejszą niepewnością ze względu na możliwe zakłócenia. Delficka niepewność jest jednym z perspektywicznych narzędzi statystyki. Metoda została zastosowana już w 33 tys. przypadków pacjentów intensywnej terapii i algorytm, który bierze pod uwagę niepewność delficką, poprawił oceny lekarzy dotyczące unikania niewydolności krążeniowej.
Zbieramy niebotyczne ilości danych, które kryją w sobie pokłady zakłóconych, lecz użytecznych informacji. Nowe metody statystyczne pomogą nam zrozumieć, jak wydobyć z nich przydatne informacje, i powiedzą nam, na ile można im zaufać. ©Ⓟ