Proces tworzenia leku, badania specyfiku oraz uzyskiwania zgody na dopuszczenie go do obrotu trwa wiele lat. Jednym z końcowych etapów prac są testy na ludziach. W tym celu tworzy się zazwyczaj dwie grupy ludzi (tzw. ramiona kontrolne). W dużym uproszczeniu: pierwszej podaje się nową substancję, a pozostali (losowo wybrani) uczestnicy zażywają albo placebo, albo obecny już w obrocie lek na to samo schorzenie.
Podstawowym problemem wynikającym z tego schematu jest konieczność werbowania wielu chętnych, z których aż połowa otrzyma znaną już substancję bądź placebo. To koszty, których można by uniknąć. Wystarczy wprowadzić do AI dane pochodzące z baz medycznych stworzonych m.in. w ramach poprzednich badań klinicznych oraz rzeczywiste dane pacjentów (Real-World Evidence; RWE) z rejestrów lub elektronicznej dokumentacji medycznej, by algorytmy powołały do istnienia wirtualne modele symulujące prawdziwych pacjentów.
W stronę etyki
– Technologia cyfrowych bliźniaków pozwala na tworzenie wirtualnych modeli pacjentów na podstawie danych rzeczywistych. AI symuluje zachowanie organizmu, dzięki czemu możliwe jest ograniczenie udziału prawdziwych pacjentów w badaniach klinicznych – mówi dr Łukasz Więch, lekarz badacz, kierownik studiów „Prowadzenie i monitorowanie badań klinicznych” w Akademii Leona Koźmińskiego w Warszawie.
Wyjaśnia, że wykorzystywanie technologii cyfrowych bliźniaków to wyjście naprzeciw zastrzeżeniom wysuwanym przez wydające zgody na rozpoczęcie testów klinicznych komisje bioetyczne, które coraz częściej kwestionują praktykę polegającą na zestawieniu w badaniu grupy przyjmującej nową substancję z grupą placebo (potencjalnie zagrożoną, bo nie dostaje żadnego leku). Jak wskazuje dr Więch, komisje bioetyczne oczekują, by w badaniach z udziałem ludzi porównywano nowe substancje z już istniejącymi lekami. – Dzięki cyfrowym bliźniakom można ograniczyć rekrutowanie ludzi do grup placebo, co pozwala na bezpieczniejsze i bardziej etyczne prowadzenie badań. Firmy farmaceutyczne mogą również sprawdzać na cyfrowych modelach substancje, które wcześniej były już badane, co znacząco przyspiesza procesy testowania – dodaje Łukasz Więch. Chodzi o porównanie działania nowych substancji z różnymi już znanymi, a nie tylko jedną, wybraną – dzięki AI można takich porównań robić w zasadzie dowolnie dużo.
Ministerstwo Zdrowia wskazuje, że „stosowanie ramienia cyfrowego jest promowane jako bardziej etyczne (w przypadku gdy grupa kontrolna miałaby otrzymać placebo zamiast innowacyjnego leku), ale również ze względów ekonomicznych (zmniejsza obciążenie lekarzy i ośrodków)”. Resort wyjaśnia również, że sposób wykorzystywania AI do badań klinicznych regulują wytyczne wydane w 2023 r. przez Europejską Agencję Leków (EMA). Zawarto w nich wskazania, które „określają źródła danych, ich integralność, walidację systemów, ochronę danych oraz ryzyko i krytyczne podejście do stosowania ramienia cyfrowego”.
Z kolei Urząd Rejestracji Produktów Leczniczych (URPL) zapewnia nas, że w swojej dotychczasowej praktyce nie spotkał się z propozycją metodyki badania klinicznego opartego na AI, i podkreśla, że tylko „tradycyjne metody doboru grup kontrolnych dają pewność, że wyniki badań będą rzetelne i niezawodne”.
Testy już trwają
Zasłanianie oczu przez polskie organy nadzoru nie sprawi, że zjawisko wykorzystywania AI do badań klinicznych leków nas ominie. Działające w Europie oraz Stanach Zjednoczonych firmy farmaceutyczne od kilku lat intensywnie eksploatują możliwości wynikające ze stosowania AI przy produkcji leków. Algorytmy wykorzystuje się choćby do przyspieszenia procesu identyfikacji potencjalnych związków chemicznych o właściwościach terapeutycznych.
– Przykładem jest firma Atom wise, która używa technologii głębokiego uczenia do analizy ogromnych ilości danych biologicznych i chemicznych, aby wybrać cząsteczki o potencjale leczniczym. Takie rozwiązania są wykorzystywane w terapii chorób zapalnych, takich jak reumatoidalne zapalenie stawów czy toczeń. Innym przykładem jest firma Exscientia, która jako pierwsza wprowadziła do badań klinicznych cząsteczkę zaprojektowaną przez AI. Pozwoliło to na szybsze opracowywanie nowych terapii, w tym leczenie guzów litych – wylicza dr Więch.
Firma farmaceutyczna Bayer testuje z kolei wirtualne grupy kontrol ne cyfrowych bliźniaków, którzy mają całkowicie zastąpić pacjentów przyjmujących placebo w badaniach klinicznych. Z kolei naukowcy zrzeszeni w ramach międzynarodowej platformy badawczej Phesi zaprezentowali w czerwcu na łamach magazynu ,,BMT – Nature” technologię cyfrowego bliźniaka jako praktycznie w pełni gotową do użytku.
– Niewiele osób zdaje sobie sprawę z tego, że AI oraz ML (Machine Learning, uczenie maszynowe – red.) już od wielu lat są wykorzystywane w opracowywaniu leków, umożliwiając w niektórych przypadkach zastępowanie pacjentów z grup kontrolnych w badaniach klinicznych zbiorami danych – mówi Jolanta Pietrkiewicz-Knecht, radca prawny i ekspertka prawa farmaceutycznego z kancelarii WKB Lawyers. Według niej tę praktykę należy ocenić jako krok w dobrą stronę, pod warunkiem że nie wpłynie ona negatywnie na bezpieczeństwo i skuteczność rejestrowanego na podstawie tak uzyskanych danych leku.
Kto jednak zagwarantuje pacjentom, że leki testowane w przyszłości przy udziale cyfrowych bliźniaków będą tak samo dobrze przebadane jak te, których działanie porównywano nie z wirtualnymi modelami, ale z żywymi grupami kontrolnymi? Kto zadba o to, by nie doszło do obniżenia standardów bezpieczeństwa? Zdaniem Jolanty Pietrkiewicz -Knecht kluczem do uniknięcia zagrożeń wynikających z użycia sztucznej inteligencji jest unijna standaryzacja zasad stosowania AI i ML.
Trwają prace nad nową wersją zaleceń Europejskiej Agencji Medycznej dotyczących udziału AI w produkowaniu leków. Jak wynika z przesłanego do nas stanowiska EMA, nowe wytyczne „pozwolą firmom farmaceutycznym wykorzystać możliwości oferowane przez AI w kontekście zdrowia publicznego przy jednoczesnym zagwarantowaniu właściwego zarządzania ryzykiem”.
– Te wytyczne będą mogły nie tylko realnie zwiększyć bezpieczeństwo i skuteczność leków, lecz także usprawnić ich wprowadzenie do obrotu. Może to również istotnie zwiększyć atrakcyjność państw członkowskich, w których firmy farmaceutyczne wykorzystujące AI dotychczas nie inwestowały, np. z obawy przed tym, jak narodowi regulatorzy podchodziliby do procedury z wykorzystaniem AI albo ML – przekonuje Jolanta Pietrkiewicz-Knecht.
Brakuje kompleksowych regulacji
– Na obecnym etapie dokument EMA jest dość ogólny i koncentruje się głównie na zaznaczeniu obszarów, w których możliwe jest wykorzystanie AI w opracowywaniu produktów leczniczych i określeniu ogólnych jego ram – mówi Jolanta Pietrkiewicz-Knecht. – Uszczegółowienie byłoby więc bardzo pożądane. Powinno ono jednak nastąpić na poziomie unijnym z uwagi na harmonizację prawa farmaceutycznego. Dopiero brak wydania takich unijnych wytycznych powinien poddawać pod rozwagę opracowanie ich przez naszego narodowego regulatora, czyli URPL.
Urząd Rejestracji Produktów Leczniczych także tłumaczy, że zgodnie z unijnym rozporządzeniem 536/2014 ta tematyka znajduje się w zakresie kompetencji centralnego organu, Europejskiej Agencji Leków. O tym, że to podejście „nader słuszne, gdyż pozwala na zintegrowane przygotowanie się do stale zwiększającej się obecności AI i ML w procesach regulacyjnych”, zapewnia nas Jarosław Buczek, rzecznik prasowy URPL. Tyle że wytyczne nie bardzo przekładają się na krajową praktykę.
W przypadku każdego konkretnego badania klinicznego potrzeba potwierdzenia jego zgodności z przepisami i zasadami etyki danego kraju członkowskiego UE. Tymczasem – jak przypomina resort zdrowia – uchwalona zaledwie rok temu polska ustawa o badaniach klinicznych nie zawiera bezpośrednich odniesień do wykorzystywania technologii cyfrowych, w tym ramienia cyfrowego w badaniach. Naczelna Komisja Bioetyczna podkreśla, że „nie ma kompleksowych przepisów dotyczących wykorzystania narzędzi AI/ML w badaniach klinicznych”. W przesłanym do nas stanowisku zaznaczono również, że nie da się w sposób abstrakcyjny odnieść do zagadnienia wykorzystania AI w badaniach klinicznych leków. „Żeby ocenić, czy wykorzystanie w badaniu klinicznym określonego narzędzia jest etycznie akceptowalne, trzeba znać m.in. protokół badawczy, cele przyświecające wykorzystaniu danego narzędzia informatycznego, zabezpieczenia w zakresie wiarygodności tego narzędzia itp. A te są różne w wypadku różnych badań klinicznych”.
– Brakuje nam regulacji prawnych, które dawałyby komisjom bioetycznym podstawy do wydawania zgód na prowadzenie badań z użyciem ramienia placebo opartego wyłącznie na AI. Nie bardzo wiadomo też, jak później należałoby oceniać wyniki badań wygenerowane przez AI. Kto brałby odpowiedzialność za ich wiarygodność? – pyta dr hab. Daniel Szulczyk z Katedry i Zakładu Biochemii Wydziału Lekarskiego Warszawskiego Uniwersytetu Medycznego.
Nasz rozmówca zauważa, że wykorzystywanie AI w badaniach klinicznych w Polsce dopiero raczkuje, ale powinniśmy się przygotować na jego ekspansję. Musimy z wyprzedzeniem zneutralizować potencjalne ryzyko. Zdaniem prof. Szulczyka punktem zapalnym wykorzystywania AI w badaniach klinicznych nie są sam algorytm, lecz dane wprowadzone do modelu. Powinny być one przede wszystkim rzetelne i właściwie zwalidowane. W praktyce z realizacją obu tych kryteriów może być trudno.
– Sztuczne ramię kontrolne bazuje na danych medycznych od pacjentów zmagających się z określonym schorzeniem. Pozyskanie tych danych w ilości wystarczającej do prawidłowego wygenerowania symulacji grupy kontrolnej nie powinno więc sprawiać szczególnych trudności w przypadku chorób wysoko populacyjnych, tj. występujących często i dotykających znaczących grup, np. cukrzycy – tłumaczy prof. Szulczyk. – Problem pojawia się jednak w odniesieniu do chorób rzadkich, np. SMA (rdzeniowy zanik mięśni). Na tego rodzaju schorzenia cierpi bardzo niewielu pacjentów, dlatego zdobycie danych, którymi następnie „nakarmi się” model AI, jest praktycznie niemożliwe. Ta zależność każe więc przypuszczać, że AI jeszcze długo nie zastąpi żywych pacjentów, nawet w przypadku grupy placebo, zwłaszcza w przypadku leków na rzadkie choroby.
Algorytmy za nas nie pomyślą
Zapytani przez nas naukowcy podkreślają zalety AI, ale też przestrzegają przed bezgraniczną wiarą w jej możliwości. Doktor Łukasz Więch przypomina, że już samo użycie słowa „inteligencja” jest mylące.
– AI to nic innego jak algorytm, który opracowuje wczytane do niego dane. Niedawno w magazynie „Nature” opublikowano artykuł wskazujący, że większość rejestrowanych metod diagnostycznych badana jest na retrospektywnych lub prospektywnych danych (z modeli naukowych, a nie doświadczalnych – red.), co zmniejsza moc dowodową badań. Skutkiem takiego podejścia jest lub może być błędne diagnozowanie prawdziwych pacjentów – mówi dr Łukasz Więch.
Z kolei prof. Szulczyk wskazuje, że nawet gdyby wirtualne grupy kontrolne stały się normą w prowadzonych w Polsce badaniach klinicznych, to do generowanych przez nie danych należałoby podchodzić z rezerwą.
– Nie ufałbym algorytmom na tyle, by dopuszczać możliwość tworzenia w badaniach wyłącznie dwóch ramion (grup badawczych), tj. ramienia, na którym będzie testowany lek, i ramienia placebo generowanego przez AI. Moim zdaniem interesującym rozwiązaniem byłoby zastosowanie trzech ramion: interwencyjnego (testowanie nowej substancji leczniczej), kontrolnego (placebo podawanego żywym pacjentom) oraz obserwacyjnego, z wykorzystaniem AI. To pozwoliłoby na rzetelne porównywanie uzyskanych danych – ocenia Daniel Szulczyk.
Do wygenerowania cyfrowych bliźniaków AI będzie potrzebować ogromnych ilości danych zaczerpniętych z baz tworzonych przy okazji poprzednich testów lub tych pochodzących bezpośrednio od pacjentów, tzw. RWE. W praktyce oznacza to, że parametry zdrowotne konkretnego uczestnika badań klinicznych oraz zapis sposobu reagowania jego organizmu na daną substancję będą wykorzystywane nawet przez kilkanaście lat. Dziś niemal każdy uczestnik badań klinicznych podpisuje zgodę na wykorzystywanie w przyszłości pobranych od niego wyników oraz danych medycznych. Czy taka zgoda dotyczy również użycia danych do wygenerowania cyfrowego bliźniaka? Nasi rozmówcy unikają rozstrzygającej odpowiedzi.
Z merytorycznego punktu widzenia nic nie stoi na przeszkodzie, by pozyskane dziś dane medyczne pacjenta zostały użyte do badania wykorzystującego ramię obserwacyjne AI nawet za 50 lat. – Takie dane są bardzo cenne i nie ulegają dezaktualizacji – mówi prof. Szulczyk. Przed ich wprowadzeniem do modelu AI „dane są skrupulatnie selekcjonowane za pomocą złożonych metod statystycznych, by upewnić się, że populacja pacjentów w syntetycznym ramieniu kontrolnym jest odpowiednia do celów badania” – wyjaśnia Krzysztof Wróblewski, dyrektor ds. rozwiązań technologicznych dla biznesu w firmie AstraZeneca, lider ds. sztucznej inteligencji w polskim oddziale.
W przesłanym do DGP oświadczeniu przedstawiciel firmy nie odpowiada jednak na pytanie, czy i w jakim zakresie polskie firmy farmaceutyczne korzystają ze zdobyczy AI, w tym z cyfrowego ramienia kontrolnego. Stwierdza jedynie, że sektor farmaceutyczny jest ściśle regulowany przez organy zewnętrzne, np. Food and Drug Administration oraz EMA, a „używana zgodnie z przepisami i najlepszymi praktykami sztuczna inteligencja stanowi tylko narzędzie uzupełniające, wspierające ludzi zaangażowanych na każdym kroku procesu”. ©Ⓟ
Do wygenerowania cyfrowych bliźniaków AI będzie potrzebować ogromnych ilości danych zaczerpniętych z baz tworzonych przy okazji poprzednich testów lub tych pochodzących bezpośrednio od pacjentów. W praktyce oznacza to, że parametry zdrowotne konkretnego uczestnika badań będą wykorzystywane nawet przez kilkanaście lat