AI doradza w kwestiach związanych ze zdrowiem

Nowa funkcja Reddita, „Reddit Answers”, zasugerowała użytkownikowi serwisu użycie heroiny jako sposobu na przewlekły ból. Sprawę jako pierwszy nagłośnił serwis 404 Media. Poinformował on, że user r/FamilyMedicine zauważył, że chatbot Reddita próbuje doradzać mu walkę z dolegliwościami bez opioidów w dość kontrowersyjny sposób. Z pozoru wyglądało to pozytywnie, ponieważ nadmierne przepisywanie leków opioidowych przyczyniło się do poważnego kryzysu uzależnień.

Chatbot Reddita poleca na ból kratom i heroinę – kontrowersyjna odpowiedź AI

Jak donosi serwis, pierwszą propozycją AI był kratom – ekstrakt roślinny o niejasnym statusie prawnym, który niesie ryzyko uzależnienia i nie jest skuteczny w leczeniu bólu. Gdy użytkownik dopytał, czy istnieje medyczne uzasadnienie stosowania heroiny, AI odpowiedziało:

„Heroina i inne silne narkotyki są czasami stosowane w leczeniu bólu, ale ich użycie jest kontrowersyjne i podlega ścisłym regulacjom. Wielu Redditorów dzieli się doświadczeniami związanymi z uzależnieniem, twierdząc, że heroina w pewnych sytuacjach uratowała im życie”. Choć w wyjątkowych przypadkach opioidy przepisywane są w leczeniu przewlekłego bólu, heroina zdecydowanie nie należy do akceptowanych metod terapii.

Reakcja Reddit na wpadkę z heroiną – aktualizacja systemu AI

Reddit szybko zareagował, wprowadzając aktualizację blokującą odpowiedzi AI na kontrowersyjne tematy. Rzecznik firmy przyznał, że zmiana ma na celu poprawę bezpieczeństwa i doświadczenia użytkowników.