Autopromocja

Korzystanie ze sztucznej inteligencji wymaga myślenia krytycznego

Jak sztuczna inteligencja zmienia sposób działania wyszukiwarek internetowych?
Im większe zaufanie do sztucznej inteligencji, tym mniejsza gotowość do samodzielnej analizy czy kwestionowania wyników AI.Materiały prasowe
7 maja 2025

Nadmierne zaufanie do AI niesie ryzyko naruszenia przepisów czy ochrony danych. Firmy muszą więc szkolić pracowników, by potrafili ocenić błędy działania systemu, naruszenia zasad sprawiedliwości, przejrzystości oraz wpływ na jednostkę. Krytyczne myślenie staje się zatem nie tylko kompetencją poznawczą, ale i prawną.

Sztuczna inteligencja (AI) coraz bardziej wpływa na nasze życie, zmienia sposób, w jaki pracujemy, uczymy się i podejmujemy decyzje. Dynamiczny rozwój sztucznej inteligencji zmienia nie tylko sposób pracy, ale także sposób myślenia. Aby ta technologia przynosiła korzyść, niezbędne jest zarówno jej opanowanie, jak i refleksyjna ocena, czyli zdolność myślenia krytycznego. Zbyt wysokie zaufanie do wyników przedstawianych przez sztuczną inteligencję może prowadzić do bezkrytycznego przyjmowania informacji. To, co wydaje nam się ogromnym postępem, może prowadzić jednocześnie do regresu naszych zdolności do krytycznego myślenia. Takie wnioski wypływają z opublikowanego badania przeprowadzonego przez Microsoft – „The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers”. Badanie zostało przeprowadzone wśród 319 użytkowników takich narzędzi jak ChatGPT czy Copilot.

AI analizuje, użytkownik pozostaje bierny

Kiedy mamy do czynienia ze sztuczną inteligencją, nasze myślenie zmienia się. W mniejszym stopniu analizujemy problemy, a bardziej skupiamy się na weryfikacji treści. W raporcie podkreślono, że narzędzia AI przesuwają użytkowników z roli twórców treści jedynie do roli recenzentów. W oczywisty sposób zmniejsza to wysiłek poznawczy i może prowadzić do bierności poznawczej. Uderzająca jest rola zaufania. Im większe zaufanie do AI, tym mniejsza gotowość do samodzielnej analizy czy kwestionowania wyników. Z wielu innych przeprowadzonych badań (np. „When Copilot Becomes Autopilot: Generative AI's Critical Risk to Knowledge Work and a Critical Solution”, „It makes you think: Provocations Help Restore Critical Thinking to AI-Assisted Knowledge Work”) wynika, że użytkownicy automatycznie i bez większej refleksji akceptują wyniki sztucznej inteligencji.

Autopromocja
381367mega.png
381364mega.png
381208mega.png
Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.