Sztuczna inteligencja (AI) coraz bardziej wpływa na nasze życie, zmienia sposób, w jaki pracujemy, uczymy się i podejmujemy decyzje. Dynamiczny rozwój sztucznej inteligencji zmienia nie tylko sposób pracy, ale także sposób myślenia. Aby ta technologia przynosiła korzyść, niezbędne jest zarówno jej opanowanie, jak i refleksyjna ocena, czyli zdolność myślenia krytycznego. Zbyt wysokie zaufanie do wyników przedstawianych przez sztuczną inteligencję może prowadzić do bezkrytycznego przyjmowania informacji. To, co wydaje nam się ogromnym postępem, może prowadzić jednocześnie do regresu naszych zdolności do krytycznego myślenia. Takie wnioski wypływają z opublikowanego badania przeprowadzonego przez Microsoft – „The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers”. Badanie zostało przeprowadzone wśród 319 użytkowników takich narzędzi jak ChatGPT czy Copilot.
AI analizuje, użytkownik pozostaje bierny
Kiedy mamy do czynienia ze sztuczną inteligencją, nasze myślenie zmienia się. W mniejszym stopniu analizujemy problemy, a bardziej skupiamy się na weryfikacji treści. W raporcie podkreślono, że narzędzia AI przesuwają użytkowników z roli twórców treści jedynie do roli recenzentów. W oczywisty sposób zmniejsza to wysiłek poznawczy i może prowadzić do bierności poznawczej. Uderzająca jest rola zaufania. Im większe zaufanie do AI, tym mniejsza gotowość do samodzielnej analizy czy kwestionowania wyników. Z wielu innych przeprowadzonych badań (np. „When Copilot Becomes Autopilot: Generative AI's Critical Risk to Knowledge Work and a Critical Solution”, „It makes you think: Provocations Help Restore Critical Thinking to AI-Assisted Knowledge Work”) wynika, że użytkownicy automatycznie i bez większej refleksji akceptują wyniki sztucznej inteligencji.
Tendencja generatywnej sztucznej inteligencji do tzw. halucynacji może także stanowić ryzyko dla pracy poprzez wprowadzanie w błąd. Z drugiej strony jednak podkreśla się, że AI może zapewnić użytkownikom nowe możliwości nauki oraz zwiększać zakres i złożoność zadań. Kluczowe jest zachowanie równowagi pomiędzy wykorzystaniem AI a aktywnym krytycznym zaangażowaniem, które pozwoli uniknąć nadmiernego polegania na technologii kosztem własnych umiejętności.
Jeśli sztuczna inteligencja będzie projektowana jako narzędzie refleksji, może się przyczynić do rozwoju. Jednak jeśli będzie jedynie skrótem gotowych odpowiedzi, może prowadzić nie tylko do zatracenia zdolności krytycznej analizy, ale także obniżać jakość pracy i wiązać się z ryzykiem ponoszenia odpowiedzialności za popełniane błędy.
Pracownik musi umieć korzystać z AI
Pracownicy korzystający z AI muszą być przeszkoleni w zakresie umiejętności kwestionowania wyników. Rozporządzenie UE w sprawie sztucznej inteligencji (AI Akt) nakłada zarówno na operatorów, jak i na dostawców obowiązek zapewnienia odpowiedniego poziomu kompetencji w zakresie sztucznej inteligencji. Zgodnie z art. 4 AI Aktu: „Dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być wykorzystywane”.
Jakie to kompetencje? Trzeba je rozumieć bardzo szeroko. Będzie to zarówno wiedza o działaniu systemów AI, umiejętności praktyczne, takie jak np. analiza danych, i wreszcie zdolność do oceny krytycznej i etycznej zastosowania sztucznej inteligencji w zgodzie z wartościami danej organizacji i regulacjami AI Act. Ważna jest również umiejętność rezygnacji z zastosowania AI, gdy jej wykorzystanie nie przynosi oczekiwanych rezultatów. Zgodnie z przyjętą w AI Akcie zasadą proporcjonalności – im większe ryzyko związane ze stosowaniem sztucznej inteligencji, tym wyższe muszą być wymagania wobec kompetencji użytkowników. Wyniki badań przeprowadzonych zarówno przez Microsoft, jak i inne ośrodki badawcze pokazują, że sama wiedza techniczna jest niewystarczająca. Niezbędna jest umiejętność właściwej, krytycznej oceny generowanych treści. Nadmierne zaufanie to także ryzyko odpowiedzialności za naruszenie przepisów czy naruszenia ochrony danych. Firmy muszą więc szkolić pracowników, także po to, by potrafili ocenić błędy działania systemu, naruszenia zasad sprawiedliwości, przejrzystości oraz wpływ na jednostkę. Krytyczne myślenie staje się zatem nie tylko kompetencją poznawczą, ale i prawną. ©℗
Wyniki badań napawają niepokojem
Pod koniec kwietnia opublikowano wyniki badań przeprowadzonych przez University of Melbourne – „Trust, attitudes and use of Artificial Intelligence: A global study 2025”. Objęło ono 32 tys. pracowników z 47 krajów.
Prawie połowa ankietowanych (47 proc.) przyznała, że korzysta z sztucznej inteligencji w sposób niewłaściwy. Problemem jest przesyłanie poufnych danych firmowych – finansowych, sprzedażowych czy nawet o klientach. Aż 66 proc. ankietowanych przyznało, że polegali na wynikach sztucznej inteligencji bez weryfikacji. Aż 83 proc. studentów używa AI w celach naukowych, przy czym zdecydowanie częściej korzystają w sposób beztroski i niewłaściwy niż osoby starsze. Większość z nich przyznaje, że wkłada mniej wysiłku w zadania, zakładając, że AI wykona je za nich. Aż 61 proc. badanych nie przeszło żadnego przeszkolenia z wykorzystania sztucznej inteligencji. ©℗