Jeszcze kilka lat temu pytanie o to, czy uczeń samodzielnie napisał pracę domową, dotyczyło głównie plagiatu lub pomocy osób trzecich. Dziś to pytanie wymaga zupełnie innego spojrzenia. W praktyce edukacyjnej pojawił się bowiem nowy „uczestnik procesu” - sztuczna inteligencja, która potrafi wygenerować esej, rozwiązać zadanie czy przygotować prezentację w kilka sekund.
Co istotne, nie jest to już zjawisko marginalne ani przyszłość, o której dopiero będziemy dyskutować. To codzienność uczniów i studentów. I co równie ważne - codzienność, na którą system edukacji oraz prawo nie są jeszcze w pełni przygotowane.
AI jako cichy standard edukacyjny
Z perspektywy praktyki można dziś mówić o pewnym „cichym standardzie”: uczniowie wykorzystują narzędzia oparte na AI do przygotowywania prac pisemnych, streszczeń lektur, rozwiązywania zadań czy poprawy stylu wypowiedzi. Skala tego zjawiska jest trudna do precyzyjnego oszacowania, ale jego powszechność nie budzi już większych wątpliwości.
Kluczowe jest jednak to, że sztuczna inteligencja nie pełni wyłącznie funkcji pomocniczej. W wielu przypadkach przejmuje ona istotną część procesu intelektualnego - od struktury wypowiedzi po dobór argumentów. Tym samym przestajemy mówić o wsparciu, a zaczynamy mówić o zastępowaniu aktywności poznawczej ucznia.
Czy korzystanie z AI jest legalne?
Z punktu widzenia obowiązującego prawa odpowiedź jest zaskakująco prosta: co do zasady – tak. Nie istnieje generalny zakaz korzystania z narzędzi opartych na sztucznej inteligencji w procesie edukacyjnym.
Problem nie leży więc na poziomie legalności samego narzędzia, lecz na poziomie jego użycia. W szczególności znaczenie mają tutaj regulaminy szkół i uczelni oraz zasady uczciwości akademickiej. Jeżeli student przedstawia jako własną pracę treść wygenerowaną przez AI, pojawia się pytanie o rzetelność takiego działania.
Nie jest to jednak klasyczny przypadek naruszenia prawa, lecz raczej kolizja między nową technologią a dotychczasowymi zasadami oceny wiedzy.
AI a plagiat - podobieństwo pozorne
Najczęściej pojawiającym się pytaniem jest to, czy korzystanie z AI stanowi plagiat. Odpowiedź wymaga precyzyjnego rozróżnienia, ale jednocześnie nie może prowadzić do błędnego wniosku, że mamy do czynienia z sytuacją neutralną prawnie lub akceptowalną.
Plagiat polega na przywłaszczeniu autorstwa cudzego utworu. W przypadku generatywnej AI rzeczywiście nie zawsze dochodzi do prostego kopiowania konkretnego źródła. System generuje treści na podstawie wzorców językowych, co powoduje, że klasyczna definicja plagiatu nie zawsze znajduje bezpośrednie zastosowanie.
Nie oznacza to jednak, że takie działanie jest dopuszczalne. Wręcz przeciwnie – problem nie znika, lecz zmienia swój charakter.
W sytuacji, w której uczeń lub student przedstawia jako własną pracę treść wygenerowaną przez system AI, dochodzi do wprowadzenia w błąd co do autorstwa i zakresu samodzielnego wkładu intelektualnego. Z perspektywy regulaminów uczelni i zasad uczciwości akademickiej jest to co do zasady niedopuszczalne – niezależnie od tego, czy można zakwalifikować takie działanie jako plagiat w ścisłym sensie prawnym.
W praktyce oznacza to, że mamy do czynienia nie tyle z naruszeniem praw autorskich, ile z naruszeniem zasad rzetelności procesu edukacyjnego. A to z kolei może prowadzić do konsekwencji dyscyplinarnych, a w skrajnych przypadkach – do podważenia wyniku egzaminu czy zaliczenia.
Kluczowy wniosek jest więc następujący: to, że wykorzystanie AI nie zawsze spełnia przesłanki plagiatu, nie oznacza, że jest ono prawnie lub regulaminowo obojętne. W wielu przypadkach będzie ono stanowiło formę nieuprawnionego zastąpienia własnej pracy intelektualnej działaniem systemu.
Kto jest autorem pracy wygenerowanej przez AI?
To pytanie prowadzi do kolejnego, fundamentalnego zagadnienia prawa autorskiego. W europejskim porządku prawnym, w tym w Polsce, utwór podlega ochronie, jeżeli jest przejawem działalności twórczej człowieka.
Treści generowane przez AI nie spełniają tego kryterium w sposób oczywisty. Brakuje bowiem elementu ludzkiej twórczości w klasycznym rozumieniu. W konsekwencji pojawia się istotny paradoks: praca wygenerowana przez AI może nie być w pełni chroniona prawem autorskim, a jednocześnie student przypisuje sobie jej autorstwo.
Z perspektywy prawa nie jest to sytuacja jednoznaczna, ale z perspektywy zasad akademickich – wysoce problematyczna.
Dane osobowe i ukryty wymiar ryzyka
Rzadziej dostrzeganym aspektem jest kwestia ochrony danych osobowych. Uczniowie i studenci korzystając z narzędzi AI, często wprowadzają do nich fragmenty prac, dane osobowe czy informacje dotyczące konkretnych osób.
W praktyce rodzi to pytania o to, gdzie trafiają te dane, kto jest ich administratorem oraz czy instytucje edukacyjne mają nad tym procesem jakąkolwiek kontrolę. W tym obszarze problem AI w edukacji wykracza poza kwestie uczciwości akademickiej i wchodzi w obszar compliance.
AI Act - regulacja systemów, nie uczniów
W kontekście AI Act warto jasno powiedzieć: regulacja ta nie jest adresowana do uczniów czy studentów jako użytkowników końcowych. Jej adresatami są przede wszystkim dostawcy oraz podmioty wdrażające systemy AI, w szczególności te klasyfikowane jako systemy wysokiego ryzyka.
Nie oznacza to jednak, że edukacja pozostaje poza jej zakresem. Wręcz przeciwnie. AI Act wprowadza podejście funkcjonalne – znaczenie ma nie to, kto korzysta z systemu, ale to, jakie skutki wywołuje on dla praw jednostki.
W tym kontekście kluczowe jest to, że systemy wykorzystywane w edukacji mogą w praktyce wpływać na dostęp do dalszej ścieżki kształcenia, ocenę kompetencji czy wyniki egzaminacyjne. A to są już obszary, które - zgodnie z logiką AI Act - mogą kwalifikować się jako wysokiego ryzyka.
Jeżeli więc instytucja edukacyjna wykorzystuje AI do:
- oceny prac uczniów lub studentów,
- wspierania decyzji o zaliczeniu, dopuszczeniu do egzaminu, rekrutacji,
- selekcji kandydatów na studia lub programy edukacyjne,
to wchodzi w obszar obowiązków regulacyjnych, takich jak:
- zapewnienie nadzoru człowieka nad działaniem systemu,
- możliwość wyjaśnienia logiki decyzji,
- zarządzanie ryzykiem i testowanie systemu pod kątem błędów i uprzedzeń,
- transparentność wobec użytkowników.
AI Act przesuwa ciężar odpowiedzialności regulacyjnej na instytucję, ale nie eliminuje odpowiedzialności ucznia za sposób wykorzystania narzędzia w procesie edukacyjnym. Oznacza to, że instytucja powinna być w stanie wykazać, że systemy AI są bezpieczne i kontrolowane, natomiast użytkownik nadal odpowiada za rzetelność własnej pracy.
W tym sensie AI Act nie odpowiada na pytanie „czy uczeń może korzystać z AI”. Odpowiada na znacznie ważniejsze pytanie: czy instytucja edukacyjna ma kontrolę nad tym, w jaki sposób AI wpływa na ocenę, selekcję i przyszłość ucznia.
Istota problemu: oceniamy efekt, nie proces
Najważniejszy problem nie ma jednak charakteru czysto prawnego. AI obnaża fundamentalną słabość obecnego modelu edukacyjnego: koncentrację na efekcie, a nie na procesie.
Jeżeli ocenie podlega wyłącznie końcowy rezultat – esej, prezentacja czy rozwiązanie zadania – to system przestaje być w stanie odróżnić wiedzę ucznia od jej symulacji. Sztuczna inteligencja doskonale wpisuje się w taki model, dostarczając „gotowe odpowiedzi”, które trudno odróżnić od pracy własnej.
W konsekwencji pojawia się pytanie nie o to, czy AI jest problemem, lecz o to, czy obecny system oceniania jest w stanie funkcjonować w warunkach jej powszechności.
Kierunki zmian: od zakazu do redefinicji zasad
Reakcją na rozwój AI nie powinno być proste zakazywanie jej użycia. Takie podejście jest nie tylko trudne do egzekwowania, ale również nieadekwatne do realiów technologicznych.
Znacznie bardziej zasadne wydaje się:
- wprowadzenie jasnych zasad korzystania z AI,
- redefinicja pojęcia samodzielnej pracy,
- większy nacisk na formy weryfikacji wiedzy oparte na procesie (np. prace wykonywane w trakcie zajęć, egzaminy ustne),
- rozwijanie kompetencji krytycznego korzystania z narzędzi AI.
Podsumowanie
Sztuczna inteligencja nie „oszukuje”. Jest narzędziem, które działa zgodnie z przeznaczeniem. To użytkownik decyduje o tym, w jaki sposób z niej korzysta.
Największe wyzwanie nie polega więc na tym, czy uczniowie powinni używać AI. Polega na tym, czy system edukacji jest gotowy funkcjonować w rzeczywistości, w której granica między wiedzą a jej technologiczną reprezentacją staje się coraz mniej wyraźna.
A to jest już pytanie nie tylko o prawo, ale o samą istotę edukacji.
Milena Perka, doktor nauk prawnych, ekspertka od prawa technologii
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu