Najpierw jeden komentarz, potem kilka podobnych – i nagle masz wrażenie, że większość myśli tak samo. Nowe badanie w Science pokazuje jednak, że ta „większość” może nie istnieć. Sztuczna inteligencja potrafi tworzyć tysiące wiarygodnych „osób” i wpływać na opinie – także w kontekście wyborów.
To nie brzmi już jak futurystyczny scenariusz, tylko jak opis mechanizmu, który właśnie zaczyna działać na naszych oczach. A jego skutki mogą sięgnąć znacznie dalej niż internetowe dyskusje – aż do realnych decyzji politycznych.
Kilka komentarzy i masz „zdanie większości”. Tak działa mechanizm, który wykorzystuje AI
Każdy, kto regularnie korzysta z mediów społecznościowych, zna ten moment: wchodzisz pod artykuł, widzisz komentarze i szybko orientujesz się, jaki jest dominujący ton. To skrót myślowy, który działa niemal automatycznie. Psychologowie nazywają to społecznym dowodem słuszności. Jeśli wielu ludzi coś powtarza, uznajemy to za wiarygodne.
Badanie zespołu Daniela Thilo Schroedera pt. How malicious AI swarms can threaten democracy pokazuje, że właśnie ten mechanizm staje się dziś jednym z głównych celów technologii AI. Nie chodzi już o pojedyncze fałszywe wpisy tworzone przez boty, ale o coś znacznie bardziej zaawansowanego: tworzenie całych środowisk opinii (tzw. AI swarms).
AI swarms: tysiące fałszywych „ludzi”, które potrafią sterować dyskusją
Autorzy badania opisują zjawisko, które nazywają „AI swarms” – rojami sztucznej inteligencji. To systemy, w których:
- setki lub tysiące autonomicznych agentów AI działa równolegle,
- każdy z nich ma własny styl wypowiedzi, historię i „osobowość”,
- wszystkie są jednak skoordynowane wokół jednego celu.
Efekt jest trudny do wychwycenia. Dyskusja wygląda naturalnie: ktoś się zgadza, ktoś polemizuje, pojawiają się emocje, ironia, żarty, a rozmowa przypomina autentyczną wymianę opinii. A jednak – jak wskazują badacze – całość może być zaprojektowana i kontrolowana.
Ważne
Co więcej, takie systemy uczą się na bieżąco, testują, które argumenty działają najlepiej i wzmacniają te, które przynoszą efekt. To już nie jest propaganda w klasycznym rozumieniu, ale precyzyjna inżynieria wpływu.
Nie odróżniamy sztucznej inteligencji od ludzi. Badania: działamy niemal „na ślepo”
Gdyby użytkownicy potrafili łatwo odróżnić sztuczne treści od prawdziwych, problem byłby ograniczony. Badania pokazują jednak coś odwrotnego: z analizy 56 prac naukowych wynika, że ludzie wykrywają deepfake’ i z dokładnością zbliżoną do losowej.
To oznacza, że realistyczne zdjęcia profilowe nie budzą podejrzeń, a wypowiedzi generowane przez AI brzmią wiarygodnie. Także zmanipulowane materiały wideo często uchodzą za autentyczne. Co więcej, badania pokazują coś jeszcze bardziej niepokojącego: „fałszywe profile z twarzami wygenerowanymi przez AI są często postrzegane jako bardziej wiarygodne niż prawdziwe konta”. W praktyce użytkownik nie ma narzędzi, by ocenić, z kim rozmawia.
Fałszywa większość w internecie: jak AI tworzy iluzję poparcia w kilka godzin
Wyobraźmy sobie konkretną sytuację – bardzo realną także w polskim kontekście. Trwa kampania wyborcza. Pojawia się temat, który dzieli opinię publiczną: podatki, migracja, ceny energii. W ciągu kilku godzin setki komentarzy zaczynają powtarzać tę samą narrację: pojawiają się „zwykli obywatele”, którzy opisują własne doświadczenia, rośnie też liczba reakcji, udostępnień, dyskusji. Użytkownik widzi wyraźny sygnał: większość już zdecydowała.
Tymczasem – jak pokazuje badanie – część tej aktywności może być wynikiem działania AI, które tworzy iluzję poparcia, wzmacnia emocjonalne przekazy i kieruje uwagę na wybrane tematy. To szczególnie istotne dla osób niezdecydowanych. To one najczęściej kierują się tym, co „wydaje się dominujące”.
Polska w strefie ryzyka? Te cechy rynku sprzyjają manipulacji AI
Czy ten mechanizm ma znaczenie dla polskiej polityki? Wszystko wskazuje na to, że tak – i to większe, niż może się wydawać. Polska przestrzeń informacyjna ma kilka cech, które czynią ją podatną na takie zjawiska:
- wysoka polaryzacja polityczna,
- silna obecność debat w mediach społecznościowych,
- duże znaczenie emocjonalnych przekazów,
- rosnąca nieufność wobec instytucji i mediów.
Badania cytowane w analizie pokazują, że fałszywe informacje rozchodzą się szybciej niż prawdziwe, a treści emocjonalne mają większy zasięg. Polscy użytkownicy często też funkcjonują w „bańkach informacyjnych”. To środowisko, w którym syntetyczny konsensus może działać wyjątkowo skutecznie.
Od komentarza do głosu w wyborach. Jak AI wpływa na decyzje wyborców
Czy taki mechanizm rzeczywiście może wpłynąć na wynik wyborów? Badacze są ostrożni w formułowaniu jednoznacznych wniosków, ale wskazują konkretne ścieżki wpływu:
- zmiana percepcji „tego, co myślą inni”,
- obniżenie zaufania do instytucji,
- zwiększenie polaryzacji,
- mobilizacja lub demobilizacja wyborców.
Nie chodzi o spektakularne „ustawienie wyniku” przez sztuczną inteligencję. Mechanizm jest znacznie subtelniejszy i przez to trudniejszy do zauważenia. Wystarczy, że część osób pod wpływem takich treści zdecyduje się pójść na wybory, inni zmienią zdanie w ostatniej chwili, a jeszcze inni uznają, że są w mniejszości i wycofają się z własnej opinii. To właśnie te drobne przesunięcia – rozłożone na tysiące ludzi – potrafią przełożyć się na realny wynik.
Największa strata? Spada zaufanie do informacji, mediów i państwa
Jednym z najważniejszych wniosków badania jest wpływ na zaufanie społeczne. Jeśli użytkownicy zaczynają podejrzewać, że część treści jest sztuczna, a dyskusje mogą być z góry sterowane, to nie wiadomo, kto naprawdę jest po drugiej stronie. Wówczas naturalną reakcją staje się dystans. Problem polega na tym, że ten dystans obejmuje również rzetelne media, ekspertów i instytucje publiczne. W efekcie powstaje środowisko, w którym wszystko wydaje się równie podejrzane i nikomu nie można ufać.
AI Act kontra rzeczywistość. Prawo nie nadąża za technologią
Unia Europejska próbuje odpowiadać na te wyzwania poprzez regulacje, takie jak AI Act, który zakazuje systemów manipulujących zachowaniem użytkowników. To ważny krok, ale nie rozwiązuje wszystkich problemów. Technologia rozwija się szybciej niż prawo, a narzędzia wpływu stają się coraz tańsze i łatwiej dostępne.
Czy można się obronić przed manipulacją AI? Oto realne scenariusze
Nie całkiem. Badacze wskazują kilka kierunków, które mogą ograniczyć skalę problemu:
- lepsze oznaczanie treści generowanych przez AI,
- rozwój narzędzi wykrywających manipulację,
- edukacja użytkowników,
- większa przejrzystość platform społecznościowych.
Pojawiają się także pomysły wykorzystania AI do obrony – systemów, które identyfikują fałszywe narracje i wzmacniają rzetelne informacje.
Czy kolejne wybory będą pierwszym testem sztucznej inteligencji? Eksperci nie mają złudzeń
Czy kolejne wybory – w Polsce, w Europie, na świecie – będą pierwszym momentem, w którym te technologie odegrają realną rolę? Badanie nie daje jednej odpowiedzi, ale pokazuje, że narzędzia już istnieją, a ich możliwości rosną bardzo szybko. To oznacza, że dyskusja o wyborach, demokracji i opinii publicznej wchodzi w nowy etap. Etap, w którym coraz trudniej odpowiedzieć na proste pytanie: czy to, co widzimy, jest rzeczywiste – czy zostało zaprojektowane?
Źródła
- Schroeder D.T. i in., How malicious AI swarms can threaten democracy, Science 391 (2026)
- University of British Columbia – materiały prasowe (2026)
- European Union, Artificial Intelligence Act (2024)
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.
Wpisz adres e-mail wybranej osoby, a my wyślemy jej bezpłatny dostęp do tego artykułu