Martwicie się coraz więcej? Tęsknicie za spokojem? Coraz częściej ręce wam się trzęsą z powodu wydarzeń, na które wcześniej ledwie zwracaliście uwagę? Czasy są, jakie są. Wiadomo: wstrząsy klimatyczne, ekonomiczne, geopolityczne. Panuje niepewność. A algorytmy mediów społecznościowych podbijają emocjonalne przekazy. Ale jest też przyczyna, której może sobie jeszcze nie uświadamiacie.
Dyskusja o CPK sterowana przez boty
Opisał ją analityk ośrodka Res Futura. To akcje fabryk botów kolonizujących internetowe debaty albo je inicjujących i kontrolujących. Czy np. śledząc internetową debatę o działce CPK, zdawaliście sobie sprawę, że połowa, a chwilami prawie trzy czwarte wpisów było dziełem zaprogramowanych przez kogoś maszyn wykorzystujących AI? Jedne były „za”, drugie „przeciw”. Jedne symulowały gniew, inne dystans. Kłóciły się ze sobą albo się wspierały. Działały jak ludzie, więc dla ludzi były nie do rozpoznania. Udawały tysiące przejętych internautów wyrażających bardzo różne opinie. Próbowały was do czegoś przekonać albo chciały was tylko rozemocjonować.
Maszynowa większość nadawała ton i dominowała w debacie. Jeżeli odpowiedzieliście na jakikolwiek wpis, to – statystycznie biorąc – zgodziliście się lub spieraliście się z botem. Jeżeli ktoś na wasz wpis odpowiedział, zapewne był to bot. Jeżeli więc, gotując kolację, myśleliście o Krajowym Ośrodku Wsparcia Rolnictwa, Centralnym Porcie Komunikacyjnym, Wielgomasie, Dawtonie, Telusie, jeżeli uznaliście, że ludzie tym żyją, to prawdopodobnie kontrolę nad waszymi myślami i emocjami przejęły sprytnie zaprogramowane maszyny.
Z zasady nie używam FB, X itp., bo widzę, co się dzieje z mózgami tych, którzy tam siedzą.
Ale maszynowo kontrolowane emocje w sprawie źle pachnącej transakcji to pikuś w porównaniu z tym, co może się wydarzyć, gdy w pozornie zażartym sporze zaprogramowane przez kogoś maszyny udające tysiące przejętych internautów wywołają wrażenie, że np. ogół uważa demokrację za głupi wymysł elit albo popiera Chiny w rywalizacji z Zachodem.
Katastrofa wisi nad nami. Ale możemy się jeszcze uchronić
Człowiek na ogół chętniej przyłącza się do większości, niż się jej przeciwstawia. Jeśli więc zaprogramowane przez kogoś maszyny skutecznie stworzą wrażenie, że większość ludzi podziela jakiś pogląd, to jest poważne ryzyko, że do maszynowej większości przyłączy się ludzka większość lub znacząca mniejszość. Jeśli nie od razu, to z czasem.
Przykład debaty o przekręcie na działce dla CPK pokazuje realne zagrożenie, że boty złych ludzi najpierw nas zarażą histerią, a potem popchną społeczeństwo do głupich wyborów i działań. Tak tego zostawić nie wolno! Katastrofie, która już nad nami wisi, można jednak przynajmniej częściowo zaradzić, wprowadzając obowiązek oznaczania w internecie treści generowanych przez boty. Tak jak trzeba oznaczać treści reklamowe. Takie ostrzeżenie pomoże zmniejszyć ryzyko, że internauci łykną maszynową treść jak pelikan. Dobrze się składa, że można taki zapis wprowadzić do procedowanej teraz nowelizacji ustawy o świadczeniu usług drogą elektroniczną. Jeżeli chcemy obronić demokrację, czyli ustrój, w którym obywatele świadomie podejmują racjonalne decyzje, nie wolno tej regulacji odkładać. Bo szybciej, niż się wydaje, może być za późno. ©℗