Wynalazcy od dawna stają wobec faktu, że ich dzieci – zamiast służyć pokojowi – bywają wykorzystywane jako oręż. Alfred Nobel był przekonany, że dynamit położy kres wszelkim wojnom, i załamał się, kiedy francuska gazeta nazwała go „handlarzem śmiercią”. Albert Einstein do końca życia zmagał się z tym, że jego równania posłużyły do budowy najbardziej przerażającej broni w historii. Arthur Galston nie mógł się pogodzić z tym, że wynaleziony przez niego środek roślinobójczy Agent Orange został wykorzystany jako broń chemiczna podczas wojny w Wietnamie.
Do tej listy powinien dołączyć również Mark Zuckerberg, którego Facebook służy nie tylko do publikowania nudnawych zdjęć z wakacji, ale też okazuje się być doskonałym narzędziem do podgrzewania nastrojów społecznych i siania nienawiści na tle rasowym, etnicznym lub religijnym. Jest to funkcja, której – jak wykazało dochodzenie przeprowadzone przez dziennikarzy agencji Reuters – istnienie i skuteczność kierownictwo portalu zdaje się wciąż ignorować.
Chodzi mianowicie o Mjanmę (dawną Birmę), gdzie trwa czystka etniczna na muzułmańskiej mniejszości Rohingja. W nakręcaniu spirali nienawiści wobec nich ważną rolę odgrywają media społecznościowe, w tym Facebook. Nietrudno tam znaleźć takie komentarze: „Polać ich benzyną i podpalić, to prędzej trafią do Allaha”, „Poderżnąć gardła psim synom i wrzucić ich do wody” czy „Rzucić ich świniom na pożarcie”. Co gorsza, po Facebooku krążą również fake newsy, w których oskarża się Rohingjów o różne występki. I tak, kiedy ich bojówki dokładnie rok temu zaatakowały kilka komisariatów policji, w serwisie natychmiast pojawiły się nieprawdziwe doniesienia odnośnie do liczby ofiar. Wywołało to falę nienawiści i odwet ze strony sił rządowych, który zmusił 400 tys. osób do opuszczenia domów.
Jak wykazał Reuters, Facebook przez wiele lat ignorował problem. Globalna firma zatrudnia raptem kilka osób potrafiących czytać po birmańsku. Ta garstka nie była w stanie przeczesywać birmańskiego Facebooka w poszukiwaniu zakazanych treści. Mogli jedynie reagować na posty zgłoszone przez użytkowników. W efekcie niektóre komentarze – jak te podane wyżej – wisiały spokojnie nawet dwa lata. A przecież nie trzeba wielkiej wyobraźni, żeby zrozumieć, jak jeden fałszywy news rozesłany we właściwym momencie może wpłynąć na nastroje społeczne. Dość wspomnieć sytuację z początku 2017 r., kiedy właściciel kebaba w Ełku dźgnął nożem klienta, który ukradł mu w Nowy Rok napoje. Informacja lotem błyskawicy rozniosła się po mediach społecznościowych, przyczyniając się do kilku incydentów w całym kraju.
Proszę sobie wyobrazić sytuację, że po serii zamachów w Europie (jak trzy lata temu) pojawia się fałszywa informacja, że kilkunastu Polaków zginęło w wybuchu bomby w Szarm el-Szejk albo że trzy turystki znad Wisły zostały brutalnie zgwałcone w Turcji. „Stare” media puszczają taką informację dopiero, kiedy mają pewność, że coś takiego faktycznie miało miejsce. Użytkownicy Facebooka niekoniecznie aspirują do tego standardu. Do podania dalej wystarczy, że coś ich bardzo wkurzy. Skoro na noworocznym kacu ludzi poruszyła ełcka „bitwa pod kebabem”, to co by się stało w wypadku opisanym wyżej?
Ignorancja Facebooka jest tym bardziej niebezpieczna, że ten mechanizm jest bardzo łatwo wykorzystać dla własnych celów. Eksperci po zajściach w Ełku przestrzegali, że podobny incydent może być wykorzystany jako prowokacja w Polsce. Manuel Castells, hiszpański socjolog, definiuje władzę jako „możliwość kształtowania postaw i działań” u innych. A czym innym jest wojna, jeśli nie sporem o władzę? Facebook jako narzędzie wojny? Zuckerberg na pewno nie chce, żeby media pisały o nim jako o „handlarzu śmiercią”.