Do marca KE chce przygotować szczegółowe wytyczne dla działających w Europie platform. Mają ponosić większą odpowiedzialność za walkę z dezinformacją przed wyborami.

Wybory do Parlamentu Europejskiego będą się odbywać między 6 a 9 czerwca tego roku. To pierwsza tak znacząca elekcja, odkąd do powszechnego użytku weszły narzędzia generatywnej sztucznej inteligencji. Pozwalają one na podstawie słownego opisu stworzyć oryginalny obraz lub tekst. Komisja Europejska obawia się, że narzędzia będą ułatwiać dezinformację na platformach. Dlatego urzędnicy chcą zmusić ich właścicieli, by pomogli w walce z nią.

O tym, że AI jest coraz częściej wykorzystywana do dezinformacji, alarmowała już w październiku ub.r. należąca do Google’a spółka Mandiant. Z obserwacji jej ekspertów wynika, że po związane z nią techniki sięgały grupy kojarzone z rządami Rosji, Chin, Iranu, Etiopii, Indonezji, Kuby, Argentyny, Meksyku, Ekwadoru i Salwadoru.

– Okres wyborczy, który zaczyna się w Unii Europejskiej, będzie oznaczał zwiększoną liczbę ataków hybrydowych albo wszelkiego rodzaju ingerencji zagranicznych – ocenił komisarz ds. rynku wewnętrznego Thierry Breton. W zeszłym tygodniu spotkał się z parlamentarzystami w Strasburgu. Zapowiedział, że chce skłonić platformy technologiczne, w tym TikTok, X (d. Twitter) i Facebook, do tego, by identyfikowały treści generowane przez sztuczną inteligencję. Jak mówił komisarz, KE ma do marca wydać dla nich wytyczne dotyczące kroków, jakie należy podjąć w celu przeciwdziałania dezinformacji wyborczej. Ma to być interpretacja unijnego aktu o usługach cyfrowych (DSA).

DSA wymaga od platform cyfrowych wprowadzenia bardziej przejrzystych procedur dotyczących moderacji treści, przejrzystości w zakresie działania algorytmów rekomendujących, a także ściślejszej współpracy między platformami cyfrowymi a organami nadzorczymi. Akt obowiązuje od sierpnia ub.r. dla VLOP, czyli bardzo dużych platform. Od 17 lutego do jego przepisów będą także musieli się dostosować również mniejsi dostawcy, np. portale internetowe z sekcjami komentarzy.

Część platform próbuje się dostosować do wymogów Komisji już teraz. Meta – właściciel Instagrama i Facebooka – zadeklarowała, że będzie w swoich serwisach oznaczać treści wygenerowane przy użyciu AI. Już dziś takie oznaczenia znajdują się na obrazach stworzonych za pomocą wewnętrznego narzędzia spółki, Meta AI. Używa przy tym widocznych znaczników, a także metadanych osadzonych w plikach graficznych. Takie zabezpieczenia mają pomóc również innym platformom w odpowiednim oznaczaniu treści przygotowanych przez sztuczną inteligencję spółki Marka Zuckerberga.

Jak podają jej służby prasowe, firma współpracuje z partnerami branżowymi nad wypracowaniem wspólnych standardów technicznych identyfikacji treści stworzonych przez AI. Także tych pochodzących z takich źródeł jak Google, OpenAI, Microsoft, Adobe, Midjourney i Shutterstock. W tych spółkach także trwają prace nad oznaczaniem syntetycznych utworów.

Jak przyznają służby prasowe Mety, firma pracuje także nad funkcją, dzięki której użytkownicy mogą informować innych, kiedy udostępniają wideo lub audio generowane przez sztuczną inteligencję. Użytkownicy będą zobowiązani do umieszczania specjalnych etykiet na treściach tworzonych przez AI – chodzi tu z jednej strony o filmy i obrazy, ale z drugiej – także o tzw. deep fake wykorzystujące dźwięk. Już dziś dzięki takim narzędziom można z powodzeniem markować choćby wypowiedzi polityków. Jeśli utworzone lub zmienione przez AI grafiki, wideo lub audio stwarzają szczególnie wysokie ryzyko istotnego wprowadzenia w błąd opinii publicznej w ważnej sprawie, Meta chce zastrzec sobie możliwość w razie potrzeby dodania bardziej widocznej etykiety, aby użytkownicy mieli więcej informacji i poznali szerszy kontekst.

Jeśli chodzi o wybory, OpenAI testuje rozwiązania dla swojego ChatGPT, na razie w Stanach Zjednoczonych. Kiedy użytkownik narzędzia pyta o procedury związane z wyborami, np. gdzie głosować, czatbot ma przekierować go do strony CanIVote.org, która dostarcza rzetelnych informacji dotyczących procesu głosowania. Jak przekonuje OpenAI, wnioski z tego pilotażu będą stanowić podstawę do opracowania podobnych rozwiązań w innych krajach i regionach.

Czy takie rozwiązania wystarczą? Trudno oceniać. Platformy internetowe wciąż mają bowiem problem z usuwaniem nawet niezwiązanej z polityką dezinformacji. W ostatnich tygodniach na polskojęzycznych stronach popularność zyskało co najmniej kilka kampanii wykorzystujących znane osoby do reklamy, prowadzącej do oszustw finansowych – kryptowalutowa firma wykorzystywała wizerunek Sławomira Mentzena z Konferedacji, sugerując, że polityk nie żyje. ©℗