Bruksela chce, by platformy podały, jakie stosują środki ograniczające ryzyko związane z generatywną AI – w tym dezinformację i rozpowszechnianie tzw. deepfake’ów.

Zażądała też informacji na temat ocen ryzyka i środków łagodzących związanych z wpływem AI na rozpowszechnianie nielegalnych treści, ochronę praw podstawowych, przemoc ze względu na płeć, ochronę nieletnich, dobrostan psychiczny, ochronę danych osobowych, ochronę konsumentów i ochronę własności intelektualnej. Pytania dotyczą tworzenia i rozpowszechniania treści pochodzących z generatywnych systemów AI.

Komisja chce także wiedzieć, jak platformy dokonały oceny ryzyka odnośnie do wpływu AI na procesy wyborcze i jakie środki zaradcze podjęły w tej dziedzinie. Ten wątek wiąże się z wytycznymi w sprawie integralności procesów wyborczych, jakie Komisja przygotowuje dla bardzo dużych platform internetowych (VLOP) i bardzo dużych wyszukiwarek internetowych (VLOSE).

Podstawą wytycznych dotyczących wyborów i pytań skierowanych do big techów jest rozporządzenie 2022/2065 – akt o usługach cyfrowych (DSA).

Pytania zostały skierowane do obu bardzo dużych wyszukiwarek – tj. Google i Bing – oraz sześciu spośród VLOP – tj. serwisów społecznościowych Facebook, Instagram, Snapchat, TikTok, YouTube i X.

W sprawie ochrony procesów wyborczych muszą one odpowiedzieć do 5 kwietnia, a na pozostałe pytania do 26 kwietnia. Komisja może nałożyć kary pieniężne za podanie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji. W przypadku braku odpowiedzi może zaś wydać decyzję z żądaniem informacji i nałożyć okresowe kary za przekroczenie terminu.©℗